La inteligencia artificial irrumpió en el Poder Judicial, que vive un intenso debate sobre cómo y en qué casos se puede implementar este tipo de tecnologías para impartir justicia. No es un debate menor: la promesa de perfección y objetividad de los algoritmos implica, para muchos, un avance exponencial al interior de los tribunales; sin embargo, hay expertos que advierten sobre los dilemas éticos y los riesgos de avanzar hacia esta ola sin mirar bien cada paso que se da.

El principal argumento, tanto a favor como en contra, es una especie de parafraseo de la icónica frase de Blaise Pascal: si para el físico francés “el corazón tiene razones que la razón ignora”, 400 años más tarde, en la era del capitalismo de las plataformas, son los algoritmos los que ocupan ese lugar. O al menos esa es la expectativa que allí se deposita, con la construcción de una inteligencia que supere a la humana. La expectativa de la llegada de una aletheia algorítmica, en palabras del filósofo Éric Sadin.

La promesa de perfección y objetividad plantea, sin embargo, una serie de interrogantes éticos: ¿puede un algoritmo determinar, en base un análisis de datos prácticamente imposible de procesar por humanos, culpabilidad e inocencia? ¿Puede una inteligencia artificial, que no sabe qué es la libertad, determinar tiempos de reclusión, prisiones domiciliarias o probabilidades de fuga? En última instancia: ¿puede un programa de computación dictar una pena de muerte o brindar a un condenado más tiempo de vida?

Los dilemas éticos: ¿será justicia?

Hay un problema filosófico, una mezcla del derecho y ética —explicó a Página|12 Ricardo Andrade, licenciado en Letras y filósofo de la tecnología (UNRN/CITECDE/CONICET)—. Los algoritmos trabajan de acuerdo a estadísticas, pero la dimensión ética no puede conducirse por probabilidades. Se le están delegando a la IA algunos aspectos que, solamente por ahora, una mirada crítica humana puede discernir o matizar de una mejor manera. Por ejemplo, con conceptos acerca de qué es justo y qué es lo injusto, tan propios de la subjetividad humana”.

Sobre el mismo punto puso la lupa la consejera de la Magistratura por el Colegio Público de Abogados, Jimena de la Torre, al responder una pregunta sobre el rol de la empatía en los fallos y la posibilidad de una inteligencia artificial de dictar sentencias: “El juez tiene que ser objetivo, tiene que ser imparcial, tiene que aplicar la ley. Ahora, muchas veces la justicia de una ley, si es justa o no lo es, si es constitucional o no, te hacen ver que la aplicación de una ley puede terminar resultando en una injusticia, porque tal vez esa ley estuvo mal planteada”. 

En este sentido, marcó un límite: “El sentido de justo o no justo tiene algo de subjetivo al final del camino. No digo que la justicia deba ser más empática, pero sí tiene que tener en cuenta al ser humano. El derecho, la justicia, es una ciencia, pero no deja de ser una ciencia humana, y perder el foco del ser humano te puede llevar a resultados injustos”.

Sesgos, cajas negras y falsa objetividad

Pero el debate no se cierra solo en torno a ética y la filosofía detrás de aplicar estas tecnologías al interior de los juzgados. Hay riesgos concretos a los que se enfrenta el sistema y que deben ser tenidos en cuenta, como los sesgos, las cajas negras y la falsa objetividad. Para que quede claro, mejor explicar con ejemplos concretos:

Sesgos de la Inteligencia Artificial

En el documental Coded Bias (2020), Shalini Kantayya muestra como la IA puede tener sesgos raciales. Lo hace de la mano de la investigadora del MIT Media Lab, Joy Buolamwini, quien reveló los prejuicios en los sistemas de reconocimiento facial operados con una inteligencia artificial que no era capaz de reconocer su rostro por ser una mujer negra, pero que en cuestión de segundos distinguía los rasgos si se ponía encima una máscara blanca. En paralelo, un estudio del Instituto Nacional de Estándares y Tecnología de Estados Unidos de 2019 reveló que los sistemas de reconocimiento facial identifican erróneamente los rostros negros y asiáticos entre 10 y 100 veces más que los rostros blancos.

Esto tiene que ver con la forma en la que se entrena a este tipo de sistemas, donde muchas veces se trasladan las mismas discriminaciones que ocurren a nivel social a los algoritmos. ¿Por qué una inteligencia artificial que fue entrenada con miles y miles de rostros de hombres blancos estadounidenses reconocería el rostro de Buolamwini? ¿Cómo se traduce esto si se traslada a la justicia?

Cajas negras

El problema de las cajas negras queda bien graficado en el libro Nexus (2024) de Yuval Noaḥ Harari, donde relata el caso de Eric Loomis, que en 2013 fue detenido en Estados Unidos por presunto robo de vehículo y en el juicio se agravó su pena a raíz de la utilización de un sistema de IA llamado COMPAS, que arrojó que tenía un alto riesgo de reincidencia. Tras apelar la decisión y denunciar al Estado de Wisconsin, Loomis pidió conocer los motivos detrás de la decisión del algoritmo, pero le fue negada la respuesta por un secreto de empresarial. Años más tarde se determinó que este sistema falla “tanto como un humano”.

Para el historiador israelí, este tipo de escenas llevarán a la necesidad de implantar un nuevo tipo de derecho: el derecho humano a la justificación. Una forma de pedir una voz humana que traduzca las cajas negras de los algoritmos cuando avancen no sólo en la justicia, sino en la mayoría de los elementos de la burocracia.

Falsa objetividad

Ambos dilemas no hacen más que agravarse si se da un paso hacia atrás y se vuelve al principio de objetividad y perfección de los sistemas de IA, capaces de poner en consideración miles de datos en simultáneo a la hora de tomar una decisión. Dilema que se conoce como “falsa objetividad”.

“Dentro de las posibles consecuencias, creo que la más importante es la eventualidad de que decisiones injustas o sesgadas pasen inadvertidas. No sólo porque desenmascarar sesgos subyacentes en datos o en procedimientos de decisión puede resultar dificultoso; sino, además, porque el hecho de que exista ese halo de neutralidad rodeando los sistemas de IA puede hacer los seres humanos nos relajemos en nuestros niveles de supervisión, justamente, por esa predisposición subjetiva a confiar los resultados que arroja la IA”, explicó a este medio la abogada y docente de Bioética en la Facultad de Medicina de la UNComa, Romina Segura.

Puntos finales: IA, ¿sí o no?

Para Segura, que en un ensayo analizó los desafíos de la IA en la administración de Justicia (Revista de Bioética y Derecho), entre las ventajas de esta herramienta están la celeridad y eficiencia, al procesar grandes volúmenes de información; la optimización del trabajo humano, liberando a los operadores de tareas repetitivas; la consistencia en las decisiones, reduciendo la subjetividad; y la mejora en la comunicación judicial, con decisiones más claras.

Sin embargo, sostuvo que este tipo de algoritmos enfrentan desafíos como la falta de transparencia, el riesgo de reproducción de desigualdades, la brecha digital, la volatilidad institucional y la resistencia al cambio. “Aunque la IA puede transformar positivamente la administración de justicia, su implementación debe acompañarse de políticas inclusivas, alfabetización digital y un enfoque ético que contemple las particularidades de cada región”, señaló.

Zaffaroni, la IA  y el rol de la inteligencia humana

Por su lado, el exjuez de la Corte Suprema, Raúl Zaffaroni usar esta herramienta “para meterse en la vida de los ciudadanos ‘sospechosos’ es un peligro, pero inevitable”. “Si no es por derecha lo usarán por izquierda. En un régimen como el que padecemos, con tendencias que recuerdan a la KGB y a la consiguiente persecución ideológica, nada me extrañaría”, señaló.

Y finalizó: “Hace muchos años que se fantasea con la idea del ‘robot que hace sentencias’. No faltará algún inconsciente que lo intentará, hoy mismo puede hacerse. Afortunadamente, también la IA permite detectarlos, al menos en la mayoría de los casos. Se tratará de algo así como los pibes que plagian monografías. Fuera de esos casos patológicos, la IA puede ser de gran utilidad para proveer jurisprudencia y doctrina sobre el tema de la sentencia, pero la inteligencia humana no puede reemplazarse”.