12 de Diciembre de 2024 /
Actualizado hace 8 minutes | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Opinión / Columnista Impreso

La inteligencia artificial y la decisión judicial (II)

176846

Javier Tamayo Jaramillo

Ex magistrado de la Corte Suprema de Justicia

tamajillo@hotmail.com

En mi última columna abordé el problema de la aplicación de la inteligencia artificial (IA) en la creación del Derecho. Veamos ahora el análisis de la posibilidad de que mediante la IA se pueda lograr la expedición de sentencias judiciales argumentadas y racionales, que den cuenta no solo de lo previsto en las leyes y en la jurisprudencia, sino también de una serie de conceptos axiológicos que, aunque indispensables, muchas veces, no aparecen regulados en las normas.

El problema que enfrenta la IA, en este campo, es el de la valoración de los hechos y de las normas, así como el de la variedad de significados que surgen de la interpretación lingüística de las disposiciones aplicables al caso. Dentro de la ignorancia que me abruma, me atrevo a formular estas preguntas, tal vez torpes para un conocedor: ¿la valoración surgida de la IA requiere necesariamente de una persona que, previamente, alimente con datos axiológicos al robot que emitirá la sentencia? o ¿será posible, algún día, que, simplemente, el robot sea equipado con las normas aplicables, más un dispositivo neutro que, luego de conocer los hechos, inteligente y autónomamente, dicte una sentencia presuntamente justa? 

Por lo pronto, parto del presupuesto de que, si se logra una IA con la ambición de formular apreciaciones axiológicas justas, por ahora, es indispensable que alguien alimente al equipo robótico, con apreciaciones axiológicas propias del alimentador, en cuyo caso, el encanto que nos producen los vocablos IA pierdan su halo de misterio.

Con base en esa hipótesis, a riesgo de pecar por ignorante e imprudente, formulo las siguientes reflexiones:

(i) En primer lugar, la alegada inteligencia axiológica artificial no lo es tal, pues depende de la alimentación de datos que le suministre una persona, la cual, por tratarse de cuestiones de Derecho, siempre se quedará corta y con lagunas, como sucede con los códigos elaborados por los hombres.

(ii) En segundo lugar, la inteligencia axiológica artificial nos conduce a la implementación de la ideología propia del alimentador. La justicia de la decisión robótica no sería más que la decisión de quien alimente de datos al robot, decisión afín a una ideología corrupta, religiosa, de izquierda o de derecha, según piense el alimentador de turno. Pero, supongamos que el robot no fuera alimentado con criterios axiológicos, sino con las normas aplicables, más los hechos del caso concreto, con el fin de evitar una justicia ideologizada. En uno y otro caso, caeríamos en el más absoluto formalismo positivista, pues el robot carece de autonomía para desconocer la carga axiológica o neutra suministrada por el alimentador, o sería incapaz de aplicar una interpretación teleológica o analógica no prevista en los datos de que dispone, o para decidir cuándo debe acudir a la equidad.

(iii) En resumen, la inteligencia axiológica artificial carece de autonomía para fallar con base en la infinita cantidad de principios hermenéuticos que hacen que la justicia de los hombres sea la única capaz de fallar con base en cada caso concreto.

(iv) Ahora, cabe esta otra cuestión: es claro que la mayoría de las decisiones judiciales pueden ser apeladas, en cuyo caso, habrá un segundo robot encargado de dictar el fallo de segunda instancia. En ese caso, se supone que la alimentación de datos axiológicos será mucho más compleja, pues si tiene la misma cantidad y calidad de los datos axiológicos del robot de la primera instancia, es claro que la sentencia de segunda instancia será exacta a la de primera instancia, por lo cual la apelación carece de sentido. Como carece de sentido la sentencia dictada por un robot alimentado con una carga axiológica diferente, pues lo más seguro es que el fallo de primera instancia sea revocado, y ni qué decir si la sentencia se va en casación. Y para acabar de completar las cosas, no sé si sea válido que alguien me argumente que la solución sería que el robot de segunda instancia y el de la casación serán alimentados con datos axiológicos de doble vía, lo que ya no cabe en mi cabeza.     

Así las cosas, mientras el funcionamiento de la IA aplicada al Derecho dependa de la voluntad de quien la implemente en los robots, estaremos frente a una justicia autoritaria y al peligro de la violación de los derechos fundamentales. Lo que es grandioso y conveniente para las ciencias exactas, por lo pronto, lo será para las sentencias judiciales.                    

Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias y documentos sin límites.  

Paute en Ámbito Jurídico.

Siga nuestro canal en WhatsApp.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)