Pasar al contenido principal
29 de Abril de 2024 /
Actualizado hace 4 minutos | ISSN: 2805-6396

Openx ID [25](728x110)

1/ 5

Noticias gratuitas restantes. Suscríbete y consulta actualidad jurídica al instante.

Especiales / Invitado


“Será importante tener en cuenta las capacidades de cualquier IA a la hora de crear una regulación”

11 de Mayo de 2023

Reproducir
Nota:
161464
Imagen
“Será importante tener en cuenta las capacidades de cualquier IA a la hora de crear una regulación” (Humberto Pinto)

Recientemente, la Universidad Externado de Colombia, Microsoft y Legis analizaron el potencial de la inteligencia artificial, en el encuentro IA Generativa & ChatGPT–4: oportunidades y retos para América Latina.

Una de las invitadas especiales del evento fue Brittan Heller, profesora afiliada del Cyber Policy Center de la Universidad de Stanford. Esta experta trabaja en la intersección de la tecnología, los derechos humanos y el Derecho. Es la fundadora del Centro de Derechos Civiles Digitales, un laboratorio de innovación para organizaciones de derechos humanos y civiles.

ÁMBITO JURÍDICO conversó con esta especialista, cuya traducción estuvo a cargo de Juan Camilo Sánchez y Sofía Torres Valdez, a quienes agradecemos su colaboración.

ÁMBITO JURÍDICO: Hace poco, Italia bloqueó el uso de ChatGPT, mientras se determina el incumplimiento de las normas que protegen los datos personales de ese país. España también ha mostrado su preocupación por esta inteligencia artificial (IA). A la par, otros países analizan la conveniencia de adoptar una regulación especial para la inteligencia artificial generativa (IAG). ¿Considera necesaria una regulación específica para este aspecto?

Brittan Heller: Creo que será importante tener en cuenta las capacidades de cualquier tipo de IA a la hora de crear un régimen nacional que regule sus usos. No creo que estemos en el punto de poder prohibir el uso de esta nueva tecnología omnipresente. Es demasiado tarde, pero no lo es para pensar en casos de uso específicos y hacer un análisis basado en los riesgos e intentar limitar algunas de las actividades más volátiles o peligrosas para preservar los usos beneficiosos de la IAG.

Á. J.: Si los países latinoamericanos optan por diseñar una regulación para la IAG, ¿qué puntos no deben quedar fuera?

B. H.: Es una muy buena pregunta. En primer lugar, yo consideraría los derechos sustantivos que están en juego, y no solo los derechos procesales. En la charla de hoy, he explicado que no deberíamos fijarnos solo en las normas de admisibilidad, las normas que consienten los procedimientos y la letra negra de la ley relacionada con eso; deberíamos fijarnos más en el punto subrayado de la regulación, ¿refuerza la dignidad humana?, ¿cómo protege la intimidad?, ¿qué tipo de derechos a la vida, la libertad o la protección de la propiedad están implicados? Como se trata de una tecnología totalmente nueva, si los países latinoamericanos hacen regulaciones basadas en la forma específica de la tecnología tal como es hoy, las leyes pronto serán anticuadas, serán inválidas. Por lo tanto, pensar más en el impacto que esta tecnología tiene en nuestros cuerpos, en nuestras mentes y en nuestra dignidad humana heredada, es la manera de crear leyes que perduren, crear leyes que pasen la prueba del tiempo.

Á. J.: ¿Considera necesario establecer límites al uso de la IAG en la actividad judicial?

B. H.: Recientemente, publiqué un artículo con el profesor Daniel Castaño, evaluando la idoneidad de la IAG en circunstancias judiciales. Originalmente, él y yo no estábamos de acuerdo, y yo pensaba que no se debería poder utilizar la IAG. Él me convenció de que, en contextos nacionales específicos como Colombia, donde hay un retraso de 10 millones de casos, podría haber usos beneficiosos para la tecnología, ayudando a la gente a acceder a la justicia. Por otro lado, creo que le convencí de que debería limitarse a casos en los que no exista un riesgo sustancial para la vida, la libertad o la propiedad de los litigantes. Lo que me gustó después de leer la decisión judicial fue que los jueces la utilizaron para reforzar su opinión, pero no para sustituir su discreción humana. También me gustó que los jueces la utilizaran para ayudar a ahorrar tiempo y recursos a los tribunales. Así que, en ese sentido, mejoró el acceso a la justicia. Y, por último, los litigantes lo pidieron en los casos. Así que cuando la gente consiente en la aplicación de la IAG como herramienta, parece que no solo es apropiado, sino justo.

Á. J.: ¿Debe haber una política pública que defina lineamientos éticos para el uso de la IAG?

B. H.: Sí, creo que no es diferente de cualquier otra forma de nueva tecnología. Y como he dicho en la charla, esto es algo a lo que la sociedad global está acostumbrada y es experta en los últimos 35 años: hemos desarrollado leyes de privacidad, leyes basadas en el consentimiento y otros regímenes basados en el comercio y la conducta criminal, lo que pruebas sobre cómo vamos a integrar internet en los sistemas legales preexistentes. Se trata de un nuevo sistema, pero no es un problema novedoso.

Á. J.: ¿Qué tipo de riesgos representa la aplicación de la IAG sobre la intimidad y el buen nombre de las personas y cuál sería la vía para minimizarlos?

B. H.: Hoy hemos escuchado a Microsoft hablar de sus principios de IA responsable. Me gusta mucho la forma en la que han desarrollado un cálculo basado en el riesgo, por lo que examinan la aplicación potencial de la IA y se aseguran de que cumple esos principios, y si no, hay protocolos adicionales y pasos secundarios que deben tomarse. Así, pues, no se trata de prohibir el uso de la IA en la circunstancia de que pueda tener beneficios y riesgos potenciales, sino de desarrollar un sistema que ayude a identificar y mitigar los riesgos antes de aplicar la tecnología. Ese es el marco que creo que debemos aplicar.

Á. J.: La IAG, al basarse en datos proporcionados por humanos, la hace sensible a la reproducción de estereotipos, discriminaciones, información falsa e, incluso, difamaciones. ¿Cómo minimizar este tipo de riesgos durante su aplicación?

B. H.: No me gusta cuando la gente equipara la IAG a un motor de búsqueda. Son cosas muy distintas. El fenómeno de la IAG que la gente llama alucinaciones significa que el sistema da respuestas lógicamente plausibles, muy creíbles, aunque no sean correctas. No me gusta el término alucinaciones, porque implica una intención del sistema técnico, y no son tanto los datos que salen. Para eso está diseñado el sistema, para hacer inferencias lógicas basadas en los datos que se incluyen en el sistema. Funciona tal y como está diseñado. Es el factor del error humano lo que nos lleva a tomarlo como una verdad irrefutable o a no cuestionarnos sobre el impacto de hacer ese tipo de preguntas. La autenticidad va a ser uno de los retos clave cuando se está tratando de cambiar nuestra mentalidad a esta herramienta, no es solo un mecanismo de clasificación, como un Google, sino, en su lugar, más como una receta para una torta. Y el hecho de tener una receta para una torta no significa, en primer lugar, que no se vaya a quemar; en segundo lugar, que la torta no sepa terrible y, en tercer lugar, que le vaya a gustar a todo el mundo. Tenemos que pensar en ello más como una capacidad para ver las inferencias que se pueden hacer a partir de los datos que para generar respuestas.

Á. J.: ¿La IAG pone en peligro la libertad probatoria? ¿Su aplicación, en el escenario judicial, implicará replantear la valoración de los medios suasorios?

B. H.: Yo no aplicaría la IAG en ningún sistema probatorio. Esto se debe a lo que acabamos de discutir, la capacidad del sistema para hacer una implicación lógica, pero incorrecta de hecho. Me miré en ChatGPT antes de empezar, dice que soy profesor en la London School of Economics. Apenas puedo deletrear “economía”, así que no es, para mí, tanto un desafío con los códigos probatorios cuando se mira la forma en la que las leyes de internet evolucionaron, hay normas que se pueden aplicar para tomar la evidencia electrónica y aplicarla en una circunstancia judicial. Pero dar a algo el peso de una prueba, cuando es una creación novedosa de un algoritmo, es un error.

Á. J.: ¿Cree que la IAG será capaz de reproducir las habilidades blandas o el criterio jurídico de un abogado?

B. H.: No lo sé. Estudié literatura en la licenciatura y el máster. Una de mis citas favoritas de Shakespeare es “la calidad de la misericordia no es forzada”. La forma en la que la naturaleza humana interactúa con la IA es tal que esta puede decirnos los patrones. Y puede mostrarnos cómo un patrón de hechos se aplica a un determinado conjunto de reglas, pero no puede decirnos cuándo debemos hacer una excepción. No puede ejercer la compasión o la misericordia. Así que, en mi opinión, no es algo para lo que se pueda entrenar a un sistema técnico. Por lo tanto, los defensores no se quedarán sin trabajo durante un tiempo.

Cuando era fiscal en EE UU, uno de los casos que llevé fue el de un atraco a un banco. Un hombre entró en un banco de Georgetown, en Washington D. C., ayudó a sujetar, levantó un objeto y gritó “dadme todo el dinero o detonaré esta bomba y volaré este lugar por los aires” y el guardia de seguridad dijo: “espere, ¿no es eso un bote de salsa de espagueti?”. Y lo era. Era un tarro de salsa para pasta. Había cogido un periódico viejo y lo había pegado con cinta adhesiva alrededor de la salsa de espagueti y había pegado un teléfono móvil viejo al exterior. Si nos fijamos en las normas del estatuto legal para el intento de robo, que cumplía todos y cada uno de los requisitos, si AI estaba mirando a esa situación, ¿sería capaz de reconocer lo absurdo de enviar a esa persona a la cárcel por intento de robo? Probablemente, no. Hay un dicho que habla de las grietas o de cómo se cuela la luz, y cuando observamos un sistema basado en la IA, no tiene en cuenta las grietas ni las rarezas y absurdos de la experiencia humana, lo que significa que tenemos que hacer excepciones. No podría argumentar ante el juez que ese hombre debería ir a la cárcel. Debería haber recibido tratamiento de salud mental. Y lo hizo. Pero la IA no habría sido una herramienta para ayudarme a llegar allí.

Á. J.: ¿El acelerado uso de la IAG puede poner en riesgo los derechos humanos? ¿Cuáles de ellos se verían afectados?

B. H.: La privacidad es el principal riesgo que se me ocurre, porque la IAG no pregunta si debemos hacer algo. Sus funciones se limitan a determinar si podemos hacerlo. He estado promoviendo un concepto en mis escritos llamado privacidad mental, y es la inviolabilidad de nuestros pensamientos más íntimos. El tipo de información que tienes sobre tus sentimientos y tus emociones que puedes elegir no compartir. La privacidad mental está estrechamente relacionada con la libertad de expresión y la libertad de asociación. Pero también son diferentes algunas tecnologías emergentes como XR y el experimento del que hablé con el profesor Kaczynski, que fue capaz de mostrar la evolución de la teoría de la mente en la IA, puede dar una idea de lo más privado de nuestros pensamientos y sentimientos. Y las regiones de privacidad se basan en el consentimiento. No creo que podamos consentir en dar información basándonos en las respuestas involuntarias de nuestro cuerpo, estén o no determinadas por un algoritmo de IA. Creo que eso va en contra de lo que realmente significa la libertad de expresión. Y si empezamos a censurar la forma en la que pensamos y sentimos, va en contra de los fundamentos de esos derechos humanos inalienables.

Á. J.: ¿A qué retos se enfrenta la protección de la propiedad intelectual por el uso de la IAG?

B. H.: No soy una buena persona para responder a esa pregunta, porque no soy abogada especializada en propiedad intelectual, así que puedo hablar en términos generales. Las cuestiones generales que identifico en torno a la protección de la propiedad intelectual es cuando una IA crea basándose en otra aportación humana, ¿a quién pertenece?, ¿quién se beneficia de ello? Y no siempre es la misma pregunta. ¿Y cómo compensamos a la gente por sus contribuciones a un algoritmo? Además, ¿cómo desentrenar un sistema informático cuando ya se han hecho las aportaciones? Los derechos humanos se basan en el consentimiento, como ya he dicho, por lo que la capacidad de raspar internet y generar algo nuevo a partir de ello no parece realmente que esté generando algo nuevo. Es solo una nueva forma de creación derivada. Por lo tanto, una de las cosas que estoy deseando aprender más es cómo la propiedad intelectual se cruza con la IAG y cómo esto implica el derecho de las personas al trabajo y la libertad de expresión y su capacidad para hacer cosas intelectualmente nuevas.

Opina, Comenta

Openx inferior flotante [28](728x90)

Openx entre contenido [29](728x110)

Openx entre contenido [72](300x250)