Riesgo y responsabilidades en la era de la IA legal
La tecnología ha avanzado más rápido que nuestros marcos éticos, legales y de gestión.Openx [71](300x120)

10 de Julio de 2025
Daniel S. Acevedo Sánchez | Linkedin | Email
Consultor en transformación digital y estrategia – Legal, Finance & Tax
Sería ingenuo desconocer la importancia que ha tomado la inteligencia artificial (IA) en la cotidianidad personal y empresarial. En cada conferencia, en cada reunión de junta directiva, hasta en espacios personales la conversación gira en torno a cómo la IA va a revolucionar nuestras relaciones, a optimizar procesos y a generar eficiencias nunca antes vistas. Y es cierto, el potencial es inmenso. Pero como en toda fiebre del oro, la euforia nos puede hacer ciegos a los peligros que acechan bajo la superficie.
Hoy quiero hablar de dos casos recientes que, aunque distintos, nos dejan reflexiones sobre los riesgos de adoptar la IA sin el rigor, la supervisión y la responsabilidad profesional que nos definen como profesionales en Derecho. No son historias extraordinarias e inverosímiles; por el contrario, son relatos muy humanos sobre negligencia, zonas grises legales y las consecuencias de usar una herramienta poderosa sin entenderla del todo.
Cuando la IA se convierte en tu aliado
Empecemos por el primer caso y que parece sacado de una película de comedia, pero es dolorosamente real. Christopher I. Kachouroff, un abogado en EE UU se presentó ante un tribunal federal con un escrito que contenía cerca de 30 citaciones legales ficticias. No hablamos de errores de formato, sino de casos inventados, citas erróneas y principios legales atribuidos a sentencias que nunca los mencionaron.
¿La excusa del abogado? Primero intentó culpar a una compañera de trabajo en la firma en la que labora. Luego, cuando el juez lo presionó, admitió a regañadientes que había usado IA generativa para redactar automáticamente el documento y, lo más grave, que no había verificado los resultados. Lo más increíble es que esta no era la primera vez que el abogado protagonizaba un incidente bochornoso en una corte; en 2023 ya había protagonizado una bochornosa situación en donde atendía una audiencia virtual sin pantalones.
La lección aquí es simple: la IA no es una excusa para la incompetencia. El problema no fue que la IA “alucinara” y creara jurisprudencia falsa; eso es algo que sabemos que estas herramientas hacen. El verdadero problema fue la delegación total de la responsabilidad profesional por parte del abogado. Él es quien firma el documento, él es quien responde ante el tribunal y ante su cliente. La tecnología es un asistente, no un sustituto del juicio crítico.
¿Quién tiene los derechos de autor del conocimiento legal?
Si el caso anterior es un ejemplo de negligencia individual, el litigio entre Thomson Reuters y Ross Intelligence nos muestra un problema mucho más profundo y sistémico que afecta el corazón mismo de la innovación en legaltech.
En resumen, la historia es esta: Ross Intelligence, la primera startup de IA legal (hoy desaparecida), fue acusada por Thomson Reuters de usar ilegalmente sus notas de jurisprudencia y su sistema de clasificación (Key Number System) de Westlaw para entrenar su propio motor de búsqueda legal. En esencia, la pregunta es: ¿puede una empresa usar contenido protegido por derechos de autor para entrenar un modelo de IA que competirá directamente con ella?
Este no es un debate sencillo. De hecho, el juez a cargo del caso lo calificó como un asunto con “preguntas difíciles” y en una decisión poco común, pospuso el juicio para permitir una apelación interlocutoria sobre dos puntos clave:
¿Las notas de jurisprudencia y legislación de Westlaw son suficientemente originales para tener protección de derechos de autor? A la final, son solo resúmenes o comentarios de información pública.
En caso de que sí tengan derechos de autor, ¿el uso que hizo Ross de esta información constituye un “uso justo” (fair use)?
El juez concluyó inicialmente que el uso de Ross no era “transformativo”, sino que creaba un “sustituto de mercado” para Westlaw. Esta decisión tiene implicaciones monumentales para cualquier startup de IA que quiera construir modelos sobre datos existentes. Para un CEO o un CFO que esté evaluando invertir en transformación digital, este caso subraya un riesgo estratégico fundamental: la dependencia de datos de terceros y la incertidumbre regulatoria en torno a la propiedad intelectual en la era de la IA.
A primera vista, los dos casos parecen muy diferentes. Uno trata sobre el uso negligente de la IA; el otro, sobre la legalidad de los datos usados para entrenarla. Sin embargo, en mi opinión, ambos apuntan a la misma verdad fundamental: la tecnología ha avanzado más rápido que nuestros marcos éticos, legales y de gestión. En ambos escenarios, el factor decisivo es el humano. Es el abogado que decide confiar ciegamente en una herramienta. Es el equipo de desarrollo que decide qué datos usar para entrenar un modelo. Es el líder de la firma o de la empresa que no establece protocolos claros para mitigar estos nuevos riesgos. Como alguien que ha dedicado su carrera a tender puentes entre el derecho y la ingeniería, veo esto como el desafío central de nuestra era. No podemos simplemente “adoptar tecnología”. Debemos integrarla con una visión crítica, pragmática y, sobre todo, responsable.
Casos como los anteriores no son anomalías, son las primeras señales de un cambio de paradigma. Los líderes que entiendan que la innovación debe ir de la mano de la responsabilidad serán los que prosperen. Los que la vean como un atajo mágico, corren el riesgo de convertirse en el próximo protagonista de un titular vergonzoso.
Como lo he insistido en múltiples oportunidades, la solución no es tenerle miedo a la IA ni prohibirla. La solución es liderar su adopción con inteligencia y previsión. Termino con algunas recomendaciones para la adopción segura y responsable de la IA:
Esto no es un juego: trata la adopción de IA con la misma seriedad que una fusión o una adquisición. Implica riesgos legales, financieros y reputacionales. No delegues la estrategia a un “comité de innovación”; debe ser una conversación a nivel de C-suite.
El humano siempre es el responsable final: crea políticas internas que dejen claro que cualquier resultado generado por la IA debe ser verificado, validado y aprobado por un profesional cualificado. La firma final en cualquier documento o decisión es de una persona, no de un sistema.
Entiende los insumos de tu IA: si vas a usar herramientas de terceros, pregunta sobre sus datos de entrenamiento. ¿Son de fuentes públicas? ¿Tienen licencias adecuadas? ¿Existen riesgos de infracción de copyright como en el caso de Ross? Exige transparencia a tus proveedores.
Crea protocolos, no excusas: desarrolla y comunica una guía de uso aceptable para herramientas de IA generativa. Capacita a tu gente no solo en cómo usar la herramienta, sino también en sus limitaciones y riesgos. El objetivo es construir una cultura de “escepticismo informado”.
Siga nuestro canal de WhatsApp
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, los datos identificadores y los documentos sin límites.
¡Bienvenido a nuestra sección de comentarios!
Para unirte a la conversación, necesitas estar suscrito.
Suscríbete ahora y sé parte de nuestra comunidad de lectores. ¡Tu opinión es importante!