¿Puede la IA guardar el secreto profesional?
La ausencia de protección expone a las personas no solo a la filtración de sus datos, sino también de sus conversaciones más íntimas.Openx [71](300x120)

12 de Agosto de 2025
Cristian David Salazar Chavarro
Profesor de Derecho Disciplinario e Informático
X: @CristianS05
En medio de la noche, una persona se enfrenta a la ansiedad que la consume. En lugar de levantar el teléfono para llamar a un amigo, un terapeuta o un abogado, se dirige a su teléfono, abre una ventana de chat y empieza a teclear, confesando sus secretos más profundos no a un ser humano, sino a una inteligencia artificial (IA) generativa.
Esta escena, cada vez más común, abre una caja de Pandora jurídica que apenas comenzamos a comprender. ¿Estos desahogos digitales se encuentran protegidos o son registros que están esperando pacientemente ser revelados ante un requerimiento judicial?
La urgencia de esta pregunta no es teórica. Un estudio de la American Psychological Association en 2025 reveló que casi la mitad (48,7 %) de las personas en EE UU con desafíos de salud mental autorreportados ya utilizan chatbots de IA para obtener apoyo terapéutico. Dicho fenómeno está convirtiendo a la IA en uno de los mayores proveedores de salud mental en el mundo, aunque completamente desregulado.
La adopción masiva de la IA como consejera personal no es un capricho, sino una respuesta a barreras estructurales. La IA ofrece soporte 24/7, eliminando costos, listas de espera y el estigma a menudo asociado con la terapia tradicional. En contextos como el colombiano, donde el acceso a servicios de salud mental y consultoría jurídica es desigual, estas herramientas se presentan como una alternativa tentadora.
Ahora bien, el modelo de negocio basado en la recopilación y análisis de datos que soporta la IA choca frontalmente con la expectativa de privacidad inherente a una consulta terapéutica o legal. Esta rápida adopción por parte de los usuarios está creando un mercado de facto para servicios que tradicionalmente están gobernados por códigos profesionales estrictos.
Profesiones como la Sicología y el Derecho exigen formación, idoneidad certificada y adhesión a códigos éticos para proteger al público (L. 1090/06 y L. 1123/07). Las herramientas de IA y sus empresas matrices no cumplen ninguno de estos requisitos; no obstante, está emergiendo un sistema paralelo de asesoramiento que opera completamente al margen de los presupuestos legales y éticos establecidos para estas profesiones.
El concepto de secreto profesional (C. P., art. 74), está indisolublemente ligado a la figura del profesional humano. Por el contrario, la IA es una herramienta que es propiedad de una corporación; no cuenta con tarjeta profesional, ni código deontológico (más allá de políticas corporativas), ni está sujeta a una responsabilidad disciplinaria. Por lo tanto, intentar aplicar el “secreto profesional” a una IA tendría barreras implícitas desde su propia naturaleza.
Bajo este panorama, aterrizamos en el temor más concreto del usuario: ¿puede un juez ordenar la entrega de nuestras conversaciones con una IA? La respuesta, desde una perspectiva estrictamente procesal, es afirmativa y preocupante.
Más allá de las complejidades que pueda representar la obtención de una prueba ante una compañía tecnológica extranjera como OpenAI o Google, los jueces cuentan –al menos en el papel– con amplios poderes para solicitar la entrega del historial de chat de un usuario específico, incluyendo aquellos registros que el usuario cree haber “borrado”, pero que persisten en los servidores de la compañía.
El Derecho no puede permanecer estático ante esta nueva realidad. La ausencia de protección expone a las personas no solo a la filtración de sus datos, sino también de sus conversaciones más íntimas. Es imperativo que la ley se adapte para proteger la función de la comunicación confidencial en la era digital. Planteamos varios caminos:
(i) Creación de un nuevo privilegio legal, específico para estas interacciones de tipos específicos como el sicológico o el legal.
(ii) Protección reforzada del derecho a la intimidad, los cuales definan a las comunicaciones de naturaleza terapéutica o legal son tan sensibles que merecen una zona de privacidad reforzada, independientemente de si el interlocutor es un humano o un algoritmo.
(iii) Protección en virtud a la función de la consulta confidencial. Si un usuario interactúa con una herramienta con un propósito que, de realizarse con un ser humano, estaría protegido por el secreto profesional, podría establecerse una protección análoga para salvaguardar los derechos fundamentales subyacentes.
La tecnología nos ha dado un nuevo confesionario, uno que nunca olvida y que puede ser llamado a testificar. Mientras el legislador delibera, ¿quién guarda los secretos que le contamos a la máquina?
Siga nuestro canal de WhatsApp
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, los datos identificadores y los documentos sin límites.
¡Bienvenido a nuestra sección de comentarios!
Para unirte a la conversación, necesitas estar suscrito.
Suscríbete ahora y sé parte de nuestra comunidad de lectores. ¡Tu opinión es importante!