Sam Altman, CEO de OpenAI, encendió las alertas sobre un tema sensible para millones de usuarios en todo el mundo: las conversaciones mantenidas con ChatGPT no gozan de protección legal ni confidencialidad, lo que podría generar consecuencias legales.
“La gente le cuenta todo a ChatGPT”
Durante una entrevista para el pódcast This Past Weekend, Altman explicó que muchas personas usan a la inteligencia artificial como si fuera un terapeuta, un coach de vida o incluso un consejero médico.
“La gente habla de las cosas más personales de sus vidas con ChatGPT”, afirmó. Sin embargo, subrayó que estas conversaciones no están cubiertas por marcos legales como los que existen entre paciente y médico, o entre cliente y abogado.
No hay secreto profesional con una IA
A diferencia de las profesiones que cuentan con privilegio legal, como la medicina o el derecho, las plataformas de inteligencia artificial todavía no disponen de normas específicas que resguarden la privacidad de las conversaciones.
“Aún no hemos resuelto eso para cuando hablas con ChatGPT”, reconoció Altman, y añadió que esta laguna legal puede representar un problema grave en ciertos escenarios.
Conversaciones podrían ser usadas como prueba
Altman fue enfático al señalar que, si un usuario se ve envuelto en un proceso judicial, las autoridades podrían solicitar el historial de chats con ChatGPT y utilizarlo como evidencia.
“Si vas a hablar con ChatGPT sobre tus asuntos más delicados y luego hay una demanda judicial, podrían exigirnos que revelemos las conversaciones. Y creo que eso es un desastre”, declaró.

Urge debatir sobre la privacidad en la era de la IA
El CEO de OpenAI pidió abrir un debate urgente a nivel global sobre cómo deben aplicarse las leyes de privacidad frente al avance de las tecnologías de inteligencia artificial.
Según Altman, la IA debería regirse bajo conceptos de privacidad similares a los de un terapeuta. Es decir, con protecciones legales claras para garantizar la seguridad de la información personal de los usuarios.
Por ahora, la advertencia queda hecha: todo lo que se diga a ChatGPT podría, eventualmente, ser utilizado en su contra.
Fuente: El Tiempo
Otras noticias:
Nerandomilast muestra resultados alentadores en pacientes con fibrosis pulmonar