
En una reciente entrevista en el podcast This Past Weekend with Theo Von, Sam Altman, CEO de OpenAI, advirtió que las conversaciones mantenidas con ChatGPT no están protegidas por el mismo tipo de confidencialidad legal que rige, por ejemplo, las interacciones con un médico, un terapeuta o un abogado.
- Te puede interesar: Cómo Google planea cubrir la creciente demanda energética de la inteligencia artificial
La advertencia de Sam Altman sobre ChatGPT
Esta falta de “privilegio legal” significa que, en determinados contextos judiciales, los chats podrían ser solicitados como evidencia, algo que muchos usuarios desconocen. Asimismo, Altman señaló que muchas personas, especialmente los más jóvenes, utilizan ChatGPT como si se tratara de un confidente personal o incluso de un terapeuta, compartiendo detalles íntimos de su vida emocional, profesional o familiar.
También calificó esta situación como “preocupante” y pidió que se avance hacia marcos legales que reconozcan este nuevo tipo de relación entre humanos y sistemas de inteligencia artificial.

Actualmente, OpenAI aclara que los chats pueden ser eliminados por el usuario, y que, si se elimina una conversación, esta se borra de sus servidores en un plazo de hasta 30 días, salvo que por motivos de seguridad o requerimientos legales deban conservarla más tiempo.
Sin embargo, en una situación que hoy se encuentra judicializada, se le está exigiendo a OpenAI conservar todos los registros de usuario, incluso aquellos que los usuarios hayan eliminado, como parte de un pedido de descubrimiento legal vinculado a demandas presentadas por empresas como The New York Times. OpenAI se opone a esta medida, a la que considera una extralimitación, y declaró públicamente que la está apelando.
Inteligencia artificial: las preocupaciones de los usuarios frente a la falta de confidencialidad
Existe un riesgo real de que las conversaciones sensibles que los usuarios mantienen con ChatGPT puedan ser utilizadas en su contra en contextos legales, especialmente si contienen confesiones, opiniones comprometedoras o datos personales. Esto abre una grieta de confianza que podría disuadir a muchas personas de utilizar la herramienta para abordar temas delicados, lo que afecta su potencial como asistente emocional o conversacional.

Además, hay una preocupación ética sobre el uso de ChatGPT como sustituto de la terapia profesional. En ese sentido, Altman fue explícito en su advertencia: ChatGPT no es un terapeuta, y usarlo como tal puede ser perjudicial, ya que la IA no tiene conciencia, empatía genuina ni una formación clínica, y puede incurrir en errores o emitir respuestas dañinas que, lejos de ayudar, generen confusión, ansiedad o malestar.
Por último, , el empresario tecnológico subrayó que la falta de un marco legal que regule la privacidad en las conversaciones con inteligencias artificiales representa un vacío crítico. En su visión, debería existir algún tipo de legislación que garantice el mismo nivel de confidencialidad que existe en la medicina o la abogacía. Sin este tipo de protección, los usuarios quedan expuestos a que sus interacciones con la IA sean leídas, utilizadas o entregadas en instancias que escapan completamente a su control.
—