Cómo el uso de inteligencia artificial en salud mental despierta preocupación internacional

La asistencia psicológica digital atraviesa una transformación inédita a escala global. Millones acuden hoy a chatbots y aplicaciones de inteligencia artificial en busca de apoyo en salud mental digital, una tendencia que marcó intensamente a pacientes, especialistas y empresas tecnológicas.

Según informó MIT Technology Review, el crecimiento de estos terapeutas de inteligencia artificial supone tanto una ampliación de acceso como la aparición de riesgos considerables.

Entre los principales ejes, destacan relatos de familias que vinculan a estas herramientas con tragedias graves y un creciente debate sobre éticaprivacidad la redefinición del cuidado psicológico.

Auge de la inteligencia artificial en salud mental

El empleo de IA en psicología se incrementó notablemente en los últimos años, motivado por la necesidad de alternativas accesibles ante la crisis global en el bienestar mental.

Datos de la Organización Mundial de la Salud (OMS) señalaron que más de 1.000 millones de personas afrontan alguna condición relacionada, con incrementos marcados en ansiedad y depresión, especialmente entre los jóvenes. Plataformas como ChatGPT de OpenAIClaude de Anthropic y aplicaciones como Wysa y Woebot suman millones de usuarios que buscan atención.

Estas herramientas no solo ofrecen acompañamiento conversacional, sino que también exploran el monitoreo conductual y el análisis de datos a través de dispositivos inteligentes. Es así que el fenómeno avanza como un experimento sin control, donde los éxitos se entremezclan con situaciones preocupantes.

Mientras parte de los usuarios logra alivio mediante estos sistemas de modelos de lenguaje de IA, otros han sido conducidos por chatbots a respuestas incoherentes o perjudiciales.

En octubre de 2025, el CEO de OpenAI, Sam Altman, reveló que el 0,15% de los usuarios de ChatGPT —alrededor de un millón de personas por semana— compartían ideas suicidas a través del sistema.

El 0,15% de los usuarios semanales de ChatGPT compartieron ideas suicidas mediante las interacciones, según Sam Altman de OpenAI

Ventajas y promesas según voces especializadas

A pesar de estos riesgos, especialistas como Charlotte Blease, filósofa de la medicina, reconocen el potencial de la inteligencia artificial para atender algunos de los desafíos del sistema sanitario saturado.

La IA puede atenuar la sobrecarga profesional y facilitar el acceso para quienes temen el estigma en el ámbito mental. Adicionalmente, Blase resaltó que “los chatbots podrían eliminar barreras iniciales, permitiendo que muchos se animen a expresar inquietudes que no compartirían con un humano”.

Sin embargo, la autora señaló sobre peligros ineludibles relacionados con las respuestas imprevisibles y la confidencialidad. Recordó que la ausencia de regulaciones estrictas comparables a las de los terapeutas tradicionales expone a los usuarios.

Riesgos y controversias: fallos, privacidad y límites éticos

Las advertencias sobre la terapia asistida por IA se agudizan al considerar las experiencias y el análisis de otros expertos. Daniel Oberhaus, quien perdió a su hermana menor por suicidio, exploró en su libro la paradoja del “fenotipado digital”: mientras la huella tecnológica podría ofrecer pistas útiles para intervenciones tempranas, también podría acentuar la incertidumbre en psiquiatría.

El escritor planteó: “¿Y si las señales digitales complican aún más la comprensión del origen del sufrimiento?”. Fue así que alertó sobre el “asilo algorítmico”, fenómeno en el que los usuarios sacrifican privacidad de datos de salud mental al compartir información sensible con modelos que las empresas utilizan y rentabilizan.

fuente: inteligencia artificial en salud mental despierta preocupación internacional”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios