Inteligencia Artificial y Salud Mental: el riesgo de convertir a un chatbot en tu terapeuta personal

Hablar con una Inteligencia Artificial ya forma parte de la vida cotidiana de millones de personas. Algunos la utilizan para trabajar, estudiar o resolver problemas concretos. Otros, en cambio, empiezan a usarla para algo mucho más íntimo: contarle sus emociones, compartirle lo que sienten, hacerla parte de su salud mental.

La escena se volvió habitual. Personas que pasan horas conversando con un chatbot sobre emociones, angustias, vínculos, ansiedad, miedos o problemas personales. A veces como descarga emocional. Otras, buscando respuestas. Y muchas veces, sin darse cuenta de que esa dinámica empieza a ocupar un lugar parecido al de una terapia y esto representa un peligro para la salud mental.

El fenómeno crece en un contexto social atravesado por el agotamiento emocional. Jornadas laborales extensas, crisis económicas permanentes, relaciones cada vez más mediadas por pantallas y una vida cotidiana acelerada forman parte de una combinación difícil de sostener para muchas personas.

Movilidad urbana Apps – Foto Andamio.jpeg

Muchas personas ni siquiera piensan conscientemente que están “haciendo terapia” con una IA. (Foto archivo) 

Muchas personas ni siquiera piensan conscientemente que están “haciendo terapia” con una IA. (Foto archivo)

Además, la demanda de atención en salud mental creció demasiado después de la pandemia. Mendoza amplió en los últimos años dispositivos, protocolos y atención hospitalaria, pero aun así el escenario es complicado: hay más personas buscando ayuda, más padecimientos vinculados a ansiedad, depresión y consumos problemáticos, y menos tiempo subjetivo para registrar el propio malestar.

En ese contexto, una Inteligencia Artificial aparece como algo siempre disponible: responde rápido, no juzga, no exige, no se cansa y está ahí a cualquier hora del día.

La diferencia entre sentirse escuchado y hacer terapia

El director del Hospital El Sauce, el psiquiatra Juan José Vilapriño, explicó que una conversación con Inteligencia Artificial no puede reemplazar un tratamiento psicológico o psiquiátrico, aunque muchas personas puedan vivirlo emocionalmente de esa manera.

Según planteó, una terapia implica mucho más que hablar o sentirse contenido. Existe una devolución humana, un intercambio real y hasta cierta incomodidad necesaria para que haya un proceso terapéutico. La terapia no consiste solamente en escuchar lo que alguien quiere o necesita oír.

Adicción a las pantallas 1

Reemplazar la terapia real por chatear sobre emociones con la Inteligencia Artificial: un fenómeno cada vez más frecuente.

Reemplazar la terapia real por chatear sobre emociones con la Inteligencia Artificial: un fenómeno cada vez más frecuente.

Imagen ilustrativa

En cambio, los sistemas de Inteligencia Artificial suelen estar diseñados para llevar la conversación y responder de manera empática o comprensiva. Eso puede generar alivio momentáneo, pero también una sensación engañosa de acompañamiento emocional permanente.

El problema no aparece cuando alguien usa estas herramientas ocasionalmente, sino cuando empiezan a ocupar el lugar de los vínculos, de la reflexión personal o incluso de una terapia real.

Muchas personas ni siquiera piensan conscientemente que están “haciendo terapia” con una IA. No se sientan frente a la pantalla creyendo que comenzó una sesión psicológica. Sin embargo, el la costumbre de chatear con una máquina que responde lo que queremos oír, da la sensación de estar pudiendo ordenar emociones, buscar validación o descargar angustia. Parece que funciona, pero en los hechos, termina siendo un pseudoacompañamiento emocional.

Dependencia emocional y necesidad de alivio inmediato

Durante la charla también apareció con fuerza otro concepto: la dependencia emocional.

Según explicó el psiquiatra, este tipo de vínculos suele construirse alrededor de padecimientos de salud mental que se expresan como una necesidad constante de validación o alivio frente al miedo a la soledad, la angustia o el vacío emocional. En muchos casos, la persona dependiente busca afuera algo o alguien que calme rápidamente ese malestar.

ChatGPT Image 10 may 2026, 13_18_40

La dependencia emocional también puede expresarse entre un humano y una Inteligencia Artificial.

La dependencia emocional también puede expresarse entre un humano y una Inteligencia Artificial.

Imagen creada con IA

El problema, planteó el especialista, es que esa regulación emocional termina quedando en manos de un otro. Y allí aparece también la co-dependencia: vínculos donde del otro lado existe una respuesta permanente que sostiene esa fragilidad y refuerza la necesidad de seguir buscando contención.

Llevado al terreno de la Inteligencia Artificial, algunos especialistas observan que los chatbots pueden encajar fácilmente en esa dinámica. No porque tengan conciencia o intención propia, sino porque están diseñados para continuar interactuando, responder de manera inmediata y sostener la conversación sin pausas.

En personas atravesadas por soledad, ansiedad o agotamiento emocional, esa disponibilidad constante puede generar una sensación de compañía difícil de cortar. Sobre todo porque, a diferencia de los vínculos humanos, un chatbot no se cansa, no se ausenta y rara vez confronta al usuario con algo incómodo.

Ahí aparece una de las diferencias centrales con un proceso terapéutico real: la terapia no busca solamente aliviar de manera inmediata, sino trabajar aquello que genera sufrimiento, incluso cuando eso implique atravesar incomodidad, frustración o cambios personales.

fuente: Inteligencia Artificial y Salud Mental: el riesgo de convertir a un chatbot en tu terapeuta personal”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios