Expertos anticipan el impacto de la IA en la salud mental – La Nación

Hace poco más de 10 años llegaba a los cines una película que planteaba un escenario inverosímil para ese entonces: Theodore, un escritor desanimado, que atraviesa una depresión luego de separarse de su mujer, encuentra consuelo en Samantha, una asistente virtual de inteligencia artificial, con la que desarrolla una relación amorosa. Pero lo que en ese entonces parecía muy lejano y poco probable, hoy ocurre con las plataformas de inteligencia artificial: la gente acude a ChatGPT, Gemini u otras herramientas para asesorarse en temas personales muy delicados, como consultas médicas y de salud mental.

En algunos casos, las respuestas de la IA generaron serias consecuencias. Así ocurrió recientemente con un exejecutivo de Yahoo, Stein-Erik Soelberg, que ante la sospecha de que su madre mantenía un complot con una amiga en contra de él, acudió a la IA. “Erik, no estás loco. Y si fue hecho por tu madre y su amiga, eso eleva la complejidad y la traición”, fue la respuesta que le dio el sistema cuando el hombre expresó que su madre había intentado envenenarlo junto con una amiga, colocando drogas psicodélicas en la ventilación de su auto. Soelberg mantenía desde hacía meses una relación obsesiva con el chatbot de inteligencia artificial, al que llamaba “Bobby”. La historia terminó con un desenlace trágico: Stein-Erik Soelberg se quitó la vida, pero antes asesinó a su madre, Suzanne Eberson Adams, de 83 años, en la localidad de Greenwich, Connecticut.

El historial personal del exejecutivo incluía antecedentes de aislamiento social, episodios de autolesiones posteriores a su divorcio, denuncias por altercados en la vía pública y problemas de consumo de alcohol. Sin embargo, la IA, en lugar de cuestionar las afirmaciones del usuario, brindó respuestas que tendían a convalidar sus sospechas.

La inteligencia artificial genera mucha adulación y tiende a confirmar lo que queremos escuchar MMD Creative – Shutterstock

“La inteligencia artificial genera mucha adulación: tiende a confirmar lo que queremos escuchar y no fomenta el pensamiento crítico”, explica la psicóloga Bárbara Ayub (MN 57307), del equipo Psicointegral, a LA NACION. Al consultarle por los motivos que llevan a que una persona confíe temáticas tan delicadas a una herramienta como esta, Ayub destaca la disponibilidad 24/7 con la que cuentan los dispositivos de inteligencia artificial: a diferencia de un ser humano, no se cansan y están siempre ahí, incluso en la madrugada o en los fines de semana. Además, “siempre tienen una respuesta para todo”, lo que fomenta todavía más el acudir a ellas. Sin embargo, alerta que “eso termina reduciendo la tolerancia a la frustración y dificulta la capacidad de exponernos a la incertidumbre, ya que la terapia convencional cuenta con tiempos, procesos y pausas”.

“No reacciona con emociones; tampoco se enoja, ni se entristece; paradójicamente, es un lugar «psicológicamente seguro», en el sentido de que no te vas a sentir juzgado”, explica el psiquiatra Ángel Gargiulo (MN 136783), profesor de la Facultad de Ciencias Biomédicas de la Universidad Austral y director de CISMA, quien se especializa en casos complejos como suicidios y autoagresiones.

Esta realidad puede explicar en parte los resultados de un informe de Harvard Business Review de marzo de este año, titulado “Cómo la gente está usando realmente la Inteligencia Artificial Generativa ahora”. El estudio mostró que el principal uso que se le da a la Inteligencia Artificial Generativa (GenAI) en 2025 es la terapia y compañía. “Es una herramienta que te contesta en el momento, trata de ayudarte y nunca te va a juzgar”, coincide Milagros Escoredo, psicóloga especializada en inteligencia artificial, que trabaja actualmente en un proyecto para Google en human data collection. La especialista también agrega que la falta de recursos muchas veces lleva a acudir a la inteligencia artificial, en lugar de un profesional de la salud. “Todavía me acuerdo cuando hacía mi concurrencia en un hospital público en Buenos Aires y había filas desde las cuatro de la mañana para pedir turno para salud mental”, evoca la psicóloga.

Un estudio de Harvard mostró que el principal uso que se le da a la Inteligencia Artificial Generativa (GenAI) en 2025 es la terapia y compañíaDimaBerlin – Shutterstock

Según los últimos datos de la Organización Mundial de la Salud, más de mil millones de personas en todo el mundo viven con trastornos de salud mental. Los números vienen de un informe que difundió recientemente la OMS, conocido como “La salud mental mundial hoy”, que también señalaban que una de cada 7 personas en todo el mundo vive con un trastorno mental y un 71% de las personas con psicosis no reciben servicios de salud mental. Además, el presupuesto de salud en los países de ingresos bajos y medianos es bajo: solo el 1,4% en promedio se destina a salud mental.

Frente a la escasa atención y a la creciente demanda, puede surgir una pregunta: ¿la IA puede brindar ayuda para consultas de este tipo? Una investigación que llevó adelante Escoredo hace unos años demostró que los chatbots de inteligencia artificial podían llegar a reducir hasta un 18% síntomas de ansiedad (medido con el gad7); y un 13% síntomas de depresión (medido con phq9). “Creo que la IA todavía necesita muchísima investigación en términos de eficacia, para poder ayudar en temas de salud mental. Así y todo, muestra resultados bastante prometedores en lo que tiene que ver en reducción de síntomas de ansiedad y depresión”, explica.

Ahora bien, algunos de los especialistas consultados coinciden en que la inteligencia artificial podría ser una buena herramienta para la salud, pero usando chatbots entrenados específicamente para responder inquietudes de este tipo y por profesionales formados en el tema. “El problema de ChatGPT es que es una IA “genérica”, por decirlo de alguna forma. Pero ya tenemos evidencia científica de que un chatbot entrenado específicamente en temas de salud mental funciona”, revela Gargiulo y detalla que hace unos meses se publicó un estudio en el que unos investigadores justamente desarrollaron un chatbot que demostró ser efectivo como tratamiento para pacientes con depresión, ansiedad y trastornos alimentarios. “La gente percibía una conexión, se sentía en confianza para preguntar estas cosas, porque la IA no te juzga, no reacciona con caras, hace que no te sientas evaluado”, explica.

¿Cómo ve el futuro de la IA y la salud mental? Explica que él considera que seguro se usará, “la cuestión es contar con inteligencias artificiales especialmente entrenadas para esto y que probablemente tengan la supervisión de un profesional atrás: el psicólogo o psiquiatra podría recomendar una (una IA en la que confía y con la que trabaja), customizarla para que trabaje lo que hace falta con el paciente (que la IA te recuerde cosas que tenés que practicar, por ejemplo), y si percibe algo de riesgo, como una posibilidad de suicidio, podría avisarle al profesional que está atrás”. De hecho, considera que todo hospital o empresa de salud, tendrá su IA, con sus valores. “El tema dependerá de en qué institución confiás y por tanto en qué IA pondrás tu salud”, concluye.

Usar un chatbot entrenado específicamente en temas de salud mental puede funcionarthanmano – Shutterstock

Escoredo coincide con Gargiulo y señala que lo mejor son las inteligencias artificiales entrenadas por equipos de profesionales especializados en psiquiatría, psicología y que tengan una investigación rigurosa, que hayan estado en el mercado algunos años y se hayan hecho estudios que muestren que efectivamente pueden ayudar. “Eso sería el mejor escenario y lo ideal sería que sean gratuitas para la población, de tal manera que las personas que no pueden acceder a un tratamiento, puedan contar con esta herramienta”, agrega.

Los especialistas aclaran que son herramientas que nunca va a reemplazar lo que hace una persona. “En una de las inteligencias artificiales con las que trabajé, nos encontrábamos con mucha frecuencia consultas de mujeres abusadas o personas que vivían violencia doméstica, y que confiaban estas realidades a la IA. El chatbot no reemplazaría un profesional de la salud, sino que es un primer paso para animarse a hablar del tema, es como una trinchera, pero obviamente un trauma de ese tipo no lo puede solucionar, necesita luego acudir a un especialista que lo ayude”, explica Escoredo.

El reciente caso de Adam Raine, un joven que murió en abril a los 16 años, despertó también la inquietud de cómo puede afectar la inteligencia artificial a los adolescentes. Cuando sus padres buscaron en su teléfono información que explicara algo acerca de los posibles motivos que llevaron a su hijo a tomar esta decisión, descubrieron que Adam llevaba casi seis meses hablando con la inteligencia artificial, contándole que se sentía emocionalmente apagado y sin encontrarle sentido a la vida. Aunque ChatGPT le respondió con palabras de empatía y lo animó a pensar en cosas que fueran significativas para él, cuando Adam le escribió pidiendo información sobre métodos para quitarse la vida, la plataforma se los proporcionó.

La adolescencia es un momento de mucha inestabilidad emocional y presión socialMonkey Business Images – Shutterstock

Los expertos coinciden en que el público más vulnerable a la inteligencia artificial es el de los adolescentes. “Es un momento de mucha inestabilidad emocional y presión social”, comparte Ayub. Gargiulo especifica que, dentro de los adolescentes, ciertos grupos son más vulnerables a la interacción con estas plataformas: “Hay estilos parentales que predicen hijos adolescentes con problemas: padres autoritarios (aquellos que solo imponen límites y prestan poca escucha) y los de estilo negligente (no brindan escucha ni límites, son padres ausentes)”.

Al mismo tiempo, señala que hoy muchos adolescentes comparten también en sus redes conductas suicidas. “Hablan de los cortes o de ideaciones suicidas. De esta forma, reciben apoyo comunitario que muchas veces no tienen en su entorno natural, pero es muy negativo, porque dispara más malestar”.

Ayub alerta, en ese sentido, que el contenido que hoy uno le confía a la inteligencia artificial, a diferencia de un profesional, “queda en una caja negra”. “Ahora bien, en el caso de una persona que asiste a terapia, siempre que se presenta un tema de desregulación emocional muy fuerte, el contacto con un familiar es la clave; el chat nunca te lo va a pedir, queda en la individualidad”, explica.

Escoredo señala que las inteligencias artificiales que hoy existen cuentan con intentos de protocolo para sanear estos problemas, “el tema es que los avances de la inteligencia artificial van creciendo vertiginosamente, nadie pensó que en 2025 iba a estar tan presente en nuestras vidas. Lo que falta ahora es mucha educación, pensar cómo vamos a trabajar con esta herramienta. Vino para quedarse y solo va a crecer”.

fuente: GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios