
El avance de la inteligencia artificial (IA) no solo transformó la forma en que trabajamos, nos comunicamos o consumimos información, sino que también comenzó a incursionar en áreas tan delicadas como la salud mental ¿Hasta qué punto puede una máquina asistir o reemplazar procesos terapéuticos humanos? ¿Qué riesgos y oportunidades implica su implementación en este ámbito?
El psiquiatra Pablo Zunino analizó en AM Cumbre 1400 el fenómeno y planteó una mirada crítica sobre el uso de herramientas de IA en salud mental: “Muchas veces la inteligencia artificial trabaja desde lo general y a uno lo atraviesa lo particular. No es lo mismo la historia personal de uno que la generalidad de los síntomas que se pueden describir”.
Zunino advirtió que uno de los grandes desafíos de la IA es la imposibilidad de incorporar lo subjetivo en los algoritmos. “Uno puede decir ‘tengo insomnio’ y esa dificultad para dormir puede estar relacionada con un montón de cosas, entre ellas, la historia personal. Esa particularidad es muy difícil que se incluya en algoritmos que trabajan desde lo general”.
Otro punto clave es el vínculo humano en el tratamiento. Para el especialista, ese lazo que se genera entre terapeuta y paciente es irremplazable: “Hay una palabra que usamos nosotros en psiquiatría que se llama rapport, que es esa ida y vuelta que hay entre el médico y el paciente. Es muy necesaria para que se produzca el fenómeno de la salud mental. Ese vínculo, una máquina no lo puede construir”.
Además, mencionó un fenómeno frecuente en las aplicaciones de IA que intentan brindar contención emocional: la validación constante. “Cuando le contás las cosas que te suceden, la inteligencia artificial suele validarte. Te dice ‘está bien eso que te sucede’. Pero hay otro momento en el tratamiento donde uno se tiene que confrontar. Esa confrontación sólo se da en un espacio terapéutico cuando hay un vínculo”, remarcó.
Zunino también expresó preocupación por la privacidad de los datos personales: “Uno le cuenta cosas a la inteligencia artificial y, si no está bien ordenada la cosa, no se sabe quién usa esa información ni para qué. Hay artículos que advierten que, frente a la expresión de sufrimiento, aparecen más publicidades porque se sabe que una persona que está sufriendo es más propensa a querer comprar algo. Eso es un problema”.
Sobre la eficacia de estas herramientas, el psiquiatra citó investigaciones recientes. “Solamente el 3% de las aplicaciones e inteligencias artificiales que trabajan con salud mental tienen una validación clínica. Es decir, si se contrasta su evaluación con la de un profesional, sólo en ese pequeño porcentaje se arriba a un diagnóstico similar”.
También alertó sobre los sesgos que pueden reproducirse. “La inteligencia artificial aprende de lo que ya está escrito. Algunos estudios, sobre todo en comunidades afroamericanas en Estados Unidos, advierten que la IA amplifica los sesgos. Es decir, reproduce o continúa ciertos prejuicios sin considerar el contexto”.
Aun así, Zunino reconoció que hay usos válidos de la IA en la práctica profesional. “Yo la utilizo, por ejemplo, para verificar interacciones farmacológicas, sobre todo con medicamentos que no son de mi especialidad. En ese sentido, una base de datos funciona mejor que la memoria humana”, admitió. También destacó su utilidad como herramienta complementaria o para facilitar una derivación oportuna.
—
fuente: inteligencia artificial cuidar nuestra salud mental? – Alerta Digital”> GOOGLE NEWS