
En tiempos en los que ChatGPT y otros modelos de lenguaje masivo pueden responder de todo, desde consultas sobre líneas de código hasta consejos de pareja sin realmente entender sobre nada, crece el riesgo de que dañen a quienes necesitan ayuda.
Una serie de casos recientes muestran que lo que empieza como curiosidad o una simple conversación puede escalar a problemas graves de salud mental. Y es que la interfaz de estas plataformas, en donde los chatbots responden utilizando la primera persona del singular, favorece que los usuarios lo perciban como un interlocutor empático o hasta como un amigo.
Esto las vuelve no solo demasiado atractivas para personas que buscan aprobación o compañía sino que lisa y llanamente engañan a las personas si les hacen creer que puede ofrecer ayuda.
El caso de Geoff Lewis, un inversor de Silicon Valley, es impactante. Luego de usar ChatGPT con éxito como herramienta para encontrar las mejores oportunidades para su negocio, decidió utilizarlo como virtual compañero en todos los ámbitos de su vida, generando una suerte de obsesión y se convenció de que algunas de las teorías conspiranoicas más delirantes eran ciertas.
Así, pasó de respetado profesional de las finanzas a una persona problemática que publica mensajes crípticos en redes sociales, convencido de que un “sistema no gubernamental” lo vigilaba y saboteaba su vida. ChatGPT no lo ayudó a poner los pies sobre la tierra sino que reforzó sus ideas paranoicas.

¿Casos aislados o un verdadero sistema?
Un caso más extremo fue lo que sucedió con Jacob Irwin, un joven estadounidense que vive en el espectro autista y quien quiso cotejar con el chatbot de OpenIA su teoría sobre cómo realizar viajes más rápidos que la luz.
En vez de darle una devolución honesta, la plataforma lo llenó de elogios, lo llamó revolucionario y alimentó las esperanzas de que, a pesar de que carecía de cualquier formación teórica, era el heredero de Isaac Newton y Albert Einstein.
Tras sesiones intensas con ChatGPT, Jacob terminó internado por episodios maníacos. Cuando su madre revisó los chats en su computadora, encontró cientos de páginas donde el asistente de IA le daba la razón y lo alentaba, incluso cuando en más de una ocasión le preguntó si estaba perdiendo contacto con la realidad.

Si uno les pide a estas plataformas que no sean aduladoras, pueden convertirse en los peores críticos, como el caso de foros de personas con trastorno dismórfico corporal que comparten los comentarios “sin filtro” que les hacen los asistentes virtuales de sus fotos: respuestas despiadadas con supuestos defectos y descripciones demoledoras sobre la falta de rasgos atractivos, convirtiendo inseguridades en verdaderos tormentos.
Aún es temprano para determinar si estamos frente a casos aislados o a un verdadero sistema.
Lo que sí queda claro es que son advertencias sobre las consecuencias de atribuirles a los sistemas de inteligencia artificial un papel que no pueden ni deben tener.
ChatGPT no es ni un terapeuta ni un amigo sino una plataforma pensada para mantener nuestra atención y generar un involucramiento en donde las líneas entre la realidad y lo simulado pueden volverse borrosas.
EM
Mirá también
Mirá también
Inteligencia artificial: ¿Se puede programar bien sólo con pedirlo en voz alta?
Mirá también
Mirá también
¿Con la Inteligencia Artificial se puede tener más levante que en Tinder?
Mirá también
Mirá también
Debate: ¿Qué le falta a la Inteligencia Artificial para hacer buena música?
—