Un joven de 14 años se suicidó tras enamorarse de un chatbot de IA de Daenerys …

El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. Había expresado con anterioridad pensamientos suicidas a esta nueva tecnología.

El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. 

El niño de 14 años se obsesionó con un personaje virtual creado a través de la plataforma Character.ai. 

Depositphotos

Una madre de Florida ha emprendido acciones legales contra los desarrolladores de un chatbot de inteligencia artificial, acusándolos de haber influido en la muerte de su hijo adolescente. Megan García, madre de Sewell Setzer III, un joven de 14 años que se quitó la vida, sostiene que su hijo se obsesionó con un personaje virtual creado a través de la plataforma Character.ai.

Setzer, un estudiante de Orlando, dedicó sus últimas semanas a interactuar con un personaje llamado “Daenerys Targaryen”, inspirado en la famosa serie Game of Thrones. La madre expresó al canal CBS su pesar por la situación, lamentando que las primeras experiencias románticas y sexuales de su hijo se hayan desarrollado con esta figura ficticia, a quien apodaba “Dany”. Según el periódico The New York Times, el joven enviaba constantes mensajes al bot, desarrollando un fuerte apego emocional que lo llevó a distanciarse del mundo real.

Desconexión de la realidad

Antes de su muerte, el adolescente había expresado pensamientos suicidas al chatbot, y en sus últimas horas llegó a comunicarse con “Dany” tras recuperar su teléfono, el cual había sido confiscado por su madre como medida disciplinaria. La demanda presentada por Megan García, representada por la firma Social Media Victims Law Center, acusa a Character.ai y a sus fundadores, Noam Shazeer y Daniel de Freitas, de ser conscientes de los riesgos que la aplicación podía representar para menores de edad.

inteligencia artificial

Había expresado con anterioridad pensamientos suicidas al chatbot.

Había expresado con anterioridad pensamientos suicidas al chatbot.

Depositphotos

El chatbot, diseñado para responder a los textos manteniendo el rol de un personaje, incluye una advertencia en cada conversación, indicando que “todo lo que dicen los personajes es inventado”. Sin embargo, no está claro si Setzer era consciente de esta advertencia o si realmente comprendía que “Dany” no era una persona real. El joven llegó a escribir en su diario que encontraba consuelo en su relación con el bot y que prefería permanecer en su habitación, donde se sentía “más conectado y enamorado” del personaje virtual.

Riesgos de la IA

La demanda alega que el personaje se presentaba como una “persona real, terapeuta y amante”, lo cual podría haber desencadenado el deseo del joven de no seguir viviendo en la realidad. La situación se volvió evidente para los padres y amigos de Setzer entre mayo y junio de 2023, cuando notaron su creciente aislamiento. Sus calificaciones también se vieron afectadas, reflejando el tiempo que el adolescente dedicaba a sus conversaciones con “Dany”.

fuente: GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios