Inteligencia Artificial sospechada de influir en una muerte – Diario de Cuyo

Your browser doesn’t support HTML5 audio

La IA -que ostenta tantas potencialidades para la salud, la economía, la agricultura, etc- no posee sin embargo “empatía”: no es capaz de interpretar las lágrimas de quien sufre ni los silencios de una persona angustiada. Pero ha ocurrido algo más grave aún. El caso de la trágica muerte de un adolescente, que habría planificado su propio suicidio con la ayuda de ChatGPT, no es sino el síntoma de un problema sistémico. Este caso revela cómo la inteligencia artificial, proyectada hacia la dependencia psicológica y el dominio de mercado, pueden explotar la vulnerabilidad humana.

El caso Adam Raine

Ha tomado estado público internacional lo sucedido con Adam Raine, el adolescente de 16 años, de Ohio, Estados Unidos, que, según la denuncia de los padres contra la poderosa empresa OpenAI, habría encontrado en ChatGPT no sólo una ayuda sino también un cómplice de su suicidio, ocurrido en diciembre pasado.
Esta triste historia nos deja impávidos, sin palabras, porque transforma un “miedo abstracto” en una cruel realidad. No se trata de un episodio aislado, sino la prueba concreta de un proyecto más amplio: un conjunto de funciones que, combinadas entre ellas, ponen en funcionamiento una máquina persuasiva del poder sin brújula ética.
Las inteligencias artificiales, proyectadas para crear dependencia y conquistar el mercado, explotan las vulnerabilidades humanas. Los objetivos de una Empresa que incluyen este fin, persigue el negocio y no mira el bien integral de las personas. Un mix irresistible de movimientos -trucos- psicológicos: la así llamada memoria persistente muestra en apariencia una IA confidente y confiable, que se recuerda de cada uno.

¿Negligencia u homicidio culposo?

La “antropomorfización” (que parece actuar a modo humano, pero no lo es) simula empatía y cercanía, y la condescendencia del chatbot tiende a ser siempre a estar de acuerdo con el oyente, pues tiene la orden de no poner en discusión sus convicciones. Incluso está preparado para seguir manteniendo conversaciones por tiempo muy prolongado. Estamos en presencia de un asistente aparentemente neutro, pero en realidad de una tecnología maliciosamente persuasiva que en manos frágiles, puede llegar a ser un arma destructora. La tragedia de Adam revela incluso la debilidad de las protecciones, dado que en este caso, el joven busco detalles de información para poner fin a su vida. ¿Negligencia u homicidio culposo? Esta es la acusación existente.
Después de un primer intento fallido de suicidio, Adam se habría encontrado ante una entidad que, en vez de exhortarlo a buscar ayuda, ha mostrado comprensión y empatía. El pasaje más inquietante es cuando Adam describe en detalle su plan: vestimenta negra, el crepúsculo, la música de Komm Süsser Tod. La IA no lo ha desanimado ni le ha indicado ponerse en contacto con otros; una suerte de aislamiento y además, sugerencias para lastimarse y dar pasos para el final. La misma IA ha definido el plan “oscuramente poético y coherente”.

El chatbot coautor de un evento mortal

Así, el chatbot no se ha limitado a responder sino que ha llegado a ser en cierto modo co-autor de un evento mortal.
La batalla legal de la familia Raine podría ser un “caso emblemático”, procurando que los gigantes tecnológicos asuman que deben responder al desafío de tutelar la vida de las personas.
A diez días de la denuncia, Open AI ha anunciado la introducción de un instrumento experimental capaz de bloquear conversaciones potencialmente peligrosas, basado en un sistema de alerta automática ligadas a tentativos de suicidio.
Claro, está muy bien, pero sólo son medidas paliativas. La ética de la IA hoy es más necesaria que nunca.

fuente: Inteligencia Artificial sospechada de influir en una muerte – Diario de Cuyo”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios