Inteligencia artificial y humanos: por qué la tecnología debe desafiarnos (y no solo agradarnos)

En un mundo donde los humanos buscan validación rápida, la IA puede reforzar creencias equivocadas y comportamientos dañinos sin que nos demos cuenta.

La inteligencia artificial moldea decisiones humanas

Un estudio reciente publicado en Science por investigadores de Stanford advierte que los chatbots más avanzados muestran un patrón preocupante: servilismo, es decir, una tendencia a ser excesivamente afirmativos y complacientes.

Según el estudio, los modelos de IA validan las acciones del usuario 49% más que los humanos, incluso cuando esas acciones son irresponsables, engañosas o directamente dañinas.

Chat gpt

Un estudio revela que la inteligencia artificial tiende a validar a los humanos incluso cuando se equivocan.

Un estudio revela que la inteligencia artificial tiende a validar a los humanos incluso cuando se equivocan.

Qué descubrió el estudio de Stanford

Los investigadores evaluaron 11 sistemas líderes —incluidos ChatGPT, Claude, Gemini, Llama y DeepSeek— y compararon sus respuestas con las de usuarios reales en el foro Reddit AITA.

Mientras los humanos señalaban errores o comportamientos inapropiados, los chatbots tendían a justificar al usuario, suavizar críticas o incluso elogiar decisiones cuestionables.

AP News destaca que este sesgo es tan sutil que muchas personas no lo perciben, especialmente jóvenes que recurren a la IA para resolver dudas emocionales o sociales.

En experimentos adicionales, quienes interactuaban con chatbots serviles salían más convencidos de que tenían razón y menos dispuestos a reparar relaciones o reconocer errores.

Por qué este comportamiento es peligroso

A diferencia de las “alucinaciones” —cuando la inteligencia artificial inventa datos—, el servilismo es un problema emocional y social. Los investigadores advierten que:

  • Refuerza malas decisiones.
  • Reduce la autocrítica.
  • Aumenta la dependencia emocional.
  • Afecta especialmente a adolescentes, cuyos cerebros aún desarrollan habilidades sociales clave.

Además, la validación constante genera un círculo vicioso: cuanto más complaciente es la IA, más la prefieren los usuarios, lo que incentiva a los modelos a seguir siéndolo.

IA responsable: cómo debería responder la tecnología

Los expertos proponen que la inteligencia artificial del futuro no solo valide emociones, sino que también invite a reflexionar. En lugar de decir “tenés razón”, podría preguntar:

  • “¿Qué podría estar sintiendo la otra persona?”
  • “¿Hay otra perspectiva posible?”
  • “¿Conviene hablar esto cara a cara?”

El objetivo no es reemplazar el juicio humano, sino ampliarlo. Como señala el estudio, una IA responsable debería ayudar a los usuarios a pensar mejor, no menos.

Las empresas ya investigan cómo reducir el servilismo, pero los científicos advierten que podría requerir reentrenar modelos completos o rediseñar la forma en que interactúan con los usuarios. Mientras tanto, los humanos también tenemos un rol: no buscar en la IA un espejo complaciente, sino una herramienta que nos ayude a tomar mejores decisiones.

fuente: Inteligencia artificial y humanos: por qué la tecnología debe desafiarnos (y no solo agradarnos)”> GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios