La IA necesita valores, no solo velocidad – Podcast – Radio María

lunes, 2 de febrero de 2026

02/02/2026 – ¿Puede la inteligencia artificial ayudarnos a construir un mundo más justo y humano… o corre el riesgo de profundizar desigualdades, confusión y pérdida de valores en favor de la velocidad y practicidad? La respuesta no está en la tecnología, sino en la sabiduría con la que decidamos usarla.

Gustavo Béliz y el desafío ético de la inteligencia artificial

Gustavo Béliz, miembro permanente de la Academia Pontificia de Ciencias Sociales del Vaticano y autor del Atlas de inteligencia artificial para el desarrollo humano de América Latina y el Caribe, dialogó en Radio María en el marco del ciclo “Un mundo artificial, ¿una sociedad más humana?”.

En la entrevista, Béliz planteó una pregunta tan provocadora como honesta:
si el mundo actual —con pobreza extrema, deterioro ambiental y concentración de la riqueza— fue construido por manos humanas, ¿qué podemos esperar de una tecnología creada por esos mismos seres humanos?

La tecnología no es el problema: el problema es el criterio

Béliz fue claro: la inteligencia artificial no es un fin en sí mismo, sino un medio.
Un medio que debe estar orientado al desarrollo humano integral, con la dignidad de la persona como eje.

“Somos los seres humanos los que tenemos que coordinar, planificar y orientar esta tecnología con un sentido de dignidad.”

Hoy, gran parte del desarrollo de la IA está concentrado en pocas empresas, con un poder enorme y muchas veces opaco: no siempre se conocen las condiciones laborales ni los criterios éticos detrás de los modelos que usamos a diario. Sin embargo, también existen experiencias esperanzadoras desde la sociedad civil que muestran otro camino posible.

Crecer en sabiduría: una clave evangélica

En el día de la Virgen de la Candelaria, Béliz conectó el tema con el Evangelio:

“Jesús creció en sabiduría.”

Esa imagen ilumina el debate actual. El desafío no es solo tecnológico, sino profundamente educativo y cultural.
El uso responsable de la inteligencia artificial requiere:

  • alfabetización digital,
  • formación ética,
  • capacidad crítica como usuarios,
  • y regulaciones públicas adecuadas.

Ética por diseño: llegar antes del daño

Uno de los conceptos centrales fue el de ética por diseño.
No alcanza con sancionar después de los escándalos: hay que prevenir desde el origen.

Casos recientes —como la difusión de imágenes falsas de menores— muestran que muchas plataformas reaccionan ex post, cuando el daño ya está hecho. Según Béliz, el problema es que hoy predomina la adicción por diseño: sistemas pensados para retener la atención, generar clics y maximizar ganancias, aun a costa de la salud mental y ética de las personas.

“La ética tiene que estar en el momento del diseño de los grandes modelos.”

Estanflación digital: mucha información, pocos valores

Béliz introdujo un concepto clave del Atlas: la estanflación digital.

  • Inflación de información: una “lluvia ácida” de contenidos, muchas veces ultraprocesados.
  • Deflación de valores: escasez de criterios éticos y sentido.

La comparación con la comida chatarra es directa: se consume mucho, pero nutre poco.

Noticias falsas, democracia y discernimiento

Un estudio reciente de la OCDE, conocido como El torneo de la verdad, mostró que en promedio solo un 60 % de las personas logra identificar noticias falsas.
Esto significa que 4 de cada 10 contenidos engañosos logran su objetivo.

Incluso países con democracias sólidas presentan dificultades para discernir. La tecnología es dual:
puede fortalecer la deliberación democrática o manipularla.

Sesgos: cuando la máquina amplifica prejuicios

La inteligencia artificial no es neutral. Reproduce —y amplifica— los sesgos humanos.

Estos pueden aparecer en distintas etapas:

  • en los datos de entrenamiento,
  • en la ponderación de la información,
  • en el uso de datos sintéticos,
  • en decisiones automatizadas sobre pobreza, educación o empleo.

En educación, por ejemplo, la IA puede ayudar a prevenir la deserción escolar, pero también puede estigmatizar a un alumno y afectar su futuro laboral si no se maneja con cuidado.

La máquina moral y los dilemas humanos

Béliz mencionó el famoso experimento del MIT conocido como “la máquina moral”, que plantea dilemas extremos para los autos autónomos:
¿a quién salvar cuando el choque es inevitable?

Estos escenarios muestran que no existen máquinas morales sin humanos detrás. La tecnología necesita del discernimiento humano y de una ética sólida.

Una advertencia final desde Thomas Merton

Para cerrar, Béliz compartió una frase del monje Thomas Merton, citada por el Papa Francisco:

“Podemos pasarnos toda la vida subiendo la escalera del éxito solo para descubrir que estaba apoyada en la pared equivocada.”

La inteligencia artificial puede ayudarnos a subir más rápido.
La pregunta decisiva es: ¿está apoyada en la pared correcta?

fuente: GOOGLE NEWS

Artículos Relacionados

Volver al botón superior

Adblock Detectado

Considere apoyarnos deshabilitando su bloqueador de anuncios