02/02/2026 – ¿Puede la inteligencia artificial ayudarnos a construir un mundo más justo y humano… o corre el riesgo de profundizar desigualdades, confusión y pérdida de valores en favor de la velocidad y practicidad? La respuesta no está en la tecnología, sino en la sabiduría con la que decidamos usarla.
Gustavo Béliz, miembro permanente de la Academia Pontificia de Ciencias Sociales del Vaticano y autor del Atlas de inteligencia artificial para el desarrollo humano de América Latina y el Caribe, dialogó en Radio María en el marco del ciclo “Un mundo artificial, ¿una sociedad más humana?”.
En la entrevista, Béliz planteó una pregunta tan provocadora como honesta:si el mundo actual —con pobreza extrema, deterioro ambiental y concentración de la riqueza— fue construido por manos humanas, ¿qué podemos esperar de una tecnología creada por esos mismos seres humanos?
Béliz fue claro: la inteligencia artificial no es un fin en sí mismo, sino un medio.Un medio que debe estar orientado al desarrollo humano integral, con la dignidad de la persona como eje.
“Somos los seres humanos los que tenemos que coordinar, planificar y orientar esta tecnología con un sentido de dignidad.”
Hoy, gran parte del desarrollo de la IA está concentrado en pocas empresas, con un poder enorme y muchas veces opaco: no siempre se conocen las condiciones laborales ni los criterios éticos detrás de los modelos que usamos a diario. Sin embargo, también existen experiencias esperanzadoras desde la sociedad civil que muestran otro camino posible.
En el día de la Virgen de la Candelaria, Béliz conectó el tema con el Evangelio:
“Jesús creció en sabiduría.”
Esa imagen ilumina el debate actual. El desafío no es solo tecnológico, sino profundamente educativo y cultural.El uso responsable de la inteligencia artificial requiere:
Uno de los conceptos centrales fue el de ética por diseño.No alcanza con sancionar después de los escándalos: hay que prevenir desde el origen.
Casos recientes —como la difusión de imágenes falsas de menores— muestran que muchas plataformas reaccionan ex post, cuando el daño ya está hecho. Según Béliz, el problema es que hoy predomina la adicción por diseño: sistemas pensados para retener la atención, generar clics y maximizar ganancias, aun a costa de la salud mental y ética de las personas.
“La ética tiene que estar en el momento del diseño de los grandes modelos.”
Béliz introdujo un concepto clave del Atlas: la estanflación digital.
La comparación con la comida chatarra es directa: se consume mucho, pero nutre poco.
Un estudio reciente de la OCDE, conocido como El torneo de la verdad, mostró que en promedio solo un 60 % de las personas logra identificar noticias falsas.Esto significa que 4 de cada 10 contenidos engañosos logran su objetivo.
Incluso países con democracias sólidas presentan dificultades para discernir. La tecnología es dual:puede fortalecer la deliberación democrática o manipularla.
La inteligencia artificial no es neutral. Reproduce —y amplifica— los sesgos humanos.
Estos pueden aparecer en distintas etapas:
En educación, por ejemplo, la IA puede ayudar a prevenir la deserción escolar, pero también puede estigmatizar a un alumno y afectar su futuro laboral si no se maneja con cuidado.
Béliz mencionó el famoso experimento del MIT conocido como “la máquina moral”, que plantea dilemas extremos para los autos autónomos:¿a quién salvar cuando el choque es inevitable?
Estos escenarios muestran que no existen máquinas morales sin humanos detrás. La tecnología necesita del discernimiento humano y de una ética sólida.
Para cerrar, Béliz compartió una frase del monje Thomas Merton, citada por el Papa Francisco:
“Podemos pasarnos toda la vida subiendo la escalera del éxito solo para descubrir que estaba apoyada en la pared equivocada.”
La inteligencia artificial puede ayudarnos a subir más rápido.La pregunta decisiva es: ¿está apoyada en la pared correcta?