04/08/2025 – «La IA no es una amenaza, sino que es una oportunidad para redefinir lo que significa realmente ser humanos en esta nueva era de lo artificial». ¿Alguna vez pensaste que un dilema filosófico de hace décadas podría ser la clave para entender las decisiones de la Inteligencia Artificial de hoy? En el ciclo «Un mundo artificial ¿una sociedad más humana?», Ezequiel Romano, especialista en tecnología y divulgador de IA, nos sumerge en el fascinante y complejo «dilema del tranvía» para mostrarnos cómo la Inteligencia Artificial nos enfrenta a nuestras propias complejidades morales y éticas.
Ezequiel nos introduce al dilema del tranvía, un experimento mental que nos obliga a elegir entre sacrificar una vida para salvar cinco. Nos presenta dos escenarios: en el primero, accionás una palanca para desviar un tren, y en el segundo, tenés que empujar a una persona corpulenta para detenerlo. La mayoría de las personas, nos cuenta, elegirían la primera opción pero no la segunda, demostrando que nuestras decisiones morales están influenciadas por la acción directa y la emoción, no solo por la lógica.
¿Y qué tiene que ver esto con la IA? Hoy, estos dilemas ya no son hipotéticos. Los coches autónomos, que se manejan con Inteligencia Artificial, tienen que tomar estas decisiones de vida o muerte en fracciones de segundo. Ezequiel nos revela que, dependiendo de cómo sean configuradas, las diferentes IAs (como Chat GPT y Cloud) tomarían decisiones distintas: una podría priorizar minimizar el daño (sacrificar una vida para salvar cinco), mientras que otra podría optar por la inacción para no ser responsable de una muerte. Esto nos plantea una pregunta fundamental: ¿quién decide la ética de un coche autónomo? ¿El usuario o la empresa que lo fabricó?
Para abordar este debate, el MIT ha creado Moral Machine, una plataforma interactiva donde podés participar en dilemas similares y ver cómo tus decisiones se comparan con las de millones de personas en todo el mundo. Los resultados de esta iniciativa muestran que, a nivel global, se prioriza salvar vidas humanas sobre animales, a los jóvenes sobre los mayores, y minimizar el daño en general. Sin embargo, Ezequiel nos advierte sobre una interesante contradicción: muchas personas no comprarían un coche que, en la teoría, está configurado para sacrificar al conductor en vez de atropellar a otros.
Este debate no se limita a los autos autónomos; se extiende a áreas como la salud, donde brazos robóticos realizan cirugías, o en la investigación, donde la IA puede descubrir algo que podría ser perjudicial para la humanidad.
La conclusión de Ezequiel es clara: la IA nos sirve como un espejo que nos devuelve un reflejo de nuestras propias complejidades, sesgos e inconsistencias morales. Lejos de ser una amenaza, la Inteligencia Artificial nos ofrece una oportunidad invaluable para participar activamente en el debate, llegar a consensos globales y, en definitiva, redefinir lo que significa ser verdaderamente humanos en esta nueva era tecnológica.