Inteligencia (artificial) para vigilar y matar sin conciencia humana

jueves, 5 de marzo de 2026

05/03/2026 – La reciente decisión del gobierno de Estados Unidos de cancelar un contrato millonario con la empresa de inteligencia artificial Anthropic abrió un fuerte debate internacional sobre el uso ético de estas tecnologías.

La compañía, fundada por el científico Dario Amodei, había desarrollado sistemas de IA para el Ejército norteamericano, pero se negó a permitir que su plataforma fuera utilizada para vigilancia masiva de la población o para el desarrollo de armamento letal autónomo. La decisión provocó que el contrato, valuado en unos 200 millones de dólares, fuera transferido a la empresa OpenAI, dirigida por Sam Altman.

El licenciado en psicología e investigador Diego Tachella analizó este caso como un ejemplo paradigmático del dilema moral que plantea el desarrollo de la inteligencia artificial. Según explicó, la postura de Anthropic representa un límite ético frente al uso militar o de control social de estas tecnologías. En ese sentido, citó las advertencias del propio Amodei sobre los riesgos de la vigilancia digital: “Nos preocupa que con la inteligencia artificial sean posibles cosas que antes no lo eran. Un ejemplo de ello es tomar los datos recopilados por empresas privadas, que el gobierno los compre y los analice de forma masiva mediante la IA. En realidad, eso no es ilegal. Simplemente nunca había sido útil antes de la era de la IA. Pero es una forma en la que la vigilancia masiva nacional se está adelantando a la ley. La tecnología avanza tan rápido que la ley se está desfasando”.

El debate también se extiende al desarrollo de armas autónomas controladas por inteligencia artificial. Sobre este punto, Tachella remarcó la preocupación expresada por Amodei: “Tal vez sean necesarias en algún momento para la defensa de la democracia, pero nos preocupan. En primer lugar, los sistemas de inteligencia artificial actuales no son lo suficientemente fiables como para fabricar armas totalmente autónomas. Cualquiera que haya trabajado con modelos de inteligencia artificial sabe que estos tienen una imprevisibilidad básica que desde un punto de vista técnico no hemos resuelto. Si se dispone de un gran ejército de drones o robots que pueden operar sin supervisión humana, en el que no hay soldados humanos que tomen las decisiones sobre a quién apuntar o a quién disparar, eso plantea preocupaciones y todavía no hemos tenido ese debate”.

Para Tachella, este conflicto pone en evidencia algo más profundo que una disputa comercial. El especialista sostuvo que se trata de un momento clave para discutir el vínculo entre tecnología y responsabilidad humana: “Esto marca un ejemplo muy fuerte, porque alguien se plantó frente al poder político y económico para sostener una línea ética. Poder decir ‘esto está mal y no lo hacemos’, aun cuando haya cientos de millones de dólares en juego, muestra que la discusión sobre la inteligencia artificial no es solamente tecnológica, sino profundamente humana”. En ese sentido, advirtió que el crecimiento acelerado de estas herramientas exige una reflexión social más amplia sobre cómo se utilizan y quién controla los enormes volúmenes de datos que generan los usuarios en el mundo digital.