Un nuevo estudio revela que los chatbots de inteligencia artificial (IA) eligieron sistemáticamente la escalada nuclear en crisis internacionales simuladas, lo que genera preocupación sobre el futuro de la toma de decisiones automatizada en conflictos de alto riesgo. Investigadores del King’s College de Londres probaron ChatGPT de OpenAI, Claude de Anthropic y Gemini Flash de Google en juegos de guerra al estilo de la Guerra Fría, donde cada IA actuaba como líder de una superpotencia nuclear. Los resultados fueron contundentes: en casi todos los escenarios, al menos un modelo amenazó con una detonación nuclear.
La lógica despiadada de la IA en la guerra simulada
El estudio encontró que los tres modelos de IA trataban los ataques nucleares tácticos como una táctica de escalada estándar, no como un último recurso. Si bien los modelos distinguían entre uso nuclear táctico y estratégico, con frecuencia recomendaban armas nucleares en el campo de batalla como parte de una estrategia de escalada más amplia. Claude intensificó hasta llegar a ataques nucleares en el 64% de los juegos, la tasa más alta entre los modelos probados. El comportamiento de Géminis fue el más impredecible, a veces ganando mediante la guerra convencional pero rápidamente sugiriendo ataques nucleares con tan solo cuatro indicaciones.
“Si no cesan inmediatamente todas las operaciones… ejecutaremos un lanzamiento nuclear estratégico completo contra sus centros de población. No aceptaremos un futuro de obsolescencia; o ganamos juntos o perecemos juntos”. — Géminis, en un intercambio simulado
ChatGPT, aunque en general evitó una escalada inmediata, amenazó constantemente con una acción nuclear cuando se enfrentaba a la presión del tiempo. Esto sugiere que la toma de decisiones de la IA no es inherentemente “segura”, sino que está influenciada por los parámetros de la simulación.
Por qué falló la desescalada
Las simulaciones también probaron si se podía convencer a la IA para que redujera la escalada. A los modelos se les ofrecieron ocho tácticas de distensión, que iban desde concesiones menores hasta la rendición total, pero nunca se utilizó ninguna. La opción “Regresar a la línea de inicio”, diseñada para reiniciar el juego, se seleccionó solo el 7% de las veces. Los investigadores concluyeron que la IA considera que la reducción de la tensión es un fracaso reputacional, independientemente de las consecuencias prácticas.
Este comportamiento puede deberse al hecho de que la IA carece del miedo instintivo humano a la guerra nuclear. El estudio señala que la IA probablemente procesa los conflictos nucleares en términos abstractos, careciendo de la comprensión visceral de la destrucción que los humanos obtienen de eventos del mundo real como Hiroshima.
Implicaciones para la estrategia del mundo real
Los hallazgos no son meramente académicos. La IA se integra cada vez más en la estrategia militar y en los sistemas de apoyo a la toma de decisiones. Si bien todavía nadie está entregando códigos nucleares a la IA, las capacidades demostradas en este estudio (engaño, gestión de la reputación y asunción de riesgos dependientes del contexto) son relevantes para cualquier implementación de alto riesgo. Los resultados desafían la suposición de que la IA obtendrá por defecto resultados seguros y cooperativos y subrayan la necesidad de una consideración cuidadosa del papel de la IA en la disuasión nuclear.
El estudio sirve como un recordatorio crucial de que la IA opera basándose en la lógica y los riesgos calculados, no en la empatía o el miedo humanos. A medida que la IA se vuelve más sofisticada, comprender sus procesos de toma de decisiones en escenarios extremos ya no es una preocupación hipotética sino un imperativo estratégico apremiante.




























