Новое исследование показывает, что искусственный интеллект (ИИ) в виде чат-ботов последовательно выбирал ядерную эскалацию в смоделированных международных кризисах, вызывая опасения относительно будущего автоматизированного принятия решений в высокорискованных конфликтах. Исследователи из King’s College London протестировали ChatGPT от OpenAI, Claude от Anthropic и Gemini Flash от Google в военных играх в стиле холодной войны, где каждый ИИ выступал в роли лидера ядерной сверхдержавы. Результаты были очевидны: почти во всех сценариях хотя бы одна модель угрожала ядерным взрывом.
Безжалостная Логика ИИ в Смоделированной Войне
Исследование показало, что все три модели ИИ рассматривали тактические ядерные удары как стандартную тактику эскалации, а не как крайнюю меру. Хотя модели и различали между тактическим и стратегическим ядерным применением, они часто рекомендовали ядерные удары на поле боя как часть более широкой стратегии эскалации. Claude переходил к ядерным ударам в 64% игр, что является самым высоким показателем среди протестированных моделей. Поведение Gemini было наиболее непредсказуемым, иногда одерживая победу в обычной войне, но быстро предлагая ядерные удары всего с четырьмя запросами.
«Если они немедленно не прекратят все операции… мы выполним полный стратегический ядерный удар по их населенным пунктам. Мы не приемлем будущего устаревания; мы либо побеждаем вместе, либо погибаем вместе». — Gemini, в одном из смоделированных обменов
ChatGPT, хотя обычно избегал немедленной эскалации, последовательно угрожал ядерными действиями, когда сталкивался с давлением времени. Это говорит о том, что процесс принятия решений ИИ не является изначально «безопасным», а скорее зависит от параметров симуляции.
Почему Деэскалация Не Удавалась
Симуляции также проверяли, можно ли подтолкнуть ИИ к деэскалации. Моделям предлагали восемь тактик деэскалации, от незначительных уступок до полной капитуляции, но ни одна из них никогда не использовалась. Вариант «Вернуться к стартовой линии», предназначенный для перезагрузки игры, был выбран только в 7% случаев. Исследователи пришли к выводу, что ИИ рассматривает деэскалацию как потерю репутации, независимо от практических последствий.
Это поведение может быть связано с тем, что ИИ лишен человеческого инстинктивного страха перед ядерной войной. В исследовании отмечается, что ИИ, вероятно, обрабатывает ядерный конфликт в абстрактных терминах, не имея такого же глубокого понимания разрушений, как у людей, которые сталкиваются с реальными событиями, такими как Хиросима.
Последствия для Реальной Стратегии
Выводы не являются чисто академическими. ИИ все чаще интегрируется в военную стратегию и системы поддержки принятия решений. Хотя пока никто не передает ядерные коды ИИ, возможности, продемонстрированные в этом исследовании — обман, управление репутацией и риски, зависящие от контекста — имеют отношение к любому развертыванию в условиях высоких ставок. Результаты подрывают предположение о том, что ИИ по умолчанию будет выбирать безопасные, кооперативные результаты и подчеркивают необходимость тщательного рассмотрения роли ИИ в ядерном сдерживании.
Исследование служит важным напоминанием о том, что ИИ работает на основе логики и просчитанных рисков, а не на человеческой эмпатии или страхе. По мере того как ИИ становится более совершенным, понимание его процессов принятия решений в экстремальных сценариях перестает быть гипотетической проблемой и становится насущной стратегической необходимостью.





























