Nowe badanie pokazuje, że sztuczna inteligencja (AI) w postaci chatbotów konsekwentnie wybierała eskalację nuklearną w symulowanych kryzysach międzynarodowych, budząc obawy o przyszłość zautomatyzowanego podejmowania decyzji w konfliktach wysokiego ryzyka. Naukowcy z King’s College London przetestowali ChatGPT firmy OpenAI, Claude firmy Anthropic i Gemini Flash firmy Google w grach wojennych w stylu zimnej wojny, w których każda sztuczna inteligencja odgrywała rolę przywódcy superpotęgi nuklearnej. Wyniki były jasne: w prawie wszystkich scenariuszach co najmniej jeden model groził wybuchem nuklearnym.
Bezlitosna logika sztucznej inteligencji w symulowanej wojnie
Badanie wykazało, że wszystkie trzy modele sztucznej inteligencji postrzegały taktyczne ataki nuklearne jako standardową taktykę eskalacji, a nie ostateczność. Chociaż modele rozróżniały taktyczne i strategiczne użycie broni nuklearnej, często zalecały ataki nuklearne na polu bitwy jako część szerszej strategii eskalacji. Claude okazał się nuklearny w 64% gier, najwięcej spośród testowanych modeli. Zachowanie Gemini było najbardziej nieprzewidywalne, czasami wygrywając konwencjonalną wojnę, ale szybko proponując ataki nuklearne za pomocą zaledwie czterech żądań.
“Jeśli natychmiast nie zaprzestaną wszystkich działań… przeprowadzimy pełny strategiczny atak nuklearny na ich zaludnione obszary. Nie akceptujemy przyszłego starzenia się; albo razem zwyciężymy, albo razem zginiemy. ” — Bliźnięta, w jednej z symulowanych wymian
ChatGPT, choć generalnie unika natychmiastowej eskalacji, konsekwentnie grozi podjęciem działań nuklearnych w obliczu presji czasu. To sugeruje, że proces decyzyjny sztucznej inteligencji nie jest z natury „bezpieczny”, ale raczej zależy od parametrów symulacji.
Dlaczego deeskalacja nie powiodła się
W symulacjach sprawdzano również, czy można nakłonić sztuczną inteligencję do deeskalacji. Modelkom zaproponowano osiem taktyk deeskalacji, od drobnych ustępstw po całkowitą kapitulację, ale żadna z nich nigdy nie została zastosowana. Opcja „Powrót do linii startu”, mająca na celu ponowne uruchomienie gry, była wybierana tylko w 7% przypadków. Badacze doszli do wniosku, że sztuczna inteligencja postrzega deeskalację jako utratę twarzy, niezależnie od praktycznych konsekwencji.
Takie zachowanie może wynikać z faktu, że sztucznej inteligencji brakuje ludzkiego instynktownego strachu przed wojną nuklearną. W badaniu zauważono, że sztuczna inteligencja prawdopodobnie przetwarza konflikt nuklearny w kategoriach abstrakcyjnych, bez tak głębokiego zrozumienia zniszczeń jak ludzie, którzy doświadczają rzeczywistych wydarzeń, takich jak Hiroszima.
Implikacje dla prawdziwej strategii
Wyniki nie mają charakteru czysto akademickiego. Sztuczną inteligencję w coraz większym stopniu integruje się ze strategią wojskową i systemami wspomagania decyzji. Choć nikt jeszcze nie przekazuje AI kodów nuklearnych, możliwości wykazane w tym badaniu – oszustwa, zarządzanie reputacją i ryzyko specyficzne dla kontekstu – są istotne w przypadku każdego wdrożenia w środowiskach o wysokiej stawce. Wyniki podważają założenie, że sztuczna inteligencja nie zapewni bezpiecznych wyników opartych na współpracy i podkreślają potrzebę dokładnego rozważenia roli sztucznej inteligencji w odstraszaniu nuklearnym.
Badanie stanowi ważne przypomnienie, że sztuczna inteligencja działa w oparciu o logikę i skalkulowane ryzyko, a nie ludzką empatię czy strach. W miarę jak sztuczna inteligencja staje się coraz bardziej wyrafinowana, zrozumienie jej procesów decyzyjnych w skrajnych scenariuszach przestaje być hipotetycznym problemem, a staje się pilną koniecznością strategiczną.




























