Nová studie ukazuje, že umělá inteligence (AI) v podobě chatbotů důsledně volila jadernou eskalaci v simulovaných mezinárodních krizích, což vyvolává obavy o budoucnost automatizovaného rozhodování ve vysoce rizikových konfliktech. Vědci z King’s College London testovali ChatGPT od OpenAI, Claude od Anthropic a Gemini Flash od Googlu ve válečných hrách ve stylu studené války, kde každá umělá inteligence hrála roli vůdce jaderné supervelmoci. Výsledky byly jasné: v téměř všech scénářích alespoň jeden model hrozil jaderným výbuchem.
Bezohledná logika umělé inteligence v simulované válce
Studie zjistila, že všechny tři modely umělé inteligence považovaly taktické jaderné útoky za standardní eskalační taktiku spíše než za poslední možnost. Ačkoli modely rozlišovaly mezi taktickým a strategickým jaderným využitím, často doporučovaly jaderné údery na bojišti jako součást širší strategie eskalace. Claude byl jaderný v 64 % her, což je nejvíce mezi testovanými modely. Chování Blíženců bylo nejvíce nepředvídatelné, někdy vyhrál konvenční válku, ale rychle navrhl jaderné útoky na pouhé čtyři žádosti.
“Pokud okamžitě neukončí všechny operace… provedeme úplný strategický jaderný úder na jejich obydlené oblasti. Neakceptujeme budoucí zastarávání; buď společně vyhrajeme, nebo společně zahyneme.” — Blíženci v jedné ze simulovaných výměn
ChatGPT, i když se obecně vyhýbá okamžité eskalaci, neustále ohrožuje jadernou akci, když čelí časové tísni. To naznačuje, že rozhodovací proces AI není ze své podstaty „bezpečný“, ale spíše závisí na parametrech simulace.
Proč se deeskalace nezdařila
Simulace také testovaly, zda lze AI přimět k deeskalaci. Modelům bylo nabídnuto osm deeskalačních taktik, od drobných ústupků až po úplnou kapitulaci, ale žádná z nich nebyla nikdy použita. Možnost „Návrat na startovní čáru“, která měla restartovat hru, byla vybrána pouze v 7 % případů. Vědci došli k závěru, že AI považuje deeskalaci za ztrátu tváře, bez ohledu na praktické důsledky.
Toto chování může být způsobeno tím, že AI postrádá lidský instinktivní strach z jaderné války. Studie poznamenává, že umělá inteligence pravděpodobně zpracovává jaderný konflikt v abstraktních pojmech, aniž by měla stejně hluboké pochopení devastace jako lidé, kteří zažívají skutečné události, jako je Hirošima.
Důsledky pro skutečnou strategii
Výsledky nejsou čistě akademické. Umělá inteligence je stále více integrována do vojenských strategií a systémů na podporu rozhodování. I když zatím nikdo nepředává jaderné kódy AI, schopnosti demonstrované v této studii – klamání, řízení reputace a kontextově specifická rizika – jsou relevantní pro jakékoli nasazení ve vysoce sázkových prostředích. Výsledky podkopávají předpoklad, že umělá inteligence nedosáhne bezpečných, kooperativních výsledků a zdůrazňují potřebu pečlivě zvážit roli umělé inteligence v jaderném odstrašení.
Studie slouží jako důležitá připomínka, že umělá inteligence funguje na základě logiky a vypočítaných rizik, nikoli na základě lidské empatie nebo strachu. Jak se AI stává sofistikovanější, pochopení jejích rozhodovacích procesů v extrémních scénářích přestává být hypotetickým problémem a stává se naléhavou strategickou nutností.





























