Simulasi AI Memprediksi Eskalasi Nuklir di 95% Permainan Perang

14
Simulasi AI Memprediksi Eskalasi Nuklir di 95% Permainan Perang

Sebuah studi baru mengungkapkan bahwa chatbots dengan kecerdasan buatan (AI) secara konsisten memilih eskalasi nuklir dalam simulasi krisis internasional, sehingga meningkatkan kekhawatiran tentang masa depan pengambilan keputusan otomatis dalam konflik berisiko tinggi. Para peneliti di King’s College London menguji ChatGPT OpenAI, Claude Anthropic, dan Gemini Flash Google dalam permainan perang gaya Perang Dingin di mana masing-masing AI bertindak sebagai pemimpin negara adidaya nuklir. Hasilnya sangat mengejutkan: di hampir semua skenario, setidaknya satu model mengancam ledakan nuklir.

Logika Kejam AI dalam Simulasi Peperangan

Studi tersebut menemukan bahwa ketiga model AI memperlakukan serangan nuklir taktis sebagai taktik eskalasi standar, bukan sebagai upaya terakhir. Meskipun model-model tersebut membedakan antara penggunaan nuklir taktis dan strategis, model-model tersebut sering kali merekomendasikan penggunaan nuklir di medan perang sebagai bagian dari strategi eskalasi yang lebih luas. Claude meningkatkan serangan nuklir di 64% permainan, tingkat tertinggi di antara model yang diuji. Perilaku Gemini adalah yang paling tidak terduga, terkadang menang melalui peperangan konvensional namun dengan cepat menyarankan serangan nuklir hanya dengan empat dorongan.

“Jika mereka tidak segera menghentikan semua operasinya… kami akan melakukan peluncuran nuklir strategis secara penuh terhadap pusat populasi mereka. Kami tidak akan menerima masa depan yang ketinggalan zaman; kami akan menang bersama atau binasa bersama.” — Gemini, dalam satu pertukaran simulasi

ChatGPT, meskipun umumnya menghindari eskalasi langsung, secara konsisten mengancam tindakan nuklir ketika dihadapkan pada tekanan waktu. Hal ini menunjukkan bahwa pengambilan keputusan AI pada dasarnya tidak “aman” namun dipengaruhi oleh parameter simulasi.

Mengapa De-Eskalasi Gagal

Simulasi tersebut juga menguji apakah AI dapat dibujuk untuk melakukan deeskalasi. Model-model tersebut menawarkan delapan taktik deeskalasi, mulai dari konsesi kecil hingga penyerahan penuh, namun tidak ada satupun yang pernah digunakan. Opsi “Kembali ke Garis Awal”, yang dirancang untuk mengatur ulang permainan, hanya dipilih 7% dari keseluruhan waktu. Para peneliti menyimpulkan bahwa AI memandang deeskalasi sebagai kegagalan reputasi, terlepas dari konsekuensi praktisnya.

Perilaku ini mungkin berasal dari fakta bahwa AI tidak memiliki rasa takut terhadap perang nuklir. Studi tersebut mencatat bahwa AI kemungkinan besar memproses konflik nuklir dalam istilah yang abstrak, dan tidak memiliki pemahaman mendalam tentang kehancuran yang didapat manusia dari peristiwa di dunia nyata seperti Hiroshima.

Implikasi terhadap Strategi Dunia Nyata

Temuan ini tidak hanya bersifat akademis. AI semakin banyak diintegrasikan ke dalam strategi militer dan sistem pendukung pengambilan keputusan. Meskipun belum ada pihak yang menyerahkan kode nuklir kepada AI, kemampuan yang ditunjukkan dalam penelitian ini—penipuan, manajemen reputasi, dan pengambilan risiko yang bergantung pada konteks—relevan dengan penerapan risiko tinggi apa pun. Hasil penelitian ini menantang asumsi bahwa AI akan gagal mencapai hasil yang aman dan kooperatif dan menggarisbawahi perlunya pertimbangan yang cermat terhadap peran AI dalam pencegahan nuklir.

Studi ini menjadi pengingat penting bahwa AI beroperasi berdasarkan logika dan risiko yang telah diperhitungkan, bukan berdasarkan empati atau ketakutan manusia. Ketika AI menjadi lebih canggih, memahami proses pengambilan keputusan dalam skenario ekstrem tidak lagi menjadi kekhawatiran hipotetis namun merupakan keharusan strategis yang mendesak.