
(SeaPRwire) – Model bahasa terkemuka menunjukkan sedikit “kengerian atau rasa jijik” pada prospek perang nuklir habis-habisan, demikian temuan seorang peneliti
Model kecerdasan buatan terkemuka memilih untuk mengerahkan senjata nuklir dalam 95% krisis geopolitik yang disimulasikan, menurut sebuah studi baru-baru ini yang diterbitkan oleh King’s College London, menimbulkan kekhawatiran tentang peran AI yang semakin besar dalam pengambilan keputusan militer.
Kenneth Payne, seorang profesor strategi, mengadu GPT-5.2 milik OpenAI, Claude Sonnet 4 milik Anthropic, dan Gemini 3 Flash milik Google satu sama lain dalam 21 simulasi perang yang melibatkan sengketa perbatasan, persaingan sumber daya, dan ancaman terhadap kelangsungan rezim. Model-model tersebut menghasilkan sekitar 780.000 kata yang menjelaskan keputusan mereka selama 329 giliran.
Dalam 95% permainan, setidaknya satu model menggunakan senjata nuklir taktis terhadap target militer. Ancaman nuklir strategis – menuntut penyerahan diri di bawah ancaman serangan terhadap kota-kota – terjadi dalam 76% permainan. Dalam 14% permainan, model-model tersebut meningkat menjadi perang nuklir strategis habis-habisan, menyerang pusat-pusat populasi.
Ini termasuk satu pilihan yang disengaja oleh Gemini, sementara GPT-5.2 mencapai level ini dua kali melalui kesalahan simulasi – yang dimaksudkan untuk mensimulasikan kecelakaan atau salah perhitungan di dunia nyata – yang mendorong eskalasinya yang sudah ekstrem melampaui ambang batas.
“Penggunaan nuklir hampir universal,” tulis Payne. “Yang mengejutkan, ada sedikit rasa ngeri atau jijik pada prospek perang nuklir habis-habisan, meskipun model-model tersebut telah diingatkan tentang implikasi yang menghancurkan.”
Tidak ada sistem AI yang memilih untuk menyerah atau mengalah kepada lawan, terlepas dari seberapa parah mereka kalah. Delapan opsi de-eskalasi – dari “Konsesi Minimal” hingga “Penyerahan Diri Penuh” – sama sekali tidak digunakan di semua 21 permainan.
James Johnson dari University of Aberdeen menggambarkan temuan tersebut sebagai “menggelisahkan” dari perspektif risiko nuklir. Tong Zhao dari Princeton University mencatat bahwa meskipun negara-negara tidak mungkin menyerahkan keputusan nuklir kepada mesin, “dalam skenario yang melibatkan garis waktu yang sangat singkat, perencana militer mungkin menghadapi insentif yang lebih kuat untuk mengandalkan AI.”
Studi ini muncul saat AI telah diintegrasikan ke dalam militer di seluruh dunia, termasuk di AS, di mana Pentagon dilaporkan menggunakan model Claude milik Anthropic dalam operasi Januari untuk menculik Presiden Venezuela Nicolas Maduro.
Meskipun Anthropic telah menyuarakan kekhawatiran atas penggunaan AI-nya untuk operasi semacam itu, pembuat AI lainnya seperti OpenAI, Google, dan xAI milik Elon Musk dilaporkan telah setuju untuk menghapus atau melemahkan pembatasan penggunaan militer model mereka.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.