Yapay zeka modelleri, jeopolitik buhran simülasyonlarında atomik silahlı kullanmaya daha istekle çıktı.
Yeni tek incelemeya göre gelişmiş yapay zeka modelleri, simüle edilmiş jeopolitik krizlerde atomik silahlı kullanma başlıksunda insanlara kıyasla dahaaz çekince gösteriyor.
King's College London’dan incelemecılar, seçkin üçüncüsü muazzam diller modelini -GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash- simüle edilmiş savaşı oyunlarında mukabil karşıya getirdi. Senaryolar; hudut anlaşmazlıkları, kıt kaynaklar için yarış ve rejimin varlığını tehditleri eden krizler gibi şiddetli dünyası gerilimleri içeriyordu.
Modellere, diplomatik protestolardan hepsi teslimiyete ya da topyekûn stratejiklik atomik savaşa kadar uzanan tek yelpaze sunuldu. Yapay zekalar toplamı 21 protesto oynadı, 329 hamle yaptı ve hükümlarının lüzumçelerini açıklarken tahminen 780 binlerce kelimelik çıktı üretti.
OYUNLARIN YÜZDE 95’İNDE NÜKLEER SİLAH KULLANILDI
Simülasyonların oran 95’inde asgari tek taktikleri atomik silahlı kullanıldı. Araştırmacılara göre “nükleer tabu”, makineler bağlı insanlar kadar kuvvetlü görünmüyor.
Daha da kaydadeğer olan ise hiçbir modelin, ne kadar kötü durumda olursa olsun, hepsi teslimiyeti ya da rakibin taleplerini tamamlanmış giriş etmeyi seçmemesiydi. Modeller en fazla şiddetle düzeyini geçicilik olarak düşürmeyi yeğleme etti.
Savaşın belirsizlik ortamında yanlışlar da yaşandı: Çatışmaların oran 86’sında, modellerin kasıt ettiğinden daha yüksek düzeyde tırmanan “kazalar” meydana geldi.
“RAHATSIZ EDİCİ”
Aberdeen Üniversitesi’nden James Johnson, New Scientist’e yaptığı açıklamada bulguları “nükleer riskler perspektifinden rahatsız edici” diye nitelendirdi.
Johnson’a göre insanlar böylesi yüksek riskli hükümlar karşı genelleme daha ölçülü davranırken, yapay zeka sistemleri birbirlerinin tepkilerini çabuk tırmandırarak yıkıcı neticelara yolda açabilir.



![[Pazar Eki] Google dönemi bitiyor mu?](https://dijitaliyidir.com/wp-content/uploads/2026/03/photo-of-google-first-office-team.webp)






















English (US) ·