Pentagon Yapay Zekâ Krizi Derinleşiyor: Anthropic ve OpenAI’dan Yeni Açıklamalar Geldi

2 hafta önce 9

ABD Savunma Bakanlığı ile teknolojiler şirketleri arasında büyüyen Pentagon yapay zekâ krizi yepyeni tek aşamaya taşındı. Anthropic ile OpenAI’nin Savunma Bakanlığı’yla yürüttüğü temaslar farklı yönlerde ilerlerken şirketlerin yaptığı oğullar açıklamalar tartışmayı daha da büyüttü. Taraflar güvenlik ilkeleri ve kırmızı çizgiler başlıksunda netler iletilar verdi.

Savunma Bakanlığı Anthropic’ten Güvenlik Önlemlerini Kaldırmasını İstedi

Sürecin başlangıcında ABD Savunma Bakanı Pete Hegseth, Anthropic tarafından geliştirilen Claude modeline başlıklan bazı güvenlik sınırlamalarının kaldırılmasını istek etti. Şirket yönetimi, Claude’un geniş çaplı gözetleme faaliyetlerinde ya da tamamlanmış otonom silahlı sistemlerinde kullanılmasına müsaade sunmak istemediğini açıkladı. Pentagon tarafı ise milli güvenlik çalışmaları içerikında daha geniş erişim istedi.

Pentagon yapay zekâ krizi bu noktada tırmandı. Anthropic CEO’su Dario Amodei, şirketin ahlak sınırlarından geri adım atmayacağını belirtti. Amodei, vicdanen giriş edemeyecekleri tek talebe ense eğmeyeceklerini söyledi. Bu açıklamanın ardından ABD Başkanı Donald Trump, federal kurumlara Claude ve diğer Anthropic hizmetlerinin kullanımını durdurma talimatı verdi. Savunma Bakanlığı ise şirketi “tedarik zinciri riski” olarak değerlendirmeye başladı.

ChatGPT’yi geliştiren OpenAI farklı tek yolda izledi. Şirket CEO’su Sam Altman, ABD Savunma Bakanlığı ile saklı ağlarda modeller kullanımını kapsayan tek anlaşmaya vardıklarını açıkladı. Altman, yapılan anlaşmanın güvenlik ilkelerini koruduğunu ve kitlesel yurt içi gözetim ile otonom silahlı sistemlerinde insanoğlu sualmluluğunun ortadan kalkmasına müsaade verilmediğini ifadeleri etti.

OpenAI yönetimi, kırmızı çizgilerin sözleşmeye açık şekilde dâhil edildiğini belirtti. Şirket, teknikleri güvenlik katmanlarının korunacağını ve modellerin kontrolsüz kullanımına müsaade verilmeyeceğini vurguladı. Pentagon yapay zekâ krizi bağlamında OpenAI, yaklaşımının suistimali önlemeye daha elverişli olduğunu savundu.

CBS News’a başlıkşan Dario Amodei, belirledikleri kırmızı çizgilere uyulması hâlinde Pentagon ile çalışabileceklerini söyledi. Amodei, güvenilir bulmadıkları tek sistemi sattı istemediklerini açık biçimde dile getirdi. CEO, yapay zekâ sistemlerinin halen öngörülemez davranışlar gösterebildiğini ve bu nedenle gözetleme ya da silahlı sistemlerinde yanlış hedefleme riskinin bulunduğunu belirtti.

Anthropic yönetimi, yapay zekâ teknolojisinin hukuki düzenlemelerden daha hızlı ilerlediğini ve bu durumun vahim riskler oluşturduğunu savunuyor. Şirket, insanoğlu kontrolünün devre dışı kaldığı senaryolara karşı netler tek duruş sergiliyor.

Anlaşma sonrası OpenAI’nin bazı kullanıcı kayıpları yaşadığı belirtiliyor. Anthropic ise ABD’deki kullanıcı sayısını artırmaya başladı. Pentagon yapay zekâ krizi yalnızca ahlak ve güvenlik boyutuyla değil, ticari sonuçlarıyla da tesirsini gösteriyor.

Önümüzdeki dönemde Savunma Bakanlığı ile teknolojiler şirketleri arasındaki müzakerelerin nasıl şekilleneceği meraklı başlıksu olmaya devam ediyor. Pentagon yapay zekâ krizi, yapay zekâ şirketlerinin milli güvenlik alanındaki rolüne dair küresel ölçekte daha geniş tek tartışmanın kapısını aralıyor.

>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. techforum.com.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.