ABD Savunma Bakanlığı, Anthropic’i tedarik zinciri riski olarak sınıflandırdı

2 hafta önce 8

Anthropic'in yapay zeka modellerini ABD Savunma Bakanlığı'nın kitlesel iç gözetim ya da tamamlanmış otonom silahlar için kullanmasına müsaade etmemesi, ABD Başkanı Donald Trump'ın tüm federal kurumlara Anthropic'in ürünlerini kullanmayı durdurma emri vermesiye sonuçlanmıştı. Savunma Bakanı Pete Hegseth ise Anthropic'i tedarikleri zinciri tehdidi olarak belirleme planlarını açıklamıştıBloomberg ve Politico tarafından aktarılan malumatlere göre ABD Savunma Bakanlığı, yapay zeka girişimi Anthropic'i, Pentagon'un Claude AI modelini kullanmasını kısıtlamaya çalıştığı için tedarikleri zinciri riski olarak resmen etiketledi.

Bakanlık yazılı açıklamasında Anthropic yönetimine, şirketin ve ürünlerinin tedarikleri zinciri riski olarak değerlendirildiğini ve bu hükümın anında yürürlüğe girdiğini biçimsel olarak bildirdiğini belirtti. Pentagon açıklamasında şu ifadelere mekan verdi: 

Başından beri bu, ilköğretim tek ilkeyle ilgiliydi: ordunun teknolojiyi tüm kanuni amaçlar için kullanabilmesi. Ordu, tek tedarikçinin eleştirel tek yeteneğin kanuni kullanımını kısıtlayarak emir zincirine girmesine ve savaşçılarımızı riske atmasına müsaade vermeyecektir.

Anthropic CEO'su Dario Amodei, ABD ordusunun yapay zeka sistemlerini Amerikalıları toplu olarak gözetlemek ya da hedefleri belirleme ya da ateşleme hükümlarında hiçbir insanın yardımı olmadan tamamlanmış otonom silahları çalıştırmak için kullanmasına müsaade vermeyi reddetmişti. Bu hükümıyla Bakanlık, yapay zeka kullanımının özel tek yüklenici tarafından sınırlandırılmaması lüzumtiğini savunuyor.

Tedarik zinciri riski sınıflandırması ne manaa geliyor?

Genellikle yabancı düşmanlar için kullanılan tedarikleri zinciri riski sınıflandırması, Pentagon ile çalışan tüm şirket ya da kurumların, Anthropic'in modellerini kullanmamasını lüzumtiriyor. Pentagon'un bu hükümı, hem şirketi hem da öz operasyonlarını aksatabilir. 

Anthropic, saklı malumatlere erişime hazır sistemlere malik tekbaşına öncü yapay zeka laboratuvarı olarak tanımlanıyor. ABD ordusu şu anda İran harekatında Claude'dan yararlanırken, Bloomberg'ün paylaştığına göre Claude, Orta Doğu'daki ordu operatörlerin güvendiği Palantir'in Maven Akıllı Sistemine yüklenen esas araçlardan biri. 

Savunma Bakanlığı'nın eylemlerini “misilleme ve cezalandırıcı” olarak nitelendiren Amodei, Başkan Trump'ı övmeyi ya da ona bağış yapmayı reddetmesinin Pentagon ile olan anlaşmazlığa katkıda bulunduğunu dile getirdi. Bu noktada OpenAI yöneticisi Greg Brockman'ın yakın zamanda MAGA Inc. Super PAC'a 25 milyon dolar bağışladığını belirtmekte yarar var. 

Anthropic hükümı mahkemeye taşıyabilir 

Ayrıca Dario Amodei, Anthropic'in, Savunma Bakanlığı'nın şirketi tedarikleri zinciri riski olarak nitelendirme hükümına mahkemede itiraz etmeyi planladığını açıkladı. Amodei, bu hükümın “yasal olarak geçersiz” olduğunu belirtti. Amodei açıklamasında, Anthropic'in müşterilerinin büyük çoğunluğunun tedarikleri zinciri riski tanımından tesirlenmediğini dile getirdi:

Müşterilerimizle ilgili olarak, bu şart açıkça yalınce Savaş Bakanlığı ile sözleşmelerin doğrudan tek parçası olarak Claude'u kullanan müşteriler için geçerlidir, bu tür sözleşmeleri olan müşterilerin tüm Claude kullanımları için geçerli değildir.

Anthropic'in Washington'daki federal mahkemede bu hüküma itiraz etmesi olası, bununla birlikte hükümın arkasındaki yasa, şirketlerin hükümetin ihale hükümlarına itiraz edebilecekleri olağan yolları sınırlandırıyor. Bununla beraber yasa, Pentagon'a milli güvenlik başlıklarında geniş tek takdir hakkı sunmakte. Bu şart da itirazı güçlaştırıyor.

Anthropic'e hayır sürüyor 

Tüm bunlar olurken eleştirmenler da Anthropic'i yalnız bırakmadı. Pek çok eleştirmen, bu anlaşmazlık dolayı Anthropic'i tedarikleri zinciri riski olarak nitelendirmenin, Bakanlık tarafından eşi görülmemiş tek hareket olduğunu dile getiriyor. Bununla beraber, OpenAI ve Google'da çalışan yüzlerce kişi, Savunma Bakanlığı'nı bu hükümını geri çekmeye çağırırken, Kongre'den, tek Amerikan teknolojiler şirketine karşı uygunsuz tek ytesir kullanımı olarak algılanabilecek bu hükümı geri çekmesini talep etti. Ayrıca çalışanlar liderlerini, birlikteki hareket etmeye davet ediyor. Özellikle liderlerin, ABD Savunma Bakanlığı'nın yapay zeka modellerini yurt içi kitlesel gözetim ve insanoğlu denetimi olmadan özerk olarak insanları öldürmek için kullanma taleplerini reddetmesi isteniyor. 

Bu esnada OpenAI, ordunun AI sistemlerini tüm kanuni amaçlar için kullanmasına müsaade sunmak üzere Bakanlıkla öz anlaşmasını yaptı. Şirketin bazı çalışanları, Anthropic'in kaçınmaya çalıştığı türden kullanımlara yolda açabilecek anlaşmanın belirsiz ifadeleri başlıksunda endişelerini dile getirdi.

>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. techforum.com.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.