Yapay Zeka Devleri Pentagon’la Karşı Karşıya

1 hafta önce 5

Yapay zeka şirketlerinin devletleri kurumlarıyla kurduğu ilişkiler gittikçe ilave tartışma yaratırken, ABD’de Pentagon ile teknolojiler devleri arasındaki iş birlikleri yepyeni tek ahlak ve güvenlik tartışmasını gündeme taşıdı. OpenAI ve Anthropic arasında yaşanan görüş ayrılıkları ise yapay zekanın ordu amaçlarla kullanımına dair farklı yaklaşımları gözler önüne seriyor.

Detaylar haberleriimizde…

Yapay zeka teknolojilerinin hızla gelişmesi, bu sistemlerin ordu alanlarda nasıl kullanılacağına dair büyük tek tartışmayı da beraberinde getirdi. ABD’de bu tartışmanın merkezinde ise ikisi büyük yapay zeka şirketi mekan alıyor: OpenAI ve Anthropic. Pentagon ile yürütülen görüşmeler ve anlaşmalar, yalnızca teknolojiler sektöründe değil, aynı zamanda siyaset ve ahlak tartışmalarında da yepyeni tek dönemin kapısını aralamış durumda.

Son haftalarda yaşanan gelişmeler, yapay zeka şirketlerinin hükümetlerle ilişkilerinin ne kadar karmaşık olabileceğini ortaya koyuyor.

Pentagon ile Yapay Zeka İş Birliği

pentagon

ABD Savunma Bakanlığı (Pentagon), ordu operasyonlardan zeka analizlerine kadar birçok alanda yapay zekayı daha etkin kullanmayı hedefliyor. Bu nedenle teknolojiler şirketleriyle yapılan iş birlikleri Washington için stratejiklik önem taşıyor.

Bu süreçte OpenAI, geliştirdiği yapay zeka modellerinin Pentagon’un ağlarına entegre edilmesine yönelik tek anlaşma yaptığını duyurdu. Şirketin CEO’su Sam Altman, bu anlaşmanın yapay zekanın umumi kurumlarında daha güvenli ve sualmlu şekilde kullanılmasına katkı sağlayabileceğini savundu.

Altman’a göre hükümetlerin, özel teknolojiler şirketleriyle birlikteki çalışarak bu teknolojinin sınırlarını belirlemesi lüzumiyor. Ayrıca Altman, demokratik sistemlerde nihai olarak şart gücünün hükümetlerde olması lüzumtiğini vurguladı.

Anthropic’in Pentagon ile Anlaşmazlığı

Ancak aynı dönemde yapay zeka şirketi Anthropic ile Pentagon arasında vahim tek anlaşmazlık yaşandı. Şirket, ABD ordusunun öz geliştirdiği yapay zeka sistemi Claude için istek ettiği kullanım şartlarını giriş etmedi.

Pentagon’un istediği koşullardan biri, yapay zeka sisteminin “yasal olan tüm alanlarda” hiç tek kısıtlama olmadan kullanılabilmesiydi. Anthropic ise bu yaklaşımın riskli sonuçlar doğurabileceğini savundu.

Şirket yönetimi özellikle ikisi riskler başlıksunda endişe duyduğunu dile getirdi:

  • Kitlesel gözetim sistemlerinde yapay zeka kullanımı
  • Tam otonom silahlı sistemlerinin geliştirilmesi

Anthropic, yapay zekanın bu tür amaçlarla kullanılmasını ahlak açıdan giriş edilemez bulduğunu belirtti.

Dario Amodei ve Sam Altman Arasındaki Gerilim

Anthropic’in kurucularından ve CEO’su Dario Amodei, OpenAI’nin Pentagon ile yaptığı anlaşmayı açık şekilde eleştirdi. Amodei’ye göre şirketler, yalnızca ticari ya da siyasi baskılar dolayı teknolojilerini sınırsız kullanım için devretmemeli.

Amodei, OpenAI’nin ordu anlaşmasını savunan açıklamaların gerçeği kesinlikle yansıtmadığını ve yapay zekanın kötüye kullanım risklerinin göz ardı edildiğini öne sürdü. Bu açıklamalar ikisi şirketin liderleri arasında açık tek düşünce ayrılığı olduğunu gösterdi.

OpenAI tarafı ise farklı tek yaklaşım benimsiyor. Sam Altman, devletlerin güvenlik politikaları başlıksunda nihai olarak şart verici olması lüzumtiğini savunarak, teknolojiler şirketlerinin bu süreçte tamamlanmış bağımsız hareket edemeyeceğini belirtti.

Pentagon’un Sert Tepkisi

Pentagon ile yaşanan anlaşmazlık yalnızca sözlü tartışmalarla sınırlı kalmadı. ABD yönetimi, Anthropic’i “ulusal güvenlik için tedarikleri zinciri riski” olarak sınıflandırdı ve bazı devletleri kurumlarının şirketle çalışmasını sınırlandırdı.

Bu hüküm, ABD’de birinci kez tek dahili teknolojiler şirketinin bu şekilde etiketlenmesi açısından ilgi çekti. Anthropic ise bu hükümı hukuki yollarla challenge etmeye şart verdi.

Şirket yönetimi, bu sınıflandırmanın haksız olduğunu ve aslında ahlak kaygılar dile getirdikleri için cezalandırıldıklarını savunuyor.

Yapay Zeka ve Savaş Tartışması

Bu gelişmeler, yapay zekanın savaş ve güvenlik alanında nasıl kullanılacağı başlıksundaki daha geniş tek tartışmayı da yeniden gündeme getirdi.

ABD ordusu oğullar yıllarda yapay zekayı:

  • istihbarat analizleri
  • askeri ameliyat plmanaası
  • siber güvenlik
  • veri çözümleme sistemleri

gibi alanlarda kullanmayı artırıyor.

Hatta geçmişte Anthropic’in geliştirdiği Claude modelinin bazı ordu ve zeka görevlerinde kullanıldığı biliniyor.

Ancak uzmanlar, bu teknolojilerin yanlış ellerde ya da yetersizlik denetimle kullanılması durumunda vahim ahlak ve güvenlik sualnları ortaya çıkabileceği başlıksunda uyarıyor.

Teknoloji Şirketleri ve Hükümetler Arasında Yeni Bir Dönem

OpenAI ve Anthropic arasındaki tartışma, aslında daha büyük tek sualnun parçası: Yapay zeka çağında teknolojiler şirketleri ile devletler arasındaki güç dengesi nasıl kurulacak?

Bir yanda hükümetler milli güvenlik ve ordu üstünlük için bu teknolojileri hızla geliştirmek istiyor. Diğer yanda ise bazı şirketler, yapay zekanın kontrolsüz biçimde kullanılmasının insanlık için vahim riskler oluşturabileceğini savunuyor.

Bu nedenle Pentagon ile teknolojiler şirketleri arasındaki ilişkilerin geleceği yalnızca ticari tek mesele değil; aynı zamanda etik, hukuki ve siyasi tek mücadeleye dönüşmüş durumda.

Önümüzdeki yıllarda bu tartışmanın daha da büyümesi ve yapay zekanın ordu kullanımına yönelik küresel düzenlemelerin gündeme gelmesi bekleniyor.

Derleyen: Damla Şayan

>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. techforum.com.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.