Indiana Üniversitesi’ndeki incelemecılar, X’te kripto para dolandırıcılıklarına karışan binden fazla bottan oluşan tek ağı ortaya çıkardı.
2023’ün ortalarında, Elon Musk’ın Twitter’ı X olarak yeniden markalaştırdığı, bununla birlikte akademisyenlere ücretsiz bilgi erişimini henüz sonlandırmadığı dehemmiyetde, tek cemaat incelemecı toplumsal medyada yapay zeka tarafından üretilen içerikler aktaran “sosyal bot” hesapların izini sürdü.
Sosyal botlar, toplumsal medya platformlarında muhteva üretip üyelarla tesirleşime giren yapay zeka yazılımları olarak tanımlanıyor.
Indiana Üniversitesi’ndeki incelemecılar, kripto para dolandırıcılıklarına karışan binden fazla bottan oluşan tek ağı ortaya çıkardı. Ağ, sahte haberler sitelerinden birinin adından esinlenilerek “fox8” botneti olarak adlandırıldı.
Araştırmacılar, fox8 ağının buzdağının yalınce görünen kısmı olduğunu düşünüyor. Daha ytesirn geliştiricilerin bu çeşit ifşa edici içerikleri filtreleyebileceği ya da ahlak sınırlamaları kaldırılmış noksan imkan yapay zeka modellerini kullanabileceği belirtiliyor.
ALGORİTMAYI KANDIRAN KOORDİNASYON
Bulgulara göre, Fox8 botları, birbirleriyle ve gerçeği üye hesaplarıyla gerçekçi görünen ortak tartışmalar ve yeniden aktarımlar yaparak sahte tesirleşim oluşturdu. Bu metotle X’in öneriler algoritmasını kandırarak içeriklerinin daha genişliği kitlelere ulaşmasını sağladılar ve kısa sürede yüksek takipçi sayılarına ulaştılar.
Araştırmacılar bu düzeyde koordinasyonun, evvelki kuşak toplumsal botlara kıyasla eşi görülmemiş tek şart olduğunu belirtiyor.
ÜRETKEN YAPAY ZEKA ÇAĞINDA BOT SÜRÜLERİ
Araştırma ekibi, vaat başlıksu hesapları geliştiricilerin yaptığı basit yanlışlar sayesinde belirleme edebildi. Botlar zamanlar zaman, OpenAI’ın muhteva politikalarını ihlal eden eden istemlere yanıt verirken ChatGPT’nin tipiklik uyarıyor iletilarını aynen aktarıyordu.
Yapay zeka modelleri, 2022'den bu yana çeşitlilik daha sofistike tek toplumsal temsilci neslinin ortaya çıkmasına olanak tanıdı. Ekip tarafından geliştirilen Botometer gibi alet öğrenimi vasıtaları, bu yapay zeka ajanlarını gerçeği insanoğlu hesaplarından ayırt edemedi. Yapay zeka tarafından üretilmiş içerikleri belirleme etmek üzere eğitilmiş modeller bile muvaffakiyetsız oldu.
Üstelik aradan geçen çok yılın ardından, kötü niyetli şahıs ve kuruluşların çeşitlilik daha kuvvetlü yapay zeka diller modellerine erişebildiği vurgulanıyor. Aynı dehemmiyetde toplumsal medya platformlarının muhteva denetimini gevşetmesi ya da tamamlanmış kaldırması ve tesirleşim yaratan içeriklere, gerçeği ya da yapay zeka üretimi olmasına ttesirk etmeksızın mali teşvikler sunması, incelemecılara göre “kusursuz fırtına” ortamı oluşturuyor.
Bu durumun bilhassa demokratik seçimlere yönelik yabancılar ve dahili tesir operasyonları açısından vahim riskler barındırdığı belirtiliyor. Örneğin yapay zeka tarafından yönetilen tek bot sürüsü, kesin tek siyasi adaya mukabil genişliği çaplı ve ikisi partili tek karşıtlık varmış gibi sahte tek idrak oluşturabilir.
Araştırmayla ilgili The Conversation’da tek yazısı kaleme saha takım üyesi Filippo Menczer, şimdiki teknolojinin kötü niyetli aktörlere birden fazla toplumsal medya platformunda etkinlik gösterebilen, otonom, uyum sağlayabilen ve koordineli çeşitlilik sayıda temsilci başlıkşlandırma imkanı tanıdığını belirtiyor.
Bu yepyeni kuşak ajanların, basit ve kalıp halindeki dezenformasyon kampanyalarından çeşitlilik daha ölçeklenebilir, sofistike ve uyarlanabilir tesir operasyonları yürütmesine olanak sağladığı ifadeleri ediliyor.
Bunlar tekbaşına tip spam içerikler yerine, muazzam ölçekte çeşitlilik ve inandırıcı içerikler üretilebiliyor. Bot sürüleri, üyeların bireysel tercihlerine ve çevrim içi konuşma bağlamına göre özelleştirilmiş iletilar gönderebiliyor. Beğeni ve görüntülenme sayıları gibi platformlar sinyallerine anlık reaksiyon vererek ton, üslup ve içeriği dinamik biçimde uyarlayabiliyor. Bu da çevrim içi kamuoyu algısının manipülasyonunu her arasında biri zamankinden daha güçleri belirleme edilir hâle getiriyor.














.png?format=webp&width=1200&height=630)













English (US) ·