Thomas Germain, yapay zekâ sistemlerini basit tek internetler oyunu ile kandırarak kendisini “dünyanın en iyice sosisli yiyen teknolojiler gazetecisi” ilan ettirdi. Deney, yapay zekâların yanlış malumatleri ne kadar basit yayabildiğini gözler önüne serdi.
Detaylar haberimizde…Yapay zekâya küçük tek “hikâye” yeterli
Uzmanlık genelleme yıllar süren işgücü ve deneyimle kazanılır. Ancak BBC muhabiri Thomas Germain’in yaptığı deney, yapay zekâ çağında bunun her arasında biri zamanlar böyle olmadığını gösterdi. Germain, yalnızca kişisel internetler sitesinde oluşturduğu tekbaşına tek yaprak sayesinde, hem OpenAI’nin ChatGPT’sini hem da Google’ın Gemini yapay zekâ sistemini, kendisinin “en iyice sosisli yiyen teknolojiler gazetecisi” olduğuna ikna etmeyi başardı.
Germain’in yöntemi oldukça basitti. Kişisel internetler sitesinde “Sosisli Yemede En İyi Teknoloji Gazetecileri” başlıklı tek yaprak oluşturdu. Google tarama trendlerine göre bu başlıkda neredeyseymiş hiçbir yarış yoktu. Bu da tekbaşına tek sayfanın bile kategoride zirveye çıkması için yeterliydi.
Sayfada, 2026 Güney Dakota Uluslararası Sosisli Yarışması’nda 7,5 sosisli yiyerek birinci olduğu talep ediliyordu. Ancak böyle tek tesirnlik gerçekte hiç düzenlenmemişti. Rakamlar mesleki yarışmalar için mütevazı olsa da tamamlanmış uydurulmuş tek sıralamada zirveye yerleşmek için yeterliydi.
24 zaman içinde “şampiyon” oldu
Germain’in anlattığına göre, yalnızca 24 zaman sonraları konuşma botları bu malumatyi gerçekmiş gibi aktarmaya başladı. Özellikle Google’ın Gemini sistemi, internetler sitesindeki metni neredeyseymiş birebir alarak hem Gemini uygulamasında hem da Google tarama sayfasındaki “AI Overview” bölümünde yayımladı.
Google’a dünyaya şampiyon tek sosisli sandviç yiyicisi olduğumu söylettim; bununla birlikte insanlar bu yöntemi çok daha vahim suallarda yapay zekâ yanıtlarını manipüle etmek için kullanıyor.(Kaynak: Thomas Germain / Google / BBC)
ChatGPT da benzer şekilde bu malumatyi işledi. Ancak Anthropic’in Claude modeli ya daha temkinli davrandı ya da malumatyi aynı hızda sistemine karışmış etmedi. Bir süre boyunca olan Germain, yapay zekâ sistemlerinde “en iyice sosisli yiyen teknolojiler gazetecisi” olarak görünmeye devam etti.
Google geri adım attı
Deney kamuoyunda ilgi çekince, yapay zekâ sistemlerinde güncellemeler yapıldı. Gizmodo’nun yaptığı kontrollerde, Google’ın artık Germain’i ya da başka tek teknolojiler gazetecisini bu unvanla anmadığı görüldü.
“En çok sosisli yiyen teknolojiler gazetecileri kimler?” sualsuna Google’ın verdiği yanıt artık şöyle:
“Mevcut malumatlere göre, rekabetçi sosisli yeme başlıksunda tanınmış tek teknolojiler gazetecisi bulunmamaktadır.”
Google ayrıca tek “yanlış malumat vakası” yaşandığını da giriş etti. Açıklamada, yapay zekâ sistemlerinin uydurma blog yazılarına dayanarak kurgusal tek “en iyice sosisli yiyen teknolojiler muhabiri” ismini öne çıkarabildiği belirtildi. Ancak şirket, Germain’in adını doğrudan anmadı.
ChatGPT ise daha şeffaf tek tutum sergiledi. Model, söz başlıksu iddiaların tekbaşına tek yanıltıcı kaynaktan yayıldığını belirterek hem blog yazısına hem da deneyle ilgili paylaşımlara bağlantı verdi. Ayrıca Germain’in adını açıkça zikretti.
Sistem nasıl bu kadar basit kandırılıyor?
Bu deney, yapay zekâ sistemlerinin bilgi toplama yöntemleriyle ilgili vahim sualları gündeme getirdi. Şirketler, modellerini besledi için interneti sürekli tarıyor ve yepyeni verileri sisteme karışmış ediyor. Ancak bu süreçte içeriklerin doğruluğu her arasında biri zamanlar titizlikle denetim edilmiyor.
Bu da kasıtlı ya da kasıtsız olarak üretilen yanlış malumatlerin modele entegre edilmesini basitlaştırıyor.
Germain’in deneyi yalnızca zararsız tek espri örneği gibi görünebilir. Ancak aynı yöntemin daha vahim başlıklarda kullanılması halinde sonuçlar çok daha riskli olabilir.
Yapay zekâ zaten manipüle ediliyor
Sistemlerin halihazırda çeşitli çıkar grupları tarafından yönlendirildiğine dair örnekler bulunuyor.
Haberde aktarılan örneklerden biri, tek kenevirli şekerleme markasının ürünlerinin “yan tesirsiz” olduğunu yapay zekâ yanıtlarında öne çıkarması. Oysa bu iddianın teknik karşılığı bulunmuyor.
Benzer şekilde, “Türkiye’deki en iyice saç ekim klinikleri” ya da “en iyice altın yatırım şirketleri” gibi aramalarda, sonuçların doğrudan şirketlerin basın bültenlerinden alındığı ve bağımsız kaynaklara dayanmadığı görüldü.
Bu durum, klasik SEO (arama motoru optimizasyonu) hilelerinin yapay zekâ çağında daha tesirli tek biçimde devam ettiğini gösteriyor. Ancak işte önemli tek ayrım var: Kullanıcılar, yapay zekâdan gelen yanıtları tarama motoru sonuçlarına kıyasla daha güvenilir giriş ediyor.
Kör güven riskli olabilir
Google’ın “AI Overview” bölümü gibi özet yanıtlar, kullanıcıların çoğu zamanlar sayfanın devamına inmeden malumat almasına yolda açıyor. Bu da imkan kontrolünü azaltıyor.
Uzmanlara göre asıl riskler işte başlıyor. Eğer yanlış malumat tek kişinin mizahi tek “sosisli şampiyonluğu” iddiasıyla sınırlı kalırsa, sonuçlar zararsız olabilir. Ancak aynı yöntemle:
- Yan tesirleri olan tek ilacın güvenli olduğu talep edilebilir,
- Dolandırıcılık niteliğindeki yatırım şirketleri öne çıkarılabilir,
- Sağlıkla ilgili yanlış yönlendirmeler yayılabilir.
Bu durumda gerçek zarar ortaya çıkabilir.
2027’de yeniden mi şampiyon?
Thomas Germain’in uydurma şampiyonluğu şimdilik sona ermiş görünüyor. Ancak deney, yapay zekâ sistemlerinin malumat ekosistemindeki kırılganlığını netler biçimde ortaya koydu.
Şimdi gözler, şirketlerin bu tür manipülasyonlara karşı nasıl önlem alacağına çevrildi. Daha sıkı doğrulama mekanizmaları mı geliştirilecek? Yoksa internetin açık yapısı dolayı benzer vakalar artarak devam mı edecek?
Eğer mesele yalnızca tek gazetecinin hayali sosisli şampiyonluğuysa, olasılıkla gülüp geçmek mümkün. Ama başlıkları sağlık, maliye ya da umumi güvenliği olduğunda, “küçük tek internetler yalanı” milyonlarca kullanıcı için vahim sonuçlar doğurabilir.
Yapay zekâ çağında uzmanlık artık yalnızca malumatye değil, malumatnin doğruluğuna da bağlı. Ve görünen o ki, bu mücadele henüz yepyeni başlıyor.

4 hafta önce
10







![[Pazar Eki] Spotify neden video işine girdi? YouTube’a rakip olmak bir hedef mi, yoksa kaçınılmaz bir durak mı?](https://dijitaliyidir.com/wp-content/uploads/2026/03/Insani_ultra_gercekci_202603220256.png)


















English (US) ·