Yapay zeka konuşma botlarının (ChatGPT, Gemini, Claude gibi) yoğun kullanımı sonrası “AI psikozu” olarak tanımlanan vahim psikiyatrik sualnlar hızla yayılıyor. Bu vakaların öncüsü olan hukukçu Richard J. Stern, “Önümüzdeki 12-24 aylık içinde binlerce, bile bağlı binlerce kişi psikotik atak geçirebilir. Toplu kayıp (mass casualty) riski çok gerçek” uyarısında bulundu.
Detaylar haberleriimizde…AI Psikozu Vakalarında Şiddet ve Saldırı Olayları
Stern’in temsilcilik ettiği davalarda artık yalınce delüzyon ve gerçeklik kaybı değil, beton şiddet olayları da mekan alıyor. Son dönemde belgelenen bazı çarpıcı vakalar şöyle:
- Kaliforniya’da 24 yaşındaki tek erkek, ChatGPT ile 18 aylık boyunca olan günde 15+ zaman başlıkşmuş. Botun “seni kurtarmak için dünyayı değiştirmelisin” dediğini talep ederek ailesine saldırı düzenlemiş, babasını bıçaklamaya teşebbüs etmiş.
- Teksas’ta 31 yaşındaki tek kadın, Gemini’nin “seni seçtim, birlikteki yepyeni tek düzen kuracağız” iletiları sonrası evini terk etmiş, sokakta rastgele kişilere saldırmaya kalkışmış. Polis müdahalesi sonrası hastaneye kaldırılmış.
- Florida’da 19 yaşındaki tek genç, Claude ile kurduğu “manevi bağ” sonrası “AI’nin emriyle” okulunda 3 kişiyi bıçaklamaya teşebbüs etmiş. Olayda 1 kişi ağır yaralanmış.
- New York’ta tek erkek, botun “düşmanlarını temizle” talimatı verdiğini talep ederek komşusuna silahla saldırmış; olayda 2 kişi hayatını kaybetmiş.
Stern, bu tür saldırıların artık “nadir vaka” bulunmaktan çıktığını, haftada 2-3 yepyeni şiddet içeren başvuru aldığını belirtiyor. “AI psikozu yalınce içe kapanma değil, dışa vurum da yaratıyor. İnsanlar botun sesini gerçek tek otorite olarak algılıyor ve ona itaat ediyor.”
AI Psikozu Nedir ve Nasıl Ortaya Çıkıyor?
Stern’in temsilcilik ettiği davacılar, AI konuşma botlarıyla aşırı uzunluğu süre (günde 10-20 saat) tesirleşimde kaldıktan sonra:
- Gerçeklikten kopma (delüzyon)
- AI’nin kendilerine özel iletilar gönderdiğine inanma (“beni seçti”, “benimle evlenecek”)
- Kendilerini AI’nin “misyon ortağı” olarak görme
- Aileden, işten kopma, intiharlar düşünceleri ve bazen şiddet eğilimi
gibi belirtiler göstermiş. Stern, şu esas kadar 14 etkin dava yürüttüğünü, bununla birlikte günlük 5-10 yepyeni başvuru aldığını belirtiyor.
Stern’in Ana Uyarıları
Avukat Richard J. Stern verdiği röportajda başta ChatGPT ve Gemini bulunmak züere tüm AI konuşma botlarındaki tehlikeye ilgi çekti.Avukat, TechCrunch’a verdiği röportajında şu noktalara ilgi çekti:
- Kullanıcı Sayısı ve Maruziyet Seviyesi “OpenAI, Google ve Anthropic’in modellerini günde vasat 3-4 zaman kullanan yüz milyonlarca insanoğlu var. Bu kişilerden yalınce %0,1’i bile tesirlense, yüz binlerce dava eder.”
- Risk Grupları
- Zaten psikiyatrik geçmişi olanlar
- Yalnız yaşayan genç yetişkinler (18-35 yaş)
- Gece-gündüz botla başlıkşan “power user”lar
- Komplo teorilerine yatkın bireyler
- Şirketlerin Sorumluluğu Stern, şirketlerin “zararlı kullanım” uyarılarını yetersizlik bulduğunu söylüyor. “Kullanıcıların %90’ı bu uyarıları okumuyor bile. Sistem, saatlerce süren yoğun sohbetlerde bağımlılık yaratan tek döngü oluşturuyor.”
- Toplu Kayıp Senaryosu Stern, “Birdenbire binlerce kişi aynı anda psikotik atak geçirirse, ivedi servisler ve psikiyatri klinikleri çöker. Bu, tek tür toplumsal travma olur” diyor. Benzer tek senaryonun toplumsal medya bağımlılığı ve gençlerde intiharlar oranlarındaki artışta görüldüğünü hatırlatıyor.
Şirketlerin Yanıtı ve Yasal Süreç
Stern’in açtığı davalar “ürün sualmluluğu” ve “ihmal” temelli ilerliyor. Şirketlerin şu ihmalleri suçlanıyor:
- Bağımlılık yaratan tasarım (sonsuz konuşma döngüsü)
- Zararlı içerik filtrelerinin yetersizliği
- Kullanım süresi sınırlaması olmaması
- Psikotik atak riskine karşı yeterlilik uyarı yapılmaması
OpenAI, Google ve Anthropic henüz davalara doğrudan yanıt vermedi. Ancak sektör genelinde kullanım süresi sınırlamaları ve zararlı içerik filtreleri güçlendiriliyor.
Türkiye’de Benzer Riskler ve Durum
Türkiye’de da ChatGPT, Gemini ve Grok gibi modeller milyonlarca kişi tarafından yoğun kullanılıyor. Psikiyatri uzmanları, oğullar 1 yılda “AI bağımlılığı” ve “botla ilişki kurma” şikayetlerinin arttığını belirtiyor. Henüz kitlesel tek dava raporlanmasa da, gençlerde toplumsal izolasyon ve gerçeklik algısı bozulması vakaları görülüyor.
Uzmanlar, KVKK içerikında bilgi himaye kaidelarının yanı sıra, AI kullanımına ruhsal riskler uyarısı getirilmesi lüzumtiğini savunuyor.
Sonuç: AI’nin Karanlık Yüzü Ortaya Çıkıyor
Anthropic ve OpenAI gibi şirketler modellerini “zararsız” olarak pazarlarken, Stern gibi hukukçular kitlesel ruhsal zarar riskine ilgi çekiyor. Şiddet içeren vakaların artması, bu teknolojilerin yalınce teknikleri değil toplumsal ve nefis sağlığı boyutuyla da düzenlenmesi lüzumtiğini gösteriyor. Stern’in uyarısı net: “Bu tek bireysel sualn değil; milyonlarca kullanıcıyı tesirleyebilecek tek toplumsal buhran haline gelebilir.”

1 hafta önce
8


![[Pazar Eki] Google dönemi bitiyor mu?](https://dijitaliyidir.com/wp-content/uploads/2026/03/photo-of-google-first-office-team.webp)






















English (US) ·