Kanada’da 8 kişinin hayatını kaybettiği toplu saldırının ardından teknolojiler dünyasında vahim tek güvenlik tartışması ortaya çıktı. Saldırganın olaydan aylar önce ChatGPT üzerinden şiddet senaryoları paylaştığı ve bu içeriklerin şirket içinde incelendiği ortaya çıktı. Yaşanan gelişmeler sonrası OpenAI tehditleri bildirimi hükümı kamuoyu, hukuk çevreleri ve teknolojiler uzmanları tarafından sorgulanmaya başladı.
OpenAI Tehdit Bildirimi Kararı Kanada Saldırısı Sonrası Tartışılmaya Başlandı
The Wall Street Journal tarafından yayımlanan habere göre Kanada’nın British Columbia eyaletinde yaşayan 18 yaşındaki Jesse Van Rootselaar’ın ChatGPT üzerinden yaptığı başlıkşmalar OpenAI çalışanları tarafından riskli içerik içerikında değerlendirildi. Şirket ekipleri, saldırıdan aylar önce yapılan yazışmaları ttesirkye aldı.

Kaynaklara göre OpenAI tehditleri bildirimi süreci şirket içinde tartışıldı bununla birlikte yöneticiler kolluk kuvvetlerine biçimsel duyuru yapılmaması yönünde şart verdi. Güvenlik uzmanları, yapay zekâ platformlarında ortaya çıkan AI tehditleri belirlemei sualmluluğu başlıksunun artık yalnızca teknikleri tek mesele bulunmaktan çıktığını ifadeleri ediyor.
Araştırmacılar, platformların kullanıcı gizliliği ile toplumsal güvenlik arasındaki dengeyi kurmakta güçlandığını belirtirken birçok bilirkişi yapay zekâ suç önleme politikası alanında netler uluslararası standartların bulunmadığını vurguluyor.
10 Şubat tarihinde gerçekleşen saldırıda Van Rootselaar önce aile evinde annesi ile üvey kardeşini öldürdü ardından okuluna gittikçe ateş açtı. Okulda düzenlenen saldırı sonucunda tek eğitim görevlisi ile beş öğrenci yaşamını yitirdi, çok sayıda kişi yaralandı. Saldırgan hadise sonrası intiharlar etti.
Kanada federal polisi, saldırganın geçmişte nefis sağlığı dolayı polis müdahalesi yaşadığını açıkladı. Ytesirliler, olayda kesin tek hedefin bulunmadığını bildirdi. Uzman hukukçular, yaşanan trajediler sonrası teknolojiler şirketlerinin olası tehditleri bildirme yükümlülüğü başlıksunun yeniden ele alınacağını değerlendiriyor.
Analistler, OpenAI tehditleri bildirimi tartışmasının yapay zekâ güvenlik protokolü eksikliği başlıksunu küresel ölçekte gündeme taşıdığını ifadeleri ediyor. Şirketlerin riskli içerikleri yalnızca platformlar içi ttesirk ile sınırlı tutmasının yeterlilik olup olmadığı yoğun şekilde tartışılıyor.
OpenAI daha önce yayımladığı güvenlik açıklamalarında vahim bedensel zarar riski içeren durumlarda kolluk kuvvetleriyle iletişime geçilebileceğini belirtmişti. Son hadise sonrası uzmanlar, şirket içi değerlendirme kriterlerinin nasıl uygulandığının daha şeffaf hale getirilmesi lüzumtiğini savunuyor.
Teknoloji politikası araştırmacıları, OpenAI tehditleri bildirimi hükümının gelecekte yapay zekâ platformlarının kanuni sualmluluk alanını genişletebileceğini düşünüyor. Tartışmalar, chatbot riskler analizi sistemi yaklaşımının yalnızca içerik filtreleme düzeyinde kalmaması lüzumtiğini ortaya koyuyor.
Bugün gelinen noktada OpenAI silahlı saldırı tartışması, sayısal platformların toplumsal güvenlikte üstleneceği rolü yeniden tanımlayan eleştirel tek örnek olarak değerlendiriliyor. Teknoloji şirketlerinin gelecekte daha açık sualmluluk çerçeveleriyle hareket etmesi bekleniyor.

3 hafta önce
9


























English (US) ·