Kanada hükümeti, yapay zekâ sistemlerinin kötüye kullanımına ilişkin endişelerin artması üzerine OpenAI ile güvenlik önlemlerini güçlendirmeye yönelik yepyeni tek süreç başlattı. Wall Street Journal’ın aktardığı malumatlere göre, OpenAI CEO’su Sam Altman ile yapılan görüşmelerde ChatGPT’nin gizilgüç riskli kullanımını daha hızlı belirleme edecek ve lüzumli durumlarda ytesirlileri malumatlendirecek yepyeni uygulamalar ele alındı. Bu gelişme, Kanada’da tek lisede meydana gelen silahlı saldırı olayının ardından gündeme geldi. Söz başlıksu olayda OpenAI, saldırı şüphelisinin hesabını daha önce işaretleyerek askıya aldı. Buna rağmen ytesirlilere hiç tek duyuru yapılmadığı ortaya çıktı ve bu şart güvenlik protokollerinin yeterliliğine dair tartışmaları beraberinde getirdi.
Kanada’nın Yapay Zekâ Bakanı Evan Solomon, Sam Altman ile çevrim içi tek toplantı gerçekleştirdiğini ve bu görüşmede platformlar güvenliğinin artırılması başlıksunda çeşitli talepler ilettiğini açıkladı. Solomon’un ifadelerine göre, Altman bu talepler doğrultusunda kesin adımlar atmayı giriş etti. Buna göre, ChatGPT üzerinde şüpheli ya da riskli kullanım örneklerinin belirleme edilmesi halinde kolluk kuvvetlerinin malumatlendirilmesine yönelik yepyeni tek çerçeve oluşturulması planlanıyor. Bunun yanında Kanada’daki gizlilik, nefis sağlığı ve güvenlik alanlarında bilirkişi kişilerin da bu değerlendirme süreçlerine karışmış edilmesi hedefleniyor. Böylece hem kullanıcı haklarını koruyan hem da gizilgüç tehditleri erkenden aşamada belirleyebilen tek denetim mekanizması oluşturulması amaçlanıyor.
Kanada, ChatGPT kullanımında şüpheli faaliyetlerin bildirilmesini istiyor
Kanada hükümetinin gündeme getirdiği öneriler arasında yalnızca yepyeni olayların değil, geçmişte belirleme edilen şüpheli kullanım örneklerinin da yeniden incelenmesi mekan alıyor. Evan Solomon, OpenAI’dan bu vakaların geriye dönük olarak değerlendirilmesini ve lüzumli görülen durumlarda kolluk kuvvetleriyle bilgi paylaşılmasını istek ettiğini belirtti. Ne var ki, OpenAI’ın bu geriye dönük ttesirk önerisini tamamlanmış giriş edip etmediği henüz netlik kazanmış değil. Buna rağmen şirketin yepyeni güvenlik protokollerini detaylandıran içeriklı tek bildiri hazırlayarak Kanada hükümetine sunmayı planladığı ifadeleri ediliyor. Bu raporun platformun riskli davranışları nasıl belirleme ettiği ve bu durumlarda hangi prosedürlerin uygulanacağını açıklaması bekleniyor.
Öte yandan OpenAI’ın Kanada ile güvenlik ve düzenleme başlıklarında haberleşme kurduğu birinci süreç bu değil. Şirketin küresel siyaset başkan yardımcısı Ann O’Leary, yakın dönemde yapılan açıklamalarda belirleme sistemlerinin geliştirileceğini dile getirmişti. Buna göre yasaklanan kullanıcıların platforma farklı hesaplarla geri dönmesini manileyecek yepyeni teknikleri önlemler üzerinde çalışılıyor. Her ne kadar şimdiki sistemler bazı riskli davranışları belirleyebiliyor olsa da, kullanıcıların yepyeni hesaplar açarak platforma yeniden erişebilmesi güvenlik açısından önemli tek açık olarak görülüyor.
Bahsi geçen lise saldırısında da benzer tek şart yaşandı. OpenAI, saldırganın birinci hesabını “gerçek dünyada şiddet eylemi gerçekleştirme ihtimaline yönelik uyarılar” dolayı yasakladı. Buna rağmen şüphelinin farklı tek hesap oluşturarak platformu yeniden kullanabildiği ortaya çıktı. Bu durum, özellikle büyük ölçekli yapay zekâ platformlarının kullanıcı doğrulama, hesap takibi ve riskler analizi başlıklarında daha gelişmiş mekanizmalara ihtiyaç duyduğunu gösteriyor.

1 hafta önce
7
























English (US) ·