Google Büyük Dil Modellerini Daha Verimli Hale Getirecek TurboQuant Teknolojisini Duyurdu

5 saat önce 4

Google, yapay zekâ modellerinde bedel ve icra sualnlarını hedefleri saha Google TurboQuant teknolojisini duyurdu. Şirket, geliştirdiği bu yepyeni sıkıştırma yöntemiyle modeller boyutunu küçültürken hesaplama hızını artırmayı planlıyor çünkü şimdiki sistemlerde hafıza tüketimi en büyük darboğazlardan arasında biri olarak öne çıkıyor.

TurboQuant Anahtar Değer Önbelleğini Daha Verimli Hale Getiriyor

Google, TurboQuant algoritmasını geliştirirken özellikle anahtar-değer önbelleği üzerinde yoğunlaştı. Sistem, modelin tekrar hesaplama yapmamak için sakladığı verileri daha kompakt biçimde temsilcilik ederken büyük diller modellerinin çalışma mantığını doğrudan tesirliyor. Yapay zekâ modelleri malumatyi doğrudan depolamak seçenek vektörler üzerinden mana ilişkileri kurduğu için bu vektörlerin boyutu performansı belirleyen ilköğretim bileşen haline geliyor.

Google Büyük Dil Modellerini Daha Verimli Hale Getirecek TurboQuant Teknolojisini Duyurdu

Vektör yapısı yüzlerce parametre içerebildiği için hafıza kullanımını artırırken işlem süresini da uzatıyor. Geliştiriciler bu sualnu genelleme yapay zekâ sıkıştırma yöntemi olarak bilinen nicemleme ile çözmeye çalışıyor bununla birlikte düşük hassasiyet kullanımı modeller kalitesini negatif tesirleyebiliyor. Google, TurboQuant ile bu dengeyi koruyarak icra artışı sağlamayı hedefliyor.

Google, algoritmanın birinci aşamasında PolarQuant adını verdiği yöntemi kullanıyor. Sistem, gelenekselliği XYZ koordinatları seçenek kutupsal koordinatlara geçiş yaparak veriyi daha yalın tek yapıda temsilcilik ediyor. Her vektör yalnızca yarıçap ve açı malumatsiyle ifadeleri edildiği için bilgi boyutu küçülürken hesaplama yükü azalıyor.

👉️ İlginizi Çekebilir: Google Mac İçin Yerel Gemini Uygulamasını Test Sürecine Aldı

Şirket, bu yaklaşımı yön tarifine benzeterek açıklıyor çünkü klasik yöntem çok sayıda koordinat malumatsi lüzumtirirken yepyeni yöntem daha kısa tek ifadeleri ile aynı malumatyi taşıyabiliyor. Bu dönüşüm, modelin çalışma verimliliğini artıran ilköğretim adımlardan arasında biri olarak öne çıkıyor.

Google, sıkıştırma sürecinde oluşabilecek sapmaları düzeltmek için sonuncu aşamada ilave tek teknikleri kullanıyor. Sistem, Quantized Johnson-Lindenstrauss yöntemiyle veriyi tekbaşına bit seviyesinde temsilcilik ederken önemli ilişkileri korumayı başarıyor. Bu yaklaşım, modelin ilgi hesaplamalarını daha doğru hale getiriyor.

Şirket, TurboQuant’ı farklı açık modeller üzerinde testleri ederken sonuçların ilgi çekici olduğunu belirtiyor. Algoritma, doğruluk kaybı oluşturmadan 6 kat dahaaz hafıza kullanımı sağlarken yapay zekâ icra artışı açısından 8 kata kadar hız kazanımı sunuyor. Sistem, ilave eğitim lüzumtirmeden şimdiki modellere uygulanabildiği için uygulamalı kullanım açısından üstünlük sağlıyor.

Google, özellikle mobil cihazlar açısından bu gelişmenin önemli olduğunu vurguluyor çünkü sınırlı donanım kaynaklarına malik sistemlerde mahalli yapay zekâ çalıştırmak daha mümkün hale geliyor. Bu yaklaşım, buluta bağımlılığı azaltırken alet üzerinde daha güçlü sonuçlar elde edilmesini yardımliyor.

>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. techforum.com.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.