Google, yeni sıkıştırma algoritması TurboQuant ile büyük dil modellerinin (LLM) bellek kullanımını 6 kat azaltabiliyor

3 gün önce 7

Google TurboQuant

Google’ın biçimsel olarak “TurboQuant” adını verdiği yepyeni yapay zeka odaklı sıkıştırma algoritması, büyük diller modellerinin (LLM) hafıza kullanımını 6 kat azaltabiliyor. Ses getiren çalışması için yaptığı açıklamada, “Yeni sıkıştırma algoritmamız yapay zeka verimliliğini yeniden tanımlıyor. Büyük diller modellerinin (LLM) anahtar-değer (KV) önbellek hafıza kullanımını asgari 6 kat azaltan bu teknoloji, doğruluktan ödün vermeden 8 kata kadar hız artışı sağlıyor.” ifadelerini kullanan şirket, algoritmanın yapay zeka işlemlerindeki önbellek darboğazlarını gidermek adına vektör kuantizasyonu kullandığını belirtiyor. Bu yöntem yapay zekanın dahaaz saha kaplayarak ve doğruluğu koruyarak ilave malumat hatırlamasına olanak tanıyor. Yeni algoritma, birçok kişinin aklına doğrudan HBO’nun çok sevilen “Silicon Valley” dizisini ve dizinin merkezinde mekan saha girişim Pied Piper’ı getirdi. Pied Piper’ın televizyonları dizisindeki çığır açan teknolojisi, neredeyseymiş kayıpsız sıkıştırma ile klasör boyutlarını önemli ölçüde azaltan tek sıkıştırma algoritmasıydı.

İLGİNİZİ ÇEKEBİLİR
>> Tüm Makaleyi Oku <<

Platformumuz; Teknoloji, Spor, Sağlık, Eğlence, Uluslararası, Edebiyat, Bilim ve daha fazlası olmak üzere farklı konu başlıkları altında, kısa ve öz haber formatı ile kullanıcıların zamandan tasarruf etmesini hedefler. Karmaşadan uzak, sade ve anlaşılır içerik yapısı sayesinde ziyaretçiler aradıkları bilgiye hızlıca ulaşabilir. techforum.com.tr, bilgi kirliliğini önleyerek yalnızca güvenilir kaynaklardan elde edilen içerikleri yayınlamaya özen gösterir.