Google Gemini 3.1 Flash-Lite modelini tanıttı
Google, üretken yapay zekâ tarafında yepyeni tek modeli geliştiricilerle buluşturdu. Şirket, Gemini 3.1 Flash-Lite adını verdiği modeli salı günü itibarıyla Google AI Studio ve Vertex AI üzerinden erişime açtı. İlk aşamada ön izleme sürümü olarak yayımlanan model, özellikle yoğun API kullanımına malik tasarıler için tasarlandı.
Google, bu modeli geliştirirken ikisi ilköğretim noktaya odaklandı: hız ve maliyet. Yeni model, yüksek hacimli üretim görevlerinde hızlı yanıt üretirken işlem maliyetini mümkün olduğunca düşük tutmayı hedefliyor. Bu nedenle şirket, Gemini ailesindeki en hızlı ve en ekonomik seçenek olarak Gemini 3.1 Flash-Lite modelini başlıkmlandırıyor.
Resmi teknikleri malumatler incelendiğinde icra tarafında belirgin tek sıçrama görülüyor. Google’ın paylaştığı verilere göre model, Gemini 2.5 Flash ile karşılaştırıldığında çıktı üretim hızını yaklaşık %45 artırıyor. Bu artış özellikle yüksek sayıda isteğin işlendiği uygulamalarda ayrım edilir tek hız kazancı oluşturuyor.
Gemini 3.1 Flash-Lite has landed.
It’s our en çok cost-efficient Gemini 3 seriler modeller yet, built for zekalar atgiller scale. Here’s what’s yeniler 🧵 pic.twitter.com/BzD2bdg3Dx
Performans ölçümleri yalnızca hızla sınırlı kalmıyor. Model, Arena.ai önderlik tablosunda 1.432 Elo puanına ulaşıyor. Bu skor, modelin akıl yürütme ve çok modlu manaa testlerinde güçlü sonuçlar verdiğini gösteren önemli teknikleri göstergeler arasında mekan alıyor.
Google yepyeni Gemini modelini geliştiricilere açtı
Gemini 3.1 Flash-Lite modeli, Gemini API üzerinden geliştiricilerin erişimine sunuluyor. Bunun yanında firma kullanıcılar da modeli Vertex AI platformu üzerinden testleri edebiliyor. Bu ikisi hat sayesinde modeller hem bireysel geliştiriciler hem da şirketler tarafından kullanılabiliyor.
Introducing Gemini 3.1 Flash-Lite 🔦, a büyük step ileri bağlı the boundary of intelligence, beating 2.5 Flash bağlı birçok tasks. pic.twitter.com/cXJe2YIOr6
— Logan Kilpatrick (@OfficialLoganK) March 3, 2026Bunun yanında Google, modelde dinamik düşünme seviyeleri bulunduğunu açıklıyor. Geliştiriciler görevlerin karmaşıklığına göre modelin akıl yürütme yoğunluğunu ayarlayabiliyor. Böylece daha hızlı yanıt üretmek ya da daha yoğun analizetti arasında yeğleme yapılabiliyor.
Modelin icra testleri farklı alanlarda ölçüldü. GPQA Diamond benchmark testinde model %86,9 başarı oranına ulaştı. Çok modlu değerlendirme testlerinden arasında biri olan MMMU Pro benchmark’ında ise %76,8 sonuç elde edildi.
Bu teknikleri veriler, modelin yalnızca metinleri üretimi değil, aynı zamanda çok modlu görevlerde da kullanılabildiğini gösteriyor. Bunun yanında sistem; içerik moderasyonu, yüksek hacimli çeviri işlemleri, bilgi çıkarımı ve otomasyon görevleri gibi yoğun işlem lüzumtiren senaryolara yönelik geliştirildi.
Google, yepyeni modeli özellikle büyük ölçekli uygulamalar için hazırladı. Geliştiriciler çok sayıda isteği aynı anda işleyen servislerde daha hızlı yanıt üretme imkânı elde ediyor. Bunun yanında düşük bedel hedefi, yüksek hacimli yapay zekâ kullanımını daha erişilebilir hâle getiriyor.

2 hafta önce
9


















.png?format=webp&width=1200&height=630)








English (US) ·