Nvidia Groq 3 LPU çipi, şirketin GTC 2026 tesirnliği içerikında paylaştığı donanım yenilikleri arasında mekan aldı. Nvidia yöneticileri yepyeni kuşak yapay zekâ işlemcisinin Samsung tarafından 4 nm üretim süreciyle seri üretime alındığını açıkladı. Nvidia’nın geliştirdiği yepyeni mimari özellikle yapay zekâ çıkarım işlemlerinde token işleme hızını artırarak bilgi orta performansını ileri taşımayı hedefliyor.
Nvidia Groq Teknolojisini Büyük Bir Lisans Anlaşmasıyla Altyapısına Dahil Etti
Nvidia yönetimi geçen yıl imzalanan yaklaşık 20 milyar dolarlık anlaşma içerikında Groq şirketinin ilköğretim teknolojisini öz ekosistemine karışmış etti. Şirket bu anlaşma sayesinde Groq kurucusu Jonathan Ross karışmış eleştirel mühendislik ekibini da bünyesine kattı. Nvidia bu stratejiklik adım ile bilgi orta odaklı Nvidia AI çıkarım çipi geliştirme sürecine hız kazandırdı.

Samsung’un yarı iletken üretim birimi Groq 3 işlemcilerini 4 nm üretim teknolojisi ile üretmeye başladı. Üretim ekipleri prototip üretim aşamasından ticari üretime geçiş sürecinde kapasiteyi genişletti. Fabrika hattı başlangıçta yaklaşık 9 binlerce wafer üretirken süreç içinde yetenek 15 binlerce wafer seviyesine yükseldi. Bu gelişme Samsung 4 nm AI çip üretimi alanında önemli tek üretim ölçeğine ulaşıldığını gösteriyor.
Nvidia mühendisleri Groq 3 işlemcisini şirketin Vera Rubin bilgi orta mimarisine entegre etti. Nvidia Rubin AI platformu bu entegrasyon sayesinde yapay zekâ çıkarım işlemlerinde daha düşük erteleme ile çalışan yepyeni tek işlem katmanı kazandı.
Groq 3 işlemcisi gelenekselliği GPU mimarisinden farklı olarak LPU diğer Dil İşleme Birimi yaklaşımını ilköğretim alıyor. Her Groq 3 AI işlemcisi çip üzerinde yaklaşık 500 MB SRAM hafıza barındırıyor. Bu değer Rubin GPU mimarisinde kullanılan 288 GB HBM4 belleğe kıyasla daha küçük görünse da mimari bilgi akışını farklı tek yöntemle yönetiyor.

Groq mühendisleri tasarımda yüksek bantları genişliğine odaklanan tek yapı kullandı. Çip mimarisi yaklaşık 150 TB/s bilgi aktarım kapasitesi sunarak düşük gecikmeli token işleme performansına katkı sağlıyor.
Nvidia bilgi orta ekipleri Groq 3 işlemcisi için Groq LPX tabaka mimarisi geliştirdi. Şirket planlarına göre her arasında biri tabaka sistemi toplamı 256 LPU işlemcisi ile yapılandırılacak. Bu yapı 128 GB SRAM kapasitesi ile yaklaşık 40 PB/s bantları genişliği sunan tek altyapı oluşturuyor. Nvidia mühendisleri ayrıca her arasında biri tabaka için yaklaşık 640 TB/s ölçeklenebilir bağlantı arayüzü tasarladı. Groq LPX tabaka mimarisi bilgi merkezlerinde yüksek ölçekli yapay zekâ işlem kapasitesi sağlamak amacıyla geliştirildi.
Nvidia yöneticileri yepyeni mimarinin özellikle çok ajanlı yapay zekâ sistemlerinde icra artışı sağlayacağını belirtiyor. Şirketin paylaştığı verilere göre sistemleri bazı senaryolarda saniyede yaklaşık 100 token seviyesinde çalışan çıkarım performansını 1.500 TPS seviyesinin üzerine taşıyabiliyor. Bu gelişme büyük yapay zekâ modellerinin daha düşük gecikmeyle çalıştırılmasına katkı sağlayacak.

4 gün önce
6





![[Pazar Eki] Google dönemi bitiyor mu?](https://dijitaliyidir.com/wp-content/uploads/2026/03/photo-of-google-first-office-team.webp)





















English (US) ·