Nvidia, 20 Milyar Dolarlık Groq IP'sini Entegre Ederek Düşük Gecikmeli Yapay Zeka Çıkarımını Gerçekleştiriyor
Nvidia, GTC 2026 konferansında, 20 milyar dolarlık Groq fikri mülkiyet ve ekip satın alımından ortaya çıkan ilk büyük ürün olan Groq LPX çıkarım rafını tanıttı. Sistem, AI çıkarımını optimize etmek için Groq'un düşük gecikmeli işlem birimi (LPU) mimarisini Nvidia GPU'ları ile entegre ediyor. "Dikkat FFN Ayrıştırması" (Attention FFN Disaggregation) adı verilen bir teknik kullanarak, sistem görevleri donanım güçlerine göre delege ediyor: GPU'lar dinamik dikkat hesaplamalarını yönetirken, yeni LP30 LPU çipleri statik ileri beslemeli ağ (FFN) hesaplamalarını üstleniyor ve bu da etkileşimli AI uygulamalarında yanıt gecikmelerini önemli ölçüde azaltıyor.
Yatırımcılar için kritik önem taşıyan bir nokta ise, LP30 çipinin Samsung'un SF4 sürecinde üretilmesi ve Yüksek Bant Genişlikli Bellek (HBM) kullanmamasıdır. Bu, yeni LPX sisteminin Nvidia için ek üretim kapasitesi ve gelir anlamına geldiği anlamına gelir, çünkü şirketin kıt TSMC N3 üretim slotlarını veya HBM tedarikini tüketmez; bu, kolayca taklit edilemeyecek önemli bir rekabet avantajıdır.
Vera ETL256 Rafı, Yapay Zeka Darboğazlarını Kırmak İçin 256 CPU Barındırıyor
Büyük ölçekli AI operasyonlarında artan CPU darboğazını gidermek için Nvidia, Vera ETL256'yı tanıttı. Bu yüksek yoğunluklu, sıvı soğutmalı sistem, 256 adet yeni Vera CPU'sunu tek bir rafa sığdırıyor. Tasarım, veri hazırlığı ve güçlendirmeli öğrenme gibi görevlerin devasa paralel işleme taleplerini doğrudan hedef alıyor; bu görevlerde CPU kullanılabilirliği genel GPU kullanımını sınırlayabilir. Tüm raf içi bağlantıların bakır kablolama ile yapılabileceği bir noktaya kadar hesaplama yoğunluğunu entegre ederek, Nvidia raf içindeki daha pahalı optik alıcı-vericilere olan ihtiyacı ortadan kaldırıyor ve sıvı soğutmanın maliyetini dengeliyor.
CPU rafının yanı sıra Nvidia, STX depolama referans mimarisini de tanıttı. Bu, AI için depolama sistemlerinin yapılandırmasını standartlaştırır ve sürücülerin, Vera CPU'larının, BlueField DPU'larının ve ağ bileşenlerinin gerekli kombinasyonunu belirtir. Dell, HPE ve IBM gibi büyük depolama satıcıları tarafından desteklenen STX mimarisi, Nvidia'nın hesaplama ve ağdan depolama katmanına doğru genişlemesini pekiştiriyor; bu, daha önce diğer şirketler tarafından kontrol edilen bir alandı.
Nvidia, Tüm Yapay Zeka Altyapı Pazarını Ele Geçirmeyi Hedefliyor
LPX, Vera ETL256 ve STX sistemlerinin birleşik lansmanı, açık bir stratejik dönüşüme işaret ediyor. Nvidia, tüm AI altyapı yığınını sağlamak için agresif bir şekilde hareket ediyor ve pazar hakimiyetini genişleten derinlemesine entegre bir ekosistem yaratıyor. Bu platform stratejisi, Cadence ve HPE gibi ortakların Nvidia'nın en yeni donanımı üzerine inşa edilmiş yeni çözümler duyurmasıyla şimdiden ilgi görüyor. Bu duyurular, Nvidia'nın CEO Jensen Huang'ın 2027 yılına kadar sistemleri için 1 trilyon dolarlık sipariş garantisi tahminini nasıl gerçekleştirmeyi planladığına dair somut bir yol haritası sunuyor.
CPU ve depolama pazarlarına sistematik olarak girerek, Nvidia kendini AI donanımına yapılan toplam harcamaların çok daha büyük bir payını yakalayacak şekilde konumlandırıyor. Bu hamle, bu segmentlerdeki köklü oyuncular için rekabeti yoğunlaştırıyor ve Nvidia'nın AI endüstrisinin devasa altyapı kurulumu için merkezi sağlayıcı rolünü pekiştiriyor.