Yuklenilir...
Yuklenilir...
Google, 22 Nisan 2026'da düzenlenen Cloud Next 2026 konferansında yapay zeka altyapısında yeni bir dönem açtı. Şirket, 7. nesil Ironwood TPU'nun genel kullanıma (GA) sunulduğunu ve 8. nesil TPU mimarisinin ilk kez eğitim (training) ve çıkarım (inference) olarak ikiye bölündüğünü duyurdu. TechCrunch'a göre yeni nesil TPU'lar, AI model eğitiminde 3 kata kadar hız artışı, dolar başına yüzde 80 daha iyi performans ve 1 milyonun üzerinde TPU'nun tek bir sistem olarak çalışabilme yeteneği sağlıyor.
Eğitim için tasarlanan TPU 8t, tek bir süperpod içinde 9.600 TPU ve 2 PB ortak yüksek bantlı belleğe ulaşabiliyor. Ironwood'a göre 3 kata kadar daha fazla işlem gücü ve 2 kata kadar daha iyi enerji verimliliği vadediliyor. Çıkarım için optimize edilen TPU 8i ise yeni Boardfly topolojisiyle 1.152 TPU'yu birbirine bağlıyor, çip başına 3 kat daha fazla SRAM sunuyor ve önceki nesle göre dolar başına yüzde 80 daha iyi performans sağlıyor. Ironwood superpod ise 9.216 çiple 42,5 exaFLOPS güce sahip ve çip başına 192 GB HBM3e bellek, 4,6 petaFLOPS işlem kapasitesi sunuyor.
Şirket ayrıca "ajan çağının uçtan uca sistemi" olarak tanımladığı Gemini Enterprise platformunu ve OpenAI ile Anthropic'e meydan okuyan yeni yapay zeka ajan araçlarını tanıttı. Bloomberg, yeni ajan oluşturucu araçların kurumsal yapay zeka pazarında Google'ın pozisyonunu güçlendirmeyi hedeflediğini aktardı. Google, TPU'ları Nvidia'ya rakip değil tamamlayıcı olarak konumlandırdığını ve 2026 içinde Nvidia Vera Rubin altyapısını da müşterilerine sunacağını açıkladı. TPU serisinin ikiye bölünmesi, çıkarım maliyetinin asıl rekabet alanı olduğunu gösteren sektörde bir ilk; modellerin çalıştırılmasının artık eğitimden daha kritik bir maliyet kalemi haline geldiğine işaret ediyor.
En önemli haberlerin haftalık özetini e-postanıza alın.