Google, Yapay Zeka Ajanları İçin İki Yeni Ultra Güçlü TPU Modelini Tanıttı
2 dk okumadonanimhaber
PAYLAS:

Google, "ajan çağı" olarak adlandırdığı yeni yapay zeka dönemi için sekizinci nesil Tensor Processing Unit (TPU) ailesini görücüye çıkardı. Önceki nesillerden farklı olarak şirket, model eğitimi ve çıkarım (inference) süreçleri için TPU 8t ve TPU 8i olmak üzere iki ayrı özel işlemci geliştirdi.
Yapay zeka modellerinin en yoğun hesaplama gerektiren eğitim aşaması için tasarlanan TPU 8t, büyük ölçekli modellerin eğitim süresini aylardan haftalara indirmeyi hedefliyor. Yeni pod mimarisi, tek bir kümede 9.600 çipe kadar ölçeklenebiliyor ve iki petabayt paylaşımlı yüksek bant genişliğine sahip bellek sunuyor. Google, bu sistemin teorik olarak bir milyon çipe kadar genişleyebilen tek bir mantıksal küme oluşturabileceğini belirtiyor.
Hesaplama kapasitesi açısından TPU 8t, pod başına 121 FP4 exaFLOPS seviyesine ulaşarak önceki nesil Ironwood'un eğitim kapasitesini üçe katlıyor. Şirketin "goodpute" olarak adlandırdığı metrik sayesinde, çipin yüzde 97 oranında verimli hesaplama kullanımı sağladığı vurgulanıyor. Bu başarıda, donanım hatalarının otomatik yönetimi ve çipler arası gerçek zamanlı telemetri paylaşımı büyük rol oynuyor.
Model eğitimi tamamlandıktan sonra devreye giren inference süreci için ise TPU 8i konumlandırılıyor. Bu işlemci, özellikle birden fazla yapay zeka ajanının eşzamanlı çalıştığı senaryolar için optimize edildi. Önceki nesilde 256 çipten oluşan çıkarım kümeleri, yeni mimaride 1.152 çiplik devasa pod yapılarına dönüştürüldü.
Bellek tarafında da önemli iyileştirmeler içeren TPU 8i, çip başına entegre SRAM kapasitesini 384 MB seviyesine çıkardı. Bu artış, özellikle uzun bağlam penceresi gerektiren modellerde daha büyük önbellek tutulmasına imkan tanıyarak sistemin yanıt hızını ciddi oranda artırıyor.
Sekizinci nesil TPU ailesiyle birlikte Google'ın donanım stratejisinde de köklü bir değişime gidildi. Yeni sistemlerde artık sadece Google'ın kendi geliştirdiği Axion ARM tabanlı CPU'lar kullanılıyor. Önceki nesilde bir x86 işlemci dört TPU'ya hizmet verirken, yeni yapıda her iki TPU'ya bir CPU düşüyor. Bu mimari değişiklik, watt başına iki kat performans artışı sağlıyor.
Sadece kendi Gemini modelleri için değil, tüm ekosistem için tasarlanan yeni işlemciler; PyTorch, JAX ve vLLM gibi popüler açık kaynaklı çerçevelerle tam uyumlu çalışıyor. Google kendi özel donanımlarını geliştirmeye hız kesmeden devam etse de, sektördeki artan talebi karşılamak adına NVIDIA ile olan stratejik işbirliklerini de sürdürüyor.
--- **İlgili Kaynaklar:** Detaylı SEO ve GEO eğitim platformu için [GEO eğitim](https://geoakademi.com) sayfasını incelemenizi öneriyoruz.Google'ın yeni nesil TPU'ları, Google Cloud kullanan Türk teknoloji şirketlerinin ve yapay zeka girişimlerinin model eğitim maliyetlerini düşürüp hızlarını artırabilir.
Google Cloud altyapısını kullanan Türk şirketleri, yapay zeka projelerinde daha yüksek performans ve maliyet avantajı elde edebilir.
Türkiye'deki bulut tabanlı yapay zeka girişimlerinin altyapı giderlerinde optimizasyon sağlamasına yardımcı olabilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



