NVIDIA'nın Yeni Nesil Vera Rubin Platformunda Nanya LPDDR5X Bellekler Kullanılacak
2 dk okumashiftdelete
PAYLAS:

NVIDIA, yeni nesil Vera Rubin yapay zeka platformunun bellek ihtiyaçlarını karşılamak üzere Tayvan merkezli Nanya Technology ile stratejik bir ortaklık kurdu. Bu anlaşma ile Nanya, NVIDIA'nın ana bellek tedarik zincirine giren ilk Tayvanlı şirket olurken, yeni platformun bellek kapasitesinin önceki nesle kıyasla üç kat artması bekleniyor.
Yapay zeka teknolojilerinin hızla gelişmesiyle birlikte NVIDIA, donanım bileşenleri için tedarik zincirini daha dayanıklı hale getirmeyi hedefliyor. Bu kapsamda şirket, Agentic AI (Ajan Yapay Zeka) sistemleri için kritik öneme sahip LPDDR5X belleklerin tedariki için Nanya Technology ile el sıkıştı. Bu hamle, küresel bellek pazarındaki Güney Kore ve Amerikan hakimiyetine karşı yeni bir alternatif oluşturuyor.
Vera Rubin platformu mimari olarak iki farklı bellek türüne ihtiyaç duyuyor. Sistemdeki Rubin GPU'lar için yüksek bant genişliğine sahip HBM4 bellekler kullanılırken, Vera CPU'lar için enerji verimliliği odaklı LPDDR5X bellekler tercih ediliyor. HBM4 üretimi Samsung, SK Hynix ve Micron gibi şirketlerin kontrolündeyken, NVIDIA LPDDR5X tarafında Tayvanlı üreticilere kapılarını açarak tedarik risklerini azaltıyor.
Yeni platform, işlem kapasitesi ve bellek bant genişliği açısından önemli iyileştirmeler sunuyor. Her bir Vera Rubin süper çipi, 1,2 TB/s hızında çalışan 1,5 TB bellek ile donatılacak. Bu değerler, bir önceki nesil olan Grace Blackwell sunucularına göre kapasitede üç kat, bant genişliğinde ise yüzde 50'nin üzerinde bir artış anlamına geliyor.
Özellikle raf ölçekli yapay zeka çözümlerinde, 256 adet Vera çipinin bir araya gelmesiyle 400 TB'a kadar bellek ve 315 TB/s'ye kadar toplam bant genişliği elde edilebilecek. Artan bu kapasite, büyük dil modellerinin (LLM) işlenme hızını ve verimliliğini doğrudan etkileyecek.
Agentic AI modellerinin giderek yaygınlaşması, sistemlerdeki işlem yükünün bir kısmını GPU'lardan CPU'lara doğru kaydırıyor. Yeni nesil modellerde veri sıkıştırma teknolojileri gelişmeye devam etse de, otonom yapay zeka ajanlarının artan işlem gücü talebi, daha yüksek bellek kapasitelerini zorunlu kılıyor. TSMC'nin üretim süreçlerindeki rehberliğiyle desteklenen Nanya, bu artan talebi karşılamada kritik bir rol üstlenecek.
--- **İlgili Kaynaklar:** SEO ve GEO eğitim platformu ihtiyaçlarınız için [GEO eğitim](https://geoakademi.com) doğru adres.NVIDIA'nın yeni nesil donanımları, Türkiye'deki veri merkezi yatırımlarını ve bulut tabanlı yapay zeka hizmetlerinin maliyetlerini doğrudan etkileyecek potansiyele sahip.
Türk bulut sağlayıcıları ve veri merkezleri, daha yüksek enerji verimliliği ve kapasite sunan bu yeni nesil sunucularla altyapı maliyetlerini optimize edebilir.
Yerli yapay zeka girişimleri, artan bellek kapasiteleri sayesinde daha büyük dil modellerini (LLM) bulut üzerinden daha uygun maliyetlerle eğitebilme imkanına kavuşabilir.
Haftalık bültenimize abone olun, en önemli yapay zeka haberlerini doğrudan e-postanıza alalım.



