Bilgi Hazinem – Teknoloji, Oyun, Sağlık ve Daha Fazlası

  1. Anasayfa
  2. »
  3. Teknoloji
  4. »
  5. Google, Nvidia’ya rakip olmak için dört önemli ortakla dev bir çip ağı kuruyor

Google, Nvidia’ya rakip olmak için dört önemli ortakla dev bir çip ağı kuruyor

bilgihazinem bilgihazinem -
7 0
Yapay zekâ alanındaki rekabet artık yalnızca AI modelleri üzerinden değil, bu modelleri çalıştıran donanım altyapısı üzerinden de şekilleniyor. Nvidia, GPU tarafındaki baskın konumu sayesinde şu anda sektöre yön veriyor. Ancak büyük teknoloji şirketleri son dönemde bu bağımlılığı azaltmak için kendi özel çip ekosistemlerini kurmaya çalışıyor. Bu dönüşümün en dikkat çekici örneklerinden biri ise Google cephesinde yaşanıyor.

Bugün Google, OpenAI, xAI gibi şirketlerin popüler yapay zekâları eğitim aşamasından ziyade çıkarım (inference) aşamasında, yani kullanıcıya cevap üretirken devasa bir hesaplama yükü oluşturuyor. Özellikle milyarlarca sorgunun işlendiği arama motorları, sohbet botları ve kurumsal AI servisleri düşünüldüğünde, bu aşama artık yapay zekâ ekonomisinin en pahalı ve kritik parçası haline gelmiş durumda. Google, hem Nvidia’nın sektördeki hakimiyetine rakip olmak, hem de bu çıkarım maliyetlerini düşürmek için dört farklı tasarım ortağıyla birlikte çok katmanlı ve çeşitlendirilmiş bir özel çip (ASIC) tedarik zinciri kuruyor.

Planın temel fikri oldukça net: Eğitim süreci nadiren gerçekleşirken, inference sürekli ve ölçeklenebilir bir maliyet yaratıyor. Her Gemini sorgusu, her Cloud AI çağrısı ve her arama isteği bu maliyeti büyütüyor. Bu yüzden Google, genel amaçlı GPU’lara bağımlılığı azaltıp, daha ucuz ve daha verimli özel çiplerle bu yükü optimize etmeye çalışıyor.

Ironwood: Google’ın bugüne kadarki en güçlü TPU’su

Bu stratejinin merkezinde ise Google’ın kendi AI çiplerini oluşturan yeni nesil TPU (Tensor Processing Unit) mimarileri yer alıyor.

Google’ın şu anda öne çıkardığı en önemli donanım Ironwood, yani yedinci nesil TPU. Bu çip özellikle inference için tasarlanmış ilk büyük TPU olarak konumlanıyor.

Teknik olarak bakıldığında Ironwood:

  • TPU v5p’ye göre yaklaşık 10 kat daha yüksek performans
  • Çip başına 192 GB HBM3E bellek
  • 7.2 TB/s bant genişliği
  • 9.216 sıvı soğutmalı çipten oluşan “superpod” mimarisi
  • Toplamda 42.5 FP8 exaflops işlem gücü

gibi oldukça agresif değerler sunuyor.

Google’ın planı bu çipten yalnızca yüksek performans elde etmek değil; aynı zamanda bunu milyonlarca birimlik üretim ölçeğine taşımak. Şirketin bu yıl içinde milyonlarca TPU üretmesi bekleniyor ki Anthropic gibi büyük yapay zekâ şirketleri üretilecek bu TPU’ların önemli bir bölümünü şimdiden rezerve etmiş durumda.

Google, Aynı Nesil İçinde Hem Yüksek Performanslı Hem Düşük Maliyetli İki Ayrı Çip Hattı Oluşturuyor

Google, bu iddialı hedefi tutturabilmek için TPU yol haritasını dört ayrı tasarım ortağı arasında bölmüş durumda:

Bu yapının ilk ayağında Broadcom yer alıyor. Şirket, özellikle yüksek performanslı TPU varyantları ve ağ bileşenlerinden sorumlu konumda bulunuyor. Aynı zamanda Broadcom’un geliştirdiği “Sunfish” kod adlı TPU v8 tasarımı, 2027 sonrasında TSMC’nin 2nm üretim sürecine taşınacak yeni nesil eğitim (training) çiplerinin temelini oluşturuyor.

İkinci önemli oyuncu MediaTek ise stratejinin daha maliyet odaklı tarafını üstleniyor. Şirketin geliştirdiği “Zebrafish” kod adlı TPU v8 varyantı, özellikle inference işlemlerinde %20 ila %30 arasında daha düşük maliyet hedefiyle konumlandırılıyor. Bu ayrım, Google’ın aynı nesil içinde hem yüksek performanslı hem de düşük maliyetli iki ayrı çip hattı oluşturduğunu gösteriyor.

Üçüncü partner Marvell Technology ise henüz kesinleşmemiş ancak kritik öneme sahip iki bileşen üzerinde çalışıyor: bellek işleme birimi (Memory Processing Unit) ve yeni bir inference odaklı TPU tasarımı. Şirketin Google için yaklaşık iki milyon adet MPU üretme planı, veri merkezlerindeki bellek darboğazını çözmeye yönelik önemli bir adım olarak görülüyor.

Dördüncü ayakta ise Intel bulunuyor. Intel’in rolü doğrudan yapay zekâ hızlandırıcı üretiminden ziyade, veri merkezlerinin genel hesaplama ve altyapı katmanlarını desteklemek üzerine kurulu. Xeon işlemciler ve destekleyici altyapı birimleri bu yapının temel parçalarını oluşturuyor.

Tüm bu tasarım çeşitliliğine rağmen üretim tarafında değişmeyen tek unsur ise TSMC. Google’ın tüm özel silikonları, hangi tasarım ortağından gelirse gelsin, TSMC’nin üretim hatlarında şekilleniyor. Bu da şirketin tasarım tarafında çeşitliliğe giderken, üretim tarafında hâlâ güçlü bir merkezileşmeye bağlı kaldığını gösteriyor.

Goole, 2028’de 35 Milyon TPU Üretmeyi Hedefliyor

Bu stratejinin arkasındaki en önemli motivasyon ise yapay zekâ ekonomisinin değişen yapısı. Google, her gün milyarlarca arama sorgusu, Gemini etkileşimi ve bulut tabanlı AI isteği işlediği için, inference maliyetlerinin toplam sistem üzerindeki etkisinin giderek daha belirleyici hale geldiğini görüyor. Bu nedenle şirket, Nvidia’nın genel amaçlı GPU’larına bağımlılığı azaltarak, her kullanım senaryosu için ayrı optimize edilmiş çiplerle maliyet avantajı yaratmayı hedefliyor.

Planın ölçeği ise oldukça iddialı. Google’ın 2026’da yaklaşık 4.3 milyon TPU üretmesi, 2028’e gelindiğinde ise bu sayının 35 milyonun üzerine çıkması bekleniyor. Bu da şirketin küresel ölçekte bir AI hesaplama altyapısı sağlayıcısı haline gelme hedefini açık şekilde ortaya koyuyor.

Yaklaşan Google Cloud Next etkinliğinde bu yeni çip mimarisine dair daha fazla teknik detayın paylaşılması bekleniyor.

İlgili Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir