Google Cloud stellt zwei neue TPU-Chips vor – mit Nvidia im Visier

Google präsentiert auf der Cloud Next-Konferenz zwei neue TPU-Chips der achten Generation – leistungsstärker, kostengünstiger und gezielt positioniert, um Nvidias Dominanz im KI-Beschleuniger-Markt herauszufordern.

Google Cloud stellt zwei neue TPU-Chips vor – mit Nvidia im Visier

Neue Chip-Generation mit klarem Leistungsversprechen

Mit der achten Generation der TPU-Familie erweitert Google sein hauseigenes Silicon-Portfolio erheblich. Laut Unternehmensangaben liefern die neuen Chips spürbare Leistungssteigerungen gegenüber den Vorgängermodellen – sowohl beim Training großer Sprachmodelle als auch beim Inference-Betrieb. Gleichzeitig sollen die Betriebskosten für Cloud-Kunden sinken, was Google im direkten Wettbewerb mit Nvidias H100- und H200-GPUs positioniert.

Die neuen TPUs sind speziell auf die Anforderungen moderner Large Language Models und multimodaler KI-Systeme ausgelegt – und sollen nahtlos in bestehende Google Cloud-Infrastrukturen integrierbar sein.

Google hat bislang keine vollständigen technischen Spezifikationen veröffentlicht. Die Integration in die bestehende Google Cloud-Infrastruktur soll jedoch reibungslos erfolgen, sodass Unternehmen bestehende Workloads ohne größere Anpassungen migrieren können.


Eigene Chips – aber kein vollständiger Nvidia-Abschied

Trotz der eigenen Chip-Ambitionen hält Google Cloud weiterhin an Nvidia-Hardware für sein Cloud-Angebot fest. Das Unternehmen verfolgt eine hybride Strategie:

  • Eigene TPUs für Google-native KI-Dienste wie Gemini
  • Nvidia-GPUs für Kunden mit bestehenden CUDA-basierten Workflows

Diese Doppelstrategie spiegelt die Realität des Marktes wider. Viele Unternehmenskunden haben erhebliche Investitionen in Nvidia-kompatible Software-Stacks getätigt. Ein abrupter Wechsel würde Migrationsaufwand und Kompatibilitätsrisiken bedeuten. Google adressiert damit sowohl den wachsenden Markt für Cloud-native KI-Entwicklung als auch etablierte Enterprise-Kunden mit bestehenden GPU-Abhängigkeiten.


Wettbewerb im KI-Chip-Markt verschärft sich

Der Vorstoß Googles reiht sich in eine breitere Entwicklung ein: Neben Google arbeiten Amazon Web Services mit Trainium und Inferentia sowie Microsoft mit eigenen KI-Chips daran, die Abhängigkeit von Nvidia zu reduzieren.

Nvidia hält nach wie vor einen dominanten Marktanteil bei KI-Beschleunigern – sieht sich aber zunehmend mit hausgemachter Konkurrenz der größten Cloud-Anbieter konfrontiert.

Für Google ist die TPU-Strategie auch wirtschaftlich bedeutsam: Eigene Chips reduzieren die Beschaffungskosten und ermöglichen es, Margen im Cloud-Geschäft zu verbessern – ein Faktor, der angesichts des intensiven Preiskampfs im Cloud-Sektor erheblich an Gewicht gewinnt.


Einordnung für deutsche Unternehmen

Für deutsche Unternehmen, die KI-Workloads in der Cloud betreiben oder planen, eröffnet die neue TPU-Generation eine zusätzliche Option bei der Infrastrukturwahl. Konkret empfiehlt sich folgendes Vorgehen:

  • Google Cloud-Nutzer sollten die Kostenstruktur der neuen TPU-Instanzen mit bestehenden GPU-Angeboten vergleichen
  • CUDA-abhängige Unternehmen müssen kurzfristig keinen Handlungsbedarf sehen
  • Mittelfristig lohnt die Beobachtung, ob Googles Chip-Architektur ein leistungsfähiges und preislich attraktives Ökosystem aufbaut

Quelle: TechCrunch AI

Scroll to Top