Google und Marvell Technology wollen gemeinsam zwei spezialisierte Inferenz-Chips für Googles Rechenzentren entwickeln. Die Partnerschaft steht exemplarisch für einen handfesten Strategiewechsel der großen Cloud-Anbieter: weg von der Nvidia-Abhängigkeit, hin zu maßgeschneiderter Silizium-Infrastruktur – mit weitreichenden Folgen für den gesamten KI-Markt.
Google und Marvell planen gemeinsame Entwicklung spezialisierter KI-Inferenz-Chips
Google verhandelt mit dem Halbleiterunternehmen Marvell Technology über die Entwicklung von zwei neuen Spezialchips für den Einsatz in eigenen Rechenzentren. Die Kooperation zielt darauf ab, die Effizienz bei der KI-Inferenz – also dem produktiven Betrieb bereits trainierter Modelle – gezielt zu verbessern und die Abhängigkeit von Drittanbietern wie Nvidia weiter zu reduzieren.
Strategische Erweiterung der eigenen Chip-Infrastruktur
Google verfügt bereits über eine eigene Chip-Entwicklungslinie: Die sogenannten Tensor Processing Units (TPUs) werden seit Jahren intern entwickelt und eingesetzt. Mit der geplanten Zusammenarbeit mit Marvell würde Google diese Strategie ausweiten, indem externe Designkompetenz gezielt für spezifische Anwendungsfälle genutzt wird.
Marvell gilt in der Branche als erfahrener Partner für kundenspezifische ASIC-Entwicklungen (Application-Specific Integrated Circuits) und arbeitet bereits mit anderen großen Cloud-Anbietern zusammen.
Berichten zufolge sollen die beiden geplanten Chips unterschiedliche Aufgaben im Rechenzentrumsverbund übernehmen. Details zu Architektur, Fertigungspartner oder geplantem Produktionszeitpunkt sind bislang nicht öffentlich bekannt.
Inferenz rückt in den Fokus der Hardware-Entwicklung
Der Schwerpunkt auf Inferenz ist bemerkenswert. Während das Training großer KI-Modelle nach wie vor enorme Rechenkapazitäten erfordert, entfällt im laufenden Betrieb – also beim Einsatz von Modellen durch Millionen von Nutzern gleichzeitig – der weitaus größte Teil der Betriebskosten auf die Inferenzphase. Spezialisierte Hardware, die genau für diesen Anwendungsfall optimiert ist, kann den Energieverbrauch und die Latenz pro Anfrage deutlich senken.
Dieser Trend ist branchenweit zu beobachten:
- Amazon setzt auf eigene Inferentia-Chips
- Meta verfolgt eigene Silizium-Projekte
- Der Markt für inferenz-optimierte Hardware gilt als einer der strategisch bedeutsamsten Wachstumsbereiche im KI-Infrastrukturumfeld der kommenden Jahre
Wettbewerb um Chip-Unabhängigkeit nimmt zu
Für Google geht es bei der Partnerschaft mit Marvell auch um eine breitere industriepolitische Positionierung. Die starke Marktstellung von Nvidia – dessen H100- und H200-GPUs nach wie vor Industriestandard für KI-Workloads sind – erzeugt bei großen Cloud-Anbietern erheblichen Preisdruck und Lieferkettenrisiken.
Eigene oder partnerschaftlich entwickelte Chips bieten sowohl Kostenkontrolle als auch strategische Flexibilität – ein Argument, das für alle großen Hyperscaler zunehmend an Gewicht gewinnt.
Marvell profitiert seinerseits von der wachsenden Nachfrage nach Custom-Silicon-Lösungen. Das Unternehmen hat sich in den vergangenen Jahren gezielt als ASIC-Designpartner für Hyperscaler positioniert und dürfte durch eine Zusammenarbeit mit Google seinen Ruf in diesem Segment weiter festigen.
Einordnung für deutsche Unternehmen
Für deutsche Unternehmen, die KI-Dienste über Google Cloud beziehen oder planen, sind diese Entwicklungen mittelfristig relevant:
- Effizientere Inferenz-Hardware bedeutet in der Regel niedrigere Betriebskosten pro API-Aufruf
- Potenziell geringere Latenz bei Cloud-basierten KI-Anwendungen
- Direkte Auswirkungen auf Preismodelle oder Service-Level-Agreements sind kurzfristig jedoch nicht zu erwarten
Unternehmen, die eigene KI-Infrastruktur evaluieren, sollten die Entwicklung im Custom-Silicon-Bereich dennoch aufmerksam beobachten. Der Trend zur spezialisierten Inferenz-Hardware dürfte die Leistungs- und Kostenparameter des gesamten Marktes in den nächsten zwei bis drei Jahren spürbar verschieben.
Quelle: The Decoder – Google will mit Marvell eigene KI-Chips für effizientere Inferenz entwickeln