Meta setzt auf Amazons Graviton-Chips: Großauftrag markiert Verschiebung in der KI-Infrastruktur

Metas Großauftrag bei Amazon Web Services ist mehr als ein Liefervertrag – er markiert einen strategischen Wendepunkt in der KI-Infrastruktur: Weg von der GPU-Monokultur, hin zu einer differenzierten Chip-Landschaft, in der ARM-basierte Prozessoren eine tragende Rolle übernehmen.

Meta setzt auf Amazons Graviton-Chips: Großauftrag markiert Verschiebung in der KI-Infrastruktur

Meta hat mit Amazon Web Services einen umfangreichen Vertrag zur Nutzung von Amazons Graviton-Prozessoren für KI-Workloads abgeschlossen. Der Deal gilt als Signal dafür, dass große Technologiekonzerne bei KI-Infrastruktur zunehmend auf alternatives Chip-Design setzen – und nicht mehr ausschließlich auf Grafikprozessoren von Nvidia.

Graviton statt GPU: Worum geht es?

Amazons Graviton-Chips sind ARM-basierte Prozessoren, die AWS speziell für Cloud-Workloads entwickelt hat. Sie gelten als energieeffizient und kostenoptimiert für bestimmte Rechenaufgaben – insbesondere für Inferenz, also das Ausführen bereits trainierter KI-Modelle.

GPUs von Nvidia bleiben das Standardwerkzeug für das ressourcenintensive Training großer Modelle – doch für den laufenden Betrieb von KI-Anwendungen rücken spezialisierte Prozessoren zunehmend in den Fokus.

Meta nutzt die Graviton-Instanzen von AWS offenbar für genau diesen Zweck: das skalierte Ausführen von KI-Modellen im Produktivbetrieb. Konkrete finanzielle Details des Vertrags wurden nicht veröffentlicht.

Diversifizierung als strategische Antwort auf Engpässe

Der Schritt fügt sich in ein breiteres Muster ein. Sowohl Meta als auch andere Hyperscaler haben in den vergangenen Jahren die Abhängigkeit von einem einzigen Chip-Lieferanten als strukturelles Risiko erkannt. Nvidia-GPUs sind teuer, zeitweise schwer verfügbar und für bestimmte Aufgaben überdimensioniert.

Als Reaktion darauf verfolgen Unternehmen zwei Wege:

  • Eigenentwicklung – Meta etwa mit dem MTIA-Prozessor
  • Partnerschaften mit alternativen Anbietern – wie nun der Deal mit AWS zeigt

Amazon selbst verfolgt eine ähnliche Diversifizierungsstrategie mit seinen Trainium- und Inferentia-Chips. Dass Meta nun zusätzlich auf Graviton setzt, deutet darauf hin, dass AWS im Bereich der allgemeinen Compute-Effizienz wettbewerbsfähige Konditionen bieten kann – auch gegenüber Metas eigenem Chip-Programm.

Inferenz als unterschätzter Kostenfaktor

Während die öffentliche Debatte häufig auf das Training großer Sprachmodelle fokussiert ist, entfällt im laufenden Betrieb ein erheblicher Teil der Infrastrukturkosten auf die Inferenz.

Für Unternehmen, die KI-Modelle täglich millionenfach abfragen – wie Meta mit Facebook, Instagram und WhatsApp – ist die Kostenoptimierung in diesem Bereich unmittelbar geschäftsrelevant.

ARM-basierte Prozessoren können hier gegenüber klassischen GPU-Architekturen messbare Vorteile bei Energieverbrauch und Preis-Leistungs-Verhältnis ausspielen.

Einordnung für deutsche Unternehmen

Für IT-Entscheider in Deutschland ist dieser Deal aus mehreren Gründen relevant:

  1. Differenzierte Chip-Auswahl – Training, Inferenz und allgemeine Workloads haben unterschiedliche Anforderungen, die unterschiedliche Hardware nahelegen. Eine reine GPU-Strategie greift zu kurz.
  2. Sinkende Inferenzkosten – Der verstärkte Wettbewerb zwischen Chip-Architekturen dürfte mittelfristig die Preise für Cloud-basierte KI-Inferenz senken – relevant vor allem für mittelständische Unternehmen, die KI-Dienste über Cloud-APIs beziehen.
  3. Bewertung von ARM-Instanzen – Wer KI-Infrastruktur plant oder bestehende Setups überprüft, sollte Graviton- und vergleichbare ARM-Instanzen bei AWS, Google und Microsoft als ernsthafte Alternativen zu reinen GPU-Konfigurationen einbeziehen.

Quelle: CNET AI – Meta just signed a huge deal to use Amazon’s Graviton chips for AI

Scroll to Top