Der spezialisierte GPU-Cloud-Anbieter CoreWeave hat kurz nach seinem Börsengang einen mehrjährigen Infrastrukturvertrag mit Anthropic abgeschlossen – und sendet damit ein starkes Signal an den gesamten KI-Cloud-Markt: Die Ära der Hyperscaler-Abhängigkeit bei KI-Workloads bröckelt.
CoreWeave sichert Großdeal mit Anthropic – KI-Cloud-Markt konsolidiert sich
CoreWeave hat einen mehrjährigen Cloud-Vertrag mit dem KI-Unternehmen Anthropic abgeschlossen. Der Deal festigt die Position des spezialisierten GPU-Cloud-Anbieters als bevorzugte Infrastrukturplattform für führende KI-Entwickler und erweitert die Kundenbasis kurz nach dem Börsengang des Unternehmens.
Strategische Partnerschaft mit Signalwirkung
Anthropic, bekannt für die Claude-Modellfamilie und zuletzt mit einer Bewertung von rund 60 Milliarden US-Dollar gehandelt, bezieht über den neuen Vertrag Rechenkapazitäten von CoreWeave. Konkrete finanzielle Details des Deals wurden nicht veröffentlicht.
Die Partnerschaft ist bemerkenswert, da Anthropic bislang eng mit Google Cloud und Amazon Web Services verbunden war – beide Hyperscaler haben Milliardensummen in das Unternehmen investiert.
Eine Diversifizierung der Infrastrukturbasis deutet darauf hin, dass auch gut kapitalisierte KI-Labs zunehmend auf spezialisierte GPU-Anbieter setzen, um Rechenkapazitäten flexibel zu skalieren.
CoreWeave nach Börsengang unter Beobachtung
CoreWeave ging im März 2025 an die Nasdaq und war damit eines der meistbeachteten Tech-IPOs des Jahres. Das Unternehmen positioniert sich als spezialisierte Alternative zu den großen Hyperscalern – mit einem klaren Fokus auf Nvidia-GPU-Cluster für KI-Workloads. Zu den bestehenden Großkunden zählen unter anderem Microsoft und OpenAI.
Der Anthropic-Deal ergänzt dieses Portfolio und signalisiert, dass CoreWeave auch unabhängig von seiner engen Microsoft-Beziehung erfolgreich Neukunden gewinnen kann.
Konsolidierung im KI-Infrastrukturmarkt
Der Abschluss zeigt ein breiteres Muster im Markt: KI-Unternehmen diversifizieren ihre Cloud-Abhängigkeiten, während spezialisierte Anbieter wie CoreWeave, Lambda Labs oder Crusoe Energy in direkte Konkurrenz zu den etablierten Hyperscalern treten.
Die Vorteile dieser Anbieter liegen primär in:
- Schnellerer Verfügbarkeit von GPU-Kapazitäten
- Günstigeren Konditionen für rechenintensive Training- und Inference-Workloads
- Fokussierter Expertise rund um KI-spezifische Infrastruktur
Gleichzeitig fehlen ihnen die breiten Servicekataloge, die globale Präsenz und die tief integrierten Unternehmensprodukte der großen Cloud-Plattformen.
Einordnung für deutsche Unternehmen
Für Technologie- und IT-Verantwortliche in deutschen Unternehmen illustriert dieser Deal eine sich verändernde Beschaffungslogik im KI-Bereich: Die Entscheidung für Cloud-Infrastruktur wird zunehmend workload-spezifisch getroffen.
Wer große Sprachmodelle betreibt, fine-tuned oder eigene Modelle trainiert, sollte spezialisierte GPU-Cloud-Anbieter als festen Bestandteil der Infrastrukturstrategie prüfen.
Die etablierten Hyperscaler bleiben für die meisten Unternehmensanwendungen die naheliegende Wahl – doch die Marktentwicklung legt nahe, dass Multi-Cloud-Ansätze mit gezieltem Einsatz spezialisierter Anbieter mittelfristig zum Standard für KI-intensive Workloads werden könnten.
Quelle: The Decoder