DeepSeek V4: Chinesisches KI-Labor veröffentlicht bislang größtes Open-Weights-Modell mit wettbewerbsfähiger Preisgestaltung

DeepSeek sorgt erneut für Aufsehen: Mit V4-Pro und V4-Flash veröffentlicht das chinesische KI-Labor zwei Modelle, die in puncto Größe, Kontext und Preis neue Maßstäbe setzen – und den Druck auf westliche KI-Anbieter weiter erhöhen.

DeepSeek V4: Chinesisches KI-Labor veröffentlicht bislang größtes Open-Weights-Modell mit aggressiver Preisgestaltung

Das chinesische KI-Labor DeepSeek hat mit V4-Pro und V4-Flash zwei neue Modelle veröffentlicht, die sowohl in der Modellgröße als auch beim Preis neue Maßstäbe setzen. Mit bis zu 1,6 Billionen Parametern übertrifft DeepSeek V4-Pro alle bisher öffentlich verfügbaren Open-Weights-Modelle – und liegt preislich deutlich unter den vergleichbaren Angeboten von OpenAI, Google und Anthropic.


Technische Eckdaten

DeepSeek V4-Pro basiert auf einer Mixture-of-Experts-Architektur (MoE) mit 1,6 Billionen Gesamtparametern, von denen bei jedem Inferenzschritt nur ein Bruchteil aktiv ist. Das Kontextfenster umfasst eine Million Token – ein Wert, der bislang vor allem bei Googles Gemini-Modellen zu finden war.

Die kleinere Variante V4-Flash richtet sich an latenz- und kostensensitive Anwendungsfälle und nutzt ein destilliertes Modell, das auf den Ausgaben des größeren V4-Pro trainiert wurde. Details zu Trainingsdaten, Destillationsmethodik und eingesetzter Hardware hat DeepSeek in einem begleitenden technischen Paper offengelegt.


Preisdruck auf den gesamten Markt

Der strategisch bedeutsamste Aspekt der Veröffentlichung ist die Preisgestaltung: DeepSeek positioniert V4-Pro deutlich günstiger als vergleichbare Frontier-Modelle der US-amerikanischen Anbieter.

Konkrete Vergleichszahlen zeigen, dass die Kosten pro Million Token – sowohl für Input als auch Output – erheblich unter den Tarifen von GPT-4o oder Claude 3.5 Sonnet liegen. Damit setzt DeepSeek einen Trend fort, der mit der Veröffentlichung von V3 und R1 Anfang 2025 begann und den Preisverfall bei Large Language Models weiter beschleunigt.


Open-Weights-Strategie mit strategischer Reichweite

DeepSeek veröffentlicht die Modellgewichte unter einer Lizenz, die kommerzielle Nutzung erlaubt – ein zentrales Merkmal der Open-Weights-Strategie des Unternehmens. Unternehmen und Forschungseinrichtungen können die Modelle damit lokal oder auf eigener Infrastruktur betreiben, ohne auf die DeepSeek-API angewiesen zu sein.

Gleichzeitig bleibt der vollständige Trainingscode geschlossen, was die Modelle von vollständig quelloffenen Projekten wie LLaMA unterscheidet. Die Verfügbarkeit der Gewichte macht V4 dennoch für viele Enterprise-Anwendungsfälle attraktiver als proprietäre Alternativen.


Einordnung der Leistungsparameter

Für das Training von V4-Pro hat DeepSeek erhebliche Mengen synthetisch generierter Daten eingesetzt – ein Ansatz, der sich in der Branche zunehmend etabliert. Die Destillation von Fähigkeiten aus dem größeren in das kleinere Flash-Modell folgt ebenfalls einem inzwischen verbreiteten Muster.

Benchmarkergebnisse, die DeepSeek selbst veröffentlicht hat, zeigen V4-Pro auf Augenhöhe mit führenden proprietären Modellen in Coding, Mathematik und mehrsprachigem Reasoning – unabhängige Evaluierungen stehen jedoch noch aus.


Relevanz für deutsche Unternehmen

Für Tech-Entscheider in deutschen Unternehmen ergeben sich aus dieser Entwicklung konkrete Handlungsoptionen:

  • Die Kombination aus verfügbaren Modellgewichten und niedrigen API-Preisen senkt die Einstiegshürde für den produktiven KI-Einsatz weiter.
  • Wer proprietäre Modelle bislang aus Kostengründen scheute, findet mit DeepSeek V4 eine technisch wettbewerbsfähige Alternative.
  • Datenschutz- und Compliance-Anforderungen müssen sorgfältig geprüft werden – insbesondere bei der API-Nutzung über DeepSeeks Infrastruktur, die in China betrieben wird.
  • Der Self-Hosting-Pfad über die veröffentlichten Gewichte bietet eine datenschutzkonforme Alternative, erfordert jedoch entsprechende technische Kapazitäten.

Der anhaltende Preisverfall bei LLM-Inferenz dürfte mittelfristig auch die Verhandlungsposition gegenüber US-amerikanischen Anbietern stärken.


Quelle: The Decoder – DeepSeek V4 ist das größte Open-Weights-Modell und unterbietet die Konkurrenz beim Preis deutlich

Scroll to Top