DeepSeek kündigt nächste Modellgeneration an – mit Fokus auf Coding und chinesische Hardware

Chinas KI-Schwergewicht DeepSeek meldet sich zurück: Mit einer Vorschau auf das Modell V4 beansprucht das Unternehmen erneut einen Platz in der Weltspitze – und sendet dabei gleich mehrere politische Signale in Richtung Washington.

DeepSeek kündigt nächste Modellgeneration an – mit Fokus auf Coding und chinesische Hardware

Rund ein Jahr nach dem Aufsehen um Modell R1 hat das chinesische KI-Unternehmen DeepSeek eine Vorschau auf sein nächstes großes Sprachmodell veröffentlicht. DeepSeek V4 soll laut eigenen Angaben mit den führenden geschlossenen Systemen von Anthropic, Google und OpenAI konkurrieren – und erscheint erneut als Open-Source-Modell.


Coding als zentrales Differenzierungsmerkmal

DeepSeek bezeichnet V4 als deutliche Verbesserung gegenüber den Vorgängermodellen, mit besonderem Schwerpunkt auf Programmierfähigkeiten. Coding-Kompetenz hat sich innerhalb der KI-Branche zum entscheidenden Leistungsmaßstab entwickelt – nicht zuletzt durch den Erfolg von Werkzeugen wie ChatGPT Codex und Claude Code.

Starke Coding-Fähigkeiten gelten als Grundvoraussetzung für den Einsatz in KI-Agenten, die zunehmend komplexe, mehrstufige Aufgaben selbstständig ausführen sollen.


Huawei-Kompatibilität als politisches Signal

Bemerkenswert ist eine explizite Hervorhebung im Ankündigungstext: DeepSeek betont die Kompatibilität von V4 mit Chiptechnologie des chinesischen Herstellers Huawei. Dies ist kein rein technisches Detail.

Inmitten anhaltender US-Exportbeschränkungen für Hochleistungshalbleiter signalisiert DeepSeek damit, auf chinesische Halbleiterinfrastruktur setzen zu können – oder zumindest setzen zu wollen. Trainingsdaten, Trainingskosten und konkrete Hardwareanforderungen hat das Unternehmen bislang nicht offengelegt.


Offene Fragen und politischer Kontext

Die Veröffentlichung kommt nicht ohne Vorbelastung:

  • US-Behörden haben DeepSeek vorgeworfen, trotz Exportverboten Nvidia-Chips für das Training früherer Modelle verwendet zu haben.
  • Anthropic hat öffentlich erklärt, DeepSeek habe seine Claude-Modelle missbräuchlich genutzt, um die eigenen Produkte zu verbessern – ein Vorwurf, den DeepSeek nicht kommentiert hat.

Diese Umstände dürften die Diskussion über Vertrauen und Compliance beim Einsatz des Modells in regulierten Umgebungen weiter anheizen.

Das Vorgängermodell R1 hatte Anfang 2025 für erhebliche Unruhe in der US-amerikanischen KI-Branche gesorgt, nachdem DeepSeek behauptete, es zu einem Bruchteil der Kosten führender US-Modelle trainiert zu haben. Diese Aussage wurde nie unabhängig verifiziert, löste aber eine breite Debatte über Recheneffizienz und die Annahmen hinter westlichen KI-Investitionen aus.


Einordnung für deutsche Unternehmen

Für Technologieverantwortliche in Deutschland ist DeepSeek V4 aus mehreren Gründen relevant:

  • Als Open-Source-Modell lässt es sich grundsätzlich lokal betreiben – ein Vorteil im Hinblick auf Datenschutz und DSGVO-Konformität.
  • Die starken Coding-Fähigkeiten machen es potenziell interessant für Entwicklungsabteilungen, die KI-gestützte Automatisierung einsetzen möchten.
  • Compliance-Abteilungen sollten die ungeklärten Vorwürfe rund um Chip-Beschaffung und Datenmissbrauch im Blick behalten.

Unternehmen in regulierten Branchen oder mit strengen Lieferkettenanforderungen werden die weitere Entwicklung – einschließlich einer möglichen unabhängigen Überprüfung der Trainingsinfrastruktur – abwarten müssen, bevor V4 produktiv eingesetzt werden kann.


Quelle: The Verge AI

Scroll to Top