NSA nutzt Claude-Modell in geheimen Netzwerken – trotz laufendem Rechtsstreit mit Pentagon

Während das Pentagon rechtliche Schritte gegen Anthropic einleitet, betreibt die NSA gleichzeitig dessen neuestes KI-Modell auf höchst klassifizierten Netzwerken. Ein Widerspruch, der tiefe Governance-Lücken im US-Sicherheitsapparat offenbart – und auch europäische Entscheider aufhorchen lassen sollte.

NSA nutzt Claude Mythos auf geheimen Netzwerken – trotz laufendem Rechtsstreit mit Pentagon

Der US-amerikanische Geheimdienst NSA setzt nach übereinstimmenden Berichten das Large Language Model Claude Mythos von Anthropic auf klassifizierten Netzwerken ein. Dies geschieht, während das Pentagon gleichzeitig in einem Rechtsstreit mit dem KI-Unternehmen steht – ein Widerspruch, der grundlegende Fragen zur Beschaffungspolitik und Sicherheitsarchitektur im US-Regierungsapparat aufwirft.


Einsatz auf klassifizierten Systemen

Laut einem Bericht von Decrypt betreibt die National Security Agency eine Preview-Version von Claude Mythos, dem neuesten und leistungsstärksten Modell aus dem Anthropic-Portfolio, auf Netzwerken mit hoher Geheimhaltungsstufe. Details zur genauen Anwendung, dem Vertragsvolumen oder den technischen Sicherheitsvorkehrungen sind öffentlich nicht bekannt.

Der Zeitpunkt des Berichts fällt zusammen mit einem Besuch von Anthropic-CEO Dario Amodei im Weißen Haus – dessen Inhalt ebenfalls nicht offiziell kommuniziert wurde.

Pentagon-Konflikt als Hintergrund

Bemerkenswert ist die parallele Auseinandersetzung zwischen Anthropic und dem US-Verteidigungsministerium. Das Pentagon soll rechtliche Schritte eingeleitet haben, die den Einsatz von Anthropic-Produkten in bestimmten behördlichen Kontexten betreffen – genaue Hintergründe des Verfahrens sind öffentlich nicht vollständig dokumentiert.

Dass ein weiterer Zweig des Sicherheitsapparats zeitgleich auf dasselbe Unternehmen setzt, verdeutlicht die fragmentierte Beschaffungsstrategie im US-Regierungsumfeld und die fehlende zentrale KI-Governance auf Bundesebene.

Supply-Chain-Risiken im Fokus

Der Fall rückt eine Debatte in den Vordergrund, die auch in europäischen Regierungskreisen geführt wird: Welche Abhängigkeiten entstehen, wenn Behörden mit höchsten Sicherheitsanforderungen auf Modelle kommerzieller Anbieter zurückgreifen?

Kritiker verweisen auf Supply-Chain-Risiken – also die Gefahr, dass Schwachstellen oder Backdoors in extern entwickelten Modellen nationale Sicherheitsinteressen gefährden könnten.

Anthropic hat bislang keinen offiziellen Kommentar zu den Berichten abgegeben. Das Unternehmen gilt in der Branche als vergleichsweise sicherheitsorientiert und hat mit dem Constitutional-AI-Ansatz einen eigenen Rahmen für verantwortungsvolle Modellentwicklung etabliert.

Politisches Signalspiel in Washington

Amodeis Treffen im Weißen Haus lässt auf eine intensivierte Kommunikation zwischen Anthropic und der US-Regierung schließen. In Washington laufen derzeit mehrere parallele Initiativen zur Regulierung und zum staatlichen Einsatz von KI-Systemen. Anthropic positioniert sich dabei zunehmend als bevorzugter Partner für sicherheitskritische Anwendungen – eine Strategie, die auch OpenAI und Google DeepMind verfolgen.

Einordnung für deutsche Unternehmen und Behörden

Für deutsche Entscheider in Behörden und regulierten Industrien liefert dieser Fall ein anschauliches Beispiel für die Governance-Lücken, die bei schnell eskalierender KI-Beschaffung entstehen können.

Während in den USA verschiedene Behörden unkoordiniert Verträge mit denselben Anbietern schließen – teils trotz laufender Rechtsstreitigkeiten –, dürften Datenschutzanforderungen und die Vorgaben des AI Acts in der EU strukturell strengere Prüfprozesse erzwingen.

Unternehmen, die Large Language Models in sensiblen Bereichen einsetzen wollen, sollten Lieferketten-, Datenschutz- und Compliance-Risiken systematisch bewerten, bevor Vertragsbeziehungen mit US-amerikanischen Modellanbietern eingegangen werden – unabhängig von deren Sicherheitsreputation.


Quelle: Decrypt AI

Scroll to Top