Anthropics neues KI-Sicherheitsmodell „Mythos Preview” steht Behörden wie NSA und dem Handelsministerium bereits zur Verfügung – doch ausgerechnet die zentrale US-Cybersicherheitsbehörde CISA geht leer aus. Der Fall offenbart ein wachsendes Spannungsfeld zwischen KI-Anbietern und staatlichen Sicherheitsstrukturen.
Anthropic hält US-Cybersicherheitsbehörde CISA von neuem KI-Modell fern
CISA außen vor, NSA und Commerce Department nicht
Wie das Nachrichtenportal Axios berichtete, haben Behörden wie die National Security Agency (NSA) und das Handelsministerium (Department of Commerce) bereits Zugang zu Mythos Preview erhalten. Das Modell ist nach Angaben Anthropics darauf ausgelegt, Sicherheitslücken in Systemen aufzuspüren und zu beheben – sowohl für offensive als auch defensive Cybersicherheitsanwendungen. CISA, die als zentrale Koordinierungsstelle für Cybersicherheit in den USA gilt, gehört nach aktuellem Stand jedoch nicht zu den Nutzern.
„Wir befinden uns in laufenden Gesprächen mit US-Regierungsvertretern über Claude Mythos Preview und seine offensiven sowie defensiven Cyberfähigkeiten.”
— Anthropic (Blogbeitrag)
Ein namentlich nicht genannter Anthropic-Vertreter erklärte gegenüber Axios, CISA sei zumindest in Briefings einbezogen worden. Einen direkten Systemzugang erhielt die Behörde demnach aber nicht. Auf eine Anfrage zur Stellungnahme reagierte Anthropic nicht; CISA äußerte sich zunächst ebenfalls nicht.
Kontext: CISA unter institutionellem Druck
Der Vorfall fällt in eine Phase, in der CISA ohnehin unter erheblichem institutionellem Druck steht. Die Behörde hat unter der Trump-Administration Kürzungen bei Personal und Budget erfahren, was ihre operative Kapazität einschränkt.
Vor diesem Hintergrund erscheint der fehlende Zugang zu einem potenziell leistungsfähigen Sicherheitswerkzeug besonders brisant – unabhängig davon, ob dies auf eine bewusste Entscheidung Anthropics, auf behördeninterne Kapazitätsprobleme oder auf laufende Vertragsverhandlungen zurückzuführen ist.
Die Trump-Administration verhandelt laut Axios parallel über einen breiteren Regierungszugang zu Mythos Preview. Wie weit diese Gespräche gediehen sind und welche Behörden künftig einbezogen werden, ist derzeit unklar.
Sicherheitsmodell mit Dual-Use-Potenzial
Mythos Preview steht exemplarisch für eine neue Kategorie von KI-Systemen, die explizit für den Einsatz in sicherheitskritischen Bereichen entwickelt werden. Modelle dieser Art können Schwachstellen in Software und Infrastruktur identifizieren – was sie sowohl für Verteidiger als auch für potenzielle Angreifer attraktiv macht.
Genau deshalb ist die Frage, welche Behörden Zugang erhalten und unter welchen Bedingungen, sicherheitspolitisch brisant. Anthropic hat bislang keine öffentliche Begründung geliefert, warum CISA – anders als andere Bundesbehörden – keinen direkten Systemzugang besitzt. Ob es sich um eine strategische Entscheidung, ein lizenzrechtliches oder ein kapazitätsbedingtes Problem handelt, bleibt offen.
Einordnung für deutsche Unternehmen und Behörden
Der Fall verdeutlicht ein strukturelles Spannungsfeld, das auch für deutsche Organisationen zunehmend relevant wird: KI-Anbieter entscheiden eigenständig, welchen staatlichen Akteuren sie Zugang zu sicherheitsrelevanten Modellen gewähren – und zu welchen Konditionen.
Für Organisationen, die KI-gestützte Sicherheitswerkzeuge evaluieren, sollten folgende Aspekte fester Bestandteil der Beschaffungsstrategie sein:
- Zugangstransparenz: Welche Behörden und Akteure erhalten unter welchen Bedingungen Zugang?
- Behördliche Einbindung: Wie werden nationale Sicherheitsbehörden in den Evaluierungsprozess einbezogen?
- Dual-Use-Risiken: Welche offensiven Anwendungsszenarien sind technisch möglich?
Die EU-KI-Verordnung sieht für Hochrisikosysteme bereits erweiterte Transparenzpflichten vor – eine Entwicklung, die das Procurement sicherheitsrelevanter KI-Modelle in Deutschland künftig stärker regulieren dürfte.
Quelle: Axios via The Verge AI