Während das britische KI-Sicherheitsinstitut Anthropics mächtigstes Modell bereits eigenständig evaluieren konnte, stehen europäische Regulierungsbehörden vor verschlossenen Türen. Der Fall Claude Opus – intern „Mythos” genannt – legt eine gefährliche Lücke in Europas KI-Aufsichtsarchitektur offen: ambitionierte Gesetze, aber fehlende Prüfkapazitäten.
Anthropics Claude Opus: Europäische Aufsichtsbehörden ohne direkten Modellzugang
Anthropic schränkt den Zugang zu seinem neuen Large Language Model Claude Opus – intern unter dem Codenamen „Mythos” geführt – aus Sicherheitsgründen erheblich ein. Während das britische KI-Sicherheitsinstitut bereits eigene Evaluierungen durchgeführt hat, stehen europäische Regulierungsbehörden weitgehend außen vor. Der Vorfall verdeutlicht eine strukturelle Schwäche in Europas KI-Aufsichtsarchitektur.
Zugang als Machtfrage
Anthropic begründet die Zugangsbeschränkungen mit Cybersicherheitsbedenken: Das Modell soll Fähigkeiten besitzen, die im Bereich kritischer Infrastruktur und Cyberangriffe als potenziell gefährlich eingestuft werden. Entsprechend wurde der Zugang selbst für staatliche Stellen limitiert.
Das britische AI Safety Institute (AISI) erhielt Zugang und konnte eigene Sicherheitstests durchführen – ein Ergebnis der engen institutionellen Zusammenarbeit zwischen London und US-amerikanischen KI-Unternehmen, die unter anderem auf bilateralen Vereinbarungen aus dem Bletchley-Park-Gipfel von 2023 basiert.
Für europäische Institutionen gilt das nicht in gleicher Weise. Weder das EU AI Office noch nationale Behörden verfügen bislang über vergleichbare Testkapazitäten oder gesicherte Zugangswege zu Hochrisiko-Modellen vor deren Markteinführung.
EU AI Act: Rechtsrahmen ohne operative Infrastruktur
Der EU AI Act klassifiziert bestimmte General-Purpose-AI-Modelle mit systemischen Risiken als besonders regulierungsbedürftig. Anbieter solcher Modelle sind verpflichtet, Sicherheitsbewertungen durchzuführen und diese dem EU AI Office zur Verfügung zu stellen. Doch die operative Umsetzung dieser Anforderungen hinkt hinter dem gesetzlichen Rahmen her.
Das EU AI Office wurde zwar formell eingerichtet, verfügt aber noch nicht über die technischen Kapazitäten, um eigenständige Adversarial-Tests oder Red-Teaming-Evaluierungen in dem Umfang durchzuführen, wie es Institutionen wie das britische AISI oder das US-amerikanische NIST AI Safety Institute leisten. Die Abhängigkeit von Selbstauskünften der Modellanbieter ist damit strukturell vorprogrammiert.
Asymmetrie zwischen Regulierungsanspruch und Prüfkapazität
Der Fall Anthropic macht eine grundlegende Asymmetrie sichtbar:
Europa formuliert ambitionierte Regulierungsstandards – doch die technischen Prüfmechanismen fehlen, um diese Standards vor Markteinführung eines Modells tatsächlich durchzusetzen.
Dieser Unterschied ist nicht trivial. KI-Sicherheitsevaluierungen erfordern spezialisiertes Personal, aufwändige Testinfrastruktur und – entscheidend – direkten Modellzugang, den Anbieter freiwillig gewähren müssen.
Großbritannien hat diesen Zugang über frühzeitige institutionelle Beziehungen zu Anthropic, OpenAI und Google DeepMind aufgebaut. Die EU steht vor der Aufgabe, ähnliche Strukturen erst noch zu etablieren, während die Modellanbieter längst weitere Generationen entwickeln.
Freiwilligkeit als Systemrisiko
Solange europäische Behörden auf die Kooperationsbereitschaft kommerzieller Anbieter angewiesen sind, bleibt die Aufsicht strukturell fragil. Anthropic hat in der Vergangenheit eine vergleichsweise offene Haltung gegenüber staatlichen Sicherheitsprüfungen eingenommen. Ob das bei anderen Marktteilnehmern oder unter veränderten wirtschaftlichen Bedingungen so bleibt, ist offen.
Der EU AI Act enthält zwar Pflichten zur Transparenz und zur Vorlage von Sicherheitsdokumentationen, doch der Unterschied zwischen dokumentierter Selbstbewertung und unabhängiger technischer Prüfung ist erheblich. Kritiker fordern deshalb den Aufbau eines europäischen Evaluierungszentrums mit eigenständiger Testkapazität – vergleichbar dem britischen AISI, aber mit direktem Mandat aus dem EU-Rechtsrahmen.
Konsequenzen für deutsche Unternehmen
Für deutsche Unternehmen, die KI-Systeme auf Basis solcher Frontier-Modelle entwickeln oder einsetzen, bedeutet die aktuelle Situation erhöhte Eigenverantwortung bei der Risikobeurteilung. Solange staatliche Prüfinstanzen keinen verlässlichen Vorab-Zugang zu Hochrisiko-Modellen haben, können Compliance-Anforderungen aus dem EU AI Act nicht auf behördlich zertifizierten Sicherheitsbewertungen aufbauen.
Eigene Due-Diligence-Prozesse beim Modell-Einsatz bleiben damit auch mittelfristig unverzichtbar.
Quelle: The Decoder – Claude „Mythos” ist ein Weckruf für Europas KI-Sicherheitsarchitektur