Ein kleiner Kreis nicht autorisierter Nutzer verschaffte sich Zugang zu Anthropics gefährlichstem KI-Modell – einem System, das eigenständig Sicherheitslücken in Betriebssystemen und Browsern aufspüren und ausnutzen kann. Der Vorfall offenbart strukturelle Schwachstellen im Umgang mit hochriskanter KI-Technologie.
Anthropic: Unbefugter Zugriff auf hochsensibles Cybersecurity-Modell Mythos
Was ist Mythos – und warum ist der Vorfall brisant?
Claude Mythos Preview ist ein spezialisiertes Large Language Model, das Anthropic ausschließlich für Cybersicherheitszwecke entwickelt hat. Laut Unternehmensangaben ist das Modell in der Lage, Sicherheitslücken in allen gängigen Betriebssystemen sowie in allen major Web-Browsern selbstständig zu identifizieren und auf Anweisung auszunutzen. Genau diese Fähigkeit macht das System zu einem hochsensiblen Werkzeug, dessen unkontrollierter Einsatz erhebliche Risiken birgt.
Der offizielle Zugang zu Mythos ist eng begrenzt: Im Rahmen der Initiative „Project Glasswing” arbeitet Anthropic nur mit einer Handvoll ausgewählter Technologiekonzerne zusammen – darunter Nvidia, Google, Amazon Web Services, Apple und Microsoft. Auch Regierungsbehörden prüfen den Einsatz der Technologie.
Ein Modell, das Sicherheitslücken in jedem gängigen Betriebssystem und Browser selbstständig ausnutzen kann, ist per Definition ein Dual-Use-Werkzeug – seine Kontrolle ist keine Option, sondern Pflicht.
Wie kam es zum unautorisierten Zugriff?
Nach Informationen von Bloomberg gelang einer Gruppe von Mitgliedern eines privaten Online-Forums der Zugang zu Mythos über eine Kombination aus:
- gezielter Nutzung von Contractor-Zugriffsrechten
- gängigen Open-Source-Intelligence-Methoden (OSINT)
Eine an dem Vorfall beteiligte Person – lediglich als externer Auftragnehmer von Anthropic beschrieben – soll den Zugang ermöglicht haben.
Der Vorfall illustriert ein bekanntes strukturelles Problem in der IT-Sicherheit: Privilegierte Zugänge durch Drittparteien – sogenannte Third-Party-Contractor-Zugänge – stellen in komplexen Unternehmensumgebungen regelmäßig ein erhöhtes Missbrauchsrisiko dar. In diesem Fall reichten offenbar keine hochtechnischen Angriffsmethoden aus; das Zusammenspiel aus internem Zugang und öffentlich verfügbaren Recherchewerkzeugen genügte.
Reaktion von Anthropic und offene Fragen
Anthropic hat den Vorfall bislang nicht öffentlich kommentiert, den Sachverhalt jedoch dem Vernehmen nach intern untersucht. Ungeklärt bleibt:
- Wie lange der unbefugte Zugang bestand
- Welche Anfragen an das Modell gestellt wurden
- Ob sicherheitsrelevante Outputs abgerufen wurden
Der Vorfall kommt zu einem denkbar ungünstigen Zeitpunkt: Anthropic positioniert sich verstärkt im Bereich staatlicher und militärischer KI-Anwendungen – und betont dabei regelmäßig seinen Fokus auf „AI Safety”.
Ein Kontrollverlust bei einem Modell, das das Unternehmen selbst als potenziell gefährlich eingestuft hat, untergräbt dieses Narrativ zumindest in Teilen.
Einordnung für deutsche Unternehmen
Für Unternehmen in Deutschland, die KI-Systeme über externe Dienstleister beziehen oder einsetzen, verdeutlicht dieser Vorfall den Stellenwert eines konsequenten Third-Party-Risk-Managements. Konkret bedeutet das:
- Zugriffsrechte nach dem Prinzip minimaler Berechtigungen vergeben
- Contractor-Zugänge regelmäßig überprüfen und dokumentieren
- Zugänge bei Vertragsende unmittelbar entziehen
Mit dem EU AI Act rückt zudem die Einstufung hochriskanter KI-Systeme und die damit verbundene Dokumentationspflicht in den Vordergrund. Vorfälle wie dieser dürften die Diskussion über verpflichtende Sicherheitsstandards für Frontier-Modelle weiter beschleunigen.
Quelle: The Verge AI