Ein unveröffentlichtes KI-Modell von Anthropic gelangte durch erschreckend einfache Methoden in die Hände unbefugter Nutzer – ausgerechnet ein System, das der Hersteller wegen seiner Cybersicherheitsfähigkeiten für zu gefährlich hielt. Der Vorfall legt fundamentale Widersprüche im Sicherheitsversprechen eines der renommiertesten KI-Unternehmen der Welt offen.
Anthropic-Sicherheitsvorfall: Unbefugter Zugriff auf unveröffentlichtes KI-Modell Mythos
Zugriff über einfaches Raten der Serveradresse
Laut einem Bericht von Bloomberg gelang einer kleinen Gruppe unbefugter Nutzer der Zugriff auf Claude Mythos bereits am Tag, an dem Anthropic die kontrollierte Testphase mit ausgewählten Unternehmenspartnern ankündigte. Besonders brisant: Die Methode war technisch wenig aufwendig.
Die Gruppe soll schlicht eine fundierte Vermutung über den Serverstandort des Modells angestellt haben – auf Basis von Informationen, die durch einen früheren Datenschutzvorfall beim Unternehmen Mercor öffentlich zugänglich wurden.
Anthropic hat bestätigt, den Vorfall zu untersuchen.
Widerspruch zwischen Sicherheitsanspruch und Realität
Anthropic hatte Mythos in den Wochen zuvor als Modell mit so weitreichenden Cybersicherheitsfähigkeiten beschrieben, dass eine breite Veröffentlichung nicht verantwortbar sei. Das Unternehmen positioniert sich seit seiner Gründung als Safety-first-Anbieter und unterscheidet sich damit bewusst von Mitbewerbern wie OpenAI oder Google DeepMind.
Umso schwerer wiegt, dass das als besonders gefährlich eingestufte Modell offenbar ohne ausgefeilte Angriffsmethoden zugänglich war.
Je mehr ein Unternehmen öffentlich auf die besonderen Fähigkeiten eines noch nicht freigegebenen Modells hinweist, desto attraktiver wird es als Ziel für unbefugten Zugriff – und desto sichtbarer wird ein etwaiges Scheitern des Schutzes.
Mythos: Existenz zuerst durch Datenleck bekannt
Die Existenz von Claude Mythos war nicht durch eine offizielle Ankündigung, sondern durch ein vorheriges Datenleck publik geworden. Anthropic hatte daraufhin die gezielte Testphase mit einer kleinen Gruppe von Unternehmen bestätigt, ohne das Modell breit zugänglich zu machen.
Dieser Ansatz sollte offenbar die Risiken eines leistungsfähigen Cybersicherheitsmodells kontrollierbar halten – ein Plan, der durch den jüngsten Vorfall zumindest teilweise konterkariert wurde.
Einordnung für deutsche Unternehmen
Für Entscheider in deutschen Unternehmen, die KI-Lösungen evaluieren oder bereits einsetzen, liefert dieser Vorfall relevante Anhaltspunkte:
- Infrastruktursicherheit hinterfragen: Auch führende KI-Anbieter können mit grundlegenden Sicherheitslücken konfrontiert sein – unabhängig vom öffentlichen Sicherheitsversprechen.
- Lieferantenbewertung ernst nehmen: Wer KI-Dienste in kritische Geschäftsprozesse integriert, sollte konkrete Sicherheitsnachweise und Incident-Response-Verfahren einfordern, statt sich auf Reputationsargumente zu verlassen.
- Entwicklungen verfolgen: Die laufende Untersuchung durch Anthropic dürfte in den kommenden Wochen weitere Details liefern, die auch für europäische Unternehmenskunden relevant sein werden.
Quelle: The Verge AI