Warte – diese ID ist verboten. Ich wähle eine andere:
Mit dem neuen Modell „Mythos” betritt Anthropic technisches Neuland – und sorgt damit in der Cybersicherheits-Community für wachsende Unruhe. Experten warnen: Hochleistungs-KI könnte die ohnehin fragile Balance zwischen Angreifern und Verteidigern endgültig kippen.
Anthropics Mythos-Modell weckt Bedenken unter Cybersicherheitsexperten
Anthropic hat mit „Mythos” ein KI-Modell vorgestellt, das speziell für komplexe technische Aufgaben entwickelt wurde – darunter Softwareentwicklung und Systemanalyse. Sicherheitsforscher warnen nun, dass solche Modelle die Fähigkeiten von Angreifern erheblich ausweiten könnten, bevor Unternehmen in der Lage sind, entsprechende Gegenmaßnahmen zu entwickeln und einzuspielen.
Schnellere Angriffe, langsamere Abwehr
Das zentrale Problem ist kein neues: Die Asymmetrie zwischen Angreifern und Verteidigern existiert in der Cybersicherheit seit Jahrzehnten. Was sich verändert, ist das Tempo.
Hochleistungsfähige Large Language Models wie Mythos könnten Sicherheitslücken künftig automatisiert identifizieren, analysieren und für Angriffe nutzbar machen – in einem Zeitrahmen, der bisherige Patch-Zyklen unterläuft. Während Unternehmen und Behörden für das Schließen kritischer Schwachstellen oft Tage oder Wochen benötigen, könnte KI-gestützte Exploitation diesen Zeitraum drastisch verkürzen.
Cyberverteidigungen könnten schneller exponiert werden, als Fixes ausgerollt werden können – ein Szenario, das nicht nur schlecht gesicherte KMU, sondern auch kritische Infrastruktur mit langen Update-Zyklen betrifft.
Sicherheitsforscher gegenüber der Financial Times
Dual-Use-Problem bei KI-Modellen
Anthropic steht mit dieser Problematik nicht allein. Die Branche diskutiert seit geraumer Zeit das sogenannte Dual-Use-Dilemma: Dieselben Fähigkeiten, die ein Modell für legitime Sicherheitsanalysen, Penetrationstests oder Code-Überprüfungen nützlich machen, lassen sich grundsätzlich auch für offensive Zwecke einsetzen.
Die Frage ist nicht mehr, ob solche Modelle missbraucht werden können – sondern wie schnell und in welchem Umfang.
Anthropic hat nach eigenen Angaben Sicherheitsvorkehrungen in Mythos integriert und das Modell internen sowie externen Sicherheitstests unterzogen. Wie belastbar diese Guardrails unter gezieltem Adversarial Prompting sind, bleibt jedoch eine offene Frage – eine, die die Security-Community bei jedem leistungsfähigen Modell neu stellt.
Wettbewerb beschleunigt die Entwicklung
Der Wettbewerb zwischen führenden KI-Laboren – Anthropic, OpenAI, Google DeepMind und zunehmend chinesischen Anbietern – erzeugt erheblichen Druck, Modelle zügig auf den Markt zu bringen. Sicherheitsforscher befürchten, dass dieser Wettbewerbsdruck zu Lasten gründlicher Sicherheitsevaluierungen gehen könnte.
Gleichzeitig werden die Modelle von staatlichen Akteuren und organisierten Cyberkriminellen aktiv auf Schwachstellen untersucht. Das US AI Safety Institute sowie vergleichbare Institutionen in Europa haben zuletzt verstärkt auf verbindliche Evaluierungsstandards gedrängt – mit bislang begrenztem regulatorischen Ergebnis.
Einordnung für deutsche Unternehmen
Für Sicherheitsverantwortliche in deutschen Unternehmen verschärft die Entwicklung einen bereits bekannten Handlungsdruck. Das BSI empfiehlt seit Längerem:
- Vulnerability-Management-Prozesse beschleunigen
- Kritische Systeme durch kontinuierliches Monitoring absichern
- Manuelle oder quartalsweise Patch-Zyklen auf Tragfähigkeit überprüfen
Der Einsatz von KI-gestützten Erkennungssystemen auf der Defensivseite wird angesichts KI-beschleunigter Angriffsszenarien zunehmend weniger optional.
Unternehmen, die noch auf veraltete Update-Rhythmen setzen, sollten deren Tragfähigkeit unter veränderten Bedrohungsannahmen dringend überprüfen.
Quelle: Ars Technica AI