Großbritannien testet KI-Cyberbedrohungen systematisch – mit ernüchternden Ergebnissen

Während KI-Sicherheitsdebatten häufig von Spekulation geprägt sind, liefert das britische AI Safety Institute mit seinem Testframework „Mythos” erstmals belastbare, reproduzierbare Daten – und das Bild, das sich zeigt, ist differenzierter als erwartet.

Großbritannien testet KI-Cyberbedrohungen systematisch – mit ernüchternden Ergebnissen

Mythos: Strukturiertes Testing statt Spekulation

Das britische AI Safety Institute (AISI) hat das Bewertungsprogramm Mythos entwickelt, um Large Language Models gezielt auf ihre Fähigkeiten in sicherheitsrelevanten Szenarien zu testen. Dabei werden Modelle realen Angriffssimulationen ausgesetzt – von einfachen Aufklärungsaufgaben bis hin zu mehrstufigen Netzwerkinfiltrationen. Ziel ist es, konkrete, reproduzierbare Erkenntnisse zu liefern, anstatt auf hypothetische Worst-Case-Szenarien zu setzen.

Der methodische Ansatz unterscheidet sich bewusst von rein akademischen Benchmarks: Mythos orientiert sich an praxisnahen Angriffsketten, wie sie in realen Vorfällen dokumentiert sind. Damit richtet sich das Framework explizit an politische Entscheider und Sicherheitsbehörden, die konkrete Handlungsgrundlagen benötigen.


Erstmals: KI löst komplexe mehrstufige Aufgabe

Ein zentrales Ergebnis der jüngsten Tests: Ein KI-Modell – laut Ars Technica unter Beteiligung von Anthropics Claude – hat als erstes System eine schwierige mehrstufige Infiltrationsübung vollständig abgeschlossen. Diese Aufgabe erforderte mehrere aufeinanderfolgende Entscheidungen und die Nutzung verschiedener Angriffsvektoren, was bislang als Hürde galt, die aktuelle Modelle nicht zuverlässig überwinden können.

Das Lösen einer kontrollierten Testaufgabe entspricht nicht automatisch dem Potenzial, reale Infrastrukturen zu kompromittieren.

Die Tester betonen, dass dieser Befund differenziert zu bewerten ist. Viele Szenarien, die in der öffentlichen Diskussion als akute KI-Gefahr gehandelt werden, haben die Modelle im Mythos-Framework schlicht nicht bestanden.


Was tatsächlich gefährlich ist – und was nicht

Die Ergebnisse zeichnen ein nuancierteres Bild als viele Sicherheitsdebatten suggerieren. KI-Systeme zeigen messbare Stärken bei:

  • der Automatisierung von Aufklärung
  • dem Generieren von Phishing-Inhalten
  • der Analyse bekannter Schwachstellen

Bei komplexen, adaptiven Angriffsketten gegen gut gesicherte Systeme stoßen aktuelle Modelle hingegen weiterhin an klare Grenzen.

Die reale Gefahr liegt weniger in einem autonomen KI-Angreifer als in der Absenkung der Einstiegshürden für weniger erfahrene Angreifer.

KI kann vorhandenes Angriffswissen leichter zugänglich machen und Routineaufgaben in Angriffsprozessen beschleunigen – das ist eine konkrete, heute bereits relevante Bedrohung.


Einordnung für deutsche Unternehmen

Für Unternehmen in Deutschland liefern die britischen Testergebnisse eine wichtige Grundlage zur Priorisierung. Social Engineering, automatisiertes Phishing und die Beschleunigung bekannter Angriffsmuster durch KI sind keine Zukunftsszenarien mehr – sie sind operationell relevant.

Investitionen in Mitarbeitersensibilisierung und technische Erkennung von KI-generiertem Angriffsinhalt zahlen sich bereits heute aus. Spekulativen Szenarien autonomer KI-Hacker sollte hingegen kein unverhältnismäßig großes Gewicht in der Sicherheitsstrategie eingeräumt werden.

Das AISI plant, Mythos kontinuierlich weiterzuentwickeln und die Ergebnisse öffentlich zugänglich zu machen – ein Modell, das auch für die europäische KI-Sicherheitspolitik als Referenz dienen könnte.


Quelle: Ars Technica AI

Scroll to Top