Sprachmodelle wurden entwickelt, um zu helfen – doch dieselben Fähigkeiten, die sie nützlich machen, lassen sich zunehmend als Angriffswerkzeug einsetzen. Die Bedrohungslandschaft verändert sich schneller, als viele Unternehmen reagieren können.
KI und Cybersicherheit: Wenn Sprachmodelle zur Angriffswaffe werden
Die Fähigkeit von KI-Systemen, bei Cyberangriffen zu unterstützen, entwickelt sich schneller als öffentlich diskutiert wird. Sicherheitsforscher und Fachleute aus dem Bereich der KI-Sicherheit warnen zunehmend vor einem sogenannten „Capability Overhang” – einem Zustand, in dem vorhandene Fähigkeiten von Angreifern noch nicht vollständig ausgeschöpft werden, dies aber absehbar ist.
Was ist der „Capability Overhang”?
Der Begriff beschreibt eine strukturelle Gefahr: Aktuelle Large Language Models besitzen bereits Fähigkeiten, die für Cyberangriffe nutzbar sind, ohne dass dies in ihrer ursprünglichen Entwicklung intendiert war. Dazu gehören:
- das Erkennen von Schwachstellen in Code
- das Generieren von Exploit-Skripten
- das Verfassen täuschend echter Phishing-Nachrichten in beliebigen Sprachen und Stilen
Diese Fähigkeiten entstehen nicht als Ergebnis gezielter Vorbereitung durch Angreifer, sondern als Nebeneffekt des allgemeinen Sprachverständnisses und der technischen Kompetenz moderner Modelle. Was bislang noch fehlt, ist eine systematische Nutzung durch schlecht ausgestattete, aber motivierte Akteure – doch diese Schwelle sinkt.
Sinkende Einstiegshürden, steigende Angriffsdichte
Besonders beunruhigend ist das Muster, das sich in der Entwicklung abzeichnet. Angreifer mit begrenzten technischen Kenntnissen könnten künftig KI-gestützte Werkzeuge einsetzen, um Angriffe durchzuführen, die bisher spezialisiertes Fachwissen erforderten.
Was früher Wochen dauerte, ließe sich mit KI-Unterstützung in Stunden umsetzen – mit mehr Varianten und schnellerer Anpassung an Gegenmaßnahmen.
Gleichzeitig ermöglichen automatisierte Systeme eine deutlich höhere Angriffsdichte: mehr Versuche, mehr Varianten, schnellere Reaktion auf Abwehrmaßnahmen.
Die stille Bedrohung: Was Detektionssysteme nicht sehen
Hinzu kommt eine tiefere Dimension des Problems. Weil viele Unternehmen ihre Sicherheitsmaßnahmen auf bekannte Angriffsmuster ausrichten, bleiben neuartige, KI-generierte Angriffsvektoren häufig unterhalb der Detektionsschwelle.
Traditionelle signaturbasierte Erkennungssysteme sind darauf nicht ausgelegt. Social-Engineering-Angriffe, die mit Hilfe von KI personalisiert und sprachlich verfeinert werden, hinterlassen kaum Muster, die automatisiert erkannt werden könnten.
Die Kombination aus Individualisierung und Skalierbarkeit verändert die Bedrohungslandschaft grundlegend.
Dual Use: Dieselben Fähigkeiten, zwei Seiten
Die Forschungsgemeinschaft diskutiert intensiv, wie KI-Anbieter mit dieser Doppelnatur ihrer Systeme umgehen sollen. Denn dieselben Fähigkeiten, die Angreifer nutzen könnten, sind auch für defensive Zwecke wertvoll:
- automatisiertes Pentesting
- Schwachstellenanalyse
- Beschleunigung von Security-Audits
Andererseits lässt sich der Zugang nicht vollständig kontrollieren, sobald Modelle breit verfügbar sind. Die Frage, welche Fähigkeiten in kommerziellen Modellen eingeschränkt werden sollten und welche nicht, ist noch nicht befriedigend beantwortet.
Was das für deutsche Unternehmen bedeutet
Für deutsche Unternehmen und IT-Verantwortliche bedeutet diese Entwicklung vor allem eines: Die Einschätzung der eigenen Risikolage muss aktualisiert werden.
Wer seine Sicherheitsstrategie auf dem Bedrohungsbild von vor zwei Jahren aufgebaut hat, dürfte systematisch untergesichert sein.
Besonders mittelständische Betriebe, die häufig über begrenzte Sicherheitsressourcen verfügen, sollten prüfen, ob ihre bestehenden Erkennungs- und Abwehrsysteme mit den veränderten Angriffsmustern Schritt halten. Der Aufbau von Kompetenzen rund um KI-gestützte Angriffserkennung sowie regelmäßige Überprüfungen durch externe Sicherheitsdienstleister dürften in den kommenden Monaten von reaktivem Aufwand zu strategischer Notwendigkeit werden.
Quelle: Import AI