Künstliche Intelligenz verändert die Spielregeln der Cybersicherheit fundamental – und schafft dabei ein Paradox: Dieselben Werkzeuge, die Verteidiger stärken, machen auch Angreifer mächtiger. Ein strukturelles Dilemma, das die gesamte digitale Infrastruktur betrifft.
KI in der Cybersicherheit: Wenn Angriff und Verteidigung gleichzeitig skalieren
Anthropic und andere KI-Labore positionieren ihre Modelle zunehmend als Werkzeug zur automatisierten Schwachstellenanalyse. Doch was als Fortschritt in der Verteidigung gilt, schafft zugleich neue Risiken – denn dieselben Fähigkeiten stehen potenziell auch Angreifern zur Verfügung. Sicherheitsexperten warnen vor einem strukturellen Dilemma, das die gesamte Netzarchitektur betrifft.
Automatisierte Schwachstellensuche auf beiden Seiten
Large Language Models sind inzwischen in der Lage, Code-Repositories systematisch auf Sicherheitslücken zu durchsuchen, Exploit-Pfade zu modellieren und Patches vorzuschlagen – und das in einem Tempo, das menschliche Sicherheitsteams nicht mithalten können. Anthropics Modell Claude wird in diesem Kontext bereits in agentenbasierten Szenarien eingesetzt, bei denen KI-Systeme selbstständig Aufgaben in mehrstufigen Prozessen ausführen.
Das grundlegende Problem: Die Werkzeuge zur Angriffserkennung und die Werkzeuge zur Angriffsdurchführung sind technisch nahezu identisch.
Ein Modell, das Schwachstellen findet, kann diese Informationen ebenso gut für offensive Zwecke nutzen – oder von Dritten dafür missbraucht werden.
Das Skalierungsproblem
Bruce Schneier, Fellow an der Harvard Kennedy School, und Barath Raghavan von der University of Southern California argumentieren, dass KI die bisherige Grundannahme der Cybersicherheit verschiebt. Bislang galt: Angriffe sind teuer, Verteidigung lohnt sich auf Dauer. KI-gestützte Systeme senken jedoch die Angriffskosten drastisch, während die Komplexität moderner IT-Infrastrukturen weiter wächst.
Angreifer müssen nur eine einzige Lücke finden. Verteidiger müssen alle schließen. Wenn KI nun die Suche nach Lücken automatisiert und beschleunigt, verschiebt sich diese Asymmetrie weiter zuungunsten der Verteidiger.
Agentic AI als neue Angriffsfläche
Besonders kritisch ist der Einsatz sogenannter agentischer KI-Systeme – Modelle, die autonom mehrere Schritte ausführen, auf externe Dienste zugreifen und Entscheidungen ohne menschliche Zwischenkontrolle treffen. Solche Systeme schaffen nicht nur neue Anwendungsfälle – sie schaffen auch neue Angriffsvektoren.
Prompt Injection – bei der böswillig formulierte Eingaben das Verhalten eines KI-Agenten manipulieren – ist bereits heute ein dokumentiertes Angriffsmuster.
Die Frage, wer die Kontrolle über solche Systeme ausübt und wie diese Kontrolle technisch und organisatorisch gesichert werden kann, ist bislang weitgehend unbeantwortet. Regulatorische Rahmenbedingungen wie der EU AI Act adressieren Risiken auf Modellebene, greifen aber bei operativen Deployment-Szenarien nur begrenzt.
Continuous Patching als neue Normalität
Der Ausweg, den Experten skizzieren, liegt weniger in der Hoffnung auf fehlerfreie Systeme als in der Fähigkeit zur kontinuierlichen Erkennung und Behebung von Schwachstellen. Architekturen, die regelmäßiges Testing, schnelles Patching und modulare Isolation ermöglichen, sind gegenüber monolithischen Systemen klar im Vorteil. KI kann dabei helfen – sofern die entsprechenden Governance-Strukturen vorhanden sind.
Was das für deutsche Unternehmen bedeutet
Für deutsche Unternehmen ergibt sich eine doppelte Aufgabe:
- KI-gestützte Sicherheitswerkzeuge bieten realen Mehrwert bei der Schwachstellenanalyse
- Sie erfordern aber klare interne Richtlinien, eine sorgfältige Anbieterwahl und kritische Prüfung der Zugriffsrechte agentischer Systeme
Wer KI in sicherheitsrelevante Prozesse integriert, ohne die damit verbundenen Kontrollmechanismen mitzudenken, tauscht ein Risiko gegen ein anderes.
Quelle: IEEE Spectrum AI