KI-gestützte Phishing-Angriffe: Aktuelle Modelle erzielen hohe Überzeugungskraft

Generative KI verändert die Bedrohungslandschaft grundlegend: Fünf Large Language Models wurden in einem kontrollierten Test auf ihre Tauglichkeit als Phishing-Werkzeug geprüft – die Ergebnisse zeigen, wie niedrig die Einstiegshürde für hochwertige Cyberangriffe bereits gesunken ist.

KI-gestützte Phishing-Angriffe: Aktuelle Modelle zeigen erschreckende Überzeugungskraft

Vom groben Entwurf zur gezielten Täuschung

Klassische Phishing-Mails galten lange als leicht erkennbar: schlechte Grammatik, generische Ansprache, implausible Szenarien. Dieses Bild hat sich grundlegend verändert. Moderne Large Language Models sind in der Lage, kontextbezogene, sprachlich einwandfreie Nachrichten zu verfassen, die auf spezifische Zielpersonen zugeschnitten sind.

Im beschriebenen Test wurden die Modelle gebeten, täuschend echte Phishing-Szenarien zu simulieren – von gefälschten IT-Sicherheitswarnungen bis hin zu personalisierten Nachrichten, die interne Unternehmenskommunikation imitieren. Einige der getesteten Modelle lehnten entsprechende Anfragen zunächst ab oder versahen ihre Ausgaben mit Warnhinweisen. Andere hingegen lieferten auf direktem oder leicht umformuliertem Weg überzeugende Angriffstexte – inklusive plausibel wirkender Absenderadressen, nachgeahmter Corporate Language und psychologischer Druckelemente wie künstlicher Dringlichkeit.


Wo Sicherheitsmechanismen versagen

Besonders relevant ist die Frage, wie robust die eingebauten Sicherheitsfunktionen der Modelle tatsächlich sind. Der Test zeigt: Sogenannte „Guardrails” – also programmatische Schutzmechanismen gegen Missbrauch – lassen sich durch geringfügige Umformulierungen oder das Einbetten der Anfrage in fiktive Szenarien oft umgehen.

Ein Angreifer muss kein Programmierer sein: Es reicht, die richtige Sprache zu finden.

Das Ergebnis ist eine deutliche Absenkung der Einstiegshürde für Cyberkriminalität. Wer früher auf vorgefertigte Phishing-Kits oder spezialisiertes Know-how angewiesen war, kann heute mit wenig Aufwand und einem handelsüblichen KI-Tool überzeugend formulierte Angriffskampagnen in mehreren Sprachen generieren.


Spear-Phishing im industriellen Maßstab

Der qualitative Sprung liegt weniger in der Grundidee als in der Skalierbarkeit. Personalisierte Phishing-Nachrichten – sogenanntes Spear-Phishing – waren bislang aufwendig und auf hochwertige Ziele beschränkt. Mithilfe von KI lassen sich hunderte individualisierter Nachrichten in kurzer Zeit erzeugen, die auf öffentlich verfügbaren Informationen aus LinkedIn, Unternehmenswebsites oder sozialen Netzwerken basieren.

Der Aufwand pro Angriff sinkt – während die Trefferquote steigt.

Sicherheitsforscher beobachten bereits eine Zunahme an KI-generierten Phishing-Kampagnen in freier Wildbahn. Technische Indikatoren wie Metadaten oder stilistische Muster, die früher auf maschinelle Erstellung hindeuteten, werden durch bessere Modelle zunehmend eliminiert.


Gegenmaßnahmen und technische Erkennungsansätze

Auf Verteidigungsseite entstehen parallel eigene KI-gestützte Erkennungssysteme, die auf statistischen Anomalien, Verhaltensmustern und kontextueller Analyse basieren. Einige E-Mail-Sicherheitsanbieter integrieren bereits Large Language Models, um den Kommunikationsstil eines Absenders mit früheren Nachrichten abzugleichen.

Dennoch bleibt die Erkennung schwierig, solange Angreifer Zugang zu denselben oder ähnlich leistungsfähigen Modellen haben.


Handlungsbedarf für Unternehmen

Für deutsche Unternehmen ergibt sich daraus konkreter Handlungsbedarf:

  • Technische Schutzmaßnahmen allein reichen nicht aus. Bestehende E-Mail-Sicherheitslösungen sollten auf KI-generierte Inhalte ausgelegt sein.
  • Schulungen aktualisieren: Sprachliche Qualität ist kein Indikator für Seriosität mehr – Mitarbeitende müssen auf diesen Paradigmenwechsel vorbereitet werden.
  • Interne Prozesse definieren: Klare Eskalationswege für verdächtige Kommunikation müssen etabliert und kommuniziert werden.
  • Besonderes Risiko im Mittelstand: Wo formelle IT-Sicherheitsstrukturen schwächer ausgeprägt sind, steigt die Angriffsfläche spürbar.

Sprachliche Perfektion schützt nicht vor Phishing – sie erschwert die Erkennung. Das müssen Unternehmen jetzt in ihre Sicherheitsstrategie einpreisen.


Quelle: Wired AI

Scroll to Top