Künstliche Intelligenz revolutioniert nicht nur legitime Geschäftsprozesse – sie macht auch kriminelle Angriffe präziser, schneller und gefährlicher. Was früher durch schlechte Grammatik oder generische Ansprache auffiel, tarnt sich heute perfekt als interne Kommunikation. Unternehmen, die ihr Sicherheitskonzept nicht aktualisieren, spielen ein gefährliches Spiel.
KI-gestützte Betrugsmaschen nehmen zu – Unternehmen unterschätzen das Risiko
Laut einer aktuellen Analyse des MIT Technology Review hat sich die Qualität von KI-generierten Phishing-Nachrichten, gefälschten Identitäten und automatisierten Social-Engineering-Angriffen in den vergangenen Monaten spürbar verbessert. Sicherheitsexperten warnen unmissverständlich: Klassische Erkennungsmethoden versagen zunehmend.
Vom Massenangriff zur personalisierten Täuschung
Traditionelle Betrugsversuche waren oft durch schlechte Grammatik, unpersönliche Ansprache oder generische Inhalte erkennbar. Dieses Muster gilt nicht mehr als verlässliches Warnzeichen. Large Language Models ermöglichen es Angreifern, in Sekundenschnelle personalisierte Nachrichten zu erstellen, die auf öffentlich verfügbare Informationen über Zielpersonen zugeschnitten sind – etwa LinkedIn-Profile, Pressemitteilungen oder Unternehmenswebseiten.
Das Ergebnis ist beunruhigend konkret:
- Phishing-Mails lesen sich wie interne Kommunikation
- Gefälschte Rechnungen tragen korrekte Lieferantenbezeichnungen
- Vermeintliche Vorgesetzte kommunizieren im gewohnten Schreibstil
Die Angriffsfläche für sogenannte Business Email Compromise (BEC)-Attacken hat sich dadurch deutlich vergrößert.
Deepfakes und synthetische Identitäten als neue Bedrohung
Über textbasierte Angriffe hinaus nutzen Kriminelle zunehmend Audio- und Video-Deepfakes, um Mitarbeitende zu täuschen.
Bekannt wurden Fälle, in denen Finanzmitarbeitende durch gefälschte Videokonferenzen mit vermeintlichen Führungskräften zur Überweisung größerer Geldbeträge verleitet wurden – mit Technologie, die heute günstig und ohne Expertenwissen verfügbar ist.
Parallel dazu entstehen über KI-Tools vollständig synthetische Identitäten – ausgestattet mit plausiblen Lebensläufen, gefälschten Ausweisdokumenten und konsistenten Online-Profilen. Diese werden eingesetzt, um Geschäftsbeziehungen aufzubauen, Kredite zu erschleichen oder sich als Dienstleister zu positionieren.
Automatisierung senkt die Angriffsschwelle drastisch
Ein entscheidender Faktor ist die Skalierbarkeit. Was früher manuelle Recherchearbeit erforderte, lässt sich heute vollständig automatisieren: KI-Systeme können tausende individuelle Betrugsversuche parallel vorbereiten und versenden.
Das bedeutet: Nicht mehr nur Großunternehmen stehen im Visier – auch mittelständische Betriebe und kleinere Dienstleister werden zunehmend Ziel aufwendig wirkender, gezielter Angriffe.
Sicherheitsforscher beobachten zudem, dass KI-Tools zur Stimmensynthese mittlerweile mit wenigen Minuten an Audiomaterial eine überzeugende Kopie einer Stimme erzeugen können. Für Vishing-Angriffe – betrügerische Anrufe – ist das eine erhebliche Qualitätssteigerung.
Gegenmaßnahmen: Technik allein reicht nicht
Technische Abwehrmechanismen wie KI-gestützte E-Mail-Filter oder Authentifizierungsprotokolle sind notwendig, aber nicht ausreichend. Experten empfehlen ein mehrschichtiges Vorgehen:
Prozessebene:
– Kritische Entscheidungen – insbesondere Zahlungsfreigaben oder die Weitergabe sensibler Daten – müssen grundsätzlich eine Zweifaktor-Bestätigung über einen unabhängigen Kanal erfordern
– Telefonische Rückfragen über bekannte Nummern, nicht über im Nachrichtentext angegebene Kontakte
Schulungsebene:
– Mitarbeiterschulungen müssen aktualisiert werden: Das Erkennen von KI-generierten Inhalten erfordert andere Kompetenzen als das Erkennen klassischer Spam-Mails
– Regelmäßige Simulationsübungen, die aktuelle Angriffsmuster abbilden, gelten als besonders effektiv
Für deutsche Unternehmen – insbesondere im Mittelstand – bedeutet das eine konkrete Neubewertung bestehender Sicherheitskonzepte.
Wer Prozesse und Schulungsmaßnahmen noch am Bedrohungsbild von vor drei Jahren ausrichtet, dürfte gegen aktuelle KI-gestützte Angriffsmethoden nur unzureichend gewappnet sein.
Bitkom und das Bundesamt für Sicherheit in der Informationstechnik (BSI) stellen aktualisierte Handlungsempfehlungen bereit – deren Nutzung lohnt sich.