Chinesische Militärforscher treiben spezialisierte KI für elektronische Kriegsführung voran – während neue Forschung zeigt, dass KI-Cyberangriffe nach vorhersehbaren Skalierungsgesetzen immer effizienter werden. Was das für die Sicherheitslage deutscher Unternehmen bedeutet.
Chinas KI-gestützte Kriegsführung und skalierbare Cyberangriffe: Die Bedrohungslage für Unternehmen
Chinesische Militärforscher haben ein spezialisiertes KI-Modell für elektronische Kriegsführung entwickelt, während eine neue Studie belegt, dass KI-Systeme Cyberangriffe nach bekannten Skalierungsgesetzen effizienter machen. Beide Entwicklungen deuten auf eine qualitative Veränderung der Bedrohungslandschaft hin, die über staatliche Akteure hinaus zunehmend auch Unternehmen betrifft.
Chinas Modell für elektronische Kriegsführung
Forscher der Volksbefreiungsarmee haben ein Large Language Model entwickelt, das speziell für den Einsatz im Bereich elektronischer Kriegsführung konzipiert ist. Das Modell wurde auf militärischen Fachdaten trainiert und soll Aufgaben wie die Analyse elektromagnetischer Spektren, die Planung von Störoperationen sowie die Auswertung von Signaldaten unterstützen. Damit werden Fähigkeiten, die bisher erheblichen menschlichen Analyseaufwand erforderten, zumindest teilweise automatisierbar.
Bemerkenswert ist der Ansatz, ein domänenspezifisches Modell anstelle eines Allzweck-LLM einzusetzen. Diese Strategie erlaubt eine engere Ausrichtung auf sicherheitskritische Anforderungen und reduziert potenzielle Sicherheitslücken, die durch breiter trainierte Modelle entstehen könnten.
Für westliche Sicherheitsexperten ist dies ein klares Signal: China treibt den Aufbau spezialisierter KI-Kapazitäten im Militärbereich gezielt voran – parallel zur öffentlich sichtbaren Entwicklung ziviler Systeme wie DeepSeek.
Skalierungsgesetze für Cyberangriffe
Eine wissenschaftlich aufgearbeitete Untersuchung legt nahe, dass die Effektivität KI-gestützter Cyberangriffe vorhersehbaren Skalierungsgesetzen folgt – ähnlich den bekannten Scaling Laws aus der LLM-Forschung. Je leistungsfähiger das eingesetzte Modell, desto höher die Erfolgsrate bei der automatisierten Ausnutzung von Sicherheitslücken.
Konkret wurde nachgewiesen, dass größere Modelle bei standardisierten Penetrationstests deutlich bessere Ergebnisse erzielen als kleinere. Die Implikation ist direkt:
Mit jeder neuen Modellgeneration steigt die Angriffsfähigkeit potenzieller Gegner automatisch mit – ohne zusätzlichen Aufwand auf Angreiferseite.
Die Studie zeigt außerdem, dass aktuelle Frontier-Modelle bereits in der Lage sind, eine signifikante Anzahl realer Schwachstellen ohne menschliches Zutun zu identifizieren und auszunutzen.
Traumatisierte Sprachmodelle: Ein unterschätztes Supply-Chain-Risiko
Ergänzend thematisiert die zugrundeliegende Analyse sogenannte „traumatisierte” LLMs – Modelle, die durch adversariales Fine-Tuning oder gezielte Datenvergiftung so verändert wurden, dass sie bei bestimmten Eingaben unzuverlässig oder manipulierbar reagieren.
Für Unternehmen, die externe KI-APIs oder Drittanbieter-Modelle einsetzen, stellt dies ein bislang wenig beachtetes Supply-Chain-Risiko dar: Ein kompromittiertes Modell liefert möglicherweise fehlerhafte oder bewusst irreführende Ausgaben – ohne dass dies auf den ersten Blick erkennbar ist.
Was das für deutsche Unternehmen bedeutet
Für IT-Sicherheitsverantwortliche ergeben sich aus diesen Entwicklungen konkrete Handlungsfelder:
- Patch-Zyklen verkürzen: Die Automatisierung von Angriffen erhöht den Druck, Schwachstellen-Management zu priorisieren und Lücken schneller zu schließen.
- KI-Modelle prüfen: Der Einsatz externer KI-Modelle – insbesondere in sicherheitskritischen Prozessen – sollte unter dem Gesichtspunkt möglicher Modellkompromittierung bewertet werden.
- BSI und CERTs einbinden: Eine verstärkte Zusammenarbeit mit dem BSI sowie branchenspezifischen CERTs empfiehlt sich, da diese zunehmend auch KI-gestützte Angriffsmuster in ihren Lageberichten erfassen.
Die Frage, ob staatlich entwickelte Angriffskapazitäten aus China direkt auf deutsche Unternehmen abzielen, ist nachrangig: Die dabei entwickelten Techniken und Werkzeuge verbreiten sich erfahrungsgemäß in der gesamten Angreifer-Community.
Unternehmen sollten sich auf ein Umfeld einstellen, in dem Angriffe mit begrenzten Ressourcen zunehmend präziser und automatisierter durchgeführt werden können. Die technologische Schwelle für sophistizierte Cyberangriffe sinkt – das ist die eigentliche strategische Botschaft dieser Entwicklungen.
Quelle: Import AI – Issue 450