Ein pro-iranisches Netzwerk namens „Explosive Media” produziert KI-generierte Cartoons im Lego-Stil, um westliche Zielgruppen mit Anti-Trump-Propaganda zu bespielen – und markiert damit eine neue Qualitätsstufe staatlich gesteuerter Desinformation.
Pro-iranisches Netzwerk setzt KI-generierte Cartoons als Propagandainstrument ein
Professionell aufgemachte Desinformation in neuem Format
Eine als „Explosive Media” bekannte Gruppe mit mutmaßlichen Verbindungen zum iranischen Staatsapparat nutzt KI-generierte Animationen im Lego-Stil, um gezielt Stimmung gegen die US-Regierung und Präsident Donald Trump zu machen. Die Kampagne umfasst bereits mehr als ein Dutzend Videos, die auf verschiedenen Social-Media-Plattformen verbreitet werden und sich inhaltlich mit den laufenden Spannungen zwischen den USA und dem Iran befassen.
Die von Wired und Ars Technica analysierten Videos imitieren den visuellen Stil klassischer Lego-Animationen und sind technisch deutlich aufwendiger produziert als frühere staatlich geförderte Propagandaformate. Die Inhalte verspotten Trump und die amerikanische Außenpolitik, greifen aktuelle geopolitische Ereignisse auf und werden auf Englisch ausgespielt – erkennbar auf ein westliches Publikum ausgerichtet.
Sicherheitsforscher ordnen „Explosive Media” als Teil eines breiteren pro-iranischen Einflussnahme-Ökosystems ein, das seit Jahren auf sozialen Netzwerken aktiv ist.
Neu ist der systematische Einsatz generativer KI-Werkzeuge zur Inhaltserstellung: Was früher erheblichen personellen und finanziellen Aufwand erfordert hätte, lässt sich heute mit vergleichsweise geringen Ressourcen in Serie produzieren.
KI senkt die Produktionshürde für staatlich gesteuerte Kampagnen
Das Muster ist für Experten im Bereich Influence Operations nicht überraschend, aber in seiner Skalierbarkeit bemerkenswert. Generative Bildgeneratoren und Videomodelle erlauben es auch mittelmäßig ausgestatteten Akteuren, visuell ansprechende und memefähige Inhalte in hoher Frequenz zu publizieren.
Die Wahl der Lego-Ästhetik ist dabei strategisch kalkuliert: Das Format wirkt harmlos, ist kulturell bekannt und wird von Plattform-Algorithmen seltener als politische Propaganda eingestuft als etwa klassische Propagandaplakate.
Plattformanbieter stehen damit vor einem wachsenden Erkennungsproblem: Während textbasierte Desinformation zunehmend durch automatisierte Systeme identifiziert wird, erfordert KI-generiertes Videomaterial völlig neue Detektionsansätze – und die Angreifer lernen schneller, als Moderationssysteme angepasst werden können.
Einordnung: Strukturelle Verschiebung im Informationsumfeld
Der Fall „Explosive Media” illustriert eine fundamentale Veränderung im Bereich staatlich gesteuerter Desinformation: Der technologische Vorteil, der westlichen Geheimdiensten und Plattformen bislang bei der Erkennung solcher Kampagnen zugutekam, schrumpft spürbar.
KI-Tools demokratisieren nicht nur legitime Kreativarbeit, sondern auch die Produktion politisch motivierter Inhalte – durch staatliche wie nicht-staatliche Akteure gleichermaßen. Gleichzeitig erschwert die ästhetische Qualität der neuen Inhalte die Zuschreibung erheblich: Wer ohne Vorwissen ein gut produziertes Cartoon-Video sieht, erkennt nicht zwingend einen staatlichen Hintergrund.
Praktische Konsequenzen für Unternehmen
Für deutsche Unternehmen, die in sensiblen Branchen tätig sind oder internationale Kommunikation betreiben, ergeben sich konkrete Handlungsfelder:
- Das Monitoring von Social-Media-Kanälen auf koordiniertes unauthentisches Verhalten (Coordinated Inauthentic Behavior) sollte KI-generierte Videoformate explizit einschließen.
- Mitarbeiterinnen und Mitarbeiter in Kommunikations- und PR-Abteilungen sollten für das veränderte Bedrohungsbild sensibilisiert werden.
- Besondere Aufmerksamkeit gilt Unternehmen, die in geopolitisch aufgeladenen Märkten operieren oder Ziel politisch motivierter Reputationskampagnen werden könnten.
Quelle: Ars Technica – „Pro-Iran ‘Explosive Media’ trolls Trump with AI-generated Lego cartoons”