Digitale Bildmanipulation durch KI wird immer schwerer zu erkennen – doch wer die typischen Artefakte kennt, hat einen entscheidenden Vorteil. Ein Fall aus der britischen Politik liefert das Lehrstück.
Fünf Merkmale zur Erkennung KI-manipulierter Bilder – ein Lehrfall aus der britischen Politik
Ein Foto des britischen Politikers Richard Tice von der Partei Reform UK steht im Verdacht, mittels KI verändert worden zu sein. Der Guardian hat den Fall analysiert und dabei fünf wiederkehrende Muster identifiziert, anhand derer sich KI-generierte oder KI-bearbeitete Bildmanipulationen erkennen lassen. Die Erkennungsmerkmale sind dabei weit über den politischen Kontext hinaus relevant.
Der Ausgangsfall
Das fragliche Bild zeigt Tice in einem Kontext, der Fragen zur Echtheit aufwarf. Bildforensiker und Redakteure des Guardian unterzogen das Foto einer systematischen Analyse – mit dem Ergebnis, dass mehrere klassische Artefakte moderner KI-Bildbearbeitung sichtbar sind.
Solche Fälle häufen sich: Nicht nur in der Politik, sondern auch in der Unternehmenskommunikation, im Marketing und in der Berichterstattung tauchen manipulierte Bilder zunehmend auf.
Die fünf Erkennungsmerkmale im Überblick
1. Unnatürliche Texturen an Haaren und Hintergrund
KI-Modelle erzeugen bei feinen Strukturen wie Haaren häufig unscharfe oder unlogische Übergänge. Einzelne Strähnen verlaufen in Kurven, die anatomisch nicht möglich wären, oder lösen sich am Bildrand in verschwommene Muster auf.
2. Inkonsistente Beleuchtung
Lichtquellen und Schatten folgen in manipulierten Bildern oft keiner einheitlichen Logik. Ein Gesicht kann anders ausgeleuchtet sein als die unmittelbare Umgebung – ein Hinweis darauf, dass Bildteile aus unterschiedlichen Quellen zusammengesetzt oder nachträglich verändert wurden.
3. Fehler an Händen und Fingern
Dieses Merkmal gilt als eines der zuverlässigsten Indizien für KI-Manipulation.
Aktuelle Bildgeneratoren haben nach wie vor Schwierigkeiten, die korrekte Anzahl und Form von Fingern darzustellen. Verwachsene Knöchel, zusätzliche Finger oder unnatürliche Proportionen sind typische Fehler.
4. Asymmetrische oder unlogische Accessoires
Brillen, Ohrringe oder Knöpfe werden von KI-Systemen häufig nicht geometrisch korrekt gespiegelt. Ein Brillengestell kann auf einer Seite anders verlaufen als auf der anderen; Knopfreihen folgen keiner geraden Linie.
5. Artifizielle Glättung von Hautpartien
KI-Bildbearbeitung neigt dazu, Hauttöne zu nivellieren und Poren, Fältchen oder andere natürliche Texturen zu eliminieren. Das Ergebnis wirkt wie eine übertriebene Retusche – gleichmäßig, aber biologisch unplausibel.
Methodik und Grenzen der Erkennung
Keines dieser Merkmale ist für sich allein ein abschließender Beweis. Erst das Zusammentreffen mehrerer Auffälligkeiten erhöht die Wahrscheinlichkeit einer Manipulation signifikant.
Zudem entwickeln sich die Bildgeneratoren kontinuierlich weiter: Was heute noch als verlässlicher Hinweis gilt, kann in wenigen Monaten bereits überwunden sein.
Spezialisierte Detektionstools wie der Content Authenticity Check von Adobe oder der Hive Moderation Detector liefern ergänzende, aber ebenfalls keine absolut zuverlässigen Ergebnisse.
Einordnung für deutsche Unternehmen
Für Kommunikationsverantwortliche, PR-Abteilungen und Medieneinkäufer in deutschen Unternehmen wird die Bildverifikation zu einer operativen Notwendigkeit. Wer Bildmaterial für Kampagnen einkauft, in sozialen Netzwerken veröffentlicht oder in der internen Kommunikation nutzt, trägt ein wachsendes Reputationsrisiko, wenn sich Inhalte im Nachhinein als manipuliert erweisen.
Der Aufbau interner Kompetenzen zur Bilderkennung – ergänzt durch technische Hilfsmittel und klare redaktionelle Prozesse – sollte auf der Agenda stehen, bevor ein öffentlichkeitswirksamer Fehler den Handlungsdruck erzeugt.
Quelle: The Guardian – Five signs a Richard Tice picture was AI-manipulated