Ein Guardian-Kolumnist zertifiziert seinen eigenen Text als menschlich verfasst – und macht damit ein strukturelles Problem sichtbar: Im Zeitalter allgegenwärtiger KI-Generierung wird Authentizität zum Differenzmerkmal, das aktiv beglaubigt werden muss.
Zertifiziert menschlich: Wenn KI-generierter Content die Glaubwürdigkeit von Medien untergräbt
Das Problem mit dem „Slop”
Der Guardian-Kolumnist Peter Lewis hat einen ungewöhnlichen Schritt unternommen: Er kennzeichnet seinen eigenen Text explizit als menschlich verfasst – ein Symptom des wachsenden Vertrauensproblems, das KI-generierte Inhalte im Journalismus und in der Unternehmenskommunikation hinterlassen.
Lewis prägte dafür den Begriff „Slop-inion” – eine Kombination aus „Slop” (minderwertiger KI-Output) und „Opinion” – für jene Flut von Meinungsbeiträgen, die zwar formal korrekt strukturiert sind, aber ohne erkennbare persönliche Perspektive, ohne Risiko und ohne echte Haltung auskommen. Diese Inhalte füllen zunehmend redaktionelle Flächen, Social-Media-Feeds und Corporate Blogs.
Das Resultat: Leserinnen und Leser verlieren die Fähigkeit zu unterscheiden, ob hinter einem Text ein Mensch mit Erfahrung und Verantwortung steht – oder ein Large Language Model, das auf Wahrscheinlichkeiten optimiert.
Die Reaktion darauf – explizite Kennzeichnung menschlicher Autorschaft – wirft eine grundsätzliche Frage auf: Wenn der Standard für Content so weit gesunken ist, dass Authentizität aktiv beglaubigt werden muss, hat sich das Verhältnis von Produzent und Publikum strukturell verschoben.
Vertrauen als knappes Gut
Das Phänomen beschränkt sich längst nicht auf journalistische Plattformen. Unternehmensblogs, LinkedIn-Beiträge, Newsletter und Pressemitteilungen werden zunehmend durch automatisierte Prozesse befüllt. Kurzfristig spart das Ressourcen. Mittelfristig entsteht ein Glaubwürdigkeitsdefizit: Wer bei jeder Publikation damit rechnen muss, dass dahinter keine menschliche Einschätzung steht, misst dem Inhalt insgesamt weniger Gewicht bei.
Hinzu kommt ein technisches Problem: KI-Detektionssoftware ist nicht zuverlässig. Sie erzeugt sowohl falsch-positive als auch falsch-negative Ergebnisse. Eine belastbare externe Zertifizierung existiert bislang nicht. Das bedeutet, dass Unternehmen, die transparent kommunizieren wollen, auf eigene Standards angewiesen sind – ohne allgemein akzeptierte Branchennorm.
Kennzeichnungspflicht als nächster Schritt?
In der EU wird die Regulierung von KI-generiertem Content unter dem AI Act zunehmend konkret. Für bestimmte Kategorien – etwa synthetische Medieninhalte – gilt bereits eine Kennzeichnungspflicht. Ob und in welchem Umfang diese Anforderungen auf redaktionelle oder Marketingtexte ausgeweitet werden, ist noch offen, steht aber auf der regulatorischen Agenda.
Einige Medienhäuser experimentieren bereits mit redaktionellen Richtlinien, die KI-Einsatz bei Meinungsbeiträgen grundsätzlich ausschließen oder eine vollständige Offenlegung verlangen. Die Financial Times etwa hat interne Leitlinien eingeführt, die den Einsatz von Generative-AI-Tools in der Berichterstattung klar begrenzen.
Einordnung für deutsche Unternehmen
Für Unternehmen in Deutschland, die Content-Marketing oder Unternehmenskommunikation betreiben, ergibt sich daraus ein pragmatischer Handlungsbedarf:
Die Frage ist nicht, ob KI-Tools eingesetzt werden dürfen – sondern wie transparent dieser Einsatz kommuniziert wird.
Wer Thought Leadership, Fachbeiträge oder Kundenkommunikation produziert, sollte interne Redaktionsrichtlinien entwickeln, die den menschlichen Anteil am Entstehungsprozess klar definieren. Publikum und Geschäftspartner werden zunehmend danach fragen – und die Antwort darauf wird Teil der Markenbewertung.
Quelle: The Guardian – „Certified human: when AI-generated content undermines media credibility”