KI-generierte Texte im Journalismus: Redakteure setzen klare Grenzen

Medienhäuser weltweit experimentieren mit KI-gestützten Schreibwerkzeugen – doch aus den Redaktionen wächst der Widerstand. Erfahrene Journalisten sehen in der automatisierten Texterstellung nicht nur eine Bedrohung ihrer Profession, sondern ein grundsätzliches Problem für Qualität und Glaubwürdigkeit des Journalismus.

KI-generierte Texte im Journalismus: Warum Redakteure die Grenze ziehen

Das Handwerk hinter dem Text

Guter Journalismus entsteht nicht beim Schreiben – er entsteht beim Recherchieren, Beobachten und Einordnen. Das ist der Kernpunkt, den viele Redakteure gegen den Einsatz von Large Language Models in der Texterstellung vorbringen. Ein Artikel über einen Unternehmensinsolvenzfall, ein Gerichtsurteil oder ein wissenschaftliches Studienergebnis erfordert Kontextwissen, das über die Zusammenfassung öffentlich zugänglicher Daten weit hinausgeht. Genau dort stoßen aktuelle KI-Systeme an strukturelle Grenzen.

Das Problem ist nicht allein die technische Qualität der generierten Texte. Large Language Models können grammatikalisch einwandfreie, kohärente Absätze produzieren. Die eigentliche Schwäche liegt in dem, was diese Systeme nicht leisten können:

Quellen kritisch einschätzen, Widersprüche in Aussagen erkennen oder den Nachrichtenwert eines Sachverhalts journalistisch beurteilen – das bleibt menschliche Kernkompetenz.

Produktivitätsdruck trifft auf Qualitätsanspruch

Verlage stehen unter erheblichem wirtschaftlichem Druck. Sinkende Werbeeinnahmen, schrumpfende Redaktionen und der Wettbewerb mit digitalen Plattformen lassen Automatisierungslösungen attraktiv erscheinen. Einige Medienhäuser – darunter Associated Press und Axel Springer – setzen KI bereits für klar definierte Formate ein: Quartalsberichte, Wetterprognosen, Sportergebnisse. Diese Anwendungsfälle folgen einer strukturierten Datenbasis und einem vorhersehbaren Textmuster.

Doch die Ausweitung auf redaktionelle Kerninhalte stößt auf anderen Widerstand. Journalisten berichten, dass KI-Entwürfe häufig überarbeitet werden müssen – und der Aufwand dabei den Zeitgewinn zunichtemacht. Hinzu kommt das Risiko sogenannter Halluzinationen: Systeme erfinden plausibel klingende Fakten, die bei oberflächlicher Redaktion unbemerkt in den Artikel einfließen können.

Vertrauen als zentraler Wirtschaftsfaktor

Für Nachrichtenmedien ist Glaubwürdigkeit kein abstraktes Gut – sie ist das Geschäftsmodell. Leser, die herausfinden, dass Inhalte ohne redaktionelle Prüfung maschinell erzeugt wurden, verlieren das Vertrauen in eine Marke nachhaltig.

In mehreren Studien aus dem US-amerikanischen und europäischen Raum geben Befragte an, KI-generierten Nachrichtentexten grundsätzlich weniger zu vertrauen – unabhängig von deren faktischer Richtigkeit.

Einige Redaktionen reagieren mit Transparenz-Richtlinien: Texte, bei deren Entstehung KI-Tools eine wesentliche Rolle gespielt haben, werden entsprechend gekennzeichnet. Ob diese Kennzeichnungspflicht das Vertrauensproblem löst oder verschärft, bleibt umstritten.

Einordnung für Unternehmen in der DACH-Region

Die Debatte im Journalismus ist für Content-Verantwortliche in Unternehmen unmittelbar relevant. Corporate Publishing, Fachkommunikation und PR-Texte unterliegen denselben Grundprinzipien: Glaubwürdigkeit entsteht durch nachweisbare Expertise und redaktionelle Verantwortung.

KI-Tools können Prozesse in der Contenterstellung beschleunigen – bei Standardformaten, Zusammenfassungen oder der ersten Strukturierung von Texten. Für Inhalte, die das Vertrauen von Kunden, Investoren oder Fachöffentlichkeiten erfordern, bleibt menschliche redaktionelle Kontrolle jedoch nicht optional, sondern strategisch notwendig.

Unternehmen, die das ignorieren, riskieren Reputationsschäden, die durch Effizienzgewinne kaum aufzuwiegen sind.


Quelle: Wired AI

Scroll to Top