Sprachmodelle wie ChatGPT haben die Unternehmenskommunikation still und messbar verändert. Eine Auswertung des Finanzmediums Barron’s zeigt: Charakteristische KI-Floskeln tauchen in offiziellen Unternehmenstexten viermal häufiger auf als noch 2022 – mit potenziell spürbaren Folgen für Glaubwürdigkeit und Reputation.
ChatGPT-typische Formulierungen in Unternehmenstexten haben sich seit 2022 vervierfacht
Eine Analyse des Finanzmediums Barron’s zeigt, dass bestimmte Satzkonstruktionen, die charakteristisch für ChatGPT-generierte Texte sind, in der offiziellen Unternehmenskommunikation massiv zugenommen haben. Seit der breiten Verfügbarkeit von Large Language Models hat sich die Häufigkeit einer spezifischen Floskel seit 2022 vervierfacht – ein messbarer Beleg dafür, wie stark KI-Werkzeuge inzwischen in die Unternehmenssprache eingedrungen sind.
Sprachliche Fingerabdrücke von KI-Modellen
Bestimmte Formulierungsmuster gelten als verlässliche Indikatoren für maschinell erzeugten Text. Dazu gehören Konstruktionen wie einleitende Halbsätze der Art:
„It’s worth noting that …” oder „In today’s rapidly changing landscape …”
Wendungen, die in menschlichem Schreiben selten vorkommen, von Sprachmodellen wie ChatGPT aber statistisch bevorzugt werden. Die Barron’s-Auswertung hat diese sprachlichen Marker systematisch in öffentlich zugänglichen Unternehmenstexten nachverfolgt – darunter Pressemitteilungen, Quartalsberichte und interne Kommunikation.
Das Ergebnis ist eindeutig: Seit dem Launch von ChatGPT Ende 2022 zeigt die Kurve steil nach oben. Besonders markant ist der Anstieg zwischen 2024 und heute, was darauf hindeutet, dass die Nutzung von KI-Schreibassistenten nicht mehr auf Einzelfälle beschränkt ist, sondern in vielen Unternehmen zur Standardpraxis geworden sein dürfte.
Authentizität als Reputationsrisiko
Die Befunde werfen eine praktische Frage auf, die weit über Stilkritik hinausgeht: Wenn KI-typische Formulierungen für externe Beobachter – und zunehmend auch für automatisierte Detektionssysteme – erkennbar sind, verliert die betreffende Unternehmenskommunikation an Glaubwürdigkeit.
Investoren, Journalisten und Geschäftspartner, die solche Muster identifizieren, könnten Rückschlüsse auf den Sorgfaltsgrad oder die inhaltliche Tiefe der Texte ziehen.
Das betrifft nicht nur den Stil, sondern potenziell auch den Inhalt: Large Language Models neigen dazu, Aussagen zu glätten, Widersprüche zu vermeiden und vage zu formulieren – alles Eigenschaften, die in präziser Geschäftskommunikation kontraproduktiv sind.
Kein Verbot, aber mehr Bewusstsein
Der Befund ist keine Argumentation gegen den Einsatz von KI-Werkzeugen in Unternehmen. Textentwürfe effizienter zu erstellen, Routinekommunikation zu skalieren oder Sprachbarrieren zu überbrücken – das sind legitime Anwendungsfälle. Das Problem entsteht, wenn KI-Output unbearbeitet veröffentlicht wird: ohne redaktionelle Prüfung, ohne inhaltliche Kontrolle, ohne sprachliche Anpassung an die Corporate Voice des Unternehmens.
Einige große Unternehmen haben interne Leitlinien für den KI-Einsatz in der Kommunikation eingeführt, die explizit eine Nachbearbeitung durch menschliche Redakteure vorschreiben. Diese Praxis bleibt jedoch die Ausnahme.
Einordnung für deutsche Unternehmen
Für deutschsprachige Unternehmen – ob börsennotiert oder mittelständisch – ist die Botschaft der Barron’s-Analyse klar:
Der unkritische Einsatz von KI-Schreibwerkzeugen hinterlässt messbare Spuren.
Wer auf Differenzierung, Präzision und Vertrauen in der Außenkommunikation setzt, sollte KI-generierte Texte als Ausgangsmaterial behandeln, nicht als fertiges Produkt. Gerade in regulierten Bereichen wie der Finanzberichterstattung oder der Investor Relations kann sprachliche Unschärfe – egal ob menschlichen oder maschinellen Ursprungs – zu Reputationsschäden führen.
Eine klare interne Redaktionspolitik zum Umgang mit KI-Assistenten ist kein optionales Qualitätsmerkmal mehr, sondern eine strategische Notwendigkeit.
Quelle: The Decoder