Sprachmodelle lesen mehr Texte als jeder Mensch – und schreiben inzwischen mit. Was passiert, wenn KI-Systeme nicht nur Kommunikation verbreiten, sondern aktiv mitgestalten? Sicherheitsexperte Bruce Schneier und Historikerin Ada Palmer warnen vor einem stillen Normierungsprozess, der unsere kollektive Ausdrucksfähigkeit dauerhaft verändern könnte.
Wenn KI-Systeme Sprache prägen: Langzeitfolgen für Kommunikation und Unternehmenskultur
Large Language Models lernen Sprache aus verzerrten Datenquellen – und könnten damit langfristig beeinflussen, wie Menschen selbst kommunizieren und denken. Zu diesem Schluss kommen der Sicherheitsexperte Bruce Schneier und die Historikerin Ada Palmer in einem gemeinsamen Beitrag für den Guardian.
Einseitige Trainingsdaten als Ausgangsproblem
Das Grundproblem liegt in der Zusammensetzung der Trainingsdaten: Texte aus dem Internet überrepräsentieren bestimmte Bevölkerungsgruppen, Schreibstile und Weltanschauungen erheblich. Akademische Publikationen, englischsprachige Medien und formelle Geschäftskommunikation dominieren die Datensätze, während mündliche Sprache, Dialekte und informelle Alltagskommunikation weitgehend fehlen.
Das Ergebnis ist ein statistisches Sprachmodell, das einen spezifischen, keineswegs neutralen Sprachgebrauch als Standard setzt.
Rückkopplungseffekt auf menschliche Kommunikation
Problematischer als die Verzerrung selbst ist der potenzielle Rückkopplungseffekt: Wenn Millionen von Menschen täglich KI-generierte Texte lesen, darauf aufbauend kommunizieren und KI-Vorschläge in ihre eigene Schreib- und Ausdrucksweise übernehmen, verschiebt sich der kollektive Sprachgebrauch.
„Nicht durch offizielle Sprachpolitik, sondern durch die schiere Nutzungsfrequenz von KI-Assistenten entsteht ein stiller Normierungsprozess – in E-Mails, Berichten, Präsentationen und Kundenkommunikation.” – Schneier & Palmer
Historisch betrachtet hat jede neue Kommunikationstechnologie die Sprache verändert – vom Buchdruck bis zum Telegramm. Der wesentliche Unterschied bei KI-Systemen: Erstmals ist ein technisches System aktiv an der Textproduktion beteiligt, nicht nur an der Verbreitung. Die Sprache wird nicht nur übertragen, sondern mitgestaltet.
Implikationen für Unternehmenssprache
In Unternehmen ist der Effekt bereits messbar spürbar. KI-gestützte Writing-Tools wie Copilot, Grammarly oder ChatGPT vereinheitlichen zunehmend den Stil interner und externer Kommunikation. Was kurzfristig Effizienz bringt – schnellere E-Mails, konsistentere Dokumentation –, kann mittelfristig die sprachliche und kognitive Vielfalt in Organisationen reduzieren.
Wenn alle Teams ähnlich formulieren, weil dasselbe Modell im Hintergrund korrigiert und vorschlägt, gehen Nuancen verloren, die oft kulturell oder fachspezifisch bedeutsam sind.
Hinzu kommt ein Authentizitätsproblem: Kundinnen und Kunden, Geschäftspartner und Mitarbeitende erkennen zunehmend KI-typische Formulierungsmuster. Das kann das Vertrauen in Kommunikation untergraben, wenn der Eindruck entsteht, hinter einem Text stecke kein menschliches Urteil, sondern nur ein Prompt.
Kritisches Bewusstsein als Gegenmaßnahme
Schneier und Palmer plädieren nicht für einen Verzicht auf KI-Werkzeuge, sondern für ein bewussteres Verhältnis zu ihnen. Sprachliche Eigenständigkeit müsse aktiv gepflegt werden – durch:
- Redaktionelle Überprüfung KI-generierter Texte
- Bewahrung unternehmens- oder branchenspezifischer Terminologie
- Eine klare Haltung dazu, welche Kommunikationsbereiche KI-Unterstützung erhalten sollen und welche nicht
Für deutsche Unternehmen ist dieser Befund besonders relevant: Die hiesige Unternehmenskultur legt traditionell Wert auf präzise, fachlich differenzierte Sprache – in technischer Dokumentation, juristischer Korrespondenz und im direkten Kundendialog.
Eine unkritische Abhängigkeit von englischsprachig trainierten Sprachmodellen birgt das Risiko, dass spezifisch deutsche Ausdrucksweisen, Branchenvokabular und kommunikative Konventionen schleichend erodieren.
Wer KI-Tools im Kommunikationsalltag einsetzt, sollte daher regelmäßig prüfen: Führt noch die eigene Stimme – oder längst das Modell?