Wenn ein Sprachmodell angeblich „versteht”, „weiß” oder „erkennt” – klingt das vertraut, ist aber trügerisch. Eine neue Studie zeigt, wie menschlich geprägte Sprache über KI systematisch falsche Erwartungen erzeugt und warum das für Unternehmen zu einem handfesten Governance-Problem werden kann.
Wenn KI „denkt” und „versteht”: Warum Sprache über künstliche Intelligenz gefährlich sein kann
Worte wie „verstehen”, „wissen” oder „erkennen” klingen im Zusammenhang mit KI-Systemen vertraut – und genau das ist das Problem. Eine neue Studie der Iowa State University zeigt, wie menschlich geprägte Sprache über KI systematisch falsche Erwartungen erzeugt, mit potenziell weitreichenden Folgen für Unternehmen, die auf diese Technologien setzen.
Das Sprachproblem hinter der KI-Kommunikation
Forschende um Jo Mackiewicz, Professorin für Englisch an der Iowa State University, haben untersucht, wie Autorinnen und Autoren über künstliche Intelligenz schreiben – und dabei ein spezifisches Muster identifiziert: den Einsatz sogenannter „mentaler Verben”. Begriffe wie denken, wissen, verstehen oder erinnern stammen ursprünglich aus der Beschreibung menschlicher Kognition. Werden sie auf KI-Systeme angewendet, entsteht nach Ansicht der Forschenden ein verzerrtes Bild der tatsächlichen Funktionsweise dieser Technologie.
Die Studie „Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT”, veröffentlicht im Fachjournal Technical Communication Quarterly, analysierte Medienbeiträge auf solche Formulierungen. Das Ergebnis:
Redakteurinnen und Redakteure sind vorsichtiger als erwartet und verwenden stark vermenschlichende Sprache seltener als angenommen – dennoch besteht das Risiko, da selbst moderate Formulierungen ein Spektrum abdecken: von der Beschreibung technischer Anforderungen bis hin zu Aussagen, die echte kognitive Fähigkeiten suggerieren.
Was KI tatsächlich tut – und was nicht
Der entscheidende Befund der Studie ist technischer Natur: Large Language Models und vergleichbare KI-Systeme produzieren Ausgaben, indem sie statistische Muster in Trainingsdaten erkennen und reproduzieren. Sie besitzen keine Überzeugungen, keine Intentionen und kein Bewusstsein.
Ein Sprachmodell „weiß” nicht, dass Paris die Hauptstadt Frankreichs ist – es gibt diese Information aus, weil entsprechende Textmuster in seinen Trainingsdaten überrepräsentiert sind.
Diese Unterscheidung ist nicht akademischer Natur. Sie hat unmittelbare praktische Konsequenzen: Wer glaubt, ein KI-System „verstehe” seinen Geschäftsprozess, wird womöglich weniger kritisch mit dessen Ausgaben umgehen, Plausibilitätsprüfungen weglassen oder die Grenzen des Systems falsch einschätzen.
Anthropomorphismus in der Sprache erzeugt Anthropomorphismus in der Erwartungshaltung.
Risiken für den Unternehmenseinsatz
Für Betriebe, die KI-Systeme in operative Prozesse integrieren – von der automatisierten Kundenkommunikation über datengestützte Entscheidungshilfen bis hin zur Dokumentenanalyse – ergibt sich daraus ein konkretes Governance-Problem:
- Werden Mitarbeitende mit einer Sprache sozialisiert, die KI menschliche Qualitäten zuschreibt, sinkt die Bereitschaft, Ergebnisse zu hinterfragen.
- Das Risiko von Fehlentscheidungen, die auf unkritisch übernommenen KI-Ausgaben basieren, steigt messbar.
- In regulierten Branchen wie dem Finanz- oder Gesundheitssektor kann die falsche Einschätzung von KI-Fähigkeiten Compliance-Risiken erzeugen, die über einzelne Fehler hinausgehen.
Einordnung für deutsche Unternehmen
Für deutschsprachige Unternehmen, die KI-Strategien entwickeln oder bereits im Einsatz haben, legt die Studie nahe, die interne Kommunikation über KI-Systeme gezielt zu überprüfen. Schulungsunterlagen, Prozessdokumentationen und interne Richtlinien sollten technisch präzise formuliert sein – nicht weil sprachliche Genauigkeit ein Selbstzweck ist, sondern weil sie das Fundament für einen realistischen Umgang mit den Möglichkeiten und Grenzen dieser Technologien bildet.
Angesichts des EU AI Act, der unter anderem auf Transparenz und menschliche Aufsicht abzielt, dürfte die begriffliche Klarheit über KI-Systeme künftig auch regulatorische Relevanz gewinnen.
Quelle: ScienceDaily AI