KI-Fachbegriffe für Entscheider: Was hinter LLMs, Halluzinationen und Co. steckt

Künstliche Intelligenz verändert die Unternehmenslandschaft rasant – doch wer in Boardrooms und Budgetrunden mitreden will, muss die Sprache der Technologie verstehen. Ein kompaktes Glossar der wichtigsten KI-Konzepte schafft die Grundlage für fundierte Entscheidungen.

KI-Fachbegriffe für Entscheider: Was hinter LLMs, Halluzinationen und Co. steckt

Der Einsatz von Künstlicher Intelligenz im Unternehmensumfeld wächst – doch viele Führungskräfte navigieren durch Gespräche über KI-Strategien, ohne die grundlegenden Begriffe sicher einordnen zu können.


Künstliche Intelligenz – breiter Begriff, enger Kontext

Künstliche Intelligenz bezeichnet im weitesten Sinne Systeme, die Aufgaben ausführen, welche üblicherweise menschliche Kognition erfordern – darunter Sprachverständnis, Bildanalyse oder Entscheidungsfindung. Im aktuellen Geschäftskontext ist damit fast immer eine spezifische Unterform gemeint: generative KI, also Systeme, die auf Basis von Trainingsdaten neue Inhalte erzeugen.

Der Begriff wird im öffentlichen Diskurs häufig unscharf verwendet – was Missverständnisse in der strategischen Planung begünstigt.


Large Language Models: Fundament der modernen KI-Anwendungen

Ein Large Language Model (LLM) ist ein KI-Modell, das auf enormen Textmengen trainiert wurde und dadurch Sprache generieren, zusammenfassen, übersetzen und beantworten kann. Bekannte Beispiele sind GPT-4 von OpenAI, Gemini von Google oder Claude von Anthropic. LLMs bilden die technische Basis für die meisten derzeit im Unternehmenseinsatz befindlichen KI-Assistenten und Chatbots.

LLMs sind statistische Sprachmodelle. Sie berechnen, welche Wortfolge in einem gegebenen Kontext wahrscheinlich ist – sie „wissen” nichts im menschlichen Sinne.

Dieses Grundprinzip erklärt sowohl ihre Stärken als auch ihre wesentliche Schwäche.


Halluzinationen: Das strukturelle Glaubwürdigkeitsproblem

Als Halluzination bezeichnet man Ausgaben, bei denen ein KI-Modell sachlich falsche oder erfundene Informationen mit scheinbarer Überzeugung präsentiert. Zitierte Quellen, die nicht existieren, falsche Jahreszahlen oder frei erfundene Rechtsnormen – all das sind typische Erscheinungsformen.

Das Problem liegt nicht an mangelnder Rechenleistung, sondern im Funktionsprinzip der Modelle selbst: Sie optimieren auf sprachliche Plausibilität, nicht auf faktische Korrektheit.

Für den Unternehmenseinsatz bedeutet das: Ausgaben von LLMs müssen in kritischen Bereichen – Rechtsabteilungen, Finanzplanung, medizinische Kontexte – stets durch menschliche Prüfprozesse validiert werden.


Weitere Kernbegriffe im Überblick

Prompt Engineering
Die strukturierte Formulierung von Eingaben, um qualitativ bessere Modellausgaben zu erzielen. Unternehmen, die KI produktiv einsetzen, investieren zunehmend in diese Kompetenz intern.

Retrieval-Augmented Generation (RAG)
Ein Ansatz, bei dem ein LLM während der Antwortgenerierung auf eine externe, aktualisierbare Wissensbasis zugreift. Das reduziert Halluzinationen und ermöglicht den Einsatz unternehmenseigener Daten – ohne vollständiges Modell-Retraining.

Fine-Tuning
Die Anpassung eines vortrainierten Modells auf spezifische Aufgaben oder Domänen durch weiteres Training auf einem kleineren, spezialisierten Datensatz. Relevant für Unternehmen mit spezifischen Fachsprachen oder Prozessen.

Token
Die kleinste Verarbeitungseinheit eines LLM – grob vergleichbar mit Silben oder Wortfragmenten. Kosten für die API-Nutzung werden typischerweise pro Token abgerechnet.

AI Agents (Agenten)
LLM-basierte Systeme, die eigenständig mehrstufige Aufgaben ausführen, Tools nutzen und dabei Entscheidungen treffen – ohne bei jedem Schritt menschliche Eingabe.


Einordnung für deutsche Unternehmen

Für mittelständische und große Unternehmen im deutschsprachigen Raum ist ein gemeinsames begriffliches Fundament keine akademische Übung, sondern operative Notwendigkeit. Wer in Führungsgremien oder gegenüber IT-Dienstleistern über KI-Investitionen verhandelt, muss einschätzen können, was Modelle leisten – und wo ihre strukturellen Grenzen liegen.

Anbieter, die Halluzinationsrisiken oder Datenschutzanforderungen kleinreden, sollten kritisch hinterfragt werden.

Die EU AI Act-Klassifizierungen, die ab 2026 schrittweise wirksam werden, machen dieses Grundwissen zusätzlich zu einer Compliance-relevanten Kompetenz.


Quelle: TechCrunch AI – Guide to Common AI Terms

Scroll to Top