Wer die KI-Infrastruktur kontrolliert, kontrolliert zunehmend auch die Geschäftsprozesse derer, die sie nutzen. Die Eigentümer- und Governance-Strukturen hinter OpenAI, Anthropic und Co. sind keine abstrakte Frage der Tech-Politik – sie sind ein handfestes unternehmerisches Risiko.
Wer kontrolliert die KI-Konzerne – und warum das für Unternehmen relevant ist
KI-Produkte dringen zunehmend in Geschäftsprozesse, Kommunikation und Entscheidungsabläufe vor. Dabei gerät eine grundlegende Frage in den Hintergrund: Wer steht eigentlich hinter den Unternehmen, die diese Systeme entwickeln und betreiben – und welche Interessen leiten sie?
Eigentümerstrukturen zwischen Gemeinnützigkeit und Kapitalinteressen
OpenAI ist das prominenteste Beispiel für eine Governance-Konstruktion, die mehr Fragen aufwirft als beantwortet. Das Unternehmen wurde ursprünglich als gemeinnützige Organisation gegründet, mit dem erklärten Ziel, künstliche Intelligenz zum Wohl der Allgemeinheit zu entwickeln. Inzwischen operiert ein kommerzieller Ableger unter dem Dach dieser Non-Profit-Struktur – mit Milliarden-Investitionen von Microsoft und einem CEO, Sam Altman, dessen persönliche Machtstellung im Unternehmen 2023 eine intern ausgetragene Kontroverse ausgelöst hatte, die mit seiner Wiedereinsetzung endete.
Die ursprüngliche gemeinnützige Kontrollstruktur steht unter wachsendem Druck, sich vollständig in eine For-Profit-Gesellschaft umzuwandeln.
Konzentration bei wenigen Akteuren
Jenseits von OpenAI ergibt sich ein ähnliches Bild:
- Anthropic (Claude) wird maßgeblich von Amazon finanziert
- Google hält Anteile an Anthropic und ist mit Gemini selbst im Rennen
- Meta entwickelt mit LLaMA eigene Modelle unter Open-Source-Prämisse – bleibt dabei aber einem werbefinanzierten Konzern verhaftet
- Elon Musk betreibt mit xAI einen weiteren Anbieter – und steuert parallel mit X eine globale Kommunikationsplattform
Die Eigentümerschaft dieser Systeme konzentriert sich damit auf eine sehr kleine Gruppe von Technologiekonzernen und vermögenden Einzelpersonen, deren wirtschaftliche und politische Interessen erheblich divergieren können.
Governance als unterschätztes Risiko
Die Frage nach der Kontrolle über KI-Systeme ist nicht akademischer Natur. Wer ein Large Language Model betreibt, entscheidet über:
- Trainingsdaten und deren Herkunft
- Moderationsregeln und Inhaltsgrenzen
- Verfügbarkeit und Preisgestaltung
- und letztlich darüber, welche Inhalte ein System produziert oder verweigert
In Unternehmen, die Kundenservice, interne Prozesse oder Produktentwicklung zunehmend auf KI-Tools stützen, entsteht dadurch eine strukturelle Abhängigkeit von Anbietern, deren Prioritäten nicht zwingend mit den eigenen übereinstimmen.
Wer die Entscheidungen hinter einem Modell trifft, ist für Compliance-Fragen im Sinne des EU AI Acts durchaus relevant – und keine bloße Fußnote im Beschaffungsprozess.
Hinzu kommt die regulatorische Dimension: Der EU AI Act schreibt für Hochrisikoanwendungen Transparenz- und Dokumentationspflichten vor, die faktisch voraussetzen, dass Unternehmen die Funktionsweise der eingesetzten Modelle zumindest grob nachvollziehen können.
Europäische Alternativen gewinnen an Bedeutung
Vor diesem Hintergrund wächst das Interesse an europäischen KI-Initiativen. Aleph Alpha aus Heidelberg und das französische Mistral AI positionieren sich als Anbieter mit transparenterer Governance und stärkerer regulatorischer Einbettung in europäisches Recht.
Beide verfügen noch nicht über die Modelltiefe der US-amerikanischen Frontrunner, investieren jedoch gezielt in Vertrauenswürdigkeit als Differenzierungsmerkmal – ein Ansatz, der für regulierungsintensive Branchen zunehmend an Gewicht gewinnt.
Für deutsche Unternehmen, die KI-Systeme strategisch einsetzen oder ausbauen wollen, lohnt sich ein genauerer Blick auf die Eigentümer- und Governance-Strukturen ihrer Anbieter – nicht zuletzt, weil Abhängigkeiten von heute die Verhandlungsposition von morgen bestimmen. Die technische Leistungsfähigkeit eines Modells ist nur ein Kriterium unter mehreren.
Quelle: The Guardian AI