KI-Konzerne investieren in Thinktanks – und gewinnen damit politischen Einfluss

Die großen KI-Konzerne stehen unter Druck – und reagieren mit einer subtilen Strategie: Sie finanzieren Thinktanks und Policy-Institute, die politische Entscheidungsträger mit vermeintlich unabhängiger Expertise versorgen. Was wie zivilgesellschaftliches Engagement aussieht, ist oft gezielte Einflussnahme auf dem Umweg über gesponserte Forschung.

KI-Konzerne investieren in Thinktanks – und kaufen damit politischen Einfluss

Die großen Anbieter von KI-Systemen wissen, dass ihr Ruf leidet. Steigende Skepsis in der Bevölkerung, wachsende regulatorische Aufmerksamkeit und öffentliche Debatten über Jobverluste, Desinformation und Energieverbrauch setzen die Branche unter Druck. Die Antwort vieler Unternehmen: gezielte Finanzierung von Policy-Instituten und Thinktanks, die die öffentliche und politische Wahrnehmung von Künstlicher Intelligenz formen sollen.


Gesponserte Forschung als Reputationsstrategie

Unternehmen wie OpenAI, Google und Microsoft stecken erhebliche Mittel in akademische Institutionen, zivilgesellschaftliche Organisationen und Politikberatungen. Das Ziel ist weniger Grundlagenforschung als vielmehr die Beeinflussung des regulatorischen Rahmens. Studien und Positionspapiere, die von solchen Institutionen veröffentlicht werden, landen häufig direkt auf den Schreibtischen von Gesetzgebern – ohne dass deren Entstehungskontext transparent gemacht wird.

Kritiker bezeichnen dieses Vorgehen als moderne Form des Astroturfings: Die Finanzierung bleibt oft im Kleingedruckten verborgen, während die Publikationen nach außen hin unabhängige Expertise suggerieren.

In den USA haben Recherchen gezeigt, dass eine Reihe prominenter KI-Policy-Papiere aus Instituten stammt, die direkt oder indirekt von den betroffenen Unternehmen finanziert wurden.


Glaubwürdigkeit als knappes Gut

Das Grundproblem dieser Strategie liegt auf der Hand: Vertrauen lässt sich nicht einfach erkaufen. Wenn die Finanzierungsstruktur eines Thinktanks publik wird, verliert dessen Arbeit an Glaubwürdigkeit – und das Unternehmen dahinter schadet seinem Ruf weiter. Mehrere US-amerikanische Transparenzinitiativen haben in den vergangenen Monaten begonnen, solche Verflechtungen systematisch zu dokumentieren.

Gleichzeitig ist die Nachfrage nach unabhängiger Politikberatung zu KI-Themen real und wächst. Regierungen weltweit suchen nach Orientierung, wie sie Large Language Models, autonome Systeme und generative KI regulieren sollen. In dieses Vakuum stoßen sowohl echte Forschungseinrichtungen als auch industrienahe Organisationen, die sich als neutral positionieren.


Europäische Regulierung als Gegengewicht

In Europa gestaltet sich das Umfeld anders. Der EU AI Act schafft einen verbindlichen rechtlichen Rahmen, der unabhängig von Unternehmensinteressen gilt. Die Europäische Kommission hat eigene Beratungsgremien eingerichtet und setzt auf institutionalisierte Expertise statt auf von der Industrie gesponsertes Wissen.

Dennoch ist auch in Brüssel Lobbying durch KI-Konzerne ein bekanntes Phänomen – Transparenzregister zeigen, dass Tech-Unternehmen zu den aktivsten Akteuren in der EU-Lobbylandschaft gehören.

Für Deutschland ist die Situation besonders relevant: Als wichtiger Wirtschaftsstandort mit einer starken industriellen Basis diskutieren Unternehmen und Verbände intensiv, wie KI-Regulierung Innovationsspielräume erhalten oder einengen kann. Wer dabei auf Policy-Papiere setzt, sollte deren Entstehungskontext kritisch prüfen.


Einordnung für deutsche Unternehmen

Für Entscheider in deutschen Unternehmen bedeutet dieser Trend zweierlei:

1. Quellen kritisch prüfen: Bei der Nutzung von Studien und Positionspapieren zur KI-Regulierung sollte stets die Finanzierungsquelle der herausgebenden Institution geprüft werden. Organisations- und Forschungsberichte ohne klare Unabhängigkeitserklärung sind mit Vorsicht zu interpretieren.

2. Transparenz als Wettbewerbsvorteil nutzen: Wer als Unternehmen oder Verband in transparente, glaubwürdige Politikberatung investiert, kann langfristig an Einfluss gewinnen – nicht durch Geldmacht, sondern durch nachvollziehbare Argumentation.


Quelle: The Guardian AI

Scroll to Top