KI im öffentlichen Sektor: Zwischen Effizienzerwartungen und regulatorischen Schranken

Behörden weltweit stehen vor einem Paradox: Der politische Druck, KI produktiv einzusetzen, wächst – doch die rechtlichen, organisatorischen und technischen Rahmenbedingungen des öffentlichen Sektors verlangen einen grundlegend anderen Ansatz als in der Privatwirtschaft. Wer diese Spannung ignoriert, riskiert nicht nur rechtliche Konsequenzen, sondern auch den Vertrauensverlust der Öffentlichkeit.

KI im öffentlichen Sektor: Zwischen Effizienzerwartungen und regulatorischen Schranken

Behörden und öffentliche Institutionen stehen unter wachsendem Druck, KI-Systeme produktiv einzusetzen – gleichzeitig gelten für sie deutlich engere rechtliche und organisatorische Rahmenbedingungen als für privatwirtschaftliche Unternehmen. Der Betrieb von Large Language Models und automatisierten Entscheidungssystemen in regulierten Umgebungen erfordert einen grundlegend anderen Ansatz als in kommerziellen Tech-Projekten.


Compliance als Ausgangspunkt, nicht als Hindernis

Der entscheidende Unterschied zu privaten Unternehmen liegt in der Natur der Anforderungen: Datenschutzgesetze, Vergaberecht, Geheimhaltungsstufen und demokratische Rechenschaftspflicht schaffen ein Geflecht aus Bedingungen, das den Einsatz externer Cloud-Dienste häufig ausschließt oder stark einschränkt.

Behörden, die KI-Systeme nutzen wollen, müssen frühzeitig klären, welche Daten überhaupt in ein Modell fließen dürfen – und wo die Verarbeitung physisch stattfindet.

On-Premise-Deployments oder souveräne Cloud-Lösungen – also Infrastruktur, die vollständig unter nationaler oder behördlicher Kontrolle steht – gewinnen in diesem Kontext erheblich an Bedeutung. Sie ermöglichen den Betrieb leistungsfähiger Modelle, ohne dass sensitive Daten das eigene Netzwerk verlassen.


Governance-Strukturen vor dem Rollout

Erfahrungen aus öffentlichen Institutionen, die KI bereits produktiv einsetzen, zeigen: Die technische Implementierung ist selten das zentrale Problem. Schwieriger sind die organisatorischen Fragen:

  • Wer trägt intern Verantwortung?
  • Wie werden Fehler des Systems dokumentiert?
  • Nach welchen Kriterien werden automatisierte Empfehlungen überprüft?

Ohne klare Governance-Strukturen – definierte Zuständigkeiten, Eskalationswege und Audit-Protokolle – lassen sich KI-Systeme in sicherheitskritischen Umgebungen kaum rechtssicher betreiben.

Besonders bei Anwendungsfällen mit Auswirkungen auf Bürgerentscheidungen müssen menschliche Kontrollschleifen fest in den Prozess eingebaut sein – nicht nur als ethische Anforderung, sondern in vielen Jurisdiktionen als gesetzliche Pflicht.


Modellwahl und Beschaffung

Ein weiteres praktisches Problem ist die Beschaffung selbst: Öffentliche Aufträge unterliegen strengen Vergaberegeln, was die schnelle Evaluierung und den Anbieterwechsel erschwert – während sich der KI-Markt erheblich schneller entwickelt als typische Beschaffungszyklen.

Einige Institutionen begegnen diesem Dilemma durch:

  • Rahmenverträge, die mehrere Anbieter einschließen
  • Open-Source-Modelle wie Llama oder Mistral, die intern betrieben werden können

Open-Source-Lösungen bieten dabei einen klaren Vorteil: Sie sind auf eigener Infrastruktur deploybar, prüfbar und unabhängig von proprietären Anbieterbindungen. Der Aufwand für Betrieb, Feinabstimmung und Sicherheitsprüfung liegt dann jedoch vollständig bei der Institution selbst.


Pilotprojekte als Bewährungstest

Viele öffentliche Einrichtungen beginnen mit eng begrenzten Pilotanwendungen – etwa der internen Dokumentensuche oder der Zusammenfassung von Verwaltungstexten –, bevor kritischere Prozesse automatisiert werden.

Dieser schrittweise Ansatz erlaubt es, Governance-Prozesse zu erproben, Vertrauen bei Mitarbeitenden aufzubauen und Fehler in einem kontrollierten Umfeld zu identifizieren – ohne das Gesamtsystem zu riskieren.


Relevanz für Deutschland: Der EU AI Act als Taktgeber

Für deutsche Behörden und öffentliche Unternehmen sind diese Erfahrungen unmittelbar relevant: Der EU AI Act klassifiziert viele Anwendungen im öffentlichen Sektor als hochriskant und stellt damit zusätzliche Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht.

Wer jetzt Governance-Frameworks und technische Infrastruktur aufbaut, die diesen Anforderungen entsprechen, schafft eine belastbare Grundlage – unabhängig davon, wie sich die Modellangebote am Markt weiterentwickeln.

Der Weg zur KI-fähigen Behörde führt nicht über technologischen Enthusiasmus allein – sondern über strukturierte Vorbereitung, klare Verantwortlichkeiten und eine Infrastruktur, die Souveränität und Leistungsfähigkeit verbindet.


Quelle: MIT Tech Review

Scroll to Top