EU will ChatGPT als „sehr große Online-Suchmaschine” unter dem Digital Services Act einordnen

Die Europäische Kommission könnte ChatGPT in die strengste Regulierungskategorie des Digital Services Act einordnen – ein Schritt, der nicht nur OpenAI, sondern die gesamte KI-Branche in Europa grundlegend verändern würde.

EU will ChatGPT als „sehr große Online-Suchmaschine” unter dem Digital Services Act einordnen

Die Europäische Kommission prüft, ob ChatGPT unter die strengste Regulierungskategorie des Digital Services Act (DSA) fällt – die sogenannte „Very Large Online Search Engine” (VLOSE). Eine solche Einstufung würde OpenAI deutlich strengere Transparenz- und Compliance-Pflichten auferlegen, als bislang vorgesehen.


Was eine VLOSE-Einstufung bedeutet

Der DSA unterscheidet zwischen verschiedenen Plattformkategorien. Die VLOSE-Kategorie ist bislang klassischen Suchmaschinen wie Google Search oder Bing vorbehalten und greift ab einer Nutzerzahl von 45 Millionen monatlich aktiven Nutzern in der EU. Plattformen in dieser Kategorie unterliegen umfangreichen Pflichten:

  • Algorithmische Systeme offenlegen
  • Unabhängige Audits zulassen
  • Risikobewertungen durchführen
  • Forschern Datenzugang gewähren

Die Kommission argumentiert, dass ChatGPT zunehmend als Informationsquelle genutzt wird – funktional vergleichbar mit einer Suchmaschine. Nutzer stellen Fragen, erhalten strukturierte Antworten und navigieren auf dieser Basis Entscheidungen.

Ob das ausreicht, um die rechtliche Schwelle zu überschreiten, ist juristisch noch nicht abschließend geklärt.


Regulierungsdruck aus mehreren Richtungen

Diese Entwicklung ist kein isolierter Vorgang. OpenAI steht in der EU bereits unter dem KI-Act unter Beobachtung, der für sogenannte General Purpose AI Models (GPAI) mit systemischen Risiken eigene Anforderungen vorsieht. Eine zusätzliche VLOSE-Einstufung unter dem DSA würde eine zweite, parallele Regulierungsebene schaffen – mit eigenständigen Berichtspflichten und Aufsichtsbehörden.

Konkret würde OpenAI unter anderem verpflichtet:

  • die Funktionsweise der Empfehlungs- und Antwortsysteme transparenter zu gestalten
  • Mechanismen gegen Desinformation nachzuweisen
  • Behörden sowie akkreditierten Forschern tiefere Einblicke in Systemdaten zu gewähren

Die Nichteinhaltung kann mit Bußgeldern von bis zu sechs Prozent des globalen Jahresumsatzes geahndet werden.


Reaktion von OpenAI und Branchenperspektive

OpenAI hat sich zu einer möglichen VLOSE-Klassifizierung bislang nicht öffentlich positioniert. Branchenbeobachter weisen darauf hin, dass die rechtliche Definition einer „Online-Suchmaschine” im DSA nicht explizit für KI-Assistenten formuliert wurde. Eine Ausweitung des Anwendungsbereichs per Auslegung – ohne Gesetzesänderung – könnte rechtlich angefochten werden.

Andere Large Language Model-Anbieter wie Google (Gemini), Anthropic (Claude) oder das Microsoft-Ökosystem beobachten das Verfahren genau.

Ein Präzedenzfall bei ChatGPT hätte unmittelbare Implikationen für alle vergleichbaren Systeme, die in der EU ab der Schwellenwertgrenze betrieben werden.


Einordnung für deutsche Unternehmen

Für Unternehmen in Deutschland, die ChatGPT oder vergleichbare KI-gestützte Informationssysteme im Einsatz haben, ergibt sich mittelfristig erhöhter Klärungsbedarf auf der Anbieterseite. Sollte die Einstufung Bestand haben, dürften Anbieter ihre Nutzungsbedingungen, Transparenzberichte und API-Zugangspolitiken anpassen müssen – was wiederum Auswirkungen auf SLA-Vereinbarungen und Compliance-Dokumentationen in Unternehmen haben kann.

Wer KI-Tools bereits in kritische Geschäftsprozesse integriert hat, sollte die Entwicklung der DSA-Auslegung aktiv verfolgen und die eigene Risikoeinschätzung entsprechend aktualisieren.


Quelle: TechRepublic AI

Scroll to Top