Florida leitet Ermittlungen gegen OpenAI ein

Floridas Generalstaatsanwalt James Uthmeier hat eine offizielle Untersuchung gegen OpenAI eingeleitet – mit Fokus auf nationale Sicherheit und den Schutz von Minderjährigen. Der Schritt verschärft den regulatorischen Druck auf den ChatGPT-Konzern zu einem denkbar ungünstigen Zeitpunkt.

Florida leitet Ermittlungen gegen OpenAI ein

Der Generalstaatsanwalt des US-Bundesstaates Florida hat eine offizielle Untersuchung gegen OpenAI eingeleitet. Im Fokus stehen Fragen zur nationalen Sicherheit sowie zum Schutz von Minderjährigen im Zusammenhang mit dem KI-Chatbot ChatGPT.


Hintergrund der Ermittlungen

Die Behörde unter Generalstaatsanwalt James Uthmeier begründet die Untersuchung mit Bedenken hinsichtlich der gesellschaftlichen Auswirkungen von OpenAIs Produkten.

„Künstliche Intelligenz soll der Menschheit nützen und nicht schaden.”
— Offizielle Mitteilung des Büros des Generalstaatsanwalts Florida

Die Formulierung ist dabei gleichzeitig als implizite Kritik an der aktuellen Ausrichtung des Unternehmens zu verstehen. Konkrete Vorwürfe beziehen sich auf mögliche Risiken für Kinder, die ChatGPT nutzen, sowie auf sicherheitsrelevante Aspekte der eingesetzten Technologie.


Regulatorischer Druck wächst

Die Ermittlungen aus Florida reihen sich in eine wachsende Zahl staatlicher und bundesweiter Initiativen ein, die KI-Anbieter stärker in die Pflicht nehmen wollen. Anders als auf Bundesebene, wo eine einheitliche KI-Gesetzgebung in den USA bislang aussteht, greifen einzelne Bundesstaaten zunehmend eigenständig durch.

Für OpenAI ist die Untersuchung zum gegenwärtigen Zeitpunkt besonders heikel: Das Unternehmen befindet sich mitten in einer strukturellen Umwandlung von einer gemeinnützigen Organisation hin zu einem gewinnorientierten Unternehmen – ein Prozess, der bereits von Generalstaatsanwälten in Kalifornien und Delaware kritisch begleitet wird.


Kinderschutz als zentrales Argument

Ein Schwerpunkt der floridanischen Untersuchung liegt auf dem Schutz Minderjähriger. Behördenvertreter äußerten Bedenken, dass ChatGPT für Kinder und Jugendliche zugänglich ist, ohne ausreichende Schutzmaßnahmen zu bieten. Dabei geht es nicht nur um altersunangemessene Inhalte, sondern auch um Fragen der:

  • Datenspeicherung und deren Zwecke
  • psychologischen Beeinflussung junger Nutzer
  • mangelhafter Altersverifikation beim Plattformzugang

Sowohl in den USA als auch in Europa wird der Umgang von KI-Plattformen mit minderjährigen Nutzern verstärkt hinterfragt.


OpenAIs Position

OpenAI hat sich zu den konkreten Vorwürfen bislang nicht detailliert geäußert. Das Unternehmen verweist generell auf bestehende Nutzungsbedingungen, die den Einsatz seiner Produkte durch Kinder unter 13 Jahren untersagen, sowie auf laufende Bemühungen, Sicherheitsmechanismen weiterzuentwickeln. Ob diese Maßnahmen den Anforderungen der floridanischen Behörde genügen, dürfte ein zentraler Punkt der Untersuchung sein.


Einordnung für deutsche Unternehmen

Für Unternehmen im deutschsprachigen Raum, die ChatGPT oder vergleichbare Large Language Models im Geschäftsbetrieb einsetzen, verdeutlicht der Vorgang einen globalen Trend: KI-Anbieter geraten auf mehreren Ebenen gleichzeitig unter Druck –

  • durch die Europäische KI-Verordnung (EU AI Act)
  • durch nationale Datenschutzbehörden
  • und zunehmend durch die US-amerikanische Staatsebene

Compliance-Verantwortliche sollten die Entwicklungen in den USA genau im Blick behalten – regulatorische Anforderungen an Transparenz, Kinderschutz und nationale Sicherheit könnten mittelfristig auch Produktgestaltung und Vertragsbedingungen der Anbieter beeinflussen.


Quelle: Decrypt AI

Scroll to Top