Nach dem tödlichen Schusswaffenangriff an der Florida State University im April 2025 steht OpenAI erstmals im Visier einer staatlichen Strafverfolgungsbehörde – der Fall könnte die KI-Haftungsdebatte in den USA grundlegend verändern.
Florida leitet Ermittlungen gegen OpenAI nach Schusswaffen-Angriff mit ChatGPT-Bezug ein
Der Generalstaatsanwalt des US-Bundesstaates Florida hat eine formelle Untersuchung gegen OpenAI eingeleitet. Hintergrund ist ein Schusswaffenangriff an der Florida State University im April 2025, bei dem zwei Menschen getötet und fünf weitere verletzt wurden. Laut Ermittlungen soll der Täter ChatGPT zur Planung des Angriffs genutzt haben.
Behördliche Untersuchung nach tödlichem Angriff
Die Ermittlung des Generalstaatsanwalts richtet sich gegen OpenAI und dessen Produkt ChatGPT. Im Mittelpunkt steht die Frage, ob das Unternehmen ausreichende Sicherheitsvorkehrungen getroffen hat, um den Missbrauch seiner KI-Systeme für die Planung gewaltsamer Handlungen zu verhindern.
Unabhängig von der staatlichen Untersuchung hat die Familie eines der Todesopfer angekündigt, eine Zivilklage gegen OpenAI einzureichen. Damit droht dem Unternehmen eine parallele rechtliche Auseinandersetzung auf zwei Ebenen – behördlich und zivilrechtlich.
OpenAI unter zunehmendem regulatorischen Druck
Für OpenAI ist dies nicht die erste Konfrontation mit rechtlichen und regulatorischen Herausforderungen. Das Unternehmen sieht sich in den USA mit einer wachsenden Zahl von Klagen konfrontiert, die Fragen des Urheberrechts, des Datenschutzes und nun auch der öffentlichen Sicherheit betreffen.
Die Florida-Untersuchung markiert einen Einschnitt: Erstmals geht eine staatliche Strafverfolgungsbehörde im Zusammenhang mit einem gewaltsamen Verbrechen direkt gegen einen KI-Entwickler vor.
OpenAI hat sich bislang nicht detailliert zu den konkreten Vorwürfen geäußert. Das Unternehmen verweist grundsätzlich auf seine Nutzungsrichtlinien, die den Einsatz von ChatGPT für die Planung von Gewalttaten ausdrücklich untersagen, sowie auf fortlaufend verbesserte Schutzmechanismen innerhalb der Modelle.
Grundsatzfragen zur Haftung von KI-Anbietern
Der Fall wirft grundlegende juristische Fragen auf, die weit über Florida hinausreichen: Inwieweit tragen Anbieter von Large Language Models eine Mitverantwortung, wenn ihre Systeme für kriminelle Zwecke genutzt werden?
In den USA schützt der sogenannte Section 230 des Communications Decency Act Plattformen bislang weitgehend vor einer Haftung für Inhalte Dritter – ob dieser Schutz auf generative KI-Systeme vollständig anwendbar ist, ist rechtlich noch ungeklärt.
„Die Frage ist nicht mehr, ob KI-Anbieter reguliert werden – sondern wie schnell und wie weitreichend.”
Ähnliche Debatten werden auch in Europa geführt. Der EU AI Act, der seit 2024 schrittweise in Kraft tritt, verpflichtet Anbieter von Hochrisiko-KI-Systemen zu umfangreichen Transparenz- und Sicherheitsnachweisen, lässt jedoch ebenfalls Spielraum für Interpretationen hinsichtlich konkreter Haftungsfragen.
Einordnung für deutsche Unternehmen
Für Unternehmen hierzulande, die ChatGPT oder vergleichbare Systeme im geschäftlichen Umfeld einsetzen, liefert der Fall einen weiteren Hinweis auf die zunehmende Regulierungsdynamik rund um generative KI. Konkret relevant werden:
- Beobachtung der US-Rechtsprechung zur Anbieterhaftung, da diese Präzedenzfälle schaffen kann, die mittelbar auch die europäische Regulierungspraxis beeinflussen
- Dokumentation des internen KI-Einsatzes als Nachweis sorgfältiger Governance
- Klare Nutzungsrichtlinien für Mitarbeitende, um Haftungsrisiken auf Unternehmensebene zu minimieren
Compliance-Verantwortliche sollten den Fall Florida nicht als rein amerikanisches Phänomen abtun – er ist ein Frühindikator für kommende Regulierungswellen weltweit.
Quelle: TechCrunch AI