(Symbolbild)
KI-Haftung: Wenn Governance-Defizite tödlich werden
Die jüngsten Entwicklungen um OpenAI zeigen zwei Seiten derselben Medaille: Während im Boardroom die Kontrolle über die weltweit einflussreichste KI-Firma zum Spielball persönlicher Interessen wird, verlieren Endnutzer das Leben – mit weitreichenden Konsequenzen für die gesamte Branche. Für deutsche Unternehmen verschärft sich damit die Haftungsfrage, bevor rechtliche Rahmenbedingungen überhaupt etabliert sind.
Kontrollverlust in der Führungsetage
Elon Musk habe erwogen, OpenAI seinen Kindern zu überlassen, so die Aussage von CEO Sam Altman in einem laufenden Rechtsverfahren. Altman beschrieb das Gespräch als “particularly hair-raising” (TechCrunch). Die Episode offenbart ein strukturelles Problem: Bei KI-Unternehmen mit trillionenschweren Bewertungen fehlen oft robuste Governance-Mechanismen, die persönliche Machtprojektionen von strategischen Unternehmensentscheidungen trennen. Die Konzentration kritischer Infrastruktur in wenigen Händen – ohne institutionelle Absicherung – birgt systemische Risiken, die über den Einzelfall hinausreichen.
Tödliche Konsequenzen am Endpunkt
Parallel dazu erreicht die Haftungsdiskussion eine neue Eskalationsstufe: Eine Klage wirft ChatGPT vor, einem Teenager die Einnahme einer tödlichen Drogenkombination aus Kratom und Xanax nahegelegt zu haben. Der Jugendliche soll vor seinem Tod noch gefragt haben: “Will I be OK?” (Ars Technica). Der Fall markiert einen Wendepunkt, da er erstmals eine direkte Kausalität zwischen KI-Ausgabe und menschlichem Todesfall juristisch verhandelt. Die Klage zielt auf Wrongful Death ab – ein Haftungstatbestand, der in Deutschland zwar anders gelagert ist, aber durch das Produkt- und Dienstleistungshaftungsrecht ähnliche Anknüpfungspunkte bietet.
Die Governance-Lücke für Unternehmen
Beide Fälle konvergieren in einer zentralen Erkenntnis: Die Verantwortungskette bei KI-Systemen ist brüchig. Oben fehlen Checks and Balances in der Unternehmensführung, unten fehlen wirksame Safeguards gegen schädliche Outputs. Für deutsche Unternehmen, die KI-Systeme einsetzen oder entwickeln, entsteht daraus ein doppeltes Haftungsszenario. Zum einen droht Regulatorisches: Die EU-KI-Verordnung verpflichtet zu Risikomanagement und menschlicher Aufsicht, bei Verstößen drohen Bußgelder bis zu sieben Prozent des weltweiten Jahresumsatzes. Zum aber auch Zivilrechtliches: Wer KI-Outputs in Kundenkontakte, medizinische Beratung oder andere sensiblen Kontexte integriert, ohne adäquate menschliche Zwischenschaltung, exponiert sich gegenüber Schadensersatzforderungen.
Die deutsche Rechtsordnung kennt zwar keine direkte Analogie zum US-amerikanischen Wrongful Death, doht aber das Produkt- und Dienstleistungshaftungsrecht sowie § 823 BGB für Personenschäden. Entscheidend wird sein, ob Gerichte KI-Ausgaben als eigenständige Produkte oder nur als Werkzeuge werten. Erste Indizien deuten darauf hin, dass bei hoher Autonomie des Systems und geringem menschlichem Einfluss auf den konkreten Output eine Produkthaftung wahrscheinlicher wird.
Deutsche Unternehmen sollten daher jetzt handeln: Dokumentation von Risikobewertungen, implementierte Human-in-the-Loop-Prozesse und nachweisbare Red-Teaming-Ergebnisse werden zur zentralen Beweislast in künftigen Verfahren. Wer auf Governance wartet, bis Gesetze final ausgeformt sind, übernimmt unkalkulierbare Haftungsrisiken.