Produkthaftung für Social Media – und was das für KI-Anbieter bedeutet

Eine neue Rechtsstrategie könnte die Spielregeln für Tech-Konzerne und KI-Anbieter fundamental verändern: Wer Algorithmen mit nachweisbarem Schadenspotenzial in Verkehr bringt, soll künftig wie ein Produkthersteller haften – und das betrifft nicht nur Social-Media-Plattformen.

Produkthaftung für Social Media – und was das für KI-Anbieter bedeutet

In den USA gewinnt eine rechtliche Argumentation an Bedeutung, die die Tech-Branche grundlegend verändern könnte: Social-Media-Plattformen sollen wie fehlerhafte Produkte behandelt und entsprechend haftbar gemacht werden. Die Debatte, die ursprünglich auf Plattformen wie Meta und TikTok zielt, hat direkte Implikationen für KI-Anbieter – und damit für Unternehmen, die solche Systeme einsetzen.


Der Kern der Argumentation

Rechtswissenschaftler und Verbraucherschützer argumentieren zunehmend, dass Social-Media-Plattformen nicht als neutrale Infrastruktur betrachtet werden sollten, sondern als aktiv gestaltete Produkte mit nachweisbaren Schadenspotentialen. Algorithmen, die auf maximale Verweildauer optimiert sind und dabei psychische Schäden – insbesondere bei Jugendlichen – in Kauf nehmen, seien strukturell defekte Designs, keine bedauerlichen Nebeneffekte.

Dieser Ansatz umgeht gezielt den bislang wirksamen Schutzschild der US-amerikanischen Plattformen:

Section 230 des Communications Decency Act schützt Anbieter vor Haftung für nutzergenerierte Inhalte. Produkthaftungsklagen setzen jedoch nicht am Inhalt an, sondern am Design des Systems selbst – und fallen damit in eine völlig andere rechtliche Kategorie.


Warum das für KI-Systeme relevant ist

Der Übertrag auf generative KI-Systeme und Large Language Models liegt nahe. Auch hier handelt es sich um aktiv gestaltete Produkte, deren Ausgaben durch Trainingsdaten, Feinabstimmung und Deployment-Entscheidungen der Anbieter geprägt sind. Wenn ein KI-Assistent konsistent:

  • fehlerhafte medizinische Ratschläge gibt,
  • Nutzer in schädliche Verhaltensmuster lenkt oder
  • in geschäftskritischen Prozessen systematisch falsche Ergebnisse liefert,

stellt sich dieselbe Frage: Handelt es sich um einen Designfehler, für den der Hersteller haftet?

EU geht bereits konkrete Schritte

In der EU ist diese Diskussion bereits weiter fortgeschritten. Die überarbeitete Produkthaftungsrichtlinie, die bis Ende 2026 in nationales Recht umgesetzt werden muss, schließt explizit Software und KI-Systeme ein. Anders als das US-amerikanische Common Law kennt das europäische Produkthaftungsrecht keine vergleichbare Safe-Harbor-Konstruktion für digitale Dienste.


Designverantwortung statt Haftungsausschluss

Der entscheidende konzeptionelle Wandel: KI-Anbieter können sich nicht mehr allein auf Nutzungsbedingungen und Haftungsausschlüsse verlassen. Gerichte – sowohl in den USA als auch in Europa – beginnen zu prüfen, ob Schäden durch veränderte Designentscheidungen hätten verhindert werden können.

Der sogenannte „risk-utility test” aus dem Produkthaftungsrecht fragt: War der Schaden vorhersehbar – und war eine sicherere Gestaltung zumutbar?

Für KI-Modelle, die in Unternehmensprozessen eingesetzt werden – etwa in der Rechtsberatung, im Finanzwesen oder in der medizinischen Vorsortierung – bedeutet das eine neue Risikoschicht, die über klassische Software-Gewährleistung weit hinausgeht.


Einordnung für deutsche Unternehmen

Für deutsche Unternehmen, die KI-Lösungen einsetzen oder entwickeln, ergibt sich ein klarer Handlungsbedarf:

  1. Vertragsverhandlungen überprüfen: Einkaufs- und Rechtsabteilungen sollten bei KI-Anbietern explizit Produkthaftungsfragen adressieren – wer haftet bei nachweisbaren Systemfehlern?
  2. Designentscheidungen dokumentieren: Die Dokumentation von KI-Designentscheidungen gewinnt erhebliche rechtliche Bedeutung.
  3. Inverkehrbringer-Risiko kennen: Unternehmen, die eigene Modelle fine-tunen oder deployen, können unter der neuen EU-Produkthaftungsrichtlinie selbst als Inverkehrbringer gelten.

Die Social-Media-Debatte liefert damit einen Präzedenzfall, dessen Logik im KI-Bereich schneller greifen könnte, als viele Anbieter und Anwender derzeit einkalkulieren.


Quelle: New Scientist Tech – „Social media is a defective product”

Scroll to Top