Amerikanische Anwälte haben einen juristischen Hebel entdeckt, der den milliardenschweren Social-Media-Konzernen gefährlich werden könnte: Statt Plattformen für ihre Inhalte zu belangen, rücken sie deren algorithmisches Design ins Visier – und behandeln Instagram, TikTok & Co. schlicht als fehlerhafte Produkte.
Produkthaftung statt Regulierung: Wie Klagen gegen Social-Media-Konzerne einen neuen Rechtsweg öffnen
In den USA häufen sich Klagen, die Social-Media-Plattformen nicht als neutrale Dienste, sondern als fehlerhafte Produkte behandeln – mit weitreichenden Konsequenzen für die gesamte Branche. Der Ansatz ist juristisch ungewöhnlich, gewinnt aber zunehmend an Substanz.
Der Produktfehler-Ansatz
Traditionell schützt Section 230 des Communications Decency Act amerikanische Plattformen vor Haftung für Inhalte ihrer Nutzer. Kläger und ihre Anwälte suchen deshalb nach Umgehungsstrategien – und finden sie im Produkthaftungsrecht.
Das Argument: Nicht die Inhalte selbst sind das Problem, sondern das Design der Plattform.
Algorithmen, die auf maximales Engagement ausgelegt sind, Benachrichtigungssysteme, die Nutzer in Abrufschleifen halten, und Interface-Entscheidungen, die suchtartiges Verhalten fördern – all das lässt sich als Konstruktionsfehler eines digitalen Produkts rechtlich neu einordnen.
Dieser Ansatz greift auf Präzedenzfälle aus der Tabak- und Pharmaindustrie zurück. Dort haben Gerichte Herstellern Verantwortung zugewiesen, nicht weil ihre Produkte illegal waren, sondern weil bekannte Risiken verschwiegen oder Designs trotz nachgewiesener Schäden nicht angepasst wurden.
Psychische Gesundheit als Klagebasis
Im Zentrum vieler Verfahren stehen Jugendliche. Meta, TikTok und andere Konzerne sehen sich mit Sammelklagen konfrontiert, in denen Eltern behaupten, die Plattformarchitektur habe bei ihren Kindern zu Depressionen, Essstörungen und in Extremfällen zu Suiziden beigetragen.
Interne Dokumente – darunter die bekannten Facebook-Leaks von 2021 – belegen, dass Plattformbetreiber um die negativen Auswirkungen ihrer Produkte auf bestimmte Nutzergruppen wussten, ohne das Design grundlegend zu ändern.
Ob diese Klagen letztlich erfolgreich sein werden, ist offen. Kausalität zwischen Plattformnutzung und psychischen Schäden ist schwer zu beweisen. Dennoch schaffen bereits laufende Verfahren erheblichen Druck – juristisch wie öffentlich.
Kein isoliertes US-Phänomen
Der juristische Ansatz strahlt über die USA hinaus. In Europa prüfen Rechtsexperten, inwieweit der Digital Services Act (DSA) ähnliche Haftungsargumente für algorithmisches Design ermöglicht. Der DSA verpflichtet große Plattformen bereits zur Risikofolgenabschätzung für systemische Schäden – eine Grundlage, auf der Produkthaftungslogik aufbauen könnte.
Gleichzeitig beschäftigt das Thema zunehmend Personalverantwortliche und Compliance-Abteilungen. Unternehmen, die interne Social-Media-Nutzung fördern oder eigene Plattformen für Mitarbeiterkommunikation betreiben, müssen Design-Entscheidungen künftig stärker unter dem Blickwinkel möglicher Sorgfaltspflichten bewerten.
Einordnung für deutsche Unternehmen
Für deutsche Unternehmen ergeben sich aus dieser Entwicklung mehrere praktische Überlegungen:
- Dokumentationspflicht: Wer digitale Produkte mit sozialen Komponenten – Communities, interne Kollaborationsplattformen oder kundenorientierte Apps – entwickelt, sollte Engagement-fördernde Design-Entscheidungen systematisch dokumentieren.
- Risikoprüfung: Intern sollten diese Entscheidungen auf ihre Risikoprofile geprüft werden. Die Produkthaftungslogik, die US-Gerichte anlegen, ist dem deutschen Produkthaftungsgesetz nicht grundsätzlich fremd.
- Regulatorischer Ausblick: Die EU-Kommission dürfte die amerikanischen Verfahrensausgänge genau beobachten – mit möglichen Konsequenzen für die Auslegung des DSA und zukünftige Regulierungsinitiativen.
Die entscheidende Frage lautet nicht mehr nur „Was wird auf Plattformen veröffentlicht?”, sondern: „Wie wurde die Plattform gebaut – und wer trägt dafür die Verantwortung?”
Quelle: New Scientist Tech – „Social media is a defective product”