Zwei der mächtigsten KI-Unternehmen der Welt stehen sich in einer entscheidenden Regulierungsfrage gegenüber – und der Streit offenbart, wie viel strategisches Kalkül hinter der Safety-Rhetorik der Branche steckt.
Anthropic und OpenAI streiten über KI-Haftungsgesetz in Kalifornien
In der US-amerikanischen KI-Regulierungsdebatte zeichnet sich ein bemerkenswerter Riss zwischen zwei der einflussreichsten Unternehmen der Branche ab. Anthropic hat sich öffentlich gegen einen kalifornischen Gesetzentwurf positioniert, den OpenAI unterstützt – obwohl beide Unternehmen sonst ähnliche Sicherheitsphilosophien vertreten.
Worum geht es beim Gesetzentwurf?
Im Mittelpunkt des Streits steht ein Haftungsgesetz des kalifornischen Gesetzgebers, das KI-Unternehmen für Schäden durch ihre Systeme in die Pflicht nehmen soll. Der Entwurf gilt als einer der weitreichendsten seiner Art in den USA und würde Entwickler von Large Language Models und anderen Hochrisiko-KI-Systemen direkt haftbar machen, wenn ihre Produkte nachweislich Schaden verursachen.
OpenAI hat den Entwurf in seiner aktuellen Form unterstützt – eine Position, die in der Branche für Aufsehen sorgt.
Anthropics Einwände
Anthropic lehnt das Gesetz ab, obwohl das Unternehmen grundsätzlich als einer der stärksten Befürworter von KI-Sicherheitsmaßnahmen gilt. Die Kritik richtet sich nicht gegen das Prinzip der Haftung an sich, sondern gegen die konkrete Ausgestaltung des Entwurfs. Anthropic argumentiert:
- Die vorgesehenen Regelungen seien zu weit gefasst und könnten legitime Sicherheitsforschung behindern.
- Kleinere Akteure und Forschungseinrichtungen würden stärker belastet als große, gut kapitalisierte Konzerne.
Ein klassisches Argument in Regulierungsdebatten – hier jedoch bemerkenswert, weil es ausgerechnet von einem dezidiert Safety-fokussierten Unternehmen vorgebracht wird.
Strategische Interessen hinter den Positionen
Die unterschiedlichen Haltungen lassen sich nicht allein mit technischen oder juristischen Überlegungen erklären.
Unternehmen, die Safety-Rhetorik verwenden, verfolgen im Hintergrund sehr konkrete Markt- und Wettbewerbsinteressen.
OpenAI, das zuletzt verstärkt in kommerzielle Produkte und Enterprise-Lösungen investiert, könnte von klaren Haftungsregeln profitieren – als Chance, sich als verantwortungsvoller Anbieter zu positionieren und gleichzeitig die Messlatte für Wettbewerber hochzulegen. Anthropic wiederum setzt stark auf den Einsatz seiner Modelle in sicherheitskritischen Bereichen und dürfte ein gesteigertes Interesse daran haben, dass Haftungsregeln die eigene Forschungs- und Entwicklungsarbeit nicht einschränken.
Bedeutung für den europäischen Kontext
Für Europa – und insbesondere für Deutschland – ist die Debatte aus zwei Gründen relevant:
- Präzedenzwirkung: Kalifornien ist de facto ein globaler Regulierungsstandard-Setter im Technologiebereich. Was dort beschlossen wird, strahlt weit aus.
- Abwägungsfrage: Der Streit zeigt, wie schwierig es ist, zwischen sinnvoller Haftungszuweisung und einem innovationsfreundlichen Rechtsrahmen zu balancieren.
Für deutsche Unternehmen, die KI-Systeme einsetzen oder entwickeln, setzt der EU AI Act bereits eigene Haftungsregeln, die sich inhaltlich von den US-Entwürfen unterscheiden. Dennoch gilt: US-Regulierungsansätze beeinflussen regelmäßig, wie globale KI-Anbieter ihre Produkte und Vertragsbedingungen gestalten – was mittelbar auch hiesige Nutzer betrifft.
Quelle: Wired AI – Anthropic Opposes the Extreme AI Liability Bill That OpenAI Backed