Anthropic inszeniert sich als moralisches Gewissen der KI-Industrie – doch hinter der Sicherheitsrhetorik des Claude-Herstellers vermutet eine Guardian-Recherche knallharte Kommunikationsstrategie und kommerzielle Kalkulation.
Anthropic und der KI-Sicherheitsdiskurs: Wie der Claude-Hersteller seine öffentliche Wahrnehmung steuert
Anthropic, das hinter dem Large Language Model Claude stehende KI-Unternehmen, betreibt laut einer Recherche des Guardian eine gezielte Kommunikationsstrategie, die den öffentlichen Diskurs über KI-Sicherheit maßgeblich mitgestaltet. Das Unternehmen positioniert sich dabei gleichzeitig als Warner vor den Risiken seiner eigenen Technologie und als deren führender Entwickler – eine Doppelrolle, die Beobachter zunehmend kritisch hinterfragen.
Sicherheitsrhetorik als Wettbewerbsvorteil
Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern, darunter CEO Dario Amodei und Präsidentin Daniela Amodei, mit dem erklärten Ziel gegründet, KI-Systeme sicherer zu entwickeln. Dieser Ansatz, intern als „Responsible Scaling” bekannt, ist nicht nur technische Leitlinie, sondern auch zentrales Narrativ in der Außenkommunikation. Das Unternehmen veröffentlicht regelmäßig Sicherheitsberichte, finanziert unabhängige Forschungsprojekte und pflegt enge Kontakte zu Regulierungsbehörden in Washington und Brüssel.
Kritiker werfen Anthropic vor, mit dieser Strategie primär eines zu erreichen: das eigene Unternehmen als verantwortungsvollen Akteur zu etablieren, während Wettbewerber wie OpenAI oder Google DeepMind als weniger bedachtsam erscheinen.
Die Botschaft, die eigenen Modelle seien „möglicherweise zu leistungsfähig für die breite Öffentlichkeit”, erzeugt einerseits Vertrauen – signalisiert andererseits aber auch technologische Überlegenheit.
Gezielte Medienpräsenz und Policy-Einfluss
Der Guardian-Bericht beschreibt, wie Anthropic systematisch Kontakte zu Journalisten, Think-Tanks und politischen Entscheidungsträgern aufgebaut hat. Führungskräfte des Unternehmens sind regelmäßige Gäste bei hochrangigen Anhörungen im US-Kongress und bei EU-Institutionen.
Diese Nähe zu regulatorischen Prozessen verschafft dem Unternehmen Einfluss auf die Ausgestaltung von KI-Gesetzen – ein Umstand, der angesichts laufender Gesetzgebungsverfahren in den USA und der Umsetzung des EU AI Act in Europa an Bedeutung gewinnt.
Wer den Sicherheitsdiskurs definiert, beeinflusst auch, welche Standards als Benchmark gelten – und welche Unternehmen diese erfüllen.
Intern, so berichten ehemalige Mitarbeiter, herrsche ein ausgeprägtes Bewusstsein dafür, dass die öffentliche Wahrnehmung von KI-Sicherheit direkt mit kommerziellen Interessen verknüpft ist.
Das Spannungsverhältnis zwischen Mission und Markt
Anthropic hat seit seiner Gründung mehrere Milliarden US-Dollar an Risikokapital eingeworben, unter anderem von Google und Amazon. Dieser kommerzielle Druck steht in einem inhärenten Widerspruch zur kommunizierten Mission: Ein Unternehmen, das öffentlich vor den Gefahren seiner Produkte warnt, muss gleichzeitig Wachstum und Umsatz vorweisen.
Die jüngste Expansion von Claude in Unternehmensanwendungen und API-Dienste zeigt, dass der Sicherheitsfokus die Markterschließung nicht bremst – sondern offenbar begünstigt.
Ob diese Strategie langfristig tragfähig ist, hängt auch davon ab, ob die kommunizierten Sicherheitsversprechen durch Ergebnisse gedeckt werden. Erste unabhängige Evaluierungen von Claude-Modellen zeigen gemischte Resultate – sowohl im Vergleich zu Wettbewerbern als auch im Hinblick auf tatsächlich beobachtbare Sicherheitseigenschaften.
Einordnung für deutsche Unternehmen
Für deutsche Entscheider, die KI-Lösungen evaluieren oder bereits einsetzen, ist die Anthropic-Strategie aus zwei Gründen relevant:
- Instrumentalisierung von Sicherheitsversprechen: „KI-Sicherheit” wird zunehmend als Marktargument eingesetzt – eine kritische Prüfung der tatsächlichen technischen Eigenschaften bleibt unerlässlich.
- Regulatorischer Einfluss: Anthropics aktive Einflussnahme auf Policy-Prozesse dürfte die Rahmenbedingungen mitprägen, unter denen der EU AI Act und zukünftige Compliance-Anforderungen konkret ausgestaltet werden.
Unternehmen, die KI-Systeme beschaffen oder integrieren, sollten die Policy-Aktivitäten der großen Anbieter nicht als nachgelagerten PR-Aspekt betrachten – sondern als strategisch relevante Information.
Quelle: The Guardian – „Too powerful for the public: inside Anthropic’s bid to win the AI publicity war”