Anthropic geht einen ungewöhnlichen Weg: Der KI-Sicherheitsspezialist hat die Trump-Administration aktiv über ein internes Forschungsprojekt informiert – und sendet damit ein Signal, das die gesamte Branche aufhorchen lässt.
Anthropic informiert US-Regierung über KI-Sicherheitsprojekt Mythos
Anthropic-Mitgründer Jack Clark hat auf dem Semafor World Economy Summit bestätigt, dass das Unternehmen die Trump-Administration über ein internes KI-Sicherheitsprojekt namens Mythos informiert hat. Der Schritt unterstreicht Anthropics Strategie, trotz politischer Spannungen den Dialog mit der US-Regierung aufrechtzuerhalten.
Was ist Mythos?
Mythos ist ein Sicherheitsforschungsprojekt von Anthropic, das sich mit den potenziellen Risiken fortgeschrittener KI-Systeme befasst. Details zum genauen Umfang des Projekts hat das Unternehmen bislang nicht vollständig offengelegt. Clark erklärte jedoch, dass die Entscheidung, die Regierung frühzeitig einzubeziehen, bewusst getroffen wurde – unabhängig davon, welche politischen Kräfte gerade in Washington das Sagen haben.
„Bei sicherheitsrelevanten KI-Entwicklungen ist eine enge Abstimmung mit nationalen Behörden notwendig – selbst wenn die politische Agenda der jeweiligen Regierung nicht in allen Punkten mit den eigenen Positionen übereinstimmt.”
— Jack Clark, Anthropic-Mitgründer
Engagement trotz politischer Differenzen
In seiner Stellungnahme beim Summit machte Clark deutlich, dass Anthropic den Austausch mit staatlichen Stellen als Teil seiner Verantwortung gegenüber der Öffentlichkeit betrachtet. Das Unternehmen sieht sich als Safety-first-Organisation und argumentiert, dass gerade bei sicherheitsrelevanten KI-Entwicklungen eine enge Abstimmung mit nationalen Behörden notwendig sei.
Dieser Ansatz steht in einem gewissen Spannungsverhältnis zur aktuellen Haltung der Trump-Administration, die regulatorische Beschränkungen für KI weitgehend abgebaut hat und die Technologie primär unter dem Gesichtspunkt wirtschaftlicher Wettbewerbsfähigkeit betrachtet – insbesondere im Kontext der Konkurrenz mit China.
KI-Sicherheit als nationales Interesse
Clark betonte, dass Sicherheitsforschung im KI-Bereich nicht als Hindernis für Innovation verstanden werden sollte, sondern als strategische Notwendigkeit. Anthropic positioniert sich damit explizit als Gesprächspartner für staatliche Stellen, die sich mit den nationalen Sicherheitsimplikationen moderner Large Language Models auseinandersetzen müssen.
Die Briefings gegenüber der Regierung deuten darauf hin, dass Anthropic Mythos möglicherweise als Werkzeug versteht, um Risiken fortgeschrittener KI-Systeme systematisch zu erfassen und zu kommunizieren – ein Ansatz, der in der Branche bislang eher selten proaktiv gegenüber Regierungen verfolgt wird.
Industrie unter Beobachtung
Anthropics Offenheit gegenüber der Regierung dürfte auch im Kontext des wachsenden Drucks auf KI-Unternehmen zu sehen sein, mehr Transparenz über ihre Forschungsvorhaben herzustellen. Während andere Akteure der Branche staatliche Einblicke eher zurückhaltend gewähren, setzt Anthropic auf eine Strategie der frühen Einbindung – offenbar in der Hoffnung, künftige Regulierungsrahmen mitgestalten zu können.
Einordnung für europäische Tech-Entscheider
Für deutsche Unternehmen und Tech-Entscheider verdeutlicht dieser Vorgang, wie eng KI-Entwicklung und geopolitische Interessen inzwischen verknüpft sind. Wer auf Technologien amerikanischer KI-Anbieter setzt, sollte die enge Verflechtung dieser Unternehmen mit US-Regierungsstellen im Blick behalten – insbesondere dann, wenn es um sensible Unternehmens- oder Infrastrukturdaten geht.
Die Frage, welche Informationen in einem solchen Ökosystem wie zirkulieren, gewinnt für europäische Datenschutz- und Compliance-Strategien zunehmend an Relevanz.
Quelle: TechCrunch AI – Anthropic co-founder confirms the company briefed the Trump administration on Mythos