Hochrangige Vertreter der Trump-Administration sollen US-Banken aktiv dazu ermutigt haben, das neue KI-Modell „Mythos” von Anthropic zu testen – obwohl das Verteidigungsministerium das Unternehmen gleichzeitig als Sicherheitsrisiko eingestuft hat. Ein Widerspruch, der das gespaltene Verhältnis der US-Politik zur KI-Industrie exemplarisch offenbart.
US-Regierung soll Banken zu Tests von Anthropics KI-Modell „Mythos” angehalten haben
Vertreter der Trump-Administration sollen US-amerikanische Banken dazu ermutigt haben, das neue Large Language Model „Mythos” des KI-Unternehmens Anthropic zu testen. Das berichtet TechCrunch unter Berufung auf entsprechende Informationen – ein Vorgang, der angesichts der gleichzeitig laufenden sicherheitspolitischen Debatte rund um Anthropic für erhebliche Aufmerksamkeit sorgt.
Politischer Kontext mit Widersprüchen
Besonders bemerkenswert ist der Zeitpunkt der Initiative: Das US-Verteidigungsministerium hatte Anthropic erst kürzlich als Risiko für die Lieferkette eingestuft – eine Klassifizierung, die in der Regel erhebliche Vorbehalte gegenüber dem Einsatz der betroffenen Technologie in sensiblen Bereichen signalisiert.
Dennoch sollen hochrangige Regierungsvertreter, darunter offenbar Personen aus dem Umfeld von Finanzminister Scott Bessent, aktiv auf Finanzinstitute zugegangen sein, um das Testen von Mythos zu fördern. Auch Fed-Chef Jerome Powell wird im Kontext der Berichte genannt.
Wirtschaftliche Interessen und nationale Sicherheitserwägungen kollidieren hier in einem regulatorisch noch wenig gefestigten Umfeld.
Dieser scheinbare Widerspruch spiegelt die gespaltene Haltung wider, die die Trump-Administration gegenüber führenden KI-Unternehmen an den Tag legt – sicherheitspolitische Bedenken auf der einen, aktive Förderung auf der anderen Seite.
Mythos im Finanzsektor
Über die technischen Eigenschaften des Modells Mythos sind bislang wenige Details öffentlich bekannt. Anthropic positioniert sich mit seinen Claude-Modellen seit geraumer Zeit als Anbieter, der Sicherheit und Zuverlässigkeit in den Vordergrund stellt – Eigenschaften, die im streng regulierten Bankensektor besonders gefragt sind.
Finanzinstitute prüfen Large Language Models vor allem für folgende Anwendungsfälle:
- Risikomodellierung und Stresstests
- Compliance-Automatisierung
- Kundenkommunikation und Beratungsunterstützung
- Kapitalmarktanalyse großer Datenmengen
Ob Mythos gegenüber bestehenden Claude-Versionen oder Wettbewerbsprodukten von OpenAI oder Google signifikante Leistungsvorteile bietet, lässt sich auf Basis der verfügbaren Informationen nicht abschließend beurteilen. Die gezielte Ansprache von Banken durch Regierungsvertreter deutet jedoch darauf hin, dass hinter der Initiative handfeste strategische Interessen stehen.
Regulatorisches Spannungsfeld
Der Finanzsektor unterliegt in den USA wie in der EU strengen Anforderungen an Datenschutz, Modell-Transparenz und Auditierbarkeit von KI-Systemen. Gerade deshalb ist die informelle Empfehlung durch Regierungsvertreter ungewöhnlich:
Formal ist die Aufsicht über den Einsatz von KI in Banken Aufgabe der zuständigen Regulierungsbehörden – nicht des Finanzministeriums oder des Weißen Hauses.
Ob hinter der Initiative ein strukturiertes Pilotprogramm steht oder es sich um informelle Gespräche handelt, bleibt unklar.
Einordnung für deutsche Unternehmen
Für Finanzinstitute und Technologieentscheider in Deutschland ist der Vorgang ein weiteres Indiz dafür, dass der politische Druck zur KI-Adoption im Bankensektor auch auf staatlicher Ebene zunimmt – diesseits wie jenseits des Atlantiks.
Die EU-KI-Verordnung setzt für Hochrisikoanwendungen in der Finanzbranche klare Pflichten zur Transparenz und menschlichen Aufsicht. Wer Modelle wie Mythos oder vergleichbare Systeme evaluiert, sollte dies von Anfang an entlang dieser regulatorischen Anforderungen tun – unabhängig davon, welche Signale aus dem politischen Raum kommen.
Quelle: TechCrunch AI