Britische Geldinstitute stehen vor einer folgenreichen Entscheidung: Das neue KI-Modell „Mythos” von Anthropic verspricht tiefgreifende Effizienzgewinne im Bankbetrieb – doch erfahrene Finanzexperten warnen vor technischen, rechtlichen und ethischen Risiken, die den gesamten europäischen Sektor betreffen könnten.
Britische Banken planen Einsatz von Anthropics KI-Modell „Mythos” – Finanzexperten mahnen zur Vorsicht
Mehrere britische Geldinstitute bereiten sich darauf vor, ein neues, leistungsfähiges KI-Modell des US-amerikanischen Unternehmens Anthropic einzusetzen. Gleichzeitig warnen führende Stimmen aus der Finanzbranche vor den damit verbundenen Risiken – ein Spannungsfeld, das den gesamten europäischen Bankensektor betrifft.
Neues Modell mit erweitertem Funktionsumfang
Bei dem Werkzeug handelt es sich um „Mythos”, eine spezialisierte Variante des bekannten Claude-Sprachmodells von Anthropic. Das Modell soll laut Berichten deutlich komplexere Aufgaben eigenständig ausführen können als bisherige Versionen – darunter mehrstufige Analysen, die Verarbeitung umfangreicher Finanzdaten sowie das Verfassen regulatorischer Dokumentation.
Britische Banken zeigen konkretes Interesse daran, solche Fähigkeiten in ihren Betrieb zu integrieren, etwa in den Bereichen Compliance, Risikobewertung und Kundenservice.
Bedenken aus der Finanzbranche
Trotz des erkennbaren Nutzens äußern erfahrene Führungskräfte aus dem Finanzsektor erhebliche Vorbehalte. Zentrale Kritikpunkte betreffen die mangelnde Nachvollziehbarkeit von Entscheidungen – ein Problem, das im stark regulierten Bankenwesen besonders ins Gewicht fällt.
Regulatoren und interne Prüfer müssen nachvollziehen können, auf welcher Grundlage ein System eine Kreditentscheidung trifft oder ein Risiko bewertet. Wenn ein Large Language Model diese Begründungskette nicht transparent abbildet, entstehen haftungsrechtliche und aufsichtsrechtliche Lücken.
Darüber hinaus werden Bedenken hinsichtlich sogenannter Halluzinationen geäußert – also Situationen, in denen das Modell sachlich falsche Informationen mit hoher Konfidenz ausgibt. Im Finanzkontext, wo Fehler direkte materielle Folgen haben können, ist dies kein theoretisches Problem.
Regulatorischer Rahmen noch unvollständig
Ein weiteres Hemmnis ist die regulatorische Unsicherheit. Während die britische Financial Conduct Authority (FCA) und die Prudential Regulation Authority (PRA) begonnen haben, Leitlinien für den KI-Einsatz in Finanzinstituten zu entwickeln, fehlt bislang ein verbindlicher Standard dafür, wie autonome KI-Systeme in sicherheitskritischen Prozessen eingesetzt werden dürfen.
Banken, die früh auf solche Modelle setzen, bewegen sich damit in einem rechtlich noch nicht vollständig geklärten Raum.
Anthropic positioniert sich als sicherheitsorientiertes Unternehmen und betont, dass Mythos mit besonderem Fokus auf kontrolliertes Verhalten entwickelt worden sei – doch selbst gut konzipierte Modelle können unter realen Einsatzbedingungen unerwartetes Verhalten zeigen.
Branchenbeobachter weisen insbesondere darauf hin, dass diese Risiken zunehmen, wenn Modelle in komplexe, unstrukturierte Unternehmensumgebungen eingebettet werden.
Einordnung für deutsche Unternehmen
Für deutsche Finanzinstitute und Unternehmensverantwortliche liefert die britische Entwicklung ein frühes Anschauungsbeispiel. Hierzulande gelten mit dem EU AI Act zusätzliche Anforderungen, die für Hochrisiko-Anwendungen im Finanzbereich – etwa in der Kreditvergabe oder Bonitätsprüfung – strenge Dokumentations- und Transparenzpflichten vorsehen.
Wer den Einsatz vergleichbarer Modelle plant, sollte:
- frühzeitig die Compliance-Anforderungen klären
- interne Governance-Strukturen aufbauen
- die Frage der menschlichen Aufsicht über KI-gestützte Entscheidungen verbindlich regeln
Der britische Fall zeigt unmissverständlich: Technologische Bereitschaft und regulatorische Reife müssen parallel entwickelt werden – nicht nacheinander.