Goldman-Sachs-Chef David Solomon schlägt ungewöhnlich deutliche Töne an: Der Bankchef warnt öffentlich vor den unterschätzten Risiken hochautonomer KI-Systeme – und setzt damit ein Signal, das weit über die Finanzbranche hinaus Relevanz hat.
Goldman-Sachs-Chef warnt vor unterschätzten Risiken durch Anthropics Mythos-KI
Goldman-Sachs-Chef David Solomon zeigt sich im Umgang mit Anthropics neuestem KI-System Mythos ausgesprochen vorsichtig. Der Bankchef erklärte, er sei sich der potenziellen Risiken der Technologie sehr bewusst – ein ungewöhnlich deutliches Signal aus der Führungsetage eines der größten Finanzinstitute der Welt.
Skepsis auf höchster Ebene
David Solomon gehört zu den wenigen Topmanagern im Finanzsektor, die öffentlich Bedenken gegenüber dem zunehmend autonomen Einsatz von KI-Systemen in kritischen Geschäftsprozessen formulieren. Gegenüber The Guardian machte Solomon deutlich, dass Goldman Sachs zwar aktiv mit Anthropics Technologie arbeite, die damit verbundenen Risiken jedoch nicht unterschätze.
„Hyper-aware” – außerordentlich sensibilisiert: So lässt sich Solomons Haltung gegenüber den potenziellen Konsequenzen eines zu schnellen oder unkontrollierten KI-Einsatzes treffend beschreiben.
Hintergrund ist Anthropics Modell Mythos, das offenbar deutlich weitergehende Fähigkeiten in der autonomen Entscheidungsfindung und Prozesssteuerung besitzt als frühere Systeme. Für eine Bank vom Format Goldman Sachs, die täglich Billionen von Dollar in Bewegung setzt, sind unkontrollierte oder fehlerhafte KI-gestützte Entscheidungen keine abstrakte Gefahr, sondern ein handfestes operationelles Risiko.
Autonomie als Kernproblem
Das zentrale Thema ist die zunehmende Autonomie moderner Large Language Models. Mythos soll in der Lage sein, mehrstufige Aufgaben weitgehend selbstständig abzuarbeiten – ein Merkmal, das im Enterprise-Umfeld erheblichen Mehrwert verspricht, gleichzeitig aber die Kontrollierbarkeit von Prozessen grundlegend verändert.
Solomon betonte, dass der Einsatz solcher Systeme klare Leitplanken erfordere – insbesondere in regulierten Branchen wie dem Bankwesen.
Diese Position steht in einem gewissen Kontrast zur generellen Stimmung in der Tech-Branche, wo Anthropic – trotz seiner öffentlich betonten Sicherheitsorientierung – aggressiv auf Unternehmenskunden zielt. Goldman Sachs ist dabei kein Einzelfall: Zahlreiche Großunternehmen weltweit testen oder implementieren ähnliche Systeme, oft ohne vollständig ausgereifte Governance-Strukturen.
Compliance und Haftung als offene Fragen
Für den Finanzsektor stellt sich dabei eine drängende Frage: Wer haftet, wenn ein autonomes KI-System eine folgenreiche Fehlentscheidung trifft? Regulatorische Rahmenbedingungen – etwa durch die europäische Finanzmarktaufsicht oder den EU AI Act – sind noch nicht vollständig auf die Realität hochautonomer Systeme ausgerichtet.
Solomon deutete an, dass Goldman Sachs intern an Protokollen arbeite, die sicherstellen sollen, dass menschliche Kontrolle in kritischen Entscheidungsprozessen erhalten bleibt. Anthropic seinerseits positioniert Mythos ausdrücklich als unternehmenstaugliches System mit integrierten Sicherheitsmechanismen. Wie belastbar diese Mechanismen unter realen Bedingungen im Hochfrequenz-Finanzumfeld sind, bleibt jedoch eine offene Frage.
Einordnung für deutsche Unternehmen
Für deutsche Entscheider – insbesondere in Finanzdienstleistung, Versicherung und anderen regulierten Branchen – liefert Solomons Haltung einen relevanten Orientierungspunkt. Der EU AI Act klassifiziert KI-Systeme in Hochrisikobereichen mit strengen Anforderungen an Transparenz, menschliche Aufsicht und Dokumentation.
Wer autonome KI-Agenten in sensiblen Prozessen einsetzen möchte, sollte Governance-Strukturen und Haftungsfragen nicht nachgelagert, sondern als Teil der initialen Implementierungsstrategie behandeln.
Die Zurückhaltung eines David Solomon ist dabei weniger ein Zeichen von Technikskepsis als von unternehmerischer Sorgfaltspflicht – und ein Maßstab, den sich auch hiesige Entscheider zu eigen machen sollten.
Quelle: The Guardian – Goldman Sachs chief ‘hyper-aware’ of risks from Anthropic’s Mythos AI