Anthropic geht in der KI-Entwicklung einen ungewöhnlichen Weg: Der Hersteller des KI-Assistenten Claude bindet gezielt christliche Religionsführer in die ethische Ausrichtung seines Modells ein – und stellt damit grundlegende Fragen über Werte, Würde und die moralischen Grundlagen künstlicher Intelligenz.
Anthropic konsultiert christliche Kirchenvertreter für die ethische Ausrichtung von Claude
Religiöse Perspektiven als Governance-Instrument
Anthropic hat ein Beratungsprogramm ins Leben gerufen, das christliche Religionsführer aus Kirche, Wissenschaft und Wirtschaft in die Entwicklung moralischer Leitlinien für seinen KI-Assistenten Claude einbezieht. Das Unternehmen will damit Fragen zum spirituellen Status und ethischen Verhalten von KI-Systemen systematisch adressieren – ein ungewöhnlicher Schritt in der KI-Branche.
Hinter dem Vorgehen steht eine grundsätzliche Frage, die im Silicon Valley zunehmend diskutiert wird: Wie sollen KI-Systeme mit Themen wie Sterben, Würde, Schuld oder Sinnfragen umgehen? Anthropic geht davon aus, dass technische und philosophische Ansätze allein nicht ausreichen, um Claude in solchen Gesprächen angemessen zu positionieren.
Religionsvertreter sollen dabei helfen, moralische Rahmenbedingungen zu definieren, die über rein utilitaristische Ethikmodelle hinausgehen.
Die Konsultation schließt explizit die Frage ein, ob eine KI als „Kind Gottes” betrachtet werden könne – eine theologische Debatte, die zwar akademisch anmutet, aber praktische Konsequenzen für den Umgang mit KI-Systemen haben könnte, etwa in Hospizen, Seelsorge-Apps oder spirituellen Beratungsangeboten.
Stakeholder-Einbindung jenseits des Tech-Sektors
Anthropic reiht sich damit in eine wachsende Gruppe von KI-Unternehmen ein, die externe Beiräte und gesellschaftliche Stakeholder stärker in ihre Governance-Prozesse einbinden. Der Unterschied: Während andere Unternehmen vorrangig auf Ethikkommissionen mit akademischem Hintergrund setzen, wählt Anthropic mit der Einbindung von Kirchenvertretern einen explizit gesellschaftlich-religiösen Zugang.
Ob und wie die Erkenntnisse aus diesen Konsultationen in das Training oder die Systemdokumentationen von Claude einfließen werden, hat Anthropic bislang nicht kommuniziert. Klar ist jedoch, dass das Unternehmen die Werte und Verhaltensweisen seines Modells nicht ausschließlich intern definieren möchte.
Praktische Relevanz für Unternehmensanwendungen
Für Unternehmen, die Claude über die Anthropic-API oder über Drittanbieter einsetzen, ergeben sich aus dieser Entwicklung konkrete Fragen:
- Welche moralischen Grundannahmen sind in ein KI-System eingebettet, das mit Kunden oder Mitarbeitenden interagiert?
- Wer legt diese Grundannahmen fest – und auf welcher Basis?
Gerade in Branchen mit direktem Kundenkontakt – Gesundheitswesen, Personalwesen, Rechtsberatung oder Finanzdienstleistungen – spielen Wertvorstellungen eines KI-Systems eine zunehmend praktische Rolle. Ein Assistent, der auf Fragen zu Trauer, Schulden oder ethischen Dilemmata antwortet, trifft implizit moralische Entscheidungen, die bislang kaum reguliert sind.
Einordnung für deutsche Unternehmen
Für deutschsprachige Unternehmen, die KI-Systeme im Kundenkontakt oder in sensiblen internen Prozessen einsetzen, unterstreicht Anthropics Vorgehen eine Entwicklung, die auch hierzulande an Bedeutung gewinnt:
Die ethische Ausrichtung eines Modells ist kein rein technisches Detail mehr, sondern ein unternehmenspolitisch relevanter Parameter.
Wer KI-Lösungen einkauft oder lizenziert, sollte zunehmend nachfragen, welche Werte und Annahmen in das Systemverhalten eingeflossen sind – und ob diese mit den eigenen Unternehmensstandards und dem regulatorischen Umfeld des EU AI Acts vereinbar sind.
Quelle: The Decoder