Wenn Arbeitgeber ihre Beschäftigten bitten, ihr gesammeltes Fachwissen in KI-Modelle zu gießen, stellt sich eine unbequeme Frage: Wer profitiert davon – und wer trägt das Risiko? In China eskaliert dieser Konflikt gerade spürbar.
Chinesische Tech-Beschäftigte trainieren KI-Versionen ihrer selbst – und stellen Bedingungen
Immer mehr Softwareentwickler und Wissensarbeiter in China werden von ihren Arbeitgebern aufgefordert, sogenannte KI-Doppelgänger zu trainieren – digitale Abbilder ihrer Arbeitsweise, ihres Fachwissens und ihrer Kommunikationsmuster. Der Prozess läuft in vielen Unternehmen bereits als strukturiertes Programm ab. Doch zunehmend formiert sich Widerstand: Beschäftigte stellen Fragen nach Datenkontrolle, Vergütung und der eigenen beruflichen Zukunft.
Wissen auf Abruf – aber wessen Eigentum?
Das Prinzip klingt zunächst nach einem produktivitätsorientierten Werkzeug: Mitarbeitende dokumentieren ihre Entscheidungsprozesse, Problemlösungsstrategien und internen Abläufe so detailliert, dass ein Large Language Model diese Muster imitieren kann. Technisch gesehen handelt es sich um eine Form des Fine-Tunings, bei dem individuelles Fachwissen in ein Modell eingebettet wird.
In der Praxis bedeutet das jedoch, dass das akkumulierte berufliche Kapital eines Mitarbeiters – über Jahre erworben – in ein Unternehmensasset überführt wird. Genau hier entzündet sich die Debatte:
Wem gehört dieses Wissen – und wer profitiert von seiner Digitalisierung?
Gezielte Gegenwehr in der Belegschaft
Berichte aus der chinesischen Tech-Branche zeigen, dass Beschäftigte zunehmend strategisch vorgehen. Manche liefern beim Training bewusst unvollständige Informationen. Andere verhandeln aktiv über Zusatzvergütungen oder vertragliche Regelungen, die festlegen, was mit dem trainierten Modell nach einer Kündigung geschieht. In Online-Foren tauschen sich Tech-Arbeiter darüber aus, welche Informationen sie preisgeben sollten – und welche nicht.
Das Phänomen hat eine strukturelle Ursache: In einem Arbeitsmarkt, der durch hohen Wettbewerbsdruck und massive KI-Investitionen chinesischer Konzerne geprägt ist, erleben viele Beschäftigte die Anforderungen zum Modelltraining als direkten Vorläufer zur eigenen Ersetzbarkeit.
„Trainiere ich hier meinen eigenen Nachfolger?” – diese Frage stellt sich nicht mehr abstrakt.
Unternehmensinteresse trifft auf neue Verhandlungsmacht
Für Unternehmen ist das Kalkül nachvollziehbar: Ein Modell, das Expertenwissen eines erfahrenen Entwicklers oder Produktmanagers vorhält, reduziert Abhängigkeiten und ermöglicht eine Art organisationales Gedächtnis. Gleichzeitig entstehen neue Spannungsfelder.
Wenn Mitarbeitende den Trainingsaufwand als einseitigen Wissenstransfer wahrnehmen, sinkt die Kooperationsbereitschaft – mit direkten Auswirkungen auf die Qualität der entstehenden Modelle. Einige chinesische Tech-Konzerne haben darauf bereits reagiert und beginnen, das Modelltraining als Teil der Leistungsbeurteilung zu formalisieren oder finanzielle Anreize zu setzen. Ob das den grundlegenden Interessenkonflikt auflöst, bleibt offen.
Relevanz für den deutschen Unternehmenskontext
Was sich derzeit in der chinesischen Tech-Branche zeigt, dürfte auch hierzulande bald auf die Agenda rücken. Deutsche Unternehmen, die ihre Belegschaft in den Aufbau interner KI-Systeme einbinden – sei es durch Dokumentation, Prompt-Bibliotheken oder direktes Modelltraining –, sollten frühzeitig klären, welche rechtlichen und arbeitsvertraglichen Rahmenbedingungen dabei gelten. Das betrifft insbesondere:
- Geistiges Eigentum an dokumentiertem Fachwissen
- Personenbezogene Arbeitsmuster und deren datenschutzrechtliche Einordnung
- Mitbestimmungsrechte von Betriebsräten bei KI-Einführungsprozessen
Unternehmen, die diese Auseinandersetzung proaktiv führen, dürften auf deutlich weniger Widerstand stoßen als solche, die KI-Wissenstransfer stillschweigend als selbstverständlichen Bestandteil der Arbeitspflicht behandeln.
Quelle: MIT Technology Review – „Chinese tech workers are being asked to train AI versions of themselves”