Meta erfasst Mitarbeiteraktivitäten am PC zur Schulung von KI-Agenten

Meta installiert Tracking-Software auf Mitarbeiter-PCs – und setzt damit einen Präzedenzfall für die gesamte Branche. Was als internes KI-Trainingsprogramm beginnt, wirft grundlegende Fragen über Arbeitnehmerrechte, Datenschutz und die Zukunft des Arbeitsplatzes als Trainingsquelle für künstliche Intelligenz auf.

Meta erfasst Mitarbeiteraktivitäten am PC zur Schulung von KI-Agenten

Meta installiert auf den Computern seiner US-amerikanischen Mitarbeiter eine Tracking-Software, die Mausbewegungen, Klicks, Tastatureingaben und gelegentliche Screenshots aufzeichnet. Die erhobenen Daten sollen zur Schulung von KI-Agenten dienen, die künftig computerbasierte Arbeitsaufgaben automatisiert erledigen sollen.


Technik und Zielsetzung

Das interne Programm trägt die Bezeichnung „Model Capability Initiative” (MCI) und wird laut einem Reuters-Bericht auf Rechnern von Mitarbeitern in den Vereinigten Staaten eingesetzt. Die Software läuft im Hintergrund arbeitsbezogener Anwendungen und Webseiten und zeichnet auf, wie Nutzer mit diesen interagieren.

„Wenn wir Agenten entwickeln, die Menschen bei alltäglichen Computeraufgaben helfen sollen, brauchen unsere Modelle reale Beispiele dafür, wie Menschen Computer tatsächlich nutzen – etwa Mausbewegungen, das Klicken von Schaltflächen und die Navigation durch Dropdown-Menüs.”

— Tracy Clayton, Meta-Sprecherin, gegenüber The Verge

Das Ziel ist nachvollziehbar: KI-Agenten benötigen hochwertige Trainingsdaten aus echten Arbeitsumgebungen, um Aufgaben wie das Ausfüllen von Formularen, das Bedienen von Softwareoberflächen oder die Navigation in Unternehmenssystemen zuverlässig zu erlernen. Synthetische oder öffentlich verfügbare Daten reichen dafür häufig nicht aus.


Datenschutzrechtliche Bedenken

Meta betont, die durch MCI gesammelten Daten würden ausdrücklich nicht für Leistungsbeurteilungen der Mitarbeiter herangezogen. Dennoch wirft das Vorgehen grundlegende Fragen auf.

Die lückenlose Erfassung von Tastatureingaben und Bildschirminhalten geht deutlich über herkömmliche Nutzungsstatistiken hinaus – und berührt den Kernbereich der informationellen Selbstbestimmung.

In den USA bestehen für solche Maßnahmen weitaus weniger gesetzliche Hürden als in der Europäischen Union. Ob und wie Mitarbeiter der Datenerhebung aktiv zugestimmt haben, geht aus den vorliegenden Informationen nicht eindeutig hervor. Arbeitnehmerrechtsorganisationen und Datenschutzexperten haben das Programm bereits kritisch kommentiert.


Branchentrend mit Signalwirkung

Meta ist nicht das einzige Technologieunternehmen, das auf interne Verhaltensdaten setzt, um KI-Systeme zu trainieren. Die Branche versucht zunehmend, den Graben zwischen Laborumgebungen und realen Arbeitsabläufen durch authentische Nutzerdaten zu schließen. Microsofts Copilot-Initiative und ähnliche Projekte anderer Anbieter zeigen denselben Trend:

Der Arbeitsplatz wird zur Trainingsquelle für die nächste Generation von KI-Assistenten.

Die Besonderheit im Fall Meta liegt in der Direktheit des Ansatzes. Anstatt anonymisierte Nutzungsdaten aus Produkten zu verwenden, greift der Konzern gezielt auf die Computeraktivitäten seiner eigenen Belegschaft zurück – ein Modell, das hohe Qualität der Trainingsdaten verspricht, aber gleichzeitig das Vertrauensverhältnis zwischen Arbeitgeber und Arbeitnehmer erheblich belastet.


Einordnung für deutsche Unternehmen

Für Unternehmen in Deutschland und der EU ist ein vergleichbares Vorgehen unter den aktuellen Rahmenbedingungen kaum umsetzbar. DSGVO sowie Betriebsverfassungsgesetz setzen enge Grenzen bei der Überwachung von Mitarbeitern am Arbeitsplatz – eine lückenlose Keystroke-Erfassung wäre ohne explizite Einwilligung und Betriebsratsvereinbarung rechtlich nicht haltbar.

Dennoch verdeutlicht Metas Vorgehen, wohin die Entwicklung bei KI-Agenten führt: Wer leistungsfähige Automatisierungssysteme für interne Prozesse aufbauen will, braucht qualitativ hochwertige, kontextspezifische Trainingsdaten. Deutsche Unternehmen sollten sich frühzeitig damit befassen, wie solche Daten DSGVO-konform erhoben und genutzt werden können – etwa durch freiwillige Pilotprogramme mit klar definierten Einwilligungsverfahren.


Quelle: The Verge AI

Scroll to Top