KI-Spielzeug auf dem Vormarsch – Sicherheitsstandards fehlen weitgehend

Sprechende Puppen, lernfähige Roboter, emotionserkennende Spielgefährten: KI-gestütztes Spielzeug für Kinder ist längst im Handel – doch belastbare Sicherheitsnachweise fehlen ebenso wie ein verbindlicher Regulierungsrahmen. Ein Markt wächst schneller als das Recht.

KI-Spielzeug auf dem Vormarsch – ohne klare Sicherheitsstandards

Sprechende Puppen, interaktive Roboter, lernfähige Spielgefährten: KI-gestützte Spielzeuge für Kinder sind längst im Handel erhältlich – obwohl belastbare Erkenntnisse darüber, ob diese Produkte sicher sind, bislang fehlen. Regulierungsbehörden in Europa und den USA hinken der Marktentwicklung deutlich hinterher.


Produkte vor der Regulierung

Der Markt für KI-Spielzeug wächst schnell. Hersteller integrieren Large Language Models und andere KI-Komponenten in Produkte, die sich gezielt an Kinder richten – oft mit der Möglichkeit, freie Gespräche zu führen, auf emotionale Signale zu reagieren oder das Verhalten des Kindes zu erlernen. Sicherheitstests, wie sie für klassisches Spielzeug – etwa auf Schadstoffe oder mechanische Gefahren – längst etabliert sind, existieren für diese neue Produktkategorie kaum.

Das Problem liegt in der Natur der Technologie:

Ein Spielzeug, dessen Antworten ein Large Language Model generiert, lässt sich nicht auf dieselbe Weise prüfen wie ein Kunststoffbaustein.

Ausgaben sind nicht vollständig vorhersagbar, Gesprächsverläufe nicht abschließend testbar. Bestehende Spielzeug-Richtlinien – in der EU etwa die EN 71-Normenreihe – wurden für statische, physische Produkte konzipiert und erfassen die Risikodimension interaktiver KI nicht.


Datenschutz und Manipulation als zentrale Risiken

Experten benennen mehrere konkrete Risikobereiche:

1. Datenschutz: Viele KI-Spielzeuge erfassen Sprachdaten von Kindern, verarbeiten diese auf externen Servern und speichern Gesprächsverläufe. Die rechtlichen Anforderungen aus der DSGVO gelten zwar grundsätzlich auch hier, werden aber in der Praxis nicht konsequent durchgesetzt.

2. Unangemessene Inhalte: Da Large Language Models prinzipiell auf nicht kindgerechten Trainingsdaten basieren können, lassen sich unerwünschte Ausgaben trotz Filter nicht vollständig ausschließen.

3. Psychologische Effekte: Spielzeuge, die gezielt Empathie simulieren oder emotionale Bindungen aufbauen, könnten das Sozialverhalten von Kindern beeinflussen – ein Bereich, zu dem kaum Langzeitstudien existieren.


Regulierungslücke trotz EU AI Act

Der EU AI Act, der stufenweise in Kraft tritt, klassifiziert bestimmte KI-Anwendungen nach Risikostufen. KI-Systeme, die mit Minderjährigen interagieren, können unter die Kategorie mit hohem Risiko fallen – doch die konkreten Anforderungen für Konsumprodukte wie Spielzeug sind noch nicht vollständig ausgearbeitet.

Die zuständigen Marktaufsichtsbehörden der Mitgliedstaaten müssen erst Verfahren entwickeln, um entsprechende Produkte zu prüfen und bei Verstößen einzugreifen.

In den USA fehlt ein vergleichbarer gesetzlicher Rahmen gänzlich. Hersteller operieren dort weitgehend auf freiwilliger Basis – was Wettbewerbsdruck in Richtung schneller Markteinführung erzeugt, auch für Unternehmen, die eigentlich höhere Standards anlegen wollten.


Einordnung für deutsche Unternehmen

Für Händler, Importeure und Hersteller in Deutschland ergibt sich daraus eine konkrete Handlungsrelevanz. Wer KI-gestütztes Spielzeug in den europäischen Markt einführt, trägt als Wirtschaftsakteur Verantwortung – auch dann, wenn spezifische technische Normen noch fehlen. Die Produkthaftung greift, Datenschutzbehörden beginnen bereits, entsprechende Produkte zu prüfen.

Unternehmen, die jetzt in Compliance-Strukturen und transparente Datenverarbeitungsprozesse investieren, dürften gegenüber denjenigen im Vorteil sein, die auf das Inkrafttreten verbindlicher Regeln warten.

Der EU AI Act wird die Lücke schließen – die Frage ist nur: wann.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top