Intelligente Spielzeuge mit eingebetteter KI sprechen, antworten und lernen – doch während die Produkte bereits in Millionen Kinderhände gelangen, hinken verbindliche Sicherheitsstandards weit hinterher. Ein regulatorisches Vakuum mit ernsthaften Konsequenzen.
KI-Spielzeug auf dem Markt – ohne ausreichende Sicherheitsstandards
Spielzeug mit eingebetteter KI-Technologie drängt in den Massenmarkt, obwohl verbindliche Sicherheitsnachweise für diese Produktkategorie weitgehend fehlen. Hersteller agieren in einem regulatorischen Graubereich, der Verbraucher – und mittelfristig die Unternehmen selbst – einem erheblichen Risiko aussetzt.
Markt wächst schneller als die Regulierung
Interaktive Spielzeuge mit Large Language Models oder anderen KI-Komponenten sind in Onlineshops und Fachhandel bereits breit verfügbar. Sie können eigenständig mit Kindern kommunizieren, auf Spracheingaben reagieren und individuelle Antworten generieren.
Für klassische Spielzeuge gelten in der EU strenge Sicherheitsvorschriften – die Spielzeugrichtlinie 2009/48/EG definiert unter anderem physische, chemische und elektrische Mindeststandards. Für das Verhalten von KI-Systemen in solchen Produkten existieren jedoch keine vergleichbar konkreten, durchsetzbaren Vorgaben.
Das Grundproblem: Behörden und Normungsgremien haben bislang keine anerkannte Methodik entwickelt, mit der sich die Sicherheit eines generativen KI-Systems für kindliche Nutzer objektiv messen und zertifizieren ließe.
Anders als bei einem Kleinteile-Test oder einem Entflammbarkeitstest lässt sich das Gesprächsverhalten eines Sprachmodells nicht durch einen standardisierten Labortest abschließend prüfen.
Konkrete Risiken für Kinder
Forscher und Verbraucherschützer benennen mehrere Risikobereiche:
- Unangemessene Inhalte: Sprachmodelle können trotz Filter – je nach Prompt und Kontext – problematische Ausgaben erzeugen.
- Datenschutz: Viele Geräte sammeln Sprachdaten, was weitreichende Fragen nach DSGVO und EU-Kinderrechtsverordnung aufwirft.
- Psychologische Risiken: KI-Systeme können in sensiblen Momenten – etwa bei Angst oder Trauer eines Kindes – unangemessen reagieren und psychologischen Schaden verursachen.
Viele dieser Produkte übertragen Sprachdaten an Cloud-Server der Hersteller, oft mit unklarer Zweckbindung und Speicherdauer – ein erhebliches Compliance-Risiko für jeden EU-Anbieter.
EU AI Act schließt Lücke nur teilweise
Der EU AI Act, der seit August 2024 schrittweise in Kraft tritt, klassifiziert KI-Systeme für die Interaktion mit Kindern grundsätzlich als hochriskant – sofern sie in bestimmten sensiblen Bereichen eingesetzt werden. Allerdings bleibt die konkrete Ausgestaltung der Anforderungen für Konsumgüter wie Spielzeug noch offen.
Bis harmonisierte Normen durch europäische Normungsgremien wie CEN/CENELEC vorliegen, bewegen sich Hersteller und Händler weiterhin in einem Bereich erheblicher Rechtsunsicherheit. Die zuständigen Marktüberwachungsbehörden – in Deutschland etwa Bundesnetzagentur und BMUV – haben bislang keine systematische Prüfpraxis für KI-Spielzeug etabliert. Das bedeutet: Produkte können auf dem Markt verbleiben, deren KI-Komponenten nie einer unabhängigen Prüfung unterzogen wurden.
Einordnung für deutsche Hersteller und Händler
Für deutsche Unternehmen, die KI-gestützte Spielzeuge herstellen, importieren oder vertreiben, empfiehlt sich ein proaktiver Compliance-Ansatz – noch bevor der regulatorische Druck steigt:
- Interne Risikobewertungen für KI-Komponenten durchführen und dokumentieren
- Datenschutz-Folgenabschätzungen nach Art. 35 DSGVO erstellen
- Vertragliche Sicherheiten gegenüber KI-Zulieferern einfordern
Mit dem weiteren Inkrafttreten des AI Act und zu erwartenden delegierten Rechtsakten dürfte der Druck auf Hersteller ohne nachweisbare Compliance-Dokumentation deutlich zunehmen – Rückrufaktionen oder Marktrücknahmen könnten die Folge sein.
Quelle: New Scientist Tech – “We don’t know if AI-powered toys are safe, but they’re here anyway”