Sprachgesteuerte Puppen, lernende Roboter, KI-Assistenten im Kinderzimmer: Der Markt für intelligentes Spielzeug wächst rasant – doch ein verbindlicher Sicherheitsnachweis für diese neue Geräteklasse existiert bis heute nicht. Regulierungsbehörden, Verbraucherschützer und Forschende schlagen Alarm.
KI-Spielzeug auf dem Markt – ohne gesicherte Sicherheitsnachweise
Interaktive Spielzeuge mit eingebetteter KI drängen in großer Zahl auf den Konsumgütermarkt, obwohl ein systematischer Sicherheitsnachweis für diese Geräteklasse bislang fehlt. Regulierungsbehörden und Verbraucherschützer warnen vor einem strukturellen Defizit: Die bestehenden Produktsicherheitsrahmen wurden nicht für autonome, lernfähige Systeme konzipiert, die direkt mit Kindern interagieren.
Markteinführung vor Regulierungsreife
Sprachgesteuerte Puppen, robotische Lernbegleiter und Spielzeug mit Large Language Model-Integration sind seit einigen Jahren im Handel erhältlich – Tendenz stark steigend. Hersteller berufen sich dabei auf allgemeine Produktsicherheitszertifizierungen, die physische Gefahren wie scharfe Kanten oder Giftstoffe adressieren, nicht jedoch die spezifischen Risiken KI-generierter Inhalte.
Was ein solches Gerät einem Kind tatsächlich mitteilt, welche Persönlichkeitsprofile es aufbaut oder wie es auf emotionale Ausnahmesituationen reagiert, bleibt außerhalb bestehender Prüfrahmen.
Forschende und Regulierungsexperten, die gegenüber New Scientist Stellung nahmen, beschreiben das Problem als grundlegend: KI-gestützte Spielzeuge verhalten sich nicht deterministisch. Anders als ein mechanisches Spielzeug, dessen Risikoprofil bei der Produktprüfung vollständig erfasst werden kann, generiert ein Large Language Model kontextabhängige Antworten, die auch nach der Zertifizierung variieren – etwa durch Software-Updates oder veränderte Modellparameter.
Datenschutz und psychologische Risiken als blinder Fleck
Ein zweites Problemfeld betrifft die Datenspeicherung. Viele dieser Geräte übermitteln Gesprächsdaten an Cloud-Infrastrukturen, um die KI-Verarbeitung durchzuführen. Für Kinder unter 13 Jahren gelten in der EU mit der DSGVO und ergänzend der COPPA-Logik in den USA strenge Vorgaben – die praktische Umsetzung bei KI-Spielzeug ist jedoch vielfach unklar oder nicht ausreichend dokumentiert.
Darüber hinaus thematisieren Experten psychologische Effekte:
Kinder können intensive emotionale Bindungen an responsive KI-Figuren entwickeln. Welche Langzeitwirkungen das auf soziale Entwicklung, Realitätswahrnehmung oder den Umgang mit Grenzsituationen hat, ist kaum erforscht.
Dieser Erkenntnismangel selbst ist Teil des regulatorischen Problems.
EU-Rahmen im Aufbau – Lücken bleiben
Mit dem AI Act hat die Europäische Union einen Rechtsrahmen geschaffen, der KI-Anwendungen für Kinder grundsätzlich als hochriskant einstufen kann. Die konkrete Umsetzung in branchenspezifische Anforderungen für Spielzeug steht jedoch noch aus. Die überarbeitete EU-Spielzeugrichtlinie, die sich seit Jahren in der Abstimmung befindet, enthält noch keine ausreichend operationalisierten Anforderungen für KI-Funktionalitäten. Bis entsprechende technische Normen verabschiedet sind, bewegen sich Hersteller in einer Grauzone.
Verbraucherschutzorganisationen fordern deshalb ein verpflichtendes KI-spezifisches Sicherheitsprotokoll vor Markteinführung – vergleichbar mit klinischen Prüfpflichten im Medizinproduktbereich. Die Industrie verweist dagegen auf bestehende freiwillige Standards und die Innovationskosten einer Vorabzertifizierung.
Einordnung für deutsche Unternehmen
Für Hersteller, Händler und Importeure von Spielzeug mit KI-Funktionalität im deutschsprachigen Raum ergeben sich konkrete Compliance-Risiken. Die Marktüberwachungsbehörden der Länder können Produkte zurückrufen oder sperren, sobald neue Anforderungen greifen – unabhängig davon, ob eine Zertifizierung zum Zeitpunkt der Markteinführung vorlag.
Unternehmen sollten bereits jetzt:
- Interne Risikoanalysen nach den Kategorien des AI Act durchführen
- Datenschutz-Folgeabschätzungen für Kinddaten dokumentieren
- Die Entwicklung der EU-Spielzeugrichtlinie aktiv verfolgen
Wer früh tragfähige Sicherheitsnachweise aufbaut, sichert sich nicht nur regulatorisch ab, sondern gewinnt auch Differenzierungspotenzial gegenüber Anbietern, die diesen Standard nicht erfüllen.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”