Sprechende Roboter, lernende Puppen, smarte Begleiter: KI-gestütztes Spielzeug ist längst in den Regalen – doch belastbare Sicherheitsnachweise fehlen, Regulierungsbehörden hinken hinterher, und die Risiken für Kinder, Eltern und Händler sind noch immer kaum greifbar.
KI-gestütztes Spielzeug drängt auf den Markt – Sicherheitsfragen ungeklärt
Produkte mit integrierten Large Language Models für Kinder sind bereits im Handel erhältlich, obwohl belastbare Sicherheitsnachweise weitgehend fehlen. Regulierungsbehörden in Europa und den USA haben bislang keine verbindlichen Standards für diese Geräteklasse verabschiedet. Der Markt wächst dennoch – mit entsprechenden Risiken für Verbraucher und Hersteller.
Produkte vor der Regulierung
Sprechende Puppen, interaktive Lernroboter und Begleittiere mit KI-gestützter Sprachverarbeitung sind in diesem Jahr verstärkt auf den Markt gekommen. Die Geräte reagieren auf Spracheingaben von Kindern, führen Gespräche und passen ihre Antworten situativ an. Technisch basieren sie auf denselben Large Language Model-Architekturen, die auch in kommerziellen Assistenzsystemen für Erwachsene eingesetzt werden – jedoch ohne dass branchenweite Testprotokolle für den Einsatz bei Minderjährigen existieren.
Das Kernproblem: Weder Hersteller noch unabhängige Prüfinstitute haben bisher standardisierte Verfahren entwickelt, um die psychologische Wirkung kontinuierlicher KI-Interaktionen auf Kinder verschiedener Altersgruppen systematisch zu bewerten.
Einzelne Studien deuten darauf hin, dass Kinder parasoziale Bindungen zu KI-Charakteren entwickeln können – mit potenziellen Auswirkungen auf Sozialisierungsprozesse und emotionale Entwicklung.
Datenschutz als unmittelbares Risiko
Neben den entwicklungspsychologischen Fragen stellen Datenschutzaspekte ein unmittelbares rechtliches Risiko dar. KI-Spielzeuge erfassen kontinuierlich Sprachdaten von Kindern, häufig in häuslichen Umgebungen. Unter der Datenschutz-Grundverordnung (DSGVO) und dem britischen Age Appropriate Design Code gelten für die Verarbeitung von Kinderdaten besonders strenge Anforderungen – darunter explizite Einwilligungspflichten und eingeschränkte Möglichkeiten zur Datenweitergabe an Dritte.
Mehrere der derzeit im Handel befindlichen Produkte stammen von US-amerikanischen oder asiatischen Herstellern, deren Datenschutzpraktiken nicht vollständig mit europäischen Anforderungen übereinstimmen. Für Einzelhändler, die solche Produkte vertreiben, entsteht dadurch ein eigenständiges Haftungsrisiko.
Regulatorischer Rahmen noch im Aufbau
Der EU AI Act klassifiziert KI-Systeme, die gezielt mit Kindern interagieren, grundsätzlich als hochriskant. Die entsprechenden Anforderungen – darunter Konformitätsbewertungen und technische Dokumentationspflichten – treten jedoch gestaffelt in Kraft.
Für viele Produktkategorien gilt die Übergangsfrist noch bis 2026 oder 2027. In dieser Lücke zwischen geltendem Produktsicherheitsrecht und noch nicht vollständig wirksamen KI-spezifischen Vorschriften bewegen sich die Anbieter derzeit weitgehend ungeprüft.
In den USA fehlt eine vergleichbare bundesweite KI-Regulierung für Konsumgüter vollständig. Die Federal Trade Commission hat zwar allgemeine Hinweise zu KI und Verbraucherschutz veröffentlicht, verbindliche Standards für KI-Spielzeug existieren jedoch nicht.
Einordnung für den deutschen Markt
Für deutsche Einzel- und Großhändler sowie für Unternehmen, die KI-gestützte Lernprodukte im B2B-Bereich – etwa für Bildungseinrichtungen – evaluieren, ergibt sich eine klare Handlungsempfehlung:
Die bestehenden Produktsicherheitspflichten nach dem Produktsicherheitsgesetz und der DSGVO gelten bereits heute.
Eine Due-Diligence-Prüfung vor der Listung oder Beschaffung solcher Produkte sollte folgende Punkte umfassen:
- Datenschutzfolgeabschätzungen für alle erfassten Kinderdaten
- Überprüfung der Serverstandorte und Drittanbieter-Datenflüsse
- Konformitätsprüfung mit geltendem EU-Produktsicherheitsrecht
Mit dem vollständigen Inkrafttreten des EU AI Act werden die Anforderungen weiter steigen. Unternehmen, die jetzt bereits entsprechende Prüfprozesse etablieren, reduzieren ihr regulatorisches Nachlaufrisiko erheblich.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”