Sprachfähige Roboter und KI-gestützte Spielzeugbegleiter stehen in den Regalen – doch belastbare Sicherheitsnachweise für die kleinen Nutzer fehlen weitgehend. Ein Blick in eine regulatorische Grauzone mit erheblichen Konsequenzen.
KI-Spielzeug auf dem Markt – ohne gesicherte Sicherheitsstandards
Sprachfähige Roboter, interaktive Puppen und lernende Spielzeugbegleiter mit KI-Integration sind längst in Kinderzimmern angekommen. Belastbare Nachweise, dass diese Produkte für Kinder sicher sind, fehlen jedoch weitgehend – und die Regulierung hinkt der Marktentwicklung deutlich hinterher.
Produkte vor der Forschung
KI-gestützte Spielzeuge können mit Kindern konversieren, auf deren Verhalten reagieren und personalisierte Inhalte generieren. Diese Interaktivität unterscheidet sie grundlegend von klassischem Spielzeug – und genau das macht ihre Bewertung so komplex.
Während für mechanische Sicherheitsrisiken wie Kleinteile oder scharfe Kanten etablierte Prüfverfahren existieren, gibt es für die psychologischen und datenschutzrelevanten Auswirkungen von Large Language Models im Spielzeugkontext bislang kaum anerkannte Standards.
Kinder sind besonders empfänglich für anthropomorphisierte KI-Systeme – die Frage, welchen Einfluss ein dauerhafter, vertrauensbasierter Umgang mit einem KI-Gesprächspartner auf die kognitive und soziale Entwicklung hat, ist wissenschaftlich nicht hinreichend beantwortet.
Dennoch sind entsprechende Produkte in vielen Ländern – darunter Deutschland – frei erhältlich.
Regulierungslücken in der EU
In der Europäischen Union sind Spielzeuge dem Toy Safety Framework unterworfen, das zuletzt 2011 überarbeitet wurde – lange vor dem Durchbruch generativer KI. Die EU-KI-Verordnung (AI Act), die seit Anfang 2024 schrittweise in Kraft tritt, klassifiziert KI-Systeme, die mit Kindern interagieren, zwar grundsätzlich als hochriskant. Die konkreten Durchführungsbestimmungen und Zertifizierungsanforderungen für Konsumgüter sind jedoch noch in Entwicklung.
Das Ergebnis ist eine regulatorische Grauzone: Hersteller können Produkte vermarkten, ohne dass unabhängige Stellen überprüft haben,
- welche Daten erhoben werden,
- wie Konversationssysteme auf sensible Kinderfragen reagieren,
- ob manipulative Gesprächsmuster ausgeschlossen sind.
Datenschutzbehörden wie die irische DPC oder der Hamburger Datenschutzbeauftragte haben zwar erste Prüfungen angekündigt, doch systematische Vorab-Zertifizierungen existieren nicht.
Datenschutz als unmittelbares Risiko
Neben Entwicklungsfragen ist der Datenschutz ein konkretes, kurzfristiges Problem. KI-Spielzeuge erfassen Sprach- und Verhaltensdaten von Kindern – einer der am stärksten schutzbedürftigen Personengruppen unter der DSGVO.
Die Verarbeitung solcher Daten für das Training von Modellen oder deren Weitergabe an Drittanbieter ist in vielen Produkten intransparent dokumentiert.
Eltern können informierte Entscheidungen kaum treffen, wenn Datenschutzhinweise technisch unzugänglich formuliert oder schlicht unvollständig sind.
Handlungsbedarf für Unternehmen und Politik
Für deutsche Unternehmen, die selbst KI-gestützte Produkte für Kinder entwickeln oder im Programm haben, ergibt sich ein doppeltes Risiko:
- Regulatorische Nachschärfungen können laufende Produkte betreffen.
- Reputationsschäden durch Datenschutzvorfälle oder kritische Medienberichte können erheblich sein.
Der EU AI Act wird spätestens 2026 vollständig anwendbar – Hersteller und Händler sollten ihre Produktkategorien bereits jetzt auf Konformität prüfen und Zertifizierungsprozesse antizipieren.
Verbraucherschutzorganisationen in Deutschland und Österreich fordern unterdessen eine Verschärfung der Spielzeugrichtlinie speziell für KI-Komponenten. Es ist wahrscheinlich, dass entsprechende Gesetzgebungsinitiativen auf EU-Ebene noch in dieser Legislaturperiode folgen werden.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”