Sprachfähige Puppen, lernende Roboter, empathisch wirkende KI-Begleiter: KI-gestützte Spielzeuge sind längst im Handel – obwohl grundlegende Fragen zu ihrer Sicherheit weder wissenschaftlich noch regulatorisch beantwortet sind. Ein Markt, der seinen Kurs schneller setzt als jede Aufsichtsbehörde.
KI-gestützte Spielzeuge auf dem Markt – Sicherheitsfragen noch ungeklärt
Technologie trifft auf eine schutzlose Zielgruppe
Anders als bei Erwachsenen-Anwendungen, bei denen Nutzer Risiken eigenständig einschätzen können, richtet sich KI-gestütztes Spielzeug an Kinder – eine Gruppe, die besonders schutzbedürftig ist. Die Geräte nutzen Large Language Models oder ähnliche KI-Architekturen, um auf kindliche Sprache zu reagieren, Gespräche zu führen und emotionale Bindungen zu simulieren.
Genau diese Fähigkeiten werfen Fragen auf, die weit über klassische Produktsicherheit hinausgehen:
Welche psychologischen Auswirkungen hat ein empathisch wirkendes KI-System auf die kognitive und emotionale Entwicklung von Kindern?
Verlässliche Langzeitstudien dazu existieren bislang kaum.
Regulierungslücken auf mehreren Ebenen
In der Europäischen Union liegt der regulatorische Fokus derzeit auf dem AI Act, der Hochrisiko-Systeme klassifiziert und entsprechende Anforderungen stellt. KI-Spielzeug fällt jedoch nicht eindeutig in diese Hochrisiko-Kategorien – obwohl die Zielgruppe maximalen Schutzbedarf hat.
Ergänzend gelten zwar die Spielzeugsicherheitsrichtlinie sowie Datenschutzregelungen wie die DSGVO, doch diese Regelwerke wurden konzipiert, bevor KI-Systeme mit Sprachverarbeitung und adaptivem Lernverhalten in Konsumgütern Einzug hielten.
Die Folge: Hersteller bewegen sich in einem regulatorischen Graubereich, den bestehende Normen nicht ausreichend adressieren.
Datenschutz als unmittelbares Risiko
Neben psychologischen Aspekten stellen Datenschutzfragen ein konkretes operatives Risiko dar. Viele dieser Geräte übertragen Sprachdaten an externe Server zur Verarbeitung. Wer diese Daten speichert, wie lange und zu welchem Zweck, bleibt für Verbraucher oft intransparent.
Bereits in der Vergangenheit gerieten vernetzte Kinderspielzeuge in die Kritik – etwa als Sicherheitslücken bei smarten Puppen bekannt wurden, die unbefugten Dritten Zugriff auf Mikrofone ermöglichten. KI-gestützte Systeme erhöhen diese Angriffsfläche durch ihre Konnektivität und die Notwendigkeit kontinuierlicher Datenübertragung zusätzlich.
Hersteller in der Pflicht – Standards fehlen
Ohne verbindliche branchenspezifische Standards liegt die Verantwortung derzeit faktisch bei den Herstellern selbst. Einige Unternehmen kommunizieren freiwillige Sicherheitsmaßnahmen, doch externe Prüfverfahren, die speziell auf KI-Interaktionsmuster in Kinderprodukten ausgerichtet sind, fehlen weitgehend.
Normungsgremien wie ISO oder ETSI haben entsprechende Arbeitsgruppen noch nicht etabliert – und die Marktentwicklung wartet nicht auf ihren Abschluss.
Einordnung für deutsche Unternehmen
Für Unternehmen in Deutschland, die KI-gestützte Konsumprodukte – insbesondere für Minderjährige – entwickeln, vertreiben oder als Händler anbieten, ergeben sich daraus konkrete Handlungsfelder:
- Produkthaftung bleibt auch ohne spezifische KI-Normen bestehen; im Schadensfall werden Gerichte bestehende Sorgfaltspflichten anlegen.
- Aufsichtsbehörden wie das BSI sowie Datenschutzbehörden schärfen zunehmend ihren Blick auf vernetzte Kinderprodukte.
- Unternehmen, die jetzt proaktiv in unabhängige Sicherheitsprüfungen, transparente Datenpraktiken und dokumentierte Risikobewertungen investieren, verschaffen sich nicht nur einen Compliance-Vorsprung.
Wer in diesem sensiblen Segment einen öffentlichkeitswirksamen Vorfall riskiert, zahlt einen erheblichen Reputationspreis – einen, den keine nachträgliche Stellungnahme vollständig tilgen kann.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”