Sprachfähige Puppen, lernende Roboter, KI-gestützte Assistenten: Der Boom bei intelligenten Spielzeugen überholt die Regulierung – mit potenziell weitreichenden Folgen für Kinder, Eltern und den Handel.
KI-Spielzeug boomt – regulatorische Grundlagen fehlen noch
Der Markt für KI-gestützte Spielzeuge wächst rasant, doch belastbare Erkenntnisse zur Sicherheit dieser Produkte für Kinder gibt es kaum. Hersteller bringen ihre Produkte auf den Markt, bevor Regulatoren die nötigen Standards entwickelt haben – ein Muster, das aus anderen Technologiebereichen bekannt ist.
Markt wächst schneller als die Aufsicht
Sprachfähige Puppen, interaktive Roboter und lernende Assistenzsysteme mit Large Language Models gehören zunehmend zum Standardsortiment des Spielzeughandels. Anders als klassische Spielzeuge, bei denen physische Sicherheitsstandards wie Schadstofffreiheit oder Erstickungsrisiken geprüft werden, bewegt sich die KI-Komponente in einem nahezu ungeregelten Bereich. Bestehende Spielzeugsicherheitsrichtlinien – auch die europäische Spielzeugrichtlinie – wurden für eine Produktwelt ohne generative KI konzipiert.
Das Grundproblem: Spielzeuge mit eingebetteten KI-Systemen können auf Kindereingaben dynamisch reagieren, Gespräche führen und über Netzwerkverbindungen aktualisiert werden. Was ein Kind mit dem Gerät erlebt, hängt damit nicht mehr allein vom Hersteller ab, sondern auch vom Zustand des zugrunde liegenden Modells – eine Variable, die sich nach dem Kauf ändern kann.
Datenschutz und psychologische Wirkung ungeklärt
Zwei Risikobereiche stehen im Fokus von Sicherheitsforschern.
Erstens die Datenfrage: KI-Spielzeuge erfassen Audiodaten, teils auch visuelle Informationen, und übertragen diese auf externe Server. Welche Daten genau gespeichert, analysiert oder für das Training weiterer Modelle genutzt werden, ist für Eltern kaum nachvollziehbar.
Zweitens die psychologische Dimension: Kinder – insbesondere jüngere – neigen dazu, anthropomorphe Objekte als soziale Gegenüber zu behandeln. Welche langfristigen Auswirkungen intensive Interaktionen mit KI-Systemen auf soziale Entwicklung, Bindungsmuster oder das Weltbild von Kindern haben, ist wissenschaftlich noch nicht ausreichend untersucht.
Longitudinalstudien fehlen schlicht – die Technologie ist zu neu.
Hersteller in der Pflicht, Regulatoren im Rückstand
Einige Anbieter argumentieren, ihre Systeme seien durch Content-Filter und kuratierte Antwortmodelle kindgerecht eingeschränkt. Doch sogenannte Jailbreaks – also das Umgehen dieser Einschränkungen – sind auch bei kommerziellen Produkten dokumentiert worden. Zudem bieten nicht alle Hersteller transparente Informationen über verwendete Modelle, Cloud-Dienstleister oder Datenhaltung.
In der EU befindet sich die KI-Verordnung (AI Act) zwar bereits in der Umsetzungsphase, doch konkrete Anforderungen speziell für KI-Spielzeuge sind darin nicht explizit adressiert. Hochrisiko-Kategorien unter dem AI Act betreffen vor allem Bereiche wie Bildung, Personalwesen und kritische Infrastruktur – Spielzeuge fallen derzeit nicht darunter, selbst wenn sie täglich und intensiv von Kleinkindern genutzt werden.
Einordnung für deutsche Unternehmen
Für Unternehmen im deutschen Markt – ob Spielzeughersteller, Importeur oder Einzelhändler – ergeben sich daraus konkrete Haftungsrisiken. Die EU-Produkthaftungsrichtlinie, die 2024 aktualisiert wurde, erfasst ausdrücklich auch Softwarefehler als Produktmangel. KI-gestützte Spielzeuge, die unerwartetes Verhalten zeigen, könnten damit unter diese Regelung fallen.
Wer solche Produkte vertreibt, sollte:
- die technische Dokumentation der eingesetzten KI-Komponenten sorgfältig prüfen
- vertragliche Klarheit mit Lieferanten über Modellversionen und Update-Prozesse herstellen
- die Entwicklung des regulatorischen Rahmens aktiv beobachten
Dass der Gesetzgeber in diesem Bereich nachziehen wird, gilt als sicher – die Frage ist nur, wann.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”