KI-gestützte Spielzeuge sprechen mit Kindern, merken sich Gespräche und bauen Beziehungen auf – während Sicherheitsstandards und unabhängige Forschung weit hinter der Marktentwicklung zurückbleiben.
KI-Spielzeug für Kinder: Markt wächst schnell – Sicherheitsstandards hinken hinterher
KI-gestützte Spielzeuge sind längst im Einzelhandel angekommen, obwohl belastbare Erkenntnisse zu ihren Auswirkungen auf Kinder weitgehend fehlen. Hersteller bringen Produkte auf den Markt, die mit Kindern sprechen, auf deren Fragen antworten und sich an frühere Gespräche erinnern – ohne dass regulatorische Rahmenbedingungen mit dieser Entwicklung Schritt halten konnten.
Vom Konzept zum Massenprodukt
Interaktive Spielzeuge mit eingebetteter KI-Funktionalität sind keine Nischenprodukte mehr. Puppen, Roboter und plüschige Begleiter, die Large Language Models nutzen, um natürlichsprachliche Gespräche zu führen, stehen in den Regalen großer Handelsketten. Manche Geräte speichern Gespräche, passen ihre Antworten an das individuelle Kind an und bauen über Wochen eine Art Beziehungsdynamik auf. Die Nachfrage wächst, insbesondere in den USA und in Teilen Westeuropas.
Was die Forschung (noch nicht) weiß
Das zentrale Problem: Unabhängige Langzeitstudien zu den psychologischen, sozialen oder datenschutzrechtlichen Auswirkungen solcher Produkte existieren kaum. Kinderpsychologen und Datenschützer weisen darauf hin, dass die ständige Verfügbarkeit eines KI-Gesprächspartners die soziale Entwicklung beeinflussen könnte – ob positiv oder negativ, ist bisher nicht belegt.
Besonders unklar ist, wie Kinder unterschiedlichen Alters die Grenze zwischen einem KI-System und einem echten Gegenüber wahrnehmen und verarbeiten.
Hinzu kommt die Frage der Datenspeicherung: Viele dieser Geräte übertragen Sprachaufnahmen von Kindern an Cloud-Server. Welche Daten wie lange gespeichert, analysiert oder für das Training von KI-Modellen verwendet werden, ist für Eltern selten transparent nachvollziehbar.
Regulatorischer Rückstand
Bestehende Spielzeugrichtlinien – etwa die europäische Spielzeugrichtlinie oder der US-amerikanische Children’s Online Privacy Protection Act (COPPA) – wurden nicht für KI-fähige Geräte konzipiert. Die Behörden arbeiten an Anpassungen, doch bis neue Regelwerke in Kraft treten, können Hersteller Produkte ohne spezifische KI-Sicherheitsanforderungen vermarkten.
In der EU bietet der AI Act zwar einen übergeordneten Rahmen – konkrete Produktkategorien für Kinderspielzeug sind darin bislang jedoch nicht präzise adressiert.
Verbraucherschutzorganisationen in mehreren Ländern fordern verbindliche Transparenzpflichten: Eltern sollen klar erkennen können, welche Daten erhoben werden, wie die KI-Antworten gefiltert werden und ob das Gerät externe Dienste von Drittanbietern nutzt.
Hersteller unter Druck
Einzelne Anbieter reagieren auf den wachsenden öffentlichen Druck und betonen in ihrer Kommunikation Datensparsamkeit und On-Device-Processing – also die lokale Verarbeitung ohne Cloud-Anbindung. Ob diese Versprechen der technischen Realität entsprechen, lässt sich von außen jedoch kaum überprüfen. Unabhängige Zertifizierungen oder Audits gibt es in diesem Produktsegment bislang nicht.
Einordnung für den deutschen Markt
Für deutsche Unternehmen – ob als Händler, Importeure oder Hersteller – ergibt sich daraus konkreter Handlungsbedarf:
- Wer KI-Spielzeug vertreibt, sollte die Datenverarbeitungspraktiken der Hersteller sorgfältig prüfen und DSGVO-konforme Prozesse sicherstellen, da Kinderdaten besonders schutzwürdig sind.
- Angesichts der absehbaren regulatorischen Nachschärfungen auf EU-Ebene empfiehlt sich eine proaktive Haltung: Produkte, die heute auf Datensparsamkeit und Transparenz setzen, dürften morgen weniger Anpassungsbedarf haben.
Der Markt wird weiter wachsen – die Frage ist, welche Hersteller und Händler dann noch regelkonform aufgestellt sind.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”