Intelligente Puppen, sprachgesteuerte Lernroboter und KI-Assistenten für Kinder sind längst im Handel – doch einheitliche Sicherheitsstandards für diese neue Produktkategorie existieren bislang nicht. Regulierungsbehörden weltweit hinken der Marktentwicklung deutlich hinterher.
KI-Spielzeug auf dem Markt – Sicherheitsstandards fehlen noch
Produkte vor Regeln
KI-gestützte Spielzeuge gehören mittlerweile zum Standardsortiment großer Spielzeugmessen. Intelligente Puppen, interaktive Roboter und sprachgesteuerte Lernassistenten mit eingebetteten Large Language Models können mit Kindern konversieren, auf Fragen antworten und sich an frühere Gespräche erinnern – Funktionen, die traditionelle Spielzeugprüfungen schlicht nicht abdecken.
Bestehende Produktsicherheitsrichtlinien prüfen mechanische Stabilität, Schadstofffreiheit und elektrische Sicherheit. Was ein KI-System einem Kind sagt, wie es auf emotionale Aussagen reagiert oder welche Daten es speichert, fällt durch dieses Prüfraster.
Fehlende Kriterien für KI-Verhalten
Das Kernproblem liegt in der Natur generativer Systeme:
Selbst intensiv getestete Modelle können in unerwarteten Gesprächssituationen unangemessene, fehlerhafte oder potenziell schädliche Antworten produzieren.
Für Erwachsene ist das eine bekannte Einschränkung. Für Kinder, die Autoritäten tendenziell stärker vertrauen und Grenzen zwischen Realität und Fiktion anders wahrnehmen, stellen sich jedoch grundlegend andere Fragen.
Bislang gibt es keine standardisierten Methoden, um KI-Spielzeug systematisch auf kindgerechtes Verhalten zu prüfen. Hersteller setzen auf interne Tests und freiwillige Selbstverpflichtungen – ohne dass externe Prüforganisationen einheitliche Maßstäbe anlegen könnten.
Datenschutz als zusätzliche Dimension
Neben dem inhaltlichen Risiko steht die Datenfrage: KI-Spielzeuge nehmen Spracheingaben auf, verarbeiten diese häufig in der Cloud und speichern Gesprächshistorien. In der EU greift grundsätzlich die DSGVO, die für Daten Minderjähriger besondere Schutzanforderungen vorsieht.
Die praktische Umsetzung – welche Daten konkret gespeichert werden, wo die Verarbeitung stattfindet, wie Einwilligungen von Eltern rechtssicher eingeholt werden – variiert jedoch stark zwischen Anbietern. Aufsichtsbehörden haben einzelne Produkte bereits unter die Lupe genommen; ein systematisches Prüfregime fehlt auch hier.
Regulierung im Aufholmodus
In der EU laufen parallele Gesetzgebungsprozesse, die mittelbar auf KI-Spielzeuge anwendbar sein könnten:
- AI Act – Risikobasierter Rahmen für KI-Systeme
- General Product Safety Regulation (GPSR) – Überarbeitete Produktsicherheitspflichten
- Spielzeugrichtlinie – Derzeit noch in der Überarbeitung
Wie diese Regelwerke im Zusammenspiel auf KI-gestützte Verbraucherprodukte für Kinder angewendet werden, ist noch nicht abschließend geklärt.
In den USA arbeiten mehrere Bundesbehörden an Richtlinien, ohne dass bislang verbindliche Standards verabschiedet wurden.
Einordnung für den deutschen Markt
Für Unternehmen, die KI-Spielzeuge entwickeln, vertreiben oder im Bereich EdTech tätig sind, ergibt sich eine klare strategische Konsequenz: Die regulatorische Lage wird sich in den nächsten zwei bis drei Jahren erheblich verändern.
Wer heute Produkte auf den Markt bringt, sollte Compliance-Architekturen so gestalten, dass sie nachrüstbar sind – sowohl technisch als auch datenschutzrechtlich. Händler und Importeure tragen nach der GPSR zudem eine eigene Sorgfaltspflicht und können sich bei Schadensfällen nicht allein auf Herstellerangaben berufen.
Der Aufbau interner Prüfprozesse für KI-Verhaltenstests – noch bevor externe Standards existieren – dürfte sich als Wettbewerbsvorteil erweisen, sobald Zertifizierungspflichten kommen.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”