Sprachfähige Puppen, lernende Roboter und emotionale KI-Begleiter stehen in den Regalen – doch belastbare Studien zu ihren Auswirkungen auf Kinder fehlen fast vollständig. Ein wachsendes Regulierungsvakuum bedroht Verbraucher und Hersteller gleichermaßen.
KI-Spielzeug auf dem Markt – ohne gesicherte Sicherheitsnachweise
Sprachfähige Puppen, interaktive Roboter und lernende Spielkompanionen mit KI-Funktionen sind längst im Handel erhältlich – obwohl verlässliche Sicherheitsstudien zu den Auswirkungen auf Kinder weitgehend fehlen. Regulierungsbehörden und Verbraucherschützer warnen vor einer wachsenden Lücke zwischen Marktverfügbarkeit und rechtlicher sowie wissenschaftlicher Absicherung.
Markt eilt der Regulierung voraus
KI-gestützte Spielzeuge kommunizieren mit Kindern, lernen aus Interaktionen und können individuelle Beziehungen aufbauen. Die technologische Entwicklung in diesem Segment verläuft deutlich schneller als die Arbeit von Regulierungsbehörden.
Bestehende Produktsicherheitsgesetze wurden konzipiert, bevor Large Language Models oder kontextadaptive KI-Systeme in Konsumgütern Einzug hielten.
Die europäische Spielzeugrichtlinie prüft physische Risiken wie Schadstoffe oder Erstickungsgefahren – nicht aber die psychologischen Effekte dauerhafter KI-Interaktion auf Kinder unterschiedlicher Altersgruppen.
Fehlende Datenbasis bei psychologischen Risiken
Forschende betonen, dass kaum belastbare Langzeitstudien vorliegen, die untersuchen, wie sich regelmäßige Gespräche mit einer KI-Figur auf die soziale Entwicklung, emotionale Bindung oder das Medienkompetenz-Verständnis von Kindern auswirken.
Besonders kritisch wird gesehen, dass einige Produkte bewusst auf emotionale Nähe ausgelegt sind – Spielzeuge, die auf Namen hören, Vorlieben speichern und scheinbar persönliche Beziehungen aufbauen.
Ob und wie das die Erwartungshaltung gegenüber menschlichen Beziehungen beeinflusst, ist wissenschaftlich nicht geklärt.
Datenschutz als zusätzliche Problemdimension
Neben den psychologischen Fragen stehen KI-Spielzeuge unter erheblichem Datenschutzdruck. Viele Geräte übertragen Sprachdaten an externe Server, um KI-Antworten zu generieren. Unter der DSGVO und der speziell auf Minderjährige ausgerichteten europäischen Rechtsprechung ergeben sich daraus erhebliche Compliance-Risiken für Hersteller.
Mehrere europäische Datenschutzbehörden haben bereits KI-Produkte für Kinder genauer unter die Lupe genommen. Der EU AI Act klassifiziert Systeme, die gezielt mit Minderjährigen interagieren, als potenziell hochriskant – die konkreten Durchführungsbestimmungen für Spielzeuge sind jedoch noch nicht vollständig ausgearbeitet.
Hersteller in der Pflicht – auch ohne klare Vorgaben
Der Mangel an spezifischer Regulierung entbindet Hersteller rechtlich nicht von Verantwortung. Produkthaftungsrecht und allgemeine Sicherheitspflichten gelten weiterhin.
Einige Unternehmen veröffentlichen freiwillig Transparenzberichte über die eingesetzten Modelle und Datenpraktiken – der Großteil des Marktes agiert jedoch ohne vergleichbare Standards. Verbraucherschutzorganisationen fordern verbindliche Zertifizierungsverfahren, die explizit auf KI-Interaktionssysteme für Kinder zugeschnitten sind.
Einordnung für deutsche Unternehmen
Für deutsche Hersteller und Händler von KI-fähigem Spielzeug entsteht eine komplexe Risikolage:
- Der EU AI Act wird schrittweise wirksam, spezifische Anforderungen für interaktive Kinderprodukte konkretisieren sich gerade erst.
- Unternehmen, die frühzeitig in robuste Datenschutzkonzepte, transparente KI-Dokumentation und unabhängige Sicherheitsbewertungen investieren, dürften regulatorisch besser aufgestellt sein als Wettbewerber, die auf finale Gesetzgebung warten.
- Händler sollten zudem prüfen, welche Sorgfaltspflichten sie gegenüber Lieferanten aus Drittstaaten haben, bei denen europäische Standards nicht selbstverständlich eingehalten werden.
Wer jetzt handelt, sichert sich einen Vorsprung – wer wartet, riskiert regulatorischen Gegenwind.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”