KI-gestützte Spielzeuge auf dem Markt: Sicherheitsnachweise fehlen weitgehend

Intelligente Puppen, lernende Roboter, gesprächsfähige Companions – KI-Spielzeuge sind längst im Handel. Was fehlt: belastbare Nachweise darüber, ob sie für Kinder sicher sind. Eine Regulierungslücke mit Folgen für Eltern, Händler und die gesamte Branche.

KI-gestützte Spielzeuge auf dem Markt – Sicherheitsnachweise fehlen weitgehend

Spielzeuge mit integrierten Large Language Models sind bereits im Handel erhältlich, obwohl belastbare Studien zu ihren Auswirkungen auf Kinder bislang kaum existieren. Regulierungsbehörden und Verbraucherschutzorganisationen warnen vor einer wachsenden Lücke zwischen technischer Markteinführung und rechtlicher Absicherung.


Produkte vor der Forschung

Sprachfähige KI-Puppen, interaktive Lernroboter und Spielzeug-Companions, die auf Kinderfragen mit generierten Antworten reagieren – solche Produkte haben in den vergangenen Monaten in Europa und den USA Eingang in den Einzelhandel gefunden. Hersteller versprechen pädagogischen Mehrwert und individuelle Lernerfahrungen.

Unabhängige Langzeitstudien, die belegen würden, dass diese Interaktionsformen für Kinder unterschiedlicher Altersgruppen unbedenklich sind, liegen nach aktuellem Stand kaum vor.

Besonders kritisch sehen Experten die Frage, wie Large Language Models auf sensible oder unerwartete Eingaben von Kindern reagieren. Anders als statische Software können solche Systeme kontextabhängig variieren – mit schwer vorhersehbaren Ausgaben.


Datenschutz als zentrales Problem

Neben inhaltlichen Bedenken rückt der Datenschutz in den Vordergrund. KI-Spielzeuge müssen Spracheingaben verarbeiten, häufig in Echtzeit und über Cloud-Verbindungen. Damit entstehen Datenströme von minderjährigen Nutzern, die unter der EU-Datenschutzgrundverordnung (DSGVO) besonders strengen Anforderungen unterliegen.

Ob alle Hersteller – insbesondere solche aus Drittstaaten – diese Anforderungen konsequent erfüllen, ist aus Sicht von Verbraucherschützern fraglich.

Die britische Verbraucherschutzorganisation Which? sowie mehrere europäische Behörden haben in jüngster Vergangenheit Bedenken geäußert und einzelne Produkte unter die Lupe genommen. Konkrete behördliche Maßnahmen stehen in den meisten Fällen jedoch noch aus.


Regulatorischer Rahmen hinkt hinterher

Der EU AI Act, der stufenweise in Kraft tritt, stuft KI-Systeme für die Interaktion mit Kindern grundsätzlich als risikobehaftet ein. Die entsprechenden Anforderungen – darunter Transparenzpflichten und Konformitätsbewertungen – greifen für viele Produktkategorien jedoch erst ab 2026 vollständig.

In der Zwischenzeit können Hersteller Produkte weitgehend ohne spezifischen KI-Sicherheitsnachweis vermarkten, solange bestehende Produktsicherheits- und Spielzeugrichtlinien formal erfüllt sind.

Kritiker argumentieren, dass diese Richtlinien für mechanische oder elektronische Spielzeuge konzipiert wurden – und die spezifischen Risiken adaptiver, gesprächsfähiger KI-Systeme schlicht nicht abbilden.


Fehlende Standards als Marktrisiko

Für Händler und Importeure entsteht daraus eine rechtlich unübersichtliche Situation. Produkte, die heute problemlos in den Verkehr gebracht werden, könnten künftig strengeren Nachweispflichten unterliegen oder bei Behördenprüfungen auffällig werden. Investitionen in KI-Spielzeug-Sortimente tragen damit ein regulatorisches Risiko, das sich derzeit nur schwer kalkulieren lässt.

Für deutsche Unternehmen – ob Hersteller, Importeur oder Händler – empfiehlt sich eine frühzeitige Auseinandersetzung mit den kommenden AI-Act-Anforderungen sowie eine sorgfältige Prüfung der Datenschutzkonformität von Drittanbieter-Produkten.

Wer jetzt in Vorleistung geht und Sicherheitsnachweise proaktiv einfordert, dürfte beim Inkrafttreten schärferer Vorschriften einen klaren Wettbewerbsvorteil haben.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top