KI-Spielzeug auf dem Vormarsch: Regulierung hinkt hinterher

Sprachfähige Puppen, lernende Roboter, interaktive Plüschtiere: KI-gestützte Spielzeuge stehen längst in den Regalen des Einzelhandels – doch belastbare Sicherheitsnachweise fehlen weitgehend, und bestehende Regelwerke greifen in vielen Fällen schlicht nicht.

KI-Spielzeug auf dem Vormarsch – Regulierung hinkt hinterher

Produkte kommen vor dem Prüfrahmen

Der Markt für KI-Spielzeug wächst rasant. Hersteller bringen Produkte auf den Markt, die mithilfe von Large Language Models mit Kindern interagieren, deren Spracheingaben verarbeiten und personalisierte Antworten generieren. Was in der Produktbeschreibung nach pädagogischem Mehrwert klingt, stellt Behörden und Verbraucherschützer vor ein strukturelles Problem:

Die geltenden Produktsicherheitsstandards wurden entwickelt, bevor solche Systeme überhaupt existierten.

Klassische Spielzeugsicherheitsprüfungen erfassen physische Risiken – Schadstoffe, Strangulationsgefahr, Brandschutz. Ob ein KI-System altersgerechte Inhalte liefert, keine manipulativen Gesprächsmuster entwickelt oder sensible Kinderdaten nicht unkontrolliert weiterverarbeitet, lässt sich mit diesen Prüfverfahren nicht feststellen. Eine standardisierte Methodik zur Bewertung von KI-Verhalten in Konsumgütern existiert derzeit nicht.


Datenschutz als unmittelbares Risiko

Besonders heikel ist die Datenverarbeitung. KI-Spielzeuge, die dauerhaft auf Sprachbefehle reagieren, müssen Audiodaten verarbeiten – oft über Cloud-Server der Hersteller. In mehreren dokumentierten Fällen wurden dabei Kinderstimmen ohne ausreichende Einwilligung gespeichert oder an Dritte übermittelt.

Die DSGVO bietet hier theoretisch Schutz – die Durchsetzung gegenüber Herstellern außerhalb der EU gestaltet sich in der Praxis jedoch erheblich schwierig.

In der EU gilt seit 2024 der Cyber Resilience Act für vernetzte Geräte, und der AI Act tritt schrittweise in Kraft. Für Produkte, die speziell für Kinder entwickelt werden, gelten dabei erhöhte Anforderungen. Die konkrete Umsetzung und Marktüberwachung sind allerdings noch nicht vollständig operationalisiert.


Verhalten von KI lässt sich nicht standardisiert bewerten

Ein grundlegendes Problem liegt in der Natur von Large Language Models: Ihr Verhalten ist nicht vollständig vorhersehbar. Selbst wenn ein Hersteller ein Modell auf kindgerechte Kommunikation trainiert, lassen sich Grenzfälle nicht ausschließen.

Offen bleibende Kernfragen:
– Wie reagiert das System auf Fragen zu Gewalt, Tod oder Sexualität?
– Welche emotionalen Bindungsmuster entstehen bei Langzeitnutzung?
– Wer haftet bei schadhaftem Modellverhalten nach einem Update?

Antworten setzen standardisierte Testprotokolle voraus, die bislang nicht existieren. Kinderschutzorganisationen und Verbraucherschutzverbände fordern deshalb eine verpflichtende Konformitätsbewertung für KI-Komponenten in Spielzeug – analog zur CE-Kennzeichnung für physische Produkteigenschaften. Die Europäische Kommission hat das Thema auf der Agenda, konkrete Vorgaben lassen jedoch auf sich warten.


Einordnung für den deutschen Markt

Für Händler und Importeure in Deutschland bedeutet die aktuelle Rechtslage erhöhte Sorgfaltspflichten. Wer KI-gestützte Spielzeuge vertreibt, trägt Mitverantwortung für die Produktsicherheit und kann bei DSGVO-Verstößen haftbar gemacht werden – auch wenn der Hersteller seinen Sitz außerhalb der EU hat.

Einkäufer und Compliance-Verantwortliche sollten von Herstellern aktiv Transparenz über Datenverarbeitung, Modellverhalten und Updateprozesse einfordern.

Die kommenden Monate dürften erste konkretere Leitlinien aus Brüssel bringen – bis dahin gilt: erhöhte Prüfpflicht auf eigene Rechnung.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top