KI-Spielzeug auf dem Markt: Sicherheitsfragen bleiben ungeklärt

Sprachfähige Puppen, lernende Roboter, vernetzte Gesprächspartner – KI-gestützte Spielzeuge für Kinder sind bereits im Handel, während Regulierungsbehörden und Wissenschaft dem Markt weit hinterherhinken. Die offenen Fragen betreffen nicht nur Datenschutz, sondern auch psychologische Entwicklung und Informationssicherheit.

KI-Spielzeug auf dem Markt – Sicherheitsfragen ungeklärt

KI-gestützte Spielzeuge für Kinder sind längst im Handel erhältlich, obwohl belastbare Erkenntnisse über ihre Sicherheit weitgehend fehlen. Regulierungsbehörden in Europa und den USA hinken der rasanten Marktentwicklung hinterher – mit potenziell ernsthaften Konsequenzen für den Verbraucherschutz.


Produkte vor Regeln

Sprachfähige Puppen, interaktive Roboter und vernetzte Lernassistenten mit Large Language Models im Kern sind in den Regalen des Fachhandels und auf Online-Plattformen präsent. Hersteller werben mit personalisierten Lerneffekten und emotionaler Bindung. Was dabei fehlt, sind unabhängige Studien, die belegen, ob diese Systeme für Kinder in unterschiedlichen Altersstufen tatsächlich geeignet sind – psychologisch, datenschutzrechtlich und im Hinblick auf mögliche Fehlinformationen durch halluzinierende Sprachmodelle.

Das Problem ist struktureller Natur: Produktsicherheitsgesetze wurden für mechanisches Spielzeug konzipiert – nicht für Systeme, die mit Kindern sprechen, lernen und deren Verhalten potenziell beeinflussen.

Ob eine Kante scharf ist oder ein Kleinteil verschluckt werden kann, lässt sich standardisiert prüfen. Ob ein Large Language Model einem Siebenjährigen gegenüber angemessen reagiert, ist eine deutlich komplexere Frage – eine, für die es bislang keine verbindlichen Testverfahren gibt.


Datenschutz als greifbarstes Risiko

Ein zentrales, bereits regulatorisch erfasstes Problem ist der Umgang mit Kinderdaten. Spielzeuge, die kontinuierlich Sprachaufnahmen verarbeiten und an Server übertragen, unterliegen in der EU der Datenschutz-Grundverordnung (DSGVO) sowie dem Children’s Code, der in Großbritannien gilt. Die Praxis zeigt jedoch, dass Durchsetzung und tatsächliche Compliance auseinanderfallen.

Mehrere Produktrückrufe in den vergangenen Jahren – darunter der Fall der vernetzten Puppe „My Friend Cayla” – haben gezeigt, dass Marktaufsichtsbehörden oft erst dann reagieren, wenn Probleme öffentlich eskalieren.

Mit dem KI-Act der Europäischen Union tritt ein Regelwerk in Kraft, das KI-Systeme nach Risikoklassen einstuft. Spielzeuge, die mit Kindern interagieren und deren Verhalten beeinflussen könnten, dürften grundsätzlich als höheres Risiko eingestuft werden. Die konkrete Umsetzung – welche Anforderungen gelten, wer prüft, wie Konformität nachgewiesen wird – ist jedoch noch nicht vollständig ausgearbeitet.


Fehlende Forschungsgrundlage

Über die Rechtsfragen hinaus besteht ein fundamentales Erkenntnisdefizit. Es gibt kaum longitudinale Studien dazu, wie Kinder langfristig auf KI-Interaktionspartner reagieren. Fragen nach sozialer Entwicklung, Realitätswahrnehmung oder dem Umgang mit falschen Informationen aus dem Mund eines scheinbar verlässlichen „Spielkamerads” sind wissenschaftlich nicht befriedigend beantwortet.

Hersteller sind derzeit nicht verpflichtet, solche Erkenntnisse vorzulegen, bevor ein Produkt auf den Markt kommt.


Einordnung für deutsche Unternehmen

Für Unternehmen, die KI-gestützte Produkte für Endverbraucher – insbesondere für Kinder – entwickeln oder vertreiben, ergibt sich daraus eine doppelte Herausforderung:

  • Kurzfristig schafft der regulatorische Graubereich Spielraum
  • Mittelfristig wächst das Haftungsrisiko, sobald der KI-Act vollständig greift und Behörden aktiv zu prüfen beginnen

Wer heute auf proaktive Transparenz, dokumentierte Sicherheitsprüfungen und DSGVO-konforme Datenarchitektur setzt, positioniert sich besser für das kommende Regulierungsumfeld – und vermeidet das Reputationsrisiko eines öffentlichkeitswirksamen Rückrufs.


Quelle: New Scientist Tech

Scroll to Top