Sprachfähige Puppen und lernende KI-Roboter stehen bereits in den Regalen – doch unabhängige Sicherheitsstudien fehlen weitgehend. Was das für Hersteller, Händler und Eltern bedeutet, ist regulatorisch noch kaum geklärt.
KI-Spielzeug auf dem Markt – ohne belastbare Sicherheitsnachweise
Sprachfähige Puppen, interaktive Roboter und lernende Spielgefährten mit KI-Integration sind bereits in Geschäften erhältlich – obwohl unabhängige Sicherheitsstudien zu diesen Produkten weitgehend fehlen. Für Hersteller und Händler entstehen dadurch erhebliche regulatorische und haftungsrechtliche Risiken.
Markt eilt der Regulierung voraus
KI-gestützte Spielzeuge gehören zur am schnellsten wachsenden Kategorie im Konsumgütersegment. Die Geräte können mit Kindern konversieren, auf emotionale Signale reagieren und personalisierte Inhalte generieren – Fähigkeiten, die klassische Spielzeugprüfnormen schlicht nicht abdecken. Bestehende Sicherheitsstandards, etwa in der EU, wurden für physische Risiken wie Kleinteile oder Stromschlaggefahr entwickelt, nicht für Large Language Models und dynamisch generierte Sprachinhalte.
Regulierungsbehörden in Europa und den USA haben zwar angekündigt, entsprechende Rahmenbedingungen zu erarbeiten, doch konkrete verbindliche Vorgaben fehlen bislang. Das Ergebnis:
Produkte kommen auf den Markt, ohne dass unabhängig überprüft wurde, ob die KI-Systeme im Umgang mit Kindern konsistent sicher reagieren.
Drei ungelöste Risikodimensionen
Experten identifizieren mehrere kritische Problemfelder:
1. Inhaltsmoderation
Large Language Models können auch nach aufwendigem Feintuning ungeeignete Inhalte generieren – ein Risiko, das bei Zielgruppen unter 14 Jahren besonders schwer wiegt.
2. Datenschutz
Viele Geräte übertragen Sprachdaten an externe Server zur Verarbeitung. Welche Daten wie lange gespeichert und ob Kinderstimmen für das Training weiterer Modelle genutzt werden, ist bei zahlreichen Produkten nicht transparent ausgewiesen.
3. Psychologische Wirkung
Wie sich anhaltende Interaktionen mit einem empathisch gestalteten KI-System auf die soziale Entwicklung von Kindern auswirken, ist wissenschaftlich nicht hinreichend untersucht.
Haftungsfragen sind ungeklärt
Für Hersteller entsteht eine rechtlich unkomfortable Situation. Tritt ein Schadensereignis ein – etwa weil ein KI-System einem Kind inadäquate Inhalte liefert oder Daten unzulässig verarbeitet – ist die Haftungszuordnung zwischen Gerätehersteller, KI-Modell-Anbieter und Plattformbetreiber juristisch weitgehend ungeklärt.
Der EU AI Act klassifiziert KI-Systeme, die mit Kindern interagieren, grundsätzlich als potenziell hochriskant – doch die konkreten Umsetzungsfristen und Prüfanforderungen für Konsumprodukte sind noch nicht final definiert.
Britische und amerikanische Verbraucherschutzorganisationen haben bereits begonnen, einzelne Produkte öffentlich zu testen und Bedenken zu publizieren. Das erzeugt Reputationsdruck, ersetzt jedoch keine systematische Regulierung.
Einordnung für deutsche Unternehmen
Für deutsche Spielzeughersteller und -händler sowie für Unternehmen, die KI-Komponenten in Verbraucherprodukte integrieren, ergibt sich Handlungsbedarf vor allem auf zwei Ebenen:
- Compliance-Prüfung: Interne Teams sollten jetzt analysieren, inwiefern geplante oder bereits vertriebene Produkte unter die Hochrisiko-Klassifizierung des AI Acts fallen könnten.
- Proaktive Dokumentation: Sicherheitstests und Datenschutzmaßnahmen sollten vollständig dokumentiert werden – unabhängig davon, ob dies gesetzlich bereits vorgeschrieben ist.
Behörden und Verbraucherschützer werden in diesem Segment zunehmend aktiv. Wer bei der ersten Regulierungswelle unvorbereitet ist, riskiert nicht nur Bußgelder, sondern auch erheblichen Reputationsschaden.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”