Sprachfähige Puppen, interaktive Roboter, lernende Begleiter: KI-gestützte Spielzeuge erobern den Massenmarkt – während Eltern, Regulierer und Wissenschaftler noch grundlegende Fragen zur Sicherheit dieser Produkte für Kinder offen lassen.
KI-Spielzeug auf dem Markt – ohne belastbare Sicherheitsnachweise
Die Lücke zwischen Marktdynamik und Regulierung wächst – und Kinder stehen mittendrin.
Produkte eilen der Forschung davon
Eltern, die heute KI-Spielzeug kaufen, erwerben Produkte, deren psychologische und soziale Auswirkungen auf Kinder noch kaum erforscht sind. Large Language Models bilden zunehmend das Herzstück solcher Spielzeuge – sie ermöglichen freie Konversation, passen Antworten an das Kind an und simulieren emotionale Reaktionen.
Genau diese Eigenschaften machen sie attraktiv für den Markt, erzeugen aber gleichzeitig spezifische Risiken, die über klassische Spielzeugsicherheit wie das Verschlucken von Kleinteilen weit hinausgehen.
Kritische Fragen bleiben ungeklärt:
- Wie beeinflusst die regelmäßige Interaktion mit einem KI-System die soziale Entwicklung von Kleinkindern?
- Welche Auswirkungen hat es, wenn Kinder parasoziale Bindungen zu KI-Figuren aufbauen?
- Was geschieht mit Sprachdaten und persönlichen Informationen, die diese Geräte zwangsläufig erfassen?
Regulierungsrahmen hinkt hinterher
Bestehende Spielzeugsicherheitsnormen wurden für eine Welt ohne generative KI entworfen. Physische Sicherheitsprüfungen – Langlebigkeit, Materialien, elektrische Sicherheit – greifen für algorithmische Systeme nicht.
In der Europäischen Union ist der AI Act zwar in Kraft, doch seine Anwendung auf Konsumprodukte für Kinder bleibt in weiten Teilen unklar.
Die Toy Safety Directive, die gerade überarbeitet wird, adressiert KI-spezifische Risiken bislang nur rudimentär. Hersteller bewegen sich damit in einer regulatorischen Grauzone: Wer heute ein KI-Spielzeug auf den europäischen Markt bringt, muss keine spezifischen Nachweise zu algorithmischen Risiken erbringen. Das schafft Anreize für schnelle Markteinführungen – verlagert das Haftungsrisiko aber auf die Zukunft.
Datenschutz als unmittelbares Risiko
Ein konkretes und bereits geltend gemachtes Problem ist der Datenschutz. Spielzeuge, die aktiv zuhören und Konversationen verarbeiten, generieren Daten über Minderjährige – eine Kategorie, die unter der DSGVO besonderem Schutz unterliegt.
Mehrere Produkte wurden in der Vergangenheit vom Markt genommen oder von Behörden gerügt, nachdem Datenschutzverstöße festgestellt wurden.
Die nun folgende Generation von KI-Spielzeugen ist technisch deutlich komplexer, was Audits erheblich aufwendiger macht. Verbraucherschützer fordern:
- Verpflichtende Datenschutz-Folgenabschätzungen vor der Markteinführung
- Transparenzpflichten darüber, welche Daten zu welchem Zweck verarbeitet werden – auch wenn das Kind lediglich mit einer Puppe spricht
Einordnung für deutsche Hersteller und Händler
Für deutsche Unternehmen, die KI-Spielzeug herstellen, vertreiben oder in ihre Produktpalette integrieren wollen, ergibt sich daraus ein klares Handlungsfeld. Die Kombination aus DSGVO, dem schrittweise greifenden AI Act und einer in Überarbeitung befindlichen Toy Safety Directive schafft ein sich dynamisch veränderndes Pflichtenfeld.
Wer jetzt auf freiwillige Sicherheitsnachweise, unabhängige algorithmische Audits und dokumentierte Datenschutzkonzepte setzt, verschafft sich nicht nur regulatorische Rechtssicherheit – sondern auch einen Wettbewerbsvorteil in einem Segment, in dem das Vertrauen der Eltern zur entscheidenden Kaufentscheidung wird.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”