KI-Spielzeug auf dem Vormarsch: Sicherheitsfragen bleiben ungeklärt

Sprachgesteuerte Kuscheltiere, Lernroboter, KI-Companions – der Markt für intelligentes Kinderspielzeug boomt. Doch während Hersteller ihre Produkte in die Regale bringen, fehlen unabhängige Sicherheitsstudien, verbindliche Standards und eine zuständige Aufsichtsbehörde. Kinder werden so zu unfreiwilligen Testpersonen eines unregulierten Experiments.

KI-Spielzeug auf dem Vormarsch – Sicherheitsfragen ungeklärt

Der Markt für KI-gestützte Kinderspielzeuge wächst, obwohl belastbare Erkenntnisse über mögliche Risiken für Kinder weitgehend fehlen. Hersteller bringen Produkte auf den Markt, bevor unabhängige Forschung oder verbindliche Standards existieren – ein Muster, das Regulierungsbehörden und Verbraucherschützer zunehmend besorgt.


Produkte vor Standards

Sprachgesteuerte Kuscheltiere, interaktive Lernroboter und KI-Companions für Kinder sind längst keine Nischenprodukte mehr. Sie werden von Eltern als Lernhilfe oder digitale Spielgefährten gekauft – oft ohne dass transparente Informationen darüber vorliegen, welche Daten die Geräte erheben, wie die zugrundeliegenden Large Language Models trainiert wurden oder welche Inhalte sie im Dialog mit Kindern produzieren können.

Standardisierte Tests, wie sie etwa für die elektrische Sicherheit von Spielzeug verpflichtend sind, existieren für KI-Funktionalitäten bislang nicht.


Drei Problemfelder

Experten identifizieren vor allem drei Risikobereiche:

1. Datensicherheit
KI-Spielzeuge sind in der Regel mit dem Internet verbunden und übertragen Sprach- oder Verhaltensdaten an Server der Hersteller. Wer diese Daten auswertet, wie lange sie gespeichert werden und ob sie an Dritte weitergegeben werden, bleibt oft unklar.

2. Inhaltliche Kontrolle
Large Language Models können unvorhersehbare Antworten generieren. Ohne robuste Filterung besteht das Risiko, dass Kinder mit ungeeigneten Inhalten konfrontiert werden – auch wenn die Hersteller solche Szenarien durch systemseitige Einschränkungen zu verhindern versuchen.

3. Emotionale Dimension
Kinder neigen dazu, parasoziale Beziehungen zu KI-Charakteren aufzubauen. Welche langfristigen Auswirkungen das auf soziale Kompetenz und emotionale Entwicklung hat, ist wissenschaftlich kaum untersucht.


Regulierungslücke in Europa

In der Europäischen Union gelten für Spielzeug die Anforderungen der Spielzeugrichtlinie sowie, bei Datenverarbeitung von Minderjährigen, die DSGVO. Allerdings sind diese Regelwerke nicht auf KI-spezifische Risiken ausgerichtet.

Der EU AI Act, der seit 2024 schrittweise in Kraft tritt, stuft KI-Systeme, die gezielt mit Kindern interagieren, grundsätzlich als hochriskant ein – doch die konkreten Anforderungen und Konformitätsprüfungen für Konsumgüter sind noch nicht vollständig ausgearbeitet.

Eine Marktaufsichtsbehörde, die systematisch KI-Spielzeug testet, gibt es bislang nicht.


Hersteller in der Pflicht

Einzelne Anbieter kommunizieren freiwillig Informationen zu Datenschutz und Content-Moderation, ein verbindliches Disclosure-Format existiert jedoch nicht. Verbraucherschutzorganisationen fordern:

  • Mindeststandards für Transparenz
  • Unabhängige Audits der eingesetzten Modelle
  • Verpflichtende Altersbewertung für KI-Funktionen analog zur Unterhaltungssoftware-Klassifikation

Einordnung für den deutschen Markt

Für Unternehmen, die KI-gestützte Produkte für Kinder entwickeln oder vertreiben, ergibt sich daraus ein klarer Handlungsdruck: Die regulatorische Unsicherheit ist temporär – verbindliche Anforderungen unter dem AI Act werden absehbar schärfer.

Hersteller, die jetzt auf freiwillige Transparenz und nachvollziehbare Sicherheitsarchitekturen setzen, reduzieren ihr Haftungsrisiko und verschaffen sich einen Vorsprung gegenüber Wettbewerbern, die auf weitere Regulierungsverzögerungen spekulieren.

Händler sollten zudem prüfen, ob die von ihnen vertriebenen Importprodukte – insbesondere aus dem asiatischen Markt – den DSGVO-Anforderungen für Minderjährigendaten tatsächlich entsprechen.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top