KI-gestützte Spielzeuge erobern Kinderzimmer – doch hinter bunten Gehäusen und freundlichen Stimmen verbergen sich ungeklärte Fragen zu Datenschutz, Inhaltssicherheit und regulatorischer Kontrolle, die Eltern, Händler und Gesetzgeber gleichermaßen herausfordern.
KI-gestützte Spielzeuge auf dem Vormarsch – Sicherheitsstandards hinken hinterher
Der Markt für KI-gestützte Spielzeuge wächst rasant, während regulatorische Rahmenbedingungen und unabhängige Sicherheitsnachweise weitgehend fehlen. Produkte, die mit Large Language Models ausgestattet sind und mit Kindern interagieren, sind längst im Handel erhältlich – belastbare Erkenntnisse über potenzielle Risiken jedoch kaum vorhanden.
Wachsender Markt, ungeklärte Risiken
Interaktive Puppen, Lernroboter und sprachgesteuerte Spielgefährten, die auf KI-Basis auf Kinderfragen reagieren, Geschichten erzählen oder Aufgaben erklären – das Segment boomt. Hersteller vermarkten diese Produkte als pädagogisch wertvoll und kindgerecht.
Eine systematische, unabhängige Überprüfung, ob die eingesetzten KI-Systeme tatsächlich sicher für Minderjährige sind, fehlt jedoch in der Breite.
Weder die Reaktionen auf unerwartete Eingaben noch der Umgang mit sensiblen Kinderdaten sind einheitlich geregelt oder transparent dokumentiert.
Datenschutz als zentrales Problem
Viele dieser Geräte sind dauerhaft mit dem Internet verbunden und übertragen Sprachdaten in die Cloud, wo sie verarbeitet werden. Welche Daten gespeichert, weitergegeben oder für das Training von KI-Modellen genutzt werden, ist für Eltern in den meisten Fällen kaum nachvollziehbar.
Datenschutzbehörden in mehreren Ländern haben solche Produkte bereits kritisch bewertet. Bekannt ist der Fall der Puppe „My Friend Cayla”, die 2017 in Deutschland verboten wurde. Neuere KI-Spielzeuge agieren technisch deutlich ausgefeilter – ohne dass die Regulatorik vergleichbar Schritt gehalten hätte.
Inhaltliche Kontrolle kaum gewährleistet
Ein weiterer Kritikpunkt betrifft die inhaltliche Zuverlässigkeit der KI-Ausgaben. Large Language Models können fehlerhafte, unangemessene oder kontextuell unpassende Antworten generieren – ein bekanntes Problem, das in der Kommunikation mit Kindern besonderes Gewicht hat.
Anders als bei klassischen Kinderprogrammen oder Lernmaterialien, die redaktionell geprüft werden, entstehen die Antworten dieser Systeme dynamisch – eine vollständige Vorabprüfung ist technisch nicht möglich.
Verlässliche Filter, die speziell auf die Interaktion mit Kindern ausgelegt sind, gehören nicht bei allen Produkten zum Standard.
Regulierung in der Entwicklungsphase
Der EU AI Act klassifiziert KI-Systeme, die speziell auf vulnerable Gruppen wie Kinder ausgerichtet sind, als hochriskant und sieht entsprechende Anforderungen vor. Allerdings greifen viele Verpflichtungen erst schrittweise – die vollständige Anwendbarkeit liegt für die meisten Hochrisiko-Systeme noch vor der Tür.
Bis dahin liegt die Verantwortung faktisch bei den Herstellern selbst, deren Eigeninteresse an schnellem Marktzugang mit dem Bedarf an gründlicher Sicherheitsprüfung kollidiert.
Einordnung für Unternehmen im deutschsprachigen Markt
Für Unternehmen, die im Bereich EdTech, Spielzeughandel oder Kinderprodukte tätig sind, ergibt sich daraus eine doppelte Herausforderung:
- Marktchance: KI-gestützte Produkte eröffnen echte Wachstumspotenziale im Bildungs- und Unterhaltungsbereich
- Regulatorisches Risiko: Reputations- und Haftungsrisiken wachsen mit der Marktdurchdringung
Wer KI-Spielzeuge oder vergleichbare Produkte vertreibt, sollte bereits jetzt die Anforderungen des EU AI Act antizipieren – insbesondere hinsichtlich:
- Datenschutz-Folgenabschätzungen
- Transparenzpflichten gegenüber Eltern und Behörden
- Technischer Robustheit der eingesetzten Modelle
Abzuwarten, bis die Regulierung vollständig in Kraft tritt, dürfte für Marktteilnehmer teurer werden als ein proaktiver Compliance-Ansatz.
Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”