KI-Spielzeug auf dem Markt: Sicherheitsstandards bleiben unzureichend

Sprachgesteuerte Puppen, lernende Roboter, KI-Begleiter: Produkte, die Kindern zuhören, antworten und mit ihnen fühlen sollen, stehen längst in den Regalen – doch verbindliche Sicherheitsstandards für diese neue Geräteklasse existieren bislang kaum.

KI-Spielzeug auf dem Markt – ohne ausreichende Sicherheitsstandards

Sprachfähige Puppen, lernende Roboter und KI-gestützte Begleiter für Kinder sind längst im Einzelhandel erhältlich – obwohl belastbare Sicherheitsnachweise für diese Produktkategorie weitgehend fehlen. Regulierungsbehörden in Europa und den USA hinken der Marktentwicklung hinterher, was Verbraucher und Hersteller gleichermaßen in einer rechtlichen Grauzone belässt.


Technologie überholt den Rechtsrahmen

Large Language Models und Natural Language Processing ermöglichen es, Spielzeug mit sogenannter Conversational AI auszustatten: Produkte, die auf Kinderfragen reagieren, Geschichten erzählen oder als emotionaler Gesprächspartner fungieren. Diese Entwicklung vollzog sich in einem Tempo, das bestehende Produktsicherheitsregulierungen schlicht nicht antizipiert haben.

Die einschlägigen Standards – etwa für mechanische Sicherheit oder Schadstofffreiheit – sagen nichts darüber aus, welche Inhalte ein KI-System generieren darf oder wie mit den dabei anfallenden Sprachdaten umzugehen ist.

Das Ergebnis: Hersteller bringen Produkte auf den Markt, deren Sicherheit in psychologischer, datenschutzrechtlicher und inhaltlicher Hinsicht nicht durch etablierte Prüfverfahren zertifiziert ist.

Ob ein KI-Spielzeug unangemessene Inhalte produziert, Kinder in problematischer Weise beeinflusst oder Sprachaufnahmen sicher speichert, liegt derzeit weitgehend im Ermessen der Anbieter selbst.


Datenschutz als unmittelbares Risiko

Ein besonders konkretes Problem ist die Datenerhebung. KI-Spielzeug muss Spracheingaben verarbeiten – häufig über Cloud-Infrastruktur. Damit entstehen Datenpunkte über Kinder, die unter die DSGVO und in Deutschland zusätzlich unter die besonders strengen Anforderungen für die Verarbeitung personenbezogener Daten Minderjähriger fallen. Wie Hersteller – darunter zahlreiche Start-ups ohne etablierte Compliance-Strukturen – diese Anforderungen in der Praxis erfüllen, ist oft schwer nachvollziehbar.

Ein frühes Warnsignal lieferte bereits 2017 der Fall der KI-Puppe „My Friend Cayla”:

Die Bundesnetzagentur stufte das Gerät als verbotene Abhöreinrichtung ein und zog es aus dem Verkehr.

Das Beispiel zeigt: Behördliches Eingreifen ist möglich – bleibt aber reaktiv, statt präventiv zu wirken.


EU AI Act schafft noch keinen vollständigen Rahmen

Der EU AI Act, der schrittweise in Kraft tritt, klassifiziert KI-Anwendungen nach Risikoniveau. Systeme, die auf Kinder abzielen oder mit ihnen interagieren, könnten perspektivisch als High-Risk-Anwendungen eingestuft werden – was umfangreiche Konformitätsprüfungen nach sich zöge. Doch die entsprechenden delegierten Rechtsakte und Durchführungsbestimmungen sind noch nicht vollständig verabschiedet.

Branchenverbände fordern derweil freiwillige Selbstverpflichtungen und Prüfsiegel, die über bestehende CE-Kennzeichnungen hinausgehen. Ob diese Initiativen ausreichen, um das Vertrauen von Eltern zu gewinnen, bleibt fraglich.


Einordnung für deutsche Unternehmen

Für Spielzeughersteller und Handelsunternehmen in Deutschland ergeben sich klare Handlungsimplikationen:

  • DSGVO-konforme Datenarchitektur bereits jetzt nachweisbar aufbauen
  • Interne Qualitätssicherungsprozesse für KI-generierte Inhalte etablieren
  • Auf kommende Zertifizierungspflichten durch den EU AI Act vorbereiten

Unternehmen, die jetzt Vorarbeit leisten, vermeiden später kostspielige Nachrüstungen oder Marktrücknahmen.

Die Erfahrung mit „My Friend Cayla” hat gezeigt, dass deutsche Behörden bereit und in der Lage sind, konsequent einzuschreiten. Der regulatorische Druck wird in den kommenden Jahren nicht abnehmen – er wird zunehmen.


Quelle: New Scientist Tech – „We don’t know if AI-powered toys are safe, but they’re here anyway”

Scroll to Top