Apple und Google in der Kritik: KI-Apps zur Entkleidung von Personen in offiziellen App-Stores verfügbar

Trotz strikter Richtlinien fanden sich in den offiziellen App-Stores von Apple und Google Anwendungen, die mithilfe von KI Personen ohne deren Zustimmung entkleiden – ein Vorfall, der strukturelle Lücken in der Plattformkontrolle offenlegt und weitreichende rechtliche Fragen aufwirft.

Apple und Google unter Druck: KI-Apps zur Entkleidung von Personen in offiziellen App-Stores verfügbar

Trotz bestehender Richtlinien, die explizite oder nicht einvernehmliche sexuelle Inhalte untersagen, sind in den App-Stores von Apple und Google Anwendungen auffindbar, die mithilfe von KI Bilder von Personen entkleiden. Ein Bericht von CNET zeigt, dass beide Plattformen entsprechende Apps geduldet haben – ein Befund, der erneut Fragen zur Durchsetzung plattformeigener Compliance-Standards aufwirft.


Funktionsweise und Verbreitung der Apps

Die betroffenen Anwendungen nutzen generative Bildmodelle, um aus hochgeladenen Fotos realer Personen synthetische Nacktdarstellungen zu erzeugen – ohne deren Zustimmung. Solche Tools werden im Fachjargon häufig als „Deepnude”-Apps bezeichnet und existieren seit Jahren im Internet. Neu ist, dass sie nun offenbar auch in den streng kuratierten Ökosystemen von Apple und Google auffindbar waren, die eigentlich als Qualitäts- und Sicherheitsbarriere gelten.

Laut dem Bericht wurden die Apps teilweise über bezahlte Werbung innerhalb der Stores beworben – was bedeutet, dass die Plattformen aktiv Werbeeinnahmen aus genau jenen Angeboten erzielten, die gegen ihre eigenen Nutzungsbedingungen verstoßen dürften.


Widerspruch zu bestehenden Plattformrichtlinien

Sowohl Apple als auch Google haben in ihren Developer-Richtlinien explizite Verbote für Inhalte formuliert, die Personen ohne deren Einwilligung sexuell darstellen. Apples App Store Review Guidelines sowie Googles Developer Program Policies schließen nicht einvernehmliche intime Darstellungen kategorisch aus. Dennoch gelangten entsprechende Anwendungen durch den Reviewprozess – was auf strukturelle Lücken in der automatisierten und manuellen Prüfung hindeutet.

Keines der beiden Unternehmen hat bislang öffentlich erklärt, wie solche Apps die Überprüfungsverfahren passieren konnten oder welche konkreten Maßnahmen ergriffen werden, um vergleichbare Fälle künftig zu verhindern.


Rechtliche Dimension in Europa

In der Europäischen Union – und damit auch in Deutschland – ist die Erstellung nicht einvernehmlicher intimer Bilddarstellungen durch KI zunehmend rechtlich relevant:

  • Der Digital Services Act (DSA) verpflichtet sehr große Plattformen zur proaktiven Risikominimierung bei illegalen Inhalten.
  • In mehreren EU-Mitgliedstaaten ist die Verbreitung sogenannter „Deepfake-Pornografie” strafbar.
  • In Deutschland greift unter anderem § 201a StGB, der unbefugte Bildaufnahmen und deren Verbreitung unter Strafe stellt – auch synthetisch erzeugte Darstellungen können darunter fallen.

Der EU AI Act klassifiziert Systeme, die zur Manipulation oder Täuschung eingesetzt werden und Grundrechte verletzen, als hochrisikoreich – entsprechende Anwendungen könnten künftig EU-weit verboten sein.


Plattformverantwortung als Compliance-Thema

Der Vorfall illustriert ein grundsätzliches Problem: Plattformbetreiber übernehmen durch das Zulassen und Bewerben solcher Anwendungen faktisch eine Mitverantwortung – rechtlich wie reputationsbezogen. Für Unternehmen, die eigene Apps über Apple- oder Google-Stores vertreiben oder Unternehmensgeräte mit App-Store-Zugang betreiben, stellt sich die Frage nach dem Umgang mit unkontrollierten Drittanwendungen in ihrem Ökosystem.

Für deutsche Unternehmen und Compliance-Verantwortliche unterstreicht der Fall: Plattformrichtlinien allein entfalten keine verlässliche Schutzwirkung. Wer Mitarbeitenden App-Store-Zugang gewährt oder KI-Tools in betriebliche Prozesse integriert, sollte eigene Prüfmechanismen etablieren – unabhängig davon, was Store-Betreiber formal erlauben oder verbieten.

Die Regulierungsdynamik auf EU-Ebene dürfte den Druck auf Plattformen mittelfristig erhöhen – doch bis durchsetzungsfähige Mechanismen greifen, bleibt die Lücke zwischen Richtlinie und Realität erheblich.


Quelle: CNET – Apple, Google App Store Undressing Apps Report

Scroll to Top