OpenAI führt Privacy Filter ein – automatischer Schutz für personenbezogene Daten

OpenAI präsentiert mit dem Privacy Filter ein neues Werkzeug für Unternehmenskunden, das personenbezogene Daten in KI-Workflows automatisch erkennt und schützt – ein wichtiger Schritt für DSGVO-konforme KI-Implementierungen in Europa.

OpenAI führt Privacy Filter ein – Automatischer Schutz für personenbezogene Daten

OpenAI hat einen dedizierten Privacy Filter vorgestellt, der personenbezogene Daten in KI-gestützten Workflows automatisch erkennt und schützt. Das Tool richtet sich gezielt an Unternehmenskunden, die KI-Anwendungen unter strengen Datenschutzanforderungen wie der DSGVO betreiben müssen.


Automatische Erkennung von PII-Daten

Der Privacy Filter analysiert Eingaben und Ausgaben in Echtzeit und identifiziert sogenannte Personally Identifiable Information (PII) – darunter Namen, E-Mail-Adressen, Telefonnummern, Finanzdaten und weitere sensible Informationen. Erkannte Daten können automatisch maskiert, anonymisiert oder gefiltert werden, bevor sie durch das Large Language Model verarbeitet werden.

Damit soll verhindert werden, dass sensible Informationen unbeabsichtigt in KI-Prompts oder -Antworten erscheinen.

Das Tool lässt sich als Schicht zwischen bestehende Unternehmensanwendungen und die OpenAI-API integrieren. Entwickler können über Konfigurationsoptionen festlegen, welche Datenkategorien gefiltert werden sollen und wie das System bei einem Treffer reagiert – etwa durch Blockierung, Anonymisierung oder Protokollierung.


Relevanz für DSGVO-konforme KI-Implementierungen

Für Unternehmen im europäischen Raum stellt der Einsatz von KI-Diensten amerikanischer Anbieter nach wie vor eine datenschutzrechtliche Herausforderung dar. Der Privacy Filter adressiert einen konkreten Schmerzpunkt: das unkontrollierte Einschleusen personenbezogener Daten in externe KI-Systeme – was unter der DSGVO als Datenübertragung an Dritte zu werten ist und entsprechende Rechtsgrundlagen erfordert.

Durch die vorgelagerte Filterung können Unternehmen sicherstellen, dass personenbezogene Daten gar nicht erst an die OpenAI-Infrastruktur übermittelt werden.

Dieser Ansatz unterstützt sowohl technische als auch organisatorische Schutzmaßnahmen im Sinne von Artikel 25 DSGVO (Datenschutz durch Technikgestaltung). Ob das Tool allein ausreicht, um vollständige DSGVO-Konformität herzustellen, hängt jedoch von der jeweiligen Implementierung und dem Verarbeitungskontext ab.


Unternehmenseinsatz und Verfügbarkeit

Der Privacy Filter ist als Bestandteil der OpenAI-Unternehmensprodukte konzipiert und über die API zugänglich. Konkrete Preisdetails und Verfügbarkeitsdaten für den europäischen Markt hat OpenAI bislang nicht vollständig kommuniziert. Unternehmen, die bereits auf ChatGPT Enterprise oder die OpenAI-API setzen, sollen das Feature ohne grundlegende Architekturänderungen einbinden können.

Der Ansatz reiht sich in eine breitere Entwicklung ein: KI-Anbieter bauen zunehmend Compliance-Funktionen direkt in ihre Plattformen ein, um den Einstieg für regulierte Branchen wie Finanzdienstleistungen, Gesundheitswesen oder Personalwesen zu erleichtern.


Einordnung für deutsche Unternehmen

Für deutsche Unternehmen, die KI-Lösungen von OpenAI einsetzen oder evaluieren, ist der Privacy Filter ein relevanter Baustein – aber kein Allheilmittel.

Der automatisierte PII-Schutz kann bestehende Datenschutzkonzepte sinnvoll ergänzen und das Risiko unbeabsichtigter Datenweitergabe reduzieren.

Gleichwohl bleiben Fragen zur Datenverarbeitung auf US-amerikanischen Servern, zur Auftragsverarbeitungsvereinbarung und zu Transfermechanismen nach Kapitel V DSGVO bestehen. Unternehmen sollten das Tool daher in enger Abstimmung mit ihrer Datenschutzabteilung oder externen Datenschutzbeauftragten bewerten und in ein umfassendes DSGVO-Compliance-Konzept einbetten.


Quelle: OpenAI News

Scroll to Top