Die Londoner Metropolitan Police erwägt eine Zusammenarbeit mit dem US-Datenanalysespezialisten Palantir – und löst damit eine der wichtigsten Debatten über KI, Bürgerrechte und demokratische Kontrolle im europäischen Sicherheitsapparat aus.
Londoner Metropolitan Police prüft Einsatz von Palantir-KI zur Verbrechensbekämpfung
Die Londoner Metropolitan Police erwägt den Einsatz von KI-Technologie des US-Unternehmens Palantir zur Unterstützung polizeilicher Ermittlungsarbeit. Der mögliche Vertragsabschluss hat in Großbritannien eine intensive Debatte über Datenschutz, algorithmische Überwachung und die Rolle privater Technologiekonzerne im öffentlichen Sicherheitsapparat ausgelöst.
Palantir und der öffentliche Sektor
Palantir Technologies ist seit Jahren ein zentraler Technologiepartner westlicher Behörden und Geheimdienste. Das 2003 gegründete Unternehmen aus Denver unterhält Verträge mit dem US-amerikanischen Verteidigungsministerium, der CIA sowie mehreren europäischen Regierungen. Seine Kernangebote – darunter die Plattformen Gotham und Foundry – ermöglichen die Zusammenführung und Analyse großer, heterogener Datensätze aus Strafverfolgungsdatenbanken, sozialen Netzwerken oder Behördenregistern.
Der mögliche Einsatz bei der Metropolitan Police würde bedeuten, dass eines der größten Polizeipräsidien Europas auf eine kommerzielle Analyseplattform setzt, die bislang vor allem im militärischen und geheimdienstlichen Kontext bekannt ist.
Kritik aus Bürgerrechts- und Datenschutzkreisen
Datenschutzorganisationen und Bürgerrechtsinitiativen in Großbritannien reagierten mit scharfer Kritik. Die zentralen Einwände:
- Mangelnde Transparenz über Funktionsweise und Entscheidungslogik solcher Systeme
- Risiko struktureller Diskriminierung, wenn historisch verzerrte Kriminalitätsdaten als Trainingsgrundlage für prädiktive Analysen dienen
- Demokratische Rechenschaftslücken, wenn Algorithmen privater Unternehmen Ermittlungsschwerpunkte beeinflussen
Vergangene Pilotprojekte zur vorausschauenden Polizeiarbeit in London – etwa das System PredPol – wurden bereits wegen nachgewiesener Benachteiligung einkommensschwacher und ethnischer Minderheitsgemeinschaften eingestellt.
Wenn Algorithmen privater Unternehmen Verdächtige priorisieren, entstehen Rechenschaftslücken, die mit klassischen Kontrollmechanismen des Rechtsstaats kaum zu schließen sind.
Rechtlicher Rahmen und Beschaffungsverfahren
In Großbritannien unterliegt der Einsatz von Datenanalysesystemen bei Strafverfolgungsbehörden dem Data Protection Act 2018 sowie dem Equality Act 2010. Nach aktuellem Stand ist noch nicht entschieden, ob und in welchem Umfang ein Palantir-System bei der Met eingesetzt wird. Die Behörde hat lediglich Interesse an der Technologie bekundet; ein formales Ausschreibungsverfahren soll folgen.
Palantir selbst betont regelmäßig, dass seine Systeme keine autonomen Entscheidungen treffen, sondern Analysten Informationen aufbereiten – die finale Entscheidungshoheit verbleibe beim Menschen.
Kritiker halten dem entgegen, dass die faktische Wirkung algorithmischer Empfehlungen in der Praxis kaum von automatisierten Entscheidungen zu unterscheiden sei.
Einordnung für deutsche Unternehmen und Behörden
Die Diskussion in London ist für deutsche Entscheider aus zwei Perspektiven relevant:
1. Kein rein britisches Problem: Auch deutsche Sicherheitsbehörden setzen zunehmend auf KI-gestützte Datenanalyseplattformen – die Debatte über Transparenz, Bias und rechtliche Grundlagen betrifft den gesamten europäischen Raum.
2. Compliance-Risiken durch den EU AI Act: Mit dem EU AI Act, der ab 2025 schrittweise greift, gelten für Hochrisiko-KI-Systeme im Bereich der Strafverfolgung in Deutschland und der gesamten EU deutlich strengere Anforderungen an Dokumentation, Auditierbarkeit und menschliche Aufsicht. Diese Anforderungen müssen bei Beschaffungsentscheidungen vom ersten Tag an berücksichtigt werden – wer das ignoriert, riskiert erhebliche Reputations- und Compliance-Schäden.
Quelle: The Guardian – Ben Jennings: The Met’s interest in buying Palantir AI (Cartoon/Kommentar)