Laut Recherchen von Statewatch arbeitet das britische Justizministerium an einem System zur Vorhersage von Mordtaten. Grundlage sind sensible Daten von Hunderttausenden Personen – darunter auch Opfer und Menschen mit psychischen Erkrankungen.
Das britische Justizministerium (Ministry of Justice, MoJ) entwickelt gemeinsam mit mehreren Polizeibehörden ein Vorhersagesystem, das Personen identifizieren soll, die mit hoher Wahrscheinlichkeit künftig einen Mord begehen könnten. Das Vorhaben trägt den Titel „Homicide Prediction Project“ und wurde unter Premierminister Rishi Sunak ins Leben gerufen. Später wurde es in „Sharing Data to Improve Risk Assessment“ umbenannt.
Die Rechercheplattform Statewatch erhielt über Auskunftsanfragen Zugriff auf interne Dokumente des Projekts, darunter eine Datenschutzfolgenabschätzung, Risikoanalysen und eine Vereinbarung zum Datenaustausch mit der Greater Manchester Police (GMP). Daraus geht hervor, dass die Daten von bis zu einer halben Million Personen verarbeitet wurden – darunter auch Informationen von Verdächtigen, Opfern, Zeugen und vermissten Personen.
Die verwendeten Datensätze stammen aus verschiedenen Quellen, darunter der Police National Computer, das Justizministerium selbst und Polizeibehörden wie die GMP. Erfasst werden unter anderem Namen, Geburtsdaten, Ethnizität sowie polizeiliche Kennnummern. Besonders auffällig ist die Nutzung sogenannter „Health Marker“ – also Angaben zu psychischer Gesundheit, Suchtverhalten, Suizidversuchen, Selbstverletzung, Behinderung und anderen Formen von Vulnerabilität. Laut MoJ sollen diese Merkmale eine hohe Vorhersagekraft für das Risiko einer zukünftigen Gewaltstraftat besitzen.
Algorithmische Prognosen auf Basis sensibler Daten
Offiziell befindet sich das Projekt in einer Forschungsphase. Ziel sei es, neue Datenquellen zu nutzen, um bestehende Risikobewertungen im Strafvollzug und bei der Bewährung zu verbessern. Die Datenanalyse wird innerhalb des „Data Science Hub“ des Justizministeriums durchgeführt. In den internen Dokumenten ist jedoch bereits von einer späteren operativen Nutzung des Systems die Rede.
Kritik kommt von Statewatch. Die NGO warnt vor einem „verstörenden und dystopischen“ System, das Menschen auf Grundlage von Algorithmen als potenzielle Mörder einstuft – oft, bevor sie überhaupt eine Straftat begangen haben. Besonders problematisch sei die Einbeziehung von Daten über psychische Erkrankungen, Sucht oder Behinderung sowie die Verwendung von Informationen über Menschen, die sich an die Polizei gewandt haben, etwa als Opfer häuslicher Gewalt.
Bereits bestehende Prognoseinstrumente des MoJ wie das „Offender Assessment System“ (OASys), das bei Urteilen und Bewährungsentscheidungen eingesetzt wird, stehen in der Kritik. Eigene Studien des Ministeriums zeigen, dass diese Systeme bei weißen Straftätern deutlich zuverlässiger beurteilen als bei Schwarzen oder Personen mit gemischter ethnischer Herkunft. Auch frühere Analysen des Ministeriums zur Entwicklung von Mordrisiken auf Basis früherer Delikte legen laut Statewatch eine systematische Verzerrung nahe.
NGO fordert sofortigen Entwicklungsstopp
Sofia Lyall, Forscherin bei Statewatch, kritisiert das Projekt scharf. Es sei ein weiteres Beispiel für die zunehmende Automatisierung rassistischer und sozial selektiver Strafverfolgung. „Ein automatisiertes Werkzeug zu bauen, das Menschen als potenzielle Gewalttäter einstuft, ist grundlegend falsch“, so Lyall. Der staatliche Zugriff auf hochsensible Gesundheitsdaten sei zusätzlich „äußerst invasiv und alarmierend“.
Das Justizministerium widerspricht den Vorwürfen. Ein Sprecher erklärte, dass ausschließlich Daten verurteilter Personen verwendet würden und das Projekt lediglich Forschungszwecken diene. Man wolle untersuchen, ob zusätzliche Daten aus Polizeiquellen die Risikobewertung verbessern könnten. Ein Bericht sei in Vorbereitung.
Brexit, EU AI Act und Hochrisikosysteme
Wäre das britische Mordvorhersagesystem in einem EU-Mitgliedstaat entwickelt worden, würde es mit hoher Wahrscheinlichkeit gegen zentrale Bestimmungen des im Jahr 2024 verabschiedeten EU AI Acts verstoßen. Das Gesetz stuft KI-Systeme je nach Risikopotenzial ein und sieht für Hochrisikoanwendungen – wie etwa im Bereich der Strafverfolgung – strikte Anforderungen vor. Systeme, die sensible Daten verarbeiten, soziale Schwächen ausnutzen oder diskriminierende Ergebnisse liefern können, gelten als besonders problematisch.
Das in Großbritannien entwickelte System nutzt genau solche sensiblen Daten – etwa zu psychischer Gesundheit, Sucht oder Behinderung – und weist laut eigener Forschung des Justizministeriums erhebliche Verzerrungen bei der Bewertung ethnischer Minderheiten auf. Im Kontext des EU AI Acts wären dies klare Anzeichen für eine Hochrisiko- und höchstwahrscheinlich sogar verbotene Anwendung. Hinzu kommt der fehlende Nachweis über angemessene Risikobewertungen, Transparenzmaßnahmen oder effektive menschliche Kontrolle – alles Anforderungen, die unter EU-Recht verpflichtend wären.