Sonja Peteranderl ist SPIEGEL-Redakteurin im Netzwelt-Ressort. Sie spricht morgen bei unserer Konferenz „Das ist Netzpolitik!“ zum Thema Predictive Policing.
Auf einer digitalen Karte sind die Hochrisikogebiete, die so genannten Hot Spots, rot markiert: So weiß die Polizei, wo Täter/-innen bald zuschlagen werden – und kann ihre Patrouillen gezielt zu möglichen Tatorten schicken. So spart man Zeit und Ressourcen und verhindert im Idealfall Verbrechen, bevor sie passieren.
Klingt futuristisch? Predictive Policing, vorausschauende Polizeiarbeit, nennt sich diese Art der Kriminalitätsbekämpfung und unterstützt Polizisten inzwischen weltweit bei der Verbrecherjagd. Algorithmen durchforsten Datenberge, suchen nach Mustern und berechnen, wo Verbrechen wie Einbrüche auftreten könnten. Je nach verwendeter Software und Einstellungen fließen in die Bewertungen unterschiedliche Informationsquellen ein: Kriminalfälle aus der Vergangenheit, aber auch soziodemografische Daten, Bonität, Wetterprognosen, Verkehrsdaten, zum Teil auch aktuelle Informationen aus sozialen Netzwerken.
In den USA ist Predictive Policing Software weit verbreitet, auch andere Länder wie England, Südafrika, die Schweiz oder die Niederlande setzen auf datengestützte Prognosen. In Deutschland nutzen Landeskriminalämter bisher vor allem ortsbezogene Software wie „Predpol“, die Wohnungseinbrüche verhindern soll und versucht, die nächsten Ziele von Einbrecherbanden zu prognostizieren. Das Bundeskriminalamt hat für die Risikobewertung von polizeibekannten islamistischen Gefährdern das personenbezogene Analyseinstrument RADAR-iTE entwickelt, das zukünftig auch die Gewaltbereitschaft von Rechtsextremen kalkulieren soll.
Ein Verstärker von Vorurteilen
In den USA, aber auch in England setzen Polizeieinheiten Software bereits seit mehreren Jahren personenbezogen ein. Die Polizei von Los Angeles hat 2011 angefangen, mit “Operation Laser” rückfallgefährdete Kriminelle – sogenannte “Chronic Offender” – ins Visier zu nehmen. Bei Notrufen in Städten wie Fresno in Kalifornien berechnet die Software „Beware“ etwa, ob die Sicherheitskräfte am Einsatzort mit einem Gegenüber mit Vorstrafenregister oder einer Schusswaffe rechnen müssen.
Die Polizei von Chicago führt eine sogenannte Strategic Subjects List (SSL) mit Personen, die besonders gefährdet sind, an einer Schießerei beteiligt zu sein — als Opfer oder Täter. Der Ansatz: Die als Risikopersonen eingestuften Bürger werden von der Polizei besucht und vorgewarnt – das soll verhindern, dass die Prognose eintritt. Auch soziale Programme sollten Menschen mit einem hohen Gewaltrisiko auffangen.
In einer Studie kritisierte die RAND Corporation, eine Denkfabrik, die unter anderem die US-Streitkräfte berät, die Methodik: “Personen, die auf der SSL als besonders gefährdet gelistet sind, werden nicht seltener oder häufiger zum Opfer als unsere Kontrollgruppe“, so die Analysten.
Die potentiellen Täter auf der Liste dagegen hätten ein höheres Risiko, festgenommen zu werden, weil sie sich bereits im Visier der Polizei befinden. Anstatt Zielpersonen wie angekündigt mit Sozialmaßnahmen zu unterstützen, um mögliche Verbrechen mit Prävention zu verhindern, würde die Liste eher nach Schießereien oder anderen Verbrechen zur Suche nach Tätern herangezogen. Dazu fehle eine Einbettung der Software in eine Gesamtstrategie: Die Polizisten würden kein ausreichendes Training erhalten, das ihnen vermittelt, was die Liste genau bedeutet und wie sie sie für die Polizeiarbeit nutzen sollen.
Die Polizei von Chicago argumentiert, dass die RAND Corporation nur die Anfangsversion der „Strategic Subject List“ von 2013 ausgewertet habe und diese weiterentwickelt worden sei. Auch 2017 veröffentlichte Daten zum Ranking offenbarten allerdings gravierende Probleme. Die Liste, die als strategisches Instrument zur Fokussierung auf Hochrisikopersonen dienen sollte, hat sich längst zum Massenüberwachungs-Tool entwickelt. Etwa 1400 Personen waren als Hochrisikopersonen erfasst, insgesamt wurden mehr als 400.000 Menschen mit einem Risikowert eingestuft – junge schwarze Männer waren überproportinal häufig erfasst worden.
Predictive Policing kann wie ein Verstärker für bestehende Vorurteile und Diskriminierung wirken: Wenn die Polizei etwa vermehrt in als “Hotspots” definierten Vierteln patrouilliert, erfasst sie dort mehr Kriminalitätsmeldungen – die dann wiederum stärker gewichtet in Zukunftsprognosen einfließen.
Razzien oder Kontrollen in ärmeren Viertel bestätigen Annahmen zu weit verbreiteter Kriminalität, während Waffen- und Drogenhändler in wohlhabenden Vierteln seltener auffliegen, weil dort etwa weniger Razzien und Straßenkontrollen stattfinden.
Racial Profiling, die Tendenz, dass etwa schwarze Menschen oder Bürger mit Migrationshintergrund öfter kontrolliert werden, spiegelt sich in den Daten wieder: Nach dem Tod des 25-jährigen Afro-Amerikaners Freddie Gray etwa, der nach seiner Festnahme in Polizeigewahrsam starb, ermittelte das US-Justizministerium gegen die Polizei von Baltimore. Dem Ermittlungsbericht zufolge ist Diskriminierung durch die Polizei in Baltimore massiv: Schwarze Bewohner wurden überdurchschnittlich oft angehalten, häufiger verhaftet und verurteilt. Auf der anderen Seite war das Verhältnis zwischen Polizei und schwarzen Bürgern so schlecht, dass sie viele Verbrechen gar nicht meldeten.
Polizeiroutinen und Einstellungen beeinflussen so die Berechnungen des Algorithmus und zukünftige Verbrechen werden aus Daten abgeleitet, die unvollständig sind und deshalb diskriminierend wirken können. Menschenrechtsorganisationen wie die American Civil Liberties Union (ACLU) kritisieren, dass Kriminalitätsbezogene Daten grundsätzlich verzerrt seien.
Noch kein nachgewiesener Erfolg
Polizeieinheiten sehen eine solche Software oft als Tool, das ihre Arbeit und die Einsatzplanung unterstützt. Unabhängige, fundierte wissenschaftliche Studien zum Einsatz und zum Erfolg von Predictive Policing stehen aber noch aus. Predictive-Policing-Software wird oft von Unternehmen, die zum Teil mit Universitäten zusammenarbeiten, entwickelt. Die bisherigen Studien stammen meistens von diesen Unternehmen – die ein Interesse daran haben, ihre Produkte zu vermarkten.
Eine Idee für mehr Transparenz beim Predictive Policing ist die Einrichtung unabhängiger Schiedsgerichte, an denen Technologie-Experten/-innen sowie Vertreter/-innen der Zivilgeschafft beteiligt sind, und die die Funktionsweise und den Einsatz der Polizeisoftware besser kontrollieren sollen, um etwa Diskriminierung zu vermeiden. Dazu müsste allerdings auch transparent sein, welche Variablen zu den Berechnungen von Gefahrenzonen und Verdächtigen herangezogen werden und wie genau der Algorithmus funktioniert.
Eine weitere Herausforderung ist der Datenschutz: Welche Daten fließen in die Berechnungen ein? Wem stehen die Daten zur Verfügung, wo und wie lange werden sie gespeichert? Doch die Polizeibehörden geben bisher nur gering dosierte Einblicke in die verwendeten Daten und Abläufe – und die Hersteller von Predictive-Policing-Software betrachten ihre Algorithmen als Geschäftsgeheimnis.
Der Beitrag erschien zuerst auf der Webseite der Bundeszentrale für politische Bildung.
Das erinnert mich an den Roman „Das Wittgenstein-Programm“. 1994 erschienen thematisiert er in einer technisch-medizinischen Variante die vielleicht schon immer existierende Idee, Verbrechen zu verhindern bevor sie getan werden. Dabei wird durch seinen Bezug auf Wittgenstein auch die Frage diskutiert, ob es in der Logik eines solchen Programmes liegt, dass ein Mörder erst zum Mörder wird, weil es ihm prognostiziert wurde und dies programm- oder systembedingt unausweichlich ist.