Schon mehrmals hatten wir hier über die Pläne dreier Landeskriminalämter berichtet, Anwendungen zur polizeilichen Vorhersage von Straftaten zu testen oder sogar einzuführen. In Bayern läuft eine Versuchsreihe zum „Predictive Policing“, Nordrhein-Westfalen und Niedersachsen haben sich noch nicht auf eine konkrete Software festgelegt. Wie das Bundeskriminalamt holen die LKÄ aber Informationen zu Erfahrungen von Polizeibehörden in anderen Ländern ein. Niedersachsen hat überdies eine lesenswerte Studie in Auftrag gegeben.
Über Umwege hat uns nun eine Ausschreibung aus Nordrhein-Westfalen erreicht. Das Bundesland definiert dort eine Leistungsbeschreibung für die gewünschte Software, und die ist durchaus interessant. Gesucht wird ein „System zur frühzeitigen Erkennung, Prognose und Darstellung von Kriminalitätsschwerpunkten und Tatorten“. Umgangssprachlich firmiert eine solche Anwendung als Vorhersagesoftware. Nordrhein-Westfalen beschreibt das so:
Das System soll auf der Basis verschiedener, kriminalitätsrelevanter Datenquellen unter Nutzung komplexer mathematischer Verfahren prognostizieren, wo sich in Zukunft Brennpunkte im räumlichen und zeitlichen Kriminalitätsgeschehen entwickeln.
Die Vorhersagen sollen in einem Geoinformationssystems grafisch angezeigt werden. Auch dies gehört zum Leistungsumfang der Ausschreibung. „Wünschenswert“ sei demnach die Software ArcGIS. Die neue Software soll also auf vorhandenen Kapazitäten aufbauen,. Hierzu gehören Crime Mapping-Systeme, die seit den 90er Jahren in den meisten Landeskriminalämtern genutzt werden.
Das zu beschaffende System soll bis auf weiteres nicht in die bestehende „Softwarelandschaft“ der Polizei NRW eingebunden werden, sondern wird in einem „speziell dafür errichteten Sondernetz“ betrieben. Trotzdem werden anfallende Daten „zwingend innerhalb des Rechnerverbunds der Polizei NRW“ gespeichert und verarbeitet. Die „Installation, Inbetriebnahme, Übergabe sowie Einweisung“ soll beim LKA in Düsseldorf erfolgen. Als Angebotsende wird der 19. März angegeben. Spätestens Ende April soll das System betriebsbereit sein.
Wie andere Anwendungen rund um „Big Data“ soll das neue Vorhersagesystem skalierbar sein. Die „predictive Analysen“ sollen maximal 15 Minuten dauern. Die Oberfläche soll deutsch- oder englischsprachig und benutzerfreundlich sein, die Erstellung von Analysen und Prognosen soll einen „wenig geringen Ausbildungsaufwand“ erfordern. Rätselhaft ist allerdings die Beschreibung der Lernfähigkeit des gewünschten Systems:
Aufgrund denkbarer Veränderungen im Täterverhalten während des Analysezeitraums soll das System Möglichkeiten des überwachten, des unüberwachten und des bestärkenden Lernens beinhalten.
In der Ausschreibung wird die Formulierung „Analyse unstrukturierter Daten“ verwendet. Hierunter wird gewöhnlich Data Mining verstanden, also die Auswertung bereits vorhandener Daten und der Versuch, daraus neue Informationen zu gewinnen. Weiter heißt es:
Mit dem zu beschaffenden Analyse- und Prognosesystem „Predictive Policing“ werden auf der Grundlage nicht-personenbezogener Daten und unter Zuhilfenahme modernster Data-Mining-Software, durch Erkennen von Korrelationen und Mustern zukünftige Kriminalitätsbrennpunkte prognostiziert. Die erstellten Prognosen sollen so zu visualisieren sein, dass die Planung zielgerichteter präventiver Maßnahmen durch die Form der Darstellung unterstützt wird. Das System muss so variabel sein, dass Änderungen beim Gegenstand der Analysen keinen anbieterseitigen Programmieraufwand erfordern.
Beim polizeilichen Data Mining bewegen sich die Behörden in einer rechtlichen Grauzone, denn die Polizei wird dadurch zur Daten-Produzentin. Zwar haben sich Gerichte noch nicht mit dem Phänomen befasst, doch kann es sein dass hierfür eigentlich gesetzliche Rahmenbedingungen geschaffen werden müssten. Denn Formulierungen wie „Erkennen von Korrelationen und Mustern“, „erstellte Prognosen“ und „Darstellung erkannter Muster“ ähneln einer Rasterfahndung, die mitunter sogar in Echtzeit vorgenommen wird.
Also, wie lässt sich ein solcher Präzendenzfall schaffen? Müsste dazu nicht konkret ein Mensch zu Unrecht oder bei (noch) nicht begangener Tat verdächtigt werden und davon erfahren, um klageberechtigt zu sein?
„ein Mensch“? Dir entgeht, dass es bei einem solchem System keinesfalls um Menschen geht. Das System verdächtig (vorerst) keine konkreten Personen. Es schickt Polizisten auf Streife, weil in denn letzten Jahren hier „Hotspots“ für die Software erkennbar sind. Du könntest aber nicht einmal klagen, wenn die Polizei auf Befehl des Rechners leider nicht an dem Ort war, an dem Du ausgeraubt wurdest. Du kannst auch nicht klagen, weil Polizisten dank „effektiverem“ Einsatz eingespart werden. Und auch nicht dagegen, dass Polizisten nun noch weniger nachdenken müssen.
Letzteres ist vielleicht polemisch, wird aber durchaus plausibel, wenn man erkennt, dass Entscheider auch nicht nachgedacht haben und ihre „Kompetenz“ nach unten delegieren. Es geht für Entscheider gar nicht an, dass ein Polizist tatsächlich über ein Hirn verfügt.
Geoinformationssysteme für die Polizei finde ich okay. Aber eine solche Lock-in Platform wie ESRI? Und dann noch tonnenweise Geld für sinnlose Spezial add-ons bezahlen die mit „Cyper-Magic-Maschine-Learning“, die eine sehr fragwürdigen „Vorteil“ bieten? Besser nicht.
Aber mehr Polizisten, die mal einfach so durch die Gegend laufen und mit den Leuten reden, dass wäre schon prima … gerne können sie dann auch Ihre Erkenntnisse in ein GIS packen.
Aber andersherum und ohne einen Auswertungsansatz und mit solchen butterweichen Zielen klingt das ziemlich nach Aktionismus mit Geld aus dem Fenster werfen. Die Firmen wird das freuen …
Ähm, es ist klar, dass die Vorhersage auf unstrukturierten Daten nicht (einfach) funktioniert? So ein System muss immer auf die Aufgabe „skaliert“ werden.
Vielleicht sollte man NRW vorschlagen, eine Vorhersage über die Funktionstüchtigkeit und zu den sozialen Effekten einer solchen Software zu machen. Vielleicht sollte man Grenzen in Erwägung ziehen? Folgekosten? Oder den Effekt, dass sich die Polizei auf die Dauer selbst berechenbar macht. Dass Systeme manipulierbar sind. Das droht, Personal einzusparen?
Oder einfach die Überlegung, ob das Menschenbild hinter so einer Software nicht infrage zu stellen ist, besonders dann, wenn eine Abweichung von einer Norm zu einem Kriterium wird.
zur Lernfähigkeit:
Die drei genannten „Möglichkeiten“ sind verschiedene Typen des Maschinellen Lernens, siehe auch http://de.wikipedia.org/wiki/Maschinelles_Lernen#Algorithmische_Ans.C3.A4tze
Ich lach mich schlapp. NRW sucht Wahrsager. Glaskugel gefällig? Ist billiger und hat wahrscheinlich dieselben Vor- und Nachteile.
Oder der Affe, der alle Finanzberater in der Anlageberatung geschlagen hat?
Man kann aus Datensammlung gut die Vergangenheit konstruieren, mit dem richtigen Aktoren und einem neuronalen Netz vielleicht die Gegenwart (m.M.n. nicht wahrscheinlich), aber die Zukunft?
Nuja, jede Generation hat ihre Form der Wahrsager auf die sie erst einmal reinfallen muß …
Ich würde mir ja ein Murmeltier-basiertes Vorhersagesystem anschaffen. Soll in den USA schon seit Jahrzehnten gute Dienste leisten.
Mal im Ernst: Irgendwann gibts die erste Schlagzeile, dass die Polizei die Parameter speziell anpasst, um eine Begründung zu haben, gewisse Viertel stärker zu überwachen. Dann hat das halt nicht der Polizeipräsident gesagt, sondern der Algorithmus. So wird der Mensch aus (auch strafrechtlicher) Verantwortung entbunden. Die Frage ist: Wollen wir das? Oder sollte nicht gerade der Staat daran interessiert sein, verantwortlich zu handeln?
Interessant wird es, wenn die organisierte Kriminalität in die Hände von Software und Daten gelangen könnte und dann Verbrechen dort plant, wo keine vorhergesagt werden. Ist zwar wahrscheinlich schwierig an sowas ranzukommen, aber in manchen Städten geben ja Polizisten auch Infos über Aktivisten an Neonazis weiter. Da arbeitet sicher auch ein Fraund und Helfer für andere organisierte Kriminelle.