Schweiz: Predictive Policing liegt meist falsch

Eine Fehlerquote von zwei Dritteln: Die soll eine in der Schweiz eingesetzte Vorhersagesoftware liefern. Trotzdem nutzt sie die Polizei, um Personen als Gefährder zu klassifizieren.

Zwei Polizisten auf Streife in der Zürcher Innenstadt. CC-BY 2.0 Thomas8047

Dass eine Polizei-Software den Namen „Intimpartner“ trägt, liest man nicht jeden Tag. Glaubt man dem Hersteller, errechnet sie die Wahrscheinlichkeit von vorsätzlichen Tötungsdelikten zwischen (Ex-) Partnern oder Eheleuten und weist sogenannten Gefährdern dafür einen Score zu. Sie ist nur eines von vielen digitalen Vorhersageinstrumenten, die Schweizer Polizeien in den vergangenen Jahren in ihre alltägliche Arbeit integriert haben. Timo Grossenbacher vom Schweizer Rundfunk ist dem ausführlich nachgegangen.

Unabhängige wissenschaftliche Evaluierung fehlt im Einzelfall

Erschreckend ist, dass die meisten der von Schweizer Polizeien eingesetzten Systeme Tag für Tag die Polizeiarbeit beeinflussen, vorher aber nicht ausreichend von externen Wissenschaftlern bewertet worden sind. Zwar liegen Studien zu „Intimpartner“ vor, sie widersprechen sich aber eklatant. So liegt die Fehlerquote zwischen zwei Dritteln (Studie im Rahmen einer Doktorarbeit) und einem Fünftel (Studie des Unternehmens, das die Software entwickelt). Beide Quoten dürften angesichts der Konsequenzen, die eine Klassifizierung als Gefährder nach sich zieht, zu hoch sein. Dem können sich Individuen nur schwer widersetzen:

Wer als Gefährder gelistet ist, muss mit besonderer Aufmerksamkeit der Polizei rechnen – und zwar über einen Zeitraum von mindestens 10 Jahren. So lange werden die Vorabklärungen, Dyrias-Resultate [das von Intimpartner verwendete Verfahren, d. Red] und weitere Einschätzungen im Polizeirapportsystem gespeichert.

Die in der Schweiz viel verwendete Software Octagon wurde dagegen noch gar nicht unabhängig evaluiert. Der Chef der Präventionsabteilung der Kantonspolizei Zürich sagt, dass der „Praxiserfolg“ ausschlaggebend sei.

Vermehrter Einsatz nach Kritik an „Kuscheljustiz“

In der Schweiz scheint der Einsatz derartiger Software vor allem politisch motiviert, seitdem breite Kritik an einem vermeintlichen Kuschelkurs der Justiz aufkam:

Die Polizeien und deren politische Vorgesetzte wollen sich offenbar nicht länger anhören, dass sie zu wenig getan hätten – der Trend zu mehr präventiv ausgerichteter Polizeiarbeit nahm Fahrt auf.

Dazu passt, dass der deutsche Hersteller von Intimpartner beispielsweise auch eine Früherkennungssoftware für „Islamismus“ vertreibt.

6 Ergänzungen

  1. Es ist pervers, eine Software über das Leben von Menschen richten zu lassen. (Ironie an) Ich gehe davon aus, die ist zumindest open source und arbeitet nach transparent einsehbaren Kriterien? (Ironie aus) Ansonsten darf man die Kombination aus „Predictive“-Policing + Abschaffung elementarer rechtsstaatlicher Prinzipien (Gummibegriff „Gefährder“, Generalverdacht, Strafen ohne Gerichtsverfahren) wohl einen Black-Box-Unrechtsstaat nennen.

  2. Da sage doch einer, dass Filme keine Auswirkungen auf Menschen haben.

    „Minority Report“ lässt grüßen.

  3. hallo,
    so ist es mit dem „guten Code“. Wenn auch er! nicht an bestimmte positive Ethikgrundsätze
    bei der SW-entwicklung implementiv eingebunden ist, kann nichts gutes rauskommen, ..
    so wie eben die Atombombe. Aber da gab es „wirklichen Druck aus Zeit &versus& 2 Ethiken“. Das Dilemma der Wissenschaft.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.