Dass eine Polizei-Software den Namen „Intimpartner“ trägt, liest man nicht jeden Tag. Glaubt man dem Hersteller, errechnet sie die Wahrscheinlichkeit von vorsätzlichen Tötungsdelikten zwischen (Ex-) Partnern oder Eheleuten und weist sogenannten Gefährdern dafür einen Score zu. Sie ist nur eines von vielen digitalen Vorhersageinstrumenten, die Schweizer Polizeien in den vergangenen Jahren in ihre alltägliche Arbeit integriert haben. Timo Grossenbacher vom Schweizer Rundfunk ist dem ausführlich nachgegangen.
Unabhängige wissenschaftliche Evaluierung fehlt im Einzelfall
Erschreckend ist, dass die meisten der von Schweizer Polizeien eingesetzten Systeme Tag für Tag die Polizeiarbeit beeinflussen, vorher aber nicht ausreichend von externen Wissenschaftlern bewertet worden sind. Zwar liegen Studien zu „Intimpartner“ vor, sie widersprechen sich aber eklatant. So liegt die Fehlerquote zwischen zwei Dritteln (Studie im Rahmen einer Doktorarbeit) und einem Fünftel (Studie des Unternehmens, das die Software entwickelt). Beide Quoten dürften angesichts der Konsequenzen, die eine Klassifizierung als Gefährder nach sich zieht, zu hoch sein. Dem können sich Individuen nur schwer widersetzen:
Wer als Gefährder gelistet ist, muss mit besonderer Aufmerksamkeit der Polizei rechnen – und zwar über einen Zeitraum von mindestens 10 Jahren. So lange werden die Vorabklärungen, Dyrias-Resultate [das von Intimpartner verwendete Verfahren, d. Red] und weitere Einschätzungen im Polizeirapportsystem gespeichert.
Die in der Schweiz viel verwendete Software Octagon wurde dagegen noch gar nicht unabhängig evaluiert. Der Chef der Präventionsabteilung der Kantonspolizei Zürich sagt, dass der „Praxiserfolg“ ausschlaggebend sei.
Vermehrter Einsatz nach Kritik an „Kuscheljustiz“
In der Schweiz scheint der Einsatz derartiger Software vor allem politisch motiviert, seitdem breite Kritik an einem vermeintlichen Kuschelkurs der Justiz aufkam:
Die Polizeien und deren politische Vorgesetzte wollen sich offenbar nicht länger anhören, dass sie zu wenig getan hätten – der Trend zu mehr präventiv ausgerichteter Polizeiarbeit nahm Fahrt auf.
Dazu passt, dass der deutsche Hersteller von Intimpartner beispielsweise auch eine Früherkennungssoftware für „Islamismus“ vertreibt.
Es ist pervers, eine Software über das Leben von Menschen richten zu lassen. (Ironie an) Ich gehe davon aus, die ist zumindest open source und arbeitet nach transparent einsehbaren Kriterien? (Ironie aus) Ansonsten darf man die Kombination aus „Predictive“-Policing + Abschaffung elementarer rechtsstaatlicher Prinzipien (Gummibegriff „Gefährder“, Generalverdacht, Strafen ohne Gerichtsverfahren) wohl einen Black-Box-Unrechtsstaat nennen.
Da sage doch einer, dass Filme keine Auswirkungen auf Menschen haben.
„Minority Report“ lässt grüßen.
Minority Report hatte wenigstens ein Happy-End. Und man wurde kostenlos kryo-konserviert.
Kommt eigentlich noch ein Artikel zu:
https://www.heise.de/newsticker/meldung/Hessen-will-mit-Palantir-Software-islamistischen-Terrorismus-und-organisierte-Kriminalitaet-4012382.html
Oder gibt es nichts zu berichten, da selbstverständlich mal wieder alles geheim ist?!!
hallo,
so ist es mit dem „guten Code“. Wenn auch er! nicht an bestimmte positive Ethikgrundsätze
bei der SW-entwicklung implementiv eingebunden ist, kann nichts gutes rauskommen, ..
so wie eben die Atombombe. Aber da gab es „wirklichen Druck aus Zeit &versus& 2 Ethiken“. Das Dilemma der Wissenschaft.
Ein aktueller Dokumentarfilm zum Thema „Pre Crime“ (2017) bei dem es genau darum geht: Kriminalitätsvorhersage per Algorithmus und deren Risiken und Nebenwirkungen. http://precrime-film.de/ (Achtung, https tut nicht). IMDB: https://www.imdb.com/title/tt6998222/
Ja, haben wir hier drüber geschrieben auch:
https://netzpolitik.org/2017/pre-crime-ueber-menschen-die-ungewollt-teil-von-datenexperimenten-sind/