PreCrime: Auch Baden-Württemberg testet polizeiliche Vorhersagesoftware

Dank PreCrime-Software von IBM wartet der Cop mit Kaffee am Tatort (Screenshot von einem IBM-Werbefilm für das System "Blue Crush").
Dank PreCrime-Software von IBM wartet der Cop mit Kaffee am Tatort (Screenshot von einem IBM-Werbefilm für das System „Blue Crush“).

Einige Male war hier schon über Pläne von Länderpolizeien zu lesen, eine Software zur Vorhersage von Straftaten einzuführen oder wenigstens zu testen. Den Anfang machte das Landeskriminalamt Bayern 2011 mit einer „Europäischen Konferenz für räumliche Kriminalitätsanalyse“, zu der auch andere LKÄ angereist waren. Ab 2012 galt „Predictive Policing“ in Bayern als Themenschwerpunkt, nach einer „Simulationsstudie“ hatte die Polizei im vergangenen Herbst die Einführung der Software „Precobs“ gegen Wohnungseinbrüche angekündigt.

Auch Nordrhein-Westfalen und Niedersachsen planen mittlerweile die Nutzung von PreCrime-Anwendungen, angeblich sind auch Berlin und Brandenburg interessiert. Der Hamburger Innensenat reiste nach Chicago, um sich von der dortigen Polizei eine Vorhersagesoftware vorführen zu lassen. Perspektivisch plant Hamburg die Entwicklung eines eigenen Systems, die Programmierung soll eine „Gruppe aus Mathematikern, Soziologen, Psychologen und Ermittlern“ übernehmen. Erste Kontakte zu WissenschaftlerInnen Hamburger Hochschulen bestünden bereits.

Auch das Bundeskriminalamt (BKA) hat eine „Marktsichtung“ zu PreCrime-Software durchgeführt. Das BKA ist hierzu nach Bekunden des Bundesinnenministeriums mit den Landeskriminalämtern Bayern und Nordrhein-Westfalen in Kontakt. Vor einigen Jahren ließ sich das BKA vom Marktführer IBM eine Anwendung zu „Predictive Analytics“ in Freiburg vorführen. In den USA gilt IBM hierzu als einer der Marktführer, der Konzern hatte 2007 mit der Einführung der Software „Blue Crush“ Furore gemacht.

Die Landesregierung Baden-Württemberg hat nun ebenfalls Tests mit „PreCobs“ angekündigt. Laut dem Innenminister Reinhold Gall (SPD) soll die Software in Stuttgart und Karlsruhe getestet werden. Zunächst sei die Nutzung nur für sechs Monate geplant. Bayern hatte nach einem ähnlichen Verfahren die endgültige Einführung von „PreCobs“ angekündigt. Mittlerweile wird die Software landesweit in allen bayerischen Polizeidirektionen eingeführt.

Der deutsche Bundesinnenminister hatte vergangenen Monat angekündigt, die EU-Kommission zu einem Forschungsprojekt zu Vorhersagesoftware bewegen zu wollen. Auch das BKA will sich demnach daran beteiligen. Neben dem Bundesinnenministerium sind auch andere europäische Regierungen von dem Vorschlag begeistert. Frankreich habe laut dem Staatssekretär Ole Schröder (CDU) „bereits Erfahrung mit dem Thema ‚Predictive Policing’“, daher habe der französische Innenminister „dazu eingeladen, sich auf Expertenebene über das Thema auszutauschen“. Die französischen Behörden hätten vorgeschlagen, den Nutzen von Vorhersagesoftware in einem „Expertenkreis im G6-Format“ (die sechs einwohnerstärksten EU-Staaten plus die USA) zu untersuchen.

Schon jetzt finanziert die Kommission die Entwicklung von Software, um offene Quellen im Internet zu analysieren und auf dieser Basis Prognosen zu entwickeln. Diese Erfahrungen könnten in zukünftige Forschungen einfließen. Das deutsche Bundeskriminalamt (BKA) und die Bundespolizei sind an solchen Forschungen beteiligt.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

25 Ergänzungen

  1. PreCrime ist doch längst überholter Mist! Ab jetzt basteln wir PrePolitics – automatisierte politische Entscheidungen, die sich stets an das Grundgesetz halten und unbestechlich sind. Auch macht PrePolitics ALLE Politiker sofort überflüssig und spart damit dem Steuerzahler richtig Geld! Und für die künftigen Entscheidungen: Dann schauen wir mal, wer die besseren Hackers ranbekommt ;)

  2. Ich finde es sehr vorbildlich, dass die Bundesregierung das tut, was ihr Auftrag ist: und Bürger zu schützen. Weiter so!
    Wer so paranoid ist, dass er nicht mal dem eigenen Staat vertraut , verantwortungsvoll mit unseren Daten umzugehen, sollte sich auf eine einsame Insel ohne Netzzugang zurückzuziehen!
    Wir leben in einem Rechtsstaat und nicht mehr in der DDR-Diktatur!

    1. Welche Bundesregierung , hat es sich bei
      euch noch nicht rumgesprochen, das keine
      Bundesrepublik , mehr existiert .

      Das Land „Deutschland “ ist eine GmbH , sonst nichts,
      im übrigen seid ihr alles Staatenlos, !!! machtlos
      und werdet von den Amerikanern kontrolliert.
      Eure Merkel ist nichts anderes als eine Vasallin unserer
      Regierung , welche uns bedingungslos zu berichten
      hat

      Ihr solltet euch mal geschichtliche Tatsachen aus
      dem Jahre 1990 zu Gemüte ziehen
      Bei euch gibt es keine Beamte, Polizei, und Richter
      mehr, selbst eurer “ Bundesverfassungsgericht “
      ist nach dem Vereinigungs Vertrag illegal
      Deutschland ist ein Spiel, eine Simulation der Politik,
      die euch gnadenlos belügt
      Wunschdenken , nichts als Wunschdenken

      Sorry for my Bad German

    2. “ Wir leben in einem Rechtsstaat und nicht mehr in der DDR-Diktatur!“
      SORRY DUDE , YOU ARE CLUELESS
      You have made my Day

    3. Hast aber schon die gaaanzen Sachen der letzten 15 Jahre mitbekommen? Was haben wir schon vor Jahren alles gesagt? Und dann hat man gesagt, wir übertreiben… PLOP! und dann kommt WikiLeaks und Snowden und wie sie alle heißen. Und Du weißt nix davon?

    4. Newahren Sie sich Ihre Gutgläubigkeit, sie kommen damit sicher besser durchs Leben. Mit der Realität hat das, was Sie schreiben anbei leider nichts zu tun

  3. Das die Polizei Lust darauf hat kann ich verstehen – das sind mächtige Werkzeuge, das lässt sich nicht ignorieren. Insofern wäre eine differenzierte Debatte über die genauen Methoden selbst interessant – welche Daten genau einfließen dürfen, wie die Algorithmen arbeiten sollen, wie die Ergebnisse der Analyse visualisiert werden, und welche Entscheidungen auf deren Basis getroffen werden sollen/dürfen. Ist die analyse von „repeat victimisation“ mustern ein Eingriff in die Privatsphäre? Dafür werden ausschließlich polizeiinterne Daten über Ort und Zeit von Notrufen verwendet, und es werden Vorhersagen über Orte, nicht Personen gemacht. Das finde ich ist ein Fall, in dem sich vernünftig Vor- und Nachteile abschätzen liessen. Das geht natürlich nicht wenn man grundsätzlich verteufelt/verherrlicht.

    1. Die Software selber ist auch nicht das Problem.

      Das Problem wird (und vermutlich schon: ist) der Input, den man braucht, um damit sinnvolle Ergebnisse produzieren zu können. Die Simulationen können nur gut funktionieren, wenn die Datengrundlage vernünftig und real ist.

      Das kann eigentlich nur bedeuten, das eine komplette Überwachung der aller Beteiligten notwendig ist, damit genügend Daten vorhanden sind, um überhaupt einen realistischen Output zu bekommen. Man kann natürlich versuchen, nur mit den Daten der Verbrechen auszukommen, aber das wird nicht gut funktionieren – ohne die Daten der potentiellen Opfer, die ja die Ziele abbilden, ist das ähnlich dem Versuch, die Lottozahlen anhand von Statistiken vorher zusagen.

      Würde man so eine funktionierende Simulation haben, die mit real Daten gefüttert wird, könnte man erstaunliche Dinge damit tun (zB. vor hersagen an welchen Ort sich jemand in der Zukunft befindet oder an welchen Ort sich Leute treffen werden usw. usf. ).

      Zudem gerät man in Gefahr, diesem System (welches hinreichend genau sein wird) zu sehr zu vertrauen und eine Möglichkeit (die eine hohe Wahrscheinlichkeit hat) gleich als Fakt hinstellen und damit Handlungen zu initiieren (versuch mal, eine Möglichkeit, die nie eingetreten ist, zu widerlegen).

      Damit dieses System auch in der Realität funktioniert, müßte man die Gesetze abändern und zulassen, das Systeme, die berechnete Vorhersagen treffen, als Beweis für irgendwas dienen kann (daher eine Möglichkeit in der Zukunft wird als Fakt angenommen wird und Reaktionen darauf, diesen Fakt zu verhindern, legal sind ( man muss nur kurz darüber nachdenken, um zu erkennen, das dies vollumfängliche Macht über alle Bereiche des Lebens der Bürger bedeutet ).

      Obwohl die Idee der Software (und vermutlich auch die Funktion) an sich gut ist, ist das Gefahrenpotential riesig in Anbetracht das es aktuell jetzt schon ein Problem mit der Überwachung verschiedener Teile des Behördenapparats gibt, die Gesetze oder gar die Verfassung komplett ignorieren und unkontrolliert im Verborgenen agieren (BND,BfV und wie sie alle heißen).

      1. Das Problem genau erkannt. Top weiter so.
        Die Software und dessen Funktion wären eine gute Hilfe für die Polizei aber bei den datenskandalen in der letzten Zeit geht das derzeit nicht.

      2. Du hast also naehere Erkenntisse zu der Software und den Daten, die sie verwendet und verwenden kann?

        Sehr schoen!

        Also bitte: um welche Software geht es, welche Daten kann die verwenden, welche Daten muss sie verwenden, kann man Einschraenkungen hart durchsetzen und kontrollieren? Danke!

      3. In dem verlinkten n24 Artikel finden sich zu Precobs praktisch keine Angaben dazu, ausser schwammig „Prognosesoftware“.

        Das Programm, das mit „Das Programm sieht vor allem den tagtäglichen Abgleich von Ermittlungsdaten über verdächtige Personen oder Fahrzeuge vor. Schneller und effektiver wolle man gemeinsam Tatzusammenhänge, Reisewege, Absatzmärkte und Bandenstrukturen rekonstruieren, kündigte Herrmann an. Auch die Auswertung etwa von Schuh- oder Werkzeugspuren soll verbessert werden.“ ist erstmal keine Software, sondern das Sieben-Punkte-Programm zwischen Bayern und BaWue. Das beinhaltet offensichtlich personenbezogene Daten.

    2. „Insofern wäre eine differenzierte Debatte über die genauen Methoden selbst interessant – welche Daten genau einfließen dürfen, wie die Algorithmen arbeiten sollen, wie die Ergebnisse der Analyse visualisiert werden, und welche Entscheidungen auf deren Basis getroffen werden sollen/dürfen.“

      Sorry, aber das ist naiv. Die großen Big Data – Unternehmen füttern ihre Algorithmen mit allen Daten, die sie zur Verfügung haben, auch Wetter, Verkehrsaufkommen und bestimmt auch den Mondeffekt („Lunar Cycle Effects in Stock Returns: […] Taken as a whole, this evidence is consistent with popular beliefs that lunar cycles affect human behavior.“ http://www.iijournals.com/doi/abs/10.3905/jpe.2003.320053).

      Da korreliert dann schon irgendwas. :-) Die Frage nach Kausalzusammenhängen wird bewusst ausgeklammert. Der „Analyse“ der Daten wird ein höherer Erkenntnisgewinn zugesprochen.

      Die Algorithmen sind selbstlernend (siehe z.B. Gesichtserkennung). Da weiß irgendwann kein Mensch mehr, wie die genau funktionieren. Entscheidungen werden automatisiert anhand von statistischen Größen getroffen. Precrime wird selbstverständlich auch auf Personen angewendet (werden). Da spuckt dann ein autonomer Algorithmus aus, dass du mit 91,3579% Wahrscheinlichkeit eine Gefahr für die Allgemeinheit darstellst, weil du mit dieser Wahrscheinlichkeit in den nächsten 3 Jahren eine „terroristisch“ motivierte Straftat begehen wirst. Vielleicht sind solche Algorithmen in ihrer Trefferquote statistisch sogar besser als die Bauchentscheidung irgendeines Beamten nach Durchsicht einer Akte. Aber da werden nur Scheinsicherheiten produziert, die im Einzelfall eben keine Sicherheit geben – Pech, wenn es dich erwischt. Das perfide ist, dass man sich noch nicht mal „konform“ verhalten kann, weil du gar nicht weißt, welche Informationen auf welche Art und Weise zu diesem Ergebnis führen.

      1. Nur geht es hier um deutsche Behoerden und deren definierte Aufgabenerfuellung und nicht Big Data Unternehmen und derem freien Gewinnstreben in neuen Geschaeftsfeldern.

        Wenn man bei der Polizei eine Software einsetzte, die nur Daten ohne Personenbezug verarbeiten kann, dann verarbeitet man damit keine personenbezogenen Daten. Wenn die statistische Analyse von Daten ohne Personenbezug erlaubte, ohne personenbezogene Aktivitaeten die Polizeiaufgabe besser zu erfuellen, spricht mE nichts dagegen. In der Verkehtrplanung werden zB auch Unfalldaten ausgewertet und mit Massnahmen reagiert. Wenn man zu dem Ergebnis kommt, dass das mit den gegebenen Mitteln nicht moeglich ist, hat man einen echten Grund zur Ablehnung. Wenn das Prozedere zur Ergebnisfindung nicht transparent genug ist, hat man einen echten Grund zur Ablehnung. Aber mit einer eher wirren Dystopie macht man es den Vertretern von mehr Ueberwachung einfacher sich als die rational agierenden zu positionieren. Wa sie mE idR nicht sind.

      2. @h s

        „Aber mit einer eher wirren Dystopie macht man es den Vertretern von mehr Ueberwachung einfacher sich als die rational agierenden zu positionieren.“

        Ja, da hast du natürlich völlig recht. Eher wirre Dystopien sind wohl auch eher selten hilfreich. Gerade wenn man ihnen die rationalen Argumente der Vertreter von mehr Überwachung entgegen hält. Btw., sind das die hier von dir genannten Argumente?

        Klare Trennung des Datensammelns und -auswertens von Behörden und Unternehmen und dass nur Daten ohne jeglichen Personenbezug verarbeitet werden? Was meinst denn du, wo die Daten herkommen, und was glaubst du, inwieweit sich die technische Auswertung unterscheidet. Vielleicht würden die Vertreter von mehr Überwachung hier noch rational argumentieren, dass der Zugriff, den Geheimdienste auf Unternehmensdaten haben, ja nichts mit den Polizeibehörden zu tun hat, weil die Behörden gerade in Deutschland schon historisch bedingt streng getrennt arbeiten.

        „Wenn man bei der Polizei eine Software einsetzte, die nur Daten ohne Personenbezug verarbeiten kann, dann verarbeitet man damit keine personenbezogenen Daten. Wenn die statistische Analyse von Daten ohne Personenbezug erlaubte, ohne personenbezogene Aktivitaeten die Polizeiaufgabe besser zu erfuellen, spricht mE nichts dagegen.“

        Ja, meiner Meinung nach auch nicht.

        „Wenn man zu dem Ergebnis kommt, dass das mit den gegebenen Mitteln nicht moeglich ist, hat man einen echten Grund zur Ablehnung. Wenn das Prozedere zur Ergebnisfindung nicht transparent genug ist, hat man einen echten Grund zur Ablehnung.“

        Das sehe ich auch so.

        „Wa sie mE idR nicht sind.“

        Da stimme ich dir auch zu.

        Eher wirre Eutopien sind übrigens genauso wenig hilfreich. Von sinnlosen Allgemeinplätzen mal abgesehen, müsste man sich jetzt nur noch über das „wirr“ einigen. Und jetzt schau doch mal, wie das bisher beim Thema „Datenschutz“ so läuft.

      3. „Wo die Daten herkommen“ laesst sich nur beantworten, wenn klar ist, welche Daten denn verarbeitet werden sollen und welche Daten eine Software ueberhaupt verarbeiten kann.

        Wenn man Software nur auf (offen verfuegbare) unpersoenliche Statistikdaten und der Polizei vorliegende Falldaten ohne Personenbezug aufsetzte, ist es voellig egal, was fuer Daten sonstwer sammelt, die bekommt man dann einfach nicht rein in diese Software.

        „Intuition“ mit signifikanten Ergebnissen ist auf Erfahrungen aufgebaute Statistik, es lohnt sich, deren moegliche Unterstuetzung durch entsprechende Algorithmen zu untersuchen. Warum sollte die Polizei auf moegliche Verbesserungen in der personenunabhaengigen Planung und Praevention/Aufklaerung verzichten, die in vielen Bereich aktueller Stand der Entscheidungsfindung sind?

    3. Auch sollte man erkennen, dass auch der Polizist zum Sklaven der Maschine wird, nicht nur die Überwachten. Denn er wird einen zunehmenden Rechtfertigungsdruck verspüren, wenn er sich einmal auf seine Intuition verlassend, gegen die Entscheidung der Maschine stellt, und dann aus dummem Zufall, doch etwas im vorhergesagten Quadranten passiert.
      Dann lautet der indirekte Vorwurf: „Ja warum, Herr Kollege, haben sie sich nicht wie von der Maschine vorherbestimmt, im Quadranten XY aufgehalten?? Ich erwarte von ihnen, dass sie ihre Intuition künftig beiseite lassen und das tun, was der Computer ihnen sagt. Haben wir uns verstanden?!“

      1. Nach aktuellem Stand zum Thema Entscheidungsfindung ist ein gewisser Rechtfertigungsdruck von „intuitiven“ Entscheidungen absolut sinnvoll. Wenn da nicht hinterfragt und reflektiert wird, hat man schnell Willkuer, Beeinflussung durch Vorurteile und letztlich keinerlei Qualitaetsmanagement oder Verbesserungsmoeglichkeiten.

        Dass jede Automatisierung, sei es durch Software oder durch einen festgelegten Prozess, immer auch hinterfragt und laufend ueberprueft und damit letztlich gerechtfertigt werden muss, ist kein Widerspruch.

    4. Wow danke für die differenzierte debatte! Wer hat Lust auf Lösungsansätze?
      Wenn ich das richtig verstehe ist ein Kernproblem die Undurchsichtigkeit und Missbrauchsmöglichkeit der software, als auch die unklare Lage darüber ob das ganze überhaupt irgendetwas bringt.
      Gäbe es eine Möglichkeit die software transparent zu gestalten, mit öffentlichem Quellcode? So dass die Öffentlichkeit kontrollieren kann was damit überhaupt möglich ist? Oder ist die Gefahr zu groß dass „verbrecher“ den quellcode lesen und dementsprechend handeln? (Ich denke nicht. Und die 1-2 die dann deswegen durch die lappen gehen liessen sich in kauf nehmen, falls das predictive policing mit vernünftiger öffentlicher kontrolle überhaupt erstmal möglich macht.) Würde es Sinn machen die Software so zu gestalten dass sie informationen darüber, wie sie genutzt wird und wie nützlich sie ist der öffentlichkeit zugänglich macht? (Dass die software sozusagen gleichzeitig überwacht, wie und wozu sie verwendet wird und ob sie selbst überhaupt nützlich ist).
      Irgendwelche Vorschläge?
      Danke,
      m

  4. Diese Precrime-Sache macht mir mit die größten Sorgen. Ist schon so ein Ding…. „Wir brauchen halt alle eure Daten, weil wir müssen ja precrimen….“ Und dann geschieht es. Alle machen mit, am anfang ist das noch toll. Ganze Völker werden unterdrückt und überwacht. Und nur damit keiner mehr einen Lutscher klauen kann. Gut, die Privatsphäre ist gestorben. Macht nix. Die TOTALE SICHERHEIT!

    1. Eine etwas differenziertere Betrachtung taete gut.

      Man kann Verkehrsstatistiken machen und auswerten, ohne persoenliche Daten zu erheben oder personengebunden auszuwerten, und das passiert laufend, sonst stuenden wir dauernd dumm rum.

      Man kann Kundenstroeme zaehlen und auswerten, ohne persoenliche Daten zu erheben oder personengebunden auszuwerten, und das passiert laufend, sonst waeren die Laeden idR halbleer.

      Man kann jede Menge Daten erfassen und auswerten, ohne persoenliche Daten zu erheben oder personengebunden auszuwerten. Das wird andauernd getan, denn Logistik und Planung fuer unsere grundlegende Infrastruktur beruht darauf, bis hin zu Stadtplanung, Rettungswesen und Energieversorgung.

      Die Moeglichkeiten transparent und wissenschaftlich fuer die Polizei zu untersuchen ist offensichtlich naheliegend, was spricht dagegen? Das sofort unter eine Dystopie zu verbuchen ist gelinde hysterisch. Der Knackpunkt sind Transparenz bzgl. der Daten und hinreichende Kontrolle der tatsaechlichen Moeglichkeiten, Algorithmen und Verwendung.

      1. In dem TED Talk geht es um Verkehrsueberwachung durch automatische Kennzeichenerfassung.

        Das hat genau nichts mit Verkehrsstatisktiken ueber nicht-personengebundene Daten zu tun, also zB Unfallstatistik, gezaehlte Verkehrstroeme, gezaehlte Staus, etc, pp.

  5. Erinnert sich eigentlich niemand mehr an ADE 651 ? Oder anders gefragt: gibt es irgend jemand der glaubwürdige Statistiken zur Wirksamkeit von Precobs vorbringen kann ? .. also solche, bei denen echte Effekte eindeutig von zufälligen oder anderweitig bedingten Schwankungen in der Fallzahl zu unterscheiden sind ?

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.