Bayerischer LfD findet Vorhersagesoftware OK, weil der Computer nicht selbst zum vermuteten Tatort fährt

EIne Analysesoftware wie "Precobs" steigert den polizeilichen Datenhunger. Immer mehr Landeskriminalämter interessieren sich.
EIne Analysesoftware wie „Precobs“ steigert den polizeilichen Datenhunger. Immer mehr Landeskriminalämter interessieren sich.

Als erstes (aber nicht mehr einziges) Bundesland testet Bayern eine Software zur Vorhersage von Straftaten („Predictive Policing“). Das System „Precobs“ wird von einer Firma aus Nordrhein-Westfalen geliefert und verarbeitet statistische Falldaten früherer Straftaten. Zunächst soll es auf Wohnungseinbrüche beschränkt bleiben, später könnten auch Autodiebstähle oder andere Kriminalitätsphänomene hinzukommen. Betrieben wird die Plattform beim Landeskriminalamt (LKA).

Nun hat sich der bayerische Landesbeauftragte für den Datenschutz (LfD) Thomas Petri mit der Software befasst. Sein „Prüfungsergebnis“: Der Einsatz der Software sei „datenschutzrechtlich nicht zu beanstanden“. Und zwar, weil nur anonyme Daten verarbeitet würden:

Das derzeit verwendete Analysesystem ist in der aktuellen Ausgestaltung datenschutzrechtlich nicht zu beanstanden.

Abgesehen von Angaben zum Tatort verwendet das System keine personenbezogenen Daten, um Tatvorhersagen zu treffen.

Das hatte auch niemand behauptet, vielmehr machte die Kritik an den Tests auf den späteren Ausbau des Systems aufmerksam: Einmal eingeführt, können die verarbeiteten Datenquellen Schritt für Schritt erweitert werden. So geschieht es bereits in Großbritannien und den USA, die beide als Vorreiter in Sachen Vorhersagesoftware gelten können. Erst kürzlich hatte die britische Firma Accenture einen Probelauf zur Prognose zukünftiger Straftaten von Gang-Mitgliedern abgeschlossen. Das bayerische LKA trifft in zwei Wochen auf einer europaweiten Verkaufsmesse für Polizeitechnik in Berlin mit Accenture zusammen, um sich über entsprechende Erfahrungen auszutauschen.

Vorhandene Stereotype werden zementiert

Der bayerische LfD findet „Precobs“ auch deshalb unbedenklich, weil „der Polizeibeamte und nicht die Software das letzte Wort hat“. Von der jeweils zuständigen PolizistIn würde das Analyseergebnis anhand der vorliegenden Erkenntnisse „gegenprüft“, bevor weitere Maßnahmen eingeleitet würden. Auch dies kann kaum als Argument für die Unbedenklichkeit der Vorhersagesoftware gelten, denn natürlich fährt nicht der Computer selbst zum vermeintlichen Tatort.

Probematisch an Software wie „Precobs“, aber auch bereits vorhandenen Crime Mapping-Systemen ist die Zementierung vorhandener Stereotype bei der Polizei. Die Anwendung zeigt beispielsweise an, dass in einer bestimmten Straße eines reicheren Wohngebietes rund um bevorstehende Ferien- oder Feiertage Einbrüche vermutet werden und welchen Weg die TäterInnen anhand der Verkehrslage wählen könnten. Sie sagt aber nicht, wie die EinbrecherInnen der Zukunft aussehen werden.

Die Polizei wird also möglicherweise jene Personen besonders kontrollieren, die ohnehin häufig ins Raster geraten. Eine Reportage der ARD in den USA hatte dies eindrücklich belegt: Angehalten wurden Personen, die aufgrund ihrer Kleidung eher unterprivilegierten Verhältnissen zuzuordnen sind.

Bye bye Datensparsamkeit

Trotzdem hat der LfD diesbezüglich keine Bedenken und glaubt daran, dass in Bayern alles mit rechten Dingen zugeht. Demnach würden bei „vermehrten Personenkontrollen in einem bestimmten Gebiet“ die rechtlichen Vorgaben (also auch die Nicht-Diskriminierung) „in jedem Einzelfall strikt durch den Polizeibeamten vor Ort eingehalten“. Das darf allerdings bezweifelt werden.

Eines lässt Petri in seinem „Prüfergebnis“ gänzlich unerwähnt: Dass nämlich das „Predictive Policing“ den polizeilichen Datenhunger steigern wird. Denn eine statistik-basierte Analysesoftware arbeitet umso besser, je mehr Informationen verarbeitet werden. Dass dies dem Grundsatz der Datensparsamkeit widerspricht, ist für den bayerischen Datenschützer offenbar kein Problem.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

9 Ergänzungen

  1. Die Analysesoftware heißt tatsächlich „Precobs“? Im Ernst?
    Es ist erschreckend, daß sie sich nicht mal Mühe geben, ihre polizeistaatlichen Totalitätsträume à la Minority Report zu verschleieren.

  2. Gut, gut, angenommen, die Datensammelei sei unkritisch (was sie nicht ist).

    Wieso wissen die Polizisten nicht, das in reichen Vierteln zu bestimmten Zeiten eingebrochen werden kann? Wieso wissen die nicht um die Verkehrssituation?

    Eh, tun die ihren Job nicht? Oder liegt es daran, dass sie zu wenig Personal haben? Sind die echt auf dem Level, ohne Smartphone nicht mehr nach hause zu finden?

    Niemand erzählt mir, Polizisten seien so doof. Tja, liebe Polizisten und liebe Polizeigewerkschaft, da denkt mal nach. Ich glaube, ich weiß, wo da der Hase im Pfeffer liegt. Haben Polizisten eigentlich ein Streikrecht?

  3. Wirklich? Muss erst jemand den Science Fiction-Roman dazu schreiben? Dieses Spiel lässt sich auch umkehren: Data Mining zur Verbrechensplanung, Profiling von Polizisten und operativem Vorgehen, Errechung gezielt gegen die Vorhersagesoftware gerichteter Täuschungsmuster. Wer wird diesen Evolutionsprozess wohl gewinnen: Chronisch unterbezahlte Polizeien oder kriminelle Banden mit hoher Motivation zur Effizienz- und damit Profitsteigerung?

    Kriminalität wird durch soziale Befriedung gesenkt. Mit allem anderen macht man sich etwas vor. Dazu gehört auch ein zurückgenommenes staatliches Kontrollregime. Aber übrigens auch die angemessene Bezahlung und Ausstattung von Polizisten und nicht ihre Ersetzung durch Computersysteme.

  4. Mal die Bedenken für zukünftige Datenquellen heraus genommen:
    Ich finde es durchaus richtig, dass die Polizei nicht mehr Stecknadeln auf eine Karte pinnen muss, sondern dafür auch eine Software nutzen kann. Und ich finde es auch OK, dass die Software zum Beispiel aus den bisherigen Tatorten ein Muster extrahieren kann.

    Konzentriert die Kritik lieber stärker auf diskriminierende Datenerhebung. Diese wird es nämlich auf jeden Fall geben, mit oder ohne „Vorhersage“-System dahinter.

    1. Niemand hat etwas dagegen, dass die Polizei Computer nutzt. Doch schon bei den Fähnchen sollte man bedenken, dass alleine die Arbeit damit, der Blick darauf dem Hirn ermöglicht, neue Schlüsse zu ziehen. Menschen sind seit Urzeiten darauf geeicht. Echte Polizeiarbeit hat erheblich mit Erfahrung und Kreativität zu tun.

      Das Problem ist jedoch anders:
      Wenn der Computer Schlüsse zieht, dann sind die nicht mehr nachvollziehbar (das System ist lernfähig und die Datenbasis ändert sich ständig). Dennoch haben die Schlüsse konkrete Folgen. Ist eine Computeraussage ein begründeter Verdacht? Wie geht ein Richter später mit den konkreten Folgen um? Wie geht man mit Fehlern um?

      Relativiert man die Bedeutung der Computer, sagt ich würde übertreiben, immerhin hätte der Mensch das letzte Wort, dann stellt sich die Frage, wie sinnvoll der Computer denn dann ist. Von “Precobs” kann dann sicher nicht mehr gesprochen werden.

      1. Klar kann man das auch alles von Hand machen und sich intensiv mit der Datenlage beschäftigen. Das wird dann aber sehr schnell unübersichtlich für einen Menschen. Das Gehirn des Menschen skaliert seit Urzeiten schlecht mit unübersichtlichen Informationsfluten.
        Ich vergleiche das System mal mit einer Wettervorhersage: Klar kann man die auch mit den Messwerten der weiteren Umgebung von Hand machen. Ein Rechner sieht jedoch eventuell Ähnlichkeiten zu einer Wetterlage von vor 2164 Tagen und nimmt einfach das damals aufgezeichnete Verhalten als Basis für seine Simulation. Anschließend guckt da dann auch noch mal ein Meteorologe drauf und beurteilt das Ergebnis.

    2. Die Software zeigt die Hotspots auf einer Karte an wo vermehrt Kriminalität registriert wurde. Genau dort wird der Polizeieinsatz intensiviert und dadurch werden noch mehr Verbrechen erkannt. Diese werden dann wieder in die Datenbank der Software eingespielt. Der so enstandene Kreislauf verringert dadurch die Qualität der Statistik, bis sie nicht mehr zu gebrauchen ist. Dieses Problem ist so alt wie die Polizeiarbeit selbst und existiert übrigens auch wenn man mit Stecknadeln auf einer Karte herumspielt. Der gravierende Unterschied der Software zur altmodischen Arbeitsweise ist schlicht eine gesteigerte Effizienz – die virtuellen Stecknadeln gehen einem nicht aus – und, dass die Statistik wesentlich schneller denaturiert und unbrauchbar wird.

      Übrigens steckt hinter jeder Stecknadel, real oder virtuell, eine Geschichte. Wenn man also auf eine Karte mit Stecknadeln starrt, dann gaukelt einem nur der erste naive Blick Anonymität der korrelierten Daten vor. Jeder der etwas mehr als zwei Sekunden über den Ursprung der Pins grübelt, sieht natürlich, dass zumindest eine Person Daten ausgewertet haben muss, damit sie die Nadeln korrekt an die Karte heften konnte – Diese Person kennt somit die wahren Hintergründe. Im Fall der Software ist es aber die Software selbst, die die notwendigen Daten analysiert. Das Frontend, also der Teil der Software den die Anwender zu Gesicht bekommen, mag zwar dem naiven ersten Blick standhalten und einem Anonymität der vorliegenden Daten sugerrieren, aber erst wenn man die ganze Software überprüft und kontrolliert, kann man entscheiden ob diese tatsächlich legitim arbeitet. Wer kann und darf das? Eine Regierung oder staatliche Einrichtungen, die uns bisher auch so gekonnt vor ungerechtfertigter Überwachung bewahrt haben? Snowden 2.0 inc.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.