Landeskriminalämter und Hersteller diskutieren die Verarbeitung von Personendaten mit Vorhersagesoftware

Flyer zur Verkaufsmesse "18. Europäischer Polizeikongress", die großspurig als "Europas führende Veranstaltung zur Inneren Sicherheit" bezeichnet wird.
Flyer zur Verkaufsmesse „18. Europäischer Polizeikongress“, die großspurig als „Europas führende Veranstaltung zur Inneren Sicherheit“ bezeichnet wird.

Die drei Landeskriminalämter Bayern, Nordrhein-Westfalen und Niedersachen planen die Einführung von Vorhersagesoftware („Predictive Policing“) zur Auomatisierung polizeilicher Gefahrenabwehr. Eine Vorhersagesoftware soll anzeigen, wo demnächst Straftaten passieren könnten. Zunächst sind die Anwendungen auf Wohnungseinbruch beschränkt, eine Ausweitung ist im Erfolgsfalle aber bereits angekündigt. Auch das BKA hat jetzt entsprechende Suchbewegungen gestartet.

Wenn Medien über „Predictive Policing“ berichten, wird in der Überschrift oder als Bebilderung gern der Blockbuster „Minority Report“ von 2002 bemüht. Die Polizeibehörden erklären dann, dass in ihren Anwendungen aber (wie im Film mit Tom Cruise) gar keine Personendaten verarbeitet würden. Angeblich kämen nur anonyme Falldaten zur Anwendung, die mit Wetterberichten, Verkehrsdaten und Angaben wie Zahltagen kombiniert würden.

Das mag für den Anfang auch stimmen, doch andernorts werden längst Personendaten genutzt oder wenigstens getestet. In Großbritannien hatte die Firma Accenture unlängst ein Projekt mit der britischen Polizei durchgeführt. Dort sollte ausprobiert werden, inwiefern sich die Rückfälligkeit von straffällig gewordenen Gang-Mitgliedern berechnen ließe.

Spätestens mit dem nächsten „Europäischen Polizeikongress“ lässt sich das Dementi aus NRW und Bayern jedenfalls nicht mehr aufrechterhalten. Denn auf der jährlichen Krach-Bumm-Peng-Verkaufsmesse für neueste Polizeitechnologie wird es laut den Veranstaltern im Februar auch einen Workshop zu „Predictive Policing“ geben. Dort wollen nicht nur die Innenministerien NRW und Bayern über ihre Tests berichten, sondern auch Accenture.

Auch die deutsche Firma CID Consulting GmbH darf auf dem Workshop referieren. Die Firma ist aktiv im Segment „Data Mining“ und gehört zu jenen Firmen, zu denen das BKA zur automatisierten Datenanaylse Kontakt aufnahm.

Ebenfalls auf dem Radar des BKA sind die Hersteller Netapp Deutschland GmbH, Fun Communications GmbH, IABG mbH, Moresophy GmbH und Osher Ltd. Das BKA hat zudem Testberichte von IBM und Oracle Deutschland GmbH zu Ergebnissen einer „Entity Extraction“ angefragt. Oracle wird hierüber ebenfalls auf dem Workshop des „Europäischen Polizeikongress“ berichten.

13 Ergänzungen

  1. Das ging aber schnell, dass plötzlich doch personenbezogene Daten verarbeitet werden sollen. Merke: Immer wenn ein Innenpolitiker/Polizeiboss sagt „Wir werden das nicht dazu nutzen“, dauert es höchstens zwei Monate, bis doch eine erweiterte Nutzung im Sinne der „Sicherheit“ erwogen wird.

    Next: Pkw-Mautdaten.

  2. Data-Mining & Vorhersage von Verbrechen? Bitte. Wenn die Politik es wünscht … hoffe nur, irgendjemand vom CC ist so schnell, dass er einen „Politiker+Entscheidungs+Unternehmen+Steuer“ Datensatz produziert. Vorhersage dann, in welchem Bereich des jeweils übervorteilten Wirtschaftszweigs betroffene Personen dann landen.

  3. Ich weiß nicht wo ihr eure Quellen herhabt bezügl der Firmen, welche das BKA hinsichtlich „Predictive Policing“ auf dem Radar hat. Aber da hat jemand was durcheinander geworfen. Die Firma NetApp stellt Festplattenspeichersysteme her. BigData analytics Software, DataMining Software können die gar nicht.

    1. Danke für den Hinweis, ich hatte nicht selbst nachgesehen was die Firma eigentlich kann oder nicht kann. Die Information stammt vom BMI, das angab „im Kontext Data Mining“ habe das BKA an „Vorführungen verschiedener Produkte“ teilgenommen. Da gehörte auch NetApp dazu. Vielleicht wäre es wirklich interessant mal zu recherchieren worin deren Beitrag dann eigentlich besteht?

      @ Frl. Unverständnis: Naja, der Fairness halber soll gesagt sein dass die LKÄ ja zunächst nur mit Accenture auf der Veranstaltung /reden/. Dass die Nutzung von Personendaten schon geplant sei, würde ich erstmal nicht behaupten. Auch in Großbritannien war die besagte Studie ja bislang nur ein Versuchsballon, der nun ausgewertet wird.

  4. Na Herzlichen Glückwunsch wen dass die Software ist die in Bayern schon erprobt wird, ist dass mal wieder geldvernichtung aller erster Klasse.
    Die Software geht von einem Standart Verhalten aus. Und was die Sache noch interessanter macht, ist dass erst ab 3 Fällen eines Täters (ja 3) wirklich vorhergesagt werden kann.
    Effektiv gesehen ist die Software nix anders als ein Wahrscheinlichkeitsrechner, und dass kann auch ein ermittelnder Beamter mit einer Landkarte und einpaar bunten Fähnchen mach.
    Um mal bei den Film anspielungen zubleiben.
    Und dass einzige was bei einem hohen Gefahrenscre gemacht wird ist dass man einen Einsatzwaggen in der Gegend rumfahren lässt. Einen Einbrecher wird es sicher abschrecken wen er in einem Mehrfamilienhaus in eine Wohnung einsteigt.

  5. Vor Jahren hatte ich einmal eine Geschichte geschrieben, in der ein Kleinverbrecher die Vorratsdatenspeicherung, die Datenbanken, Kameras und Computereinbrüche nutzte, um wie ein Heiliger zu erscheinen. Nun, das muss wohl jetzt ergänzt werden. Heute manipulieren die Verbrecher nicht nur die Päkog-Software der Polizei. Heute schaffen die sie selbst an, um vorherzusagen, wo mit Polizeiaufgebot zu rechnen ist.

    Hach, man müsste Verbrecher sein. Goldene Zeiten brechen für sie an.

  6. Zum einen gegebenenfalls das… zum anderen werden Menschen stigmatisiert und kriminalisiert von einer automatisierten Software. Da werden dann Menschen zu potentiellen Wiederholungstätern degradiert und entsprechend behandelt. Mit allen Konsequenzen, die sich daraus ergeben: Mehr Überwachung und Kontrolle, dadurch dann vermutlich in zweiter Instanz auch Jobverlust, Vernichtung des Soziallebens etc.
    Und zwar so lange, bis der- oder diejenige zum Überleben zu weiteren Straftaten gezwungen ist, weil er oder sie keine andere Chance mehr hat. Zumal: „Ist der Ruf erst ruiniert, lebt es sich…“
    Im Ergebnis hatte die Software dann „recht“ und bestätigt sich selbst. Prima.

    Oder es werden irgendwann präventiv Menschen weggesperrt, weil die Software „erkannte“, dass der- oder diejenige wahrscheinlich Straftaten begehen könnte. So wie im Film eben. Und die Polizei schlägt sich dann gegenseitig auf die Schultern, wie gut sie doch seien.

    Aber scheinbar… wollen wir das. Denn niemand hält sie auf!

    1. So ist es. Interessant ist (auch) der Punkt: „…hatte die Software dann recht“.

      a) kann eine solche Software maximal so korrekt sein, wie die Daten, auf der sie beruht. Das wirkt sich auf die Vorhersage nicht linear aus. „You better hurry“ wäre die minimale Konsequenz für die Polizei.

      Fragt sich nur, warum die Polizei dann leider am falschen Ort war. Ja ja, die Eile. Kann ja mal passieren. Kopfschüttel. Mit Hirn wäre das nicht passiert. Ist das noch Ironie?

      b) kann kein Mensch die Aussagen der Software überprüfen. Das kann nicht einmal die Software selbst, wenn sich der Datenbestand ändert oder die Software „lernfähig“ ist.

      Ist sie übrigens nicht lernfähig, so kann man sich den Aufwand gleich sparen und investiert lieber in Ausbildung und in eine effektivere Nutzung von Rechnern bei der Polizei. Minimale Voraussetzung hier ist: Bitte ein Schritt nach dem Anderen! Sonst fällt man auf die Nase! „Wie wäre es mit einem Tippkurs?“ hatte ich mich kürzlich live bei der Polizei gefragt.

      c) Muss man fragen, was im Zweifelsfall etwa vor Gericht geschieht. Wie ist auszuschließen, dass diese Software ein Urteil beeinflusst? Richter können die Algorithmen nicht verstehen (so klug sie auch sein mögen, denn Punkt b deutet generelle Schranken an). Ab welchem Punkt muss ein Richter die Aussage eines Rechners als letztes Tüpfelchen für eine Verurteilung werten? Noch einmal, diese Computeraussage ist grundsätzlich nicht nachzuvollziehen oder dumm wie Brot.

      d) Braucht es nun deshalb ein Beweisverbot für „Aussagen“ von Rechnern? Es wird schwierig. Die Polizei darf bestimmte Dinge nur mit einem begründeten Verdacht tun. Wie wertet man es, wenn ein Rechner diesen Verdacht liefert? Welche Auswirkungen hat eine solche Denkweise auf die Gesellschaft?

      Einfaches Beispiel: Wenn Rechner über soziale Massnahmen Aufgrund von (den lange gespeicherten) Personendaten entscheiden. Das würde Geld viel sparen und wäre vollkommen „gerecht“. Dummerweise verhungert die alte Tante Erna in ihrer Wohnung, weil sie mit den neuen Medien nicht zurecht kam und weil kein Mensch auch nur einen Augenblick irgend etwas hinterfragt hatte. „Sorry, die Datenbank hatte einen Fehler“ ist keine akzeptable Ausrede. Das es nicht so kommen wird, weil immer Menschen da sind, das stimmt nachweislich schon heute nicht mehr.

      e) Einer solchen Software ist nicht zu vertrauen. Sicherheitslücken, Manipulationsmöglichkeiten, Fehler, grundsätzliche Regeln großer Datenbanken, die einbebaute Weltensicht der Programmierer und viele andere Dinge belegen das.

      Die Folge: Wenn es um wichtige Dinge geht, dann muss ein Mensch die Entscheidung selbst treffen. „Sicherheit“ kann man nicht programmieren, weil das ein grundsätzlicher Widerspruch zu dem ist, was Mensch sein bedeutet (wie konnten wir ohne nur so lange „überleben“?). Sicherheit ist vielmehr ein Konzept.

      Wenn es nicht um wichtige Dinge geht, dann ist der Aufwand einfach unangemessen und generiert ein Horrorszenario.

  7. Was haben wir uns über Wahrsager der Antike lustig gemacht oder über den ex Präsidenten Reagen, der nur nach Absprache mit seinem Astronomen seine Termine legen ließ. Wie blöd kann man sein, um daran zu Glauben? Stellt sich heraus, sie waren nicht blöder als das Landeskriminalamt.
    Wenn man ganz fest an etwas glaubt, dann kann man dort doch auch persönliches beichten, oder? Wenn das System dann immer noch nicht funktioniert, muß man es nur mit mehr Daten füttern …
    Zirkuläre Logik, wenn man sich einmal auf das Glaubenssystem eingestellt hat, ergibt alles einen Sinn. Man muss halt nur daran Glauben. Pech nur, dass wir dafür d’ran glauben müssen ..

    Kein Mensch kann sagen, was dieses System gelernt hat, wenn es auf neuronale Strukturen und Korrelationen aufbaut. Man kann mit neuronalen Netzen ganz gut Sachen in der Gegenwart regeln, aber die Zukunft zu regeln erschließt sich uns noch nicht. Da dürften gute Wahrsager und die Maschine ähnliche Trefferquote haben … der erfahrene Polizist nennt es schlicht „eine Ahnung“.

    1. Durchaus richtig. Dennoch überlegt die Politik: Wenn Google das kann, hellseherisch Deine intimsten Bedürfnisse errät, Facebook dich besser kennt, als Deine Freunde, dann müsste es doch … funktionieren. Werbung funktioniert doch auch. Die Wettervorhersage wird immer besser. Für Manche ist alles so einfach in „Neuland“, in dieser schönen neuen Welt. Wir müssen ja nichts davon verstehen.

      Na ja, man frage mal nach, was warum funktioniert und welchen Sinn es macht, die Trefferquote der Werbeindustrie „jetzt neu“ bei der Verbrechensbekämpfung bis hin zu Terror und schwersten Straftaten, zu erreichen. Also ehrlich, ich dachte nicht, dass polizeiliche Erfolgsstatistiken so schlecht sind. Aber was interessieren mich Tatsachen und Zahlen oder gar Transferleistungen…

      Der erste Aufschrei wird kommen, wenn das Haus des Polizeipräsidenten umstellt wird, weil der einen Terror-TV from Hell beim Mediamarkt vom Schwarzgeld bestellte. Schließlich werden von diesem master control program, Werbealgorithmen (statt Schach wie im Film) verwendet. Das Programm ist ja nicht blöde.

      Oh je, vielleicht hatte das Programm sogar aus irgend einem Grund recht… Jeder Prügelcop, jeder bestechliche Beamte oder Politiker, ja sogar jeder menschliche Fehler und alle peinliche Abweichung von der Norm verschwinden aus der voll integrierten Welt, während die Cops vor dem Sheriff-Büro auf der Bank oder hinten im autonomen Streifenwagen, an Grashalmen kauen. Den Mord im Affekt, den Banken- oder Internetbetrug, die ganzen Tatort-Illusionen werden dann wohl einfach weg definiert, weil kriminalistischer Verstand so was von unnötig geworden ist. 8,50 EUR sind schließlich mehr als genug für eine Hilfskraft. Sonst wäre Robocop billiger und dazu noch genauer. Das dem Tatort dann die Vorlagen ausgehen, ist das geringste Problem. Einer Datenbank beim arbeiten zuzuschauen könnte sogar das neue „big brother“ für RTL/SAT-1 werden. Klar, ist doch genügend Sex im Netz – wie ekelig, lass mal sehen, falls das zu langweilig wird! Und dann kommt die neue Folge von „Deutschland sucht den Super Robocop“. Auch eine Art, die Straßen frei von Verbrechern, sogar von allen Menschen zu bekommen. Die Lösung. Keine Menschen mehr. Es hat funktioniert, sagt der eine Robi zum Anderen…

      High noon. It’s so easy.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.