Predictive Policing und GesichtserkennungWer haftet künftig bei unzulässigen Grundrechtseingriffen?

Wenn die Polizei Biometrie- oder Prognosesoftware einsetzt, müssen haftungsrechtliche Fragestellungen diskutiert werden. Das fordert Gastautor Florian Krahmer und erklärt, welche Schwachstellen es gibt und warum Skepsis gegenüber der erwünschten Wirkung von polizeilich genutzten Predictive-Policing-Programmen angebracht ist.

Protest gegen Videoüberwachung am Bahnhof Südkreuz in Berlin am 27. November 2017. CC-BY 2.0 Stefanie Loos

Florian Krahmer studierte Politikwissenschaft an der Universität Leipzig und arbeitete mehrere Jahre als Wissenschaftler für die Linke im Sächsischen Landtag. Gegenwärtig hat er einen Lehrauftrag an der Universität Leipzig inne und forscht zu polizeiwissenschaftlichen Themen in Sachsen.

Der Einsatz neuerer Technologien und hier vor allem Künstlicher Intelligenz (KI) hat in den letzten Jahren vermehrt haftungsrechtliche Fragestellungen aufgeworfen. Wer ist beispielsweise verantwortlich für einen Unfall, der von einem autonom fahrenden Fahrzeug verursacht wurde?

Das Haftungsrecht kennt im Grunde die Höhere Gewalt und die Verantwortlichkeit konkreter Rechtssubjekte. Mit dem Einsatz neuer Technologien wird dies zunehmend komplizierter. Die sich daraus ergebenden Fragestellungen sind auch für die Anwendungen bei Polizeien und anderen Behörden relevant, aber bisher nur unzureichend diskutiert worden. Eine Diskussion wird in der Regel mit der Argumentation vermieden, dass es sich entweder gar nicht um Grundrechtseingriffe handelt oder dass es letztlich eine konkrete Person ist, die handelt und die die Software nur zur Entscheidungsunterstützung nutzt. Dass diese Argumentation nicht durchzuhalten ist, soll nachfolgend dargestellt werden.

Automatisierte Fehlerquote

Das erste Beispiel betrifft den Einsatz automatisierter Gesichtserkennung im öffentlichen Raum. Seit 2017 wurden in einem Pilotprojekt der Bundespolizei verschiedene Gesichtserkennungsprogramme am Bahnhof Berlin Südkreuz getestet. Zwar existieren Debatten über die Zulässigkeit des Gesamtprojektes, es wird aber kaum darüber diskutiert, wer im Falle einer grundsätzlichen Zulässigkeit für die Folgen der daraus resultierenden Kontrollpraktiken haftet.

Entgegen euphorischer Presseveröffentlichungen des Bundesinnenministeriums über hohe Erfolgsquoten und geringe Fehlerquoten der automatisierten Gesichtserkennung hat das Max-Planck-Institut errechnet, was die offizielle Fehlerquote für eine Kontrollpraxis im Wirkbetrieb bedeuten würde und wie ein Verhältnis von Echttreffern und False-Positiv-Fällen aussehen könnte. Zwar konnten acht von zehn gesuchten Personen erkannt werden und „nur“ bei 0,1 Prozent der videographierten Personen kam es zu einem Fehlalarm, was aber bei der Menge an Bahnreisenden zu einer enormen Zahl führen würde:

Die Deutsche Bahn berichtet, dass rund 11,9 Millionen Menschen täglich mit der Bahn reisen. […] Jedem Alarm solle ein Einsatz der Polizei zur Abklärung folgen. Da eine flächendeckende Überwachung an Bahnhöfen jedoch 11.900 falsche Alarme pro Tag erwarten ließe, müssten jeden Monat über 350.000 Personen unnötigerweise kontrolliert werden. Das wäre nicht nur enorm aufwändig und teuer, unsere Bahnhöfe würden auch bald wie die Kontrollen an Flughäfen aussehen.

Setzt man die Anzahl der Echttreffer (entsprechend achtzig Prozent Treffergenauigkeit und bezogen auf den Fahndungsbestand von 2018) ins Verhältnis zur Anzahl der Fehlalarme, ergibt sich eine prognostizierte Fehlerquote von rund 99 Prozent, berechnet das Max-Planck-Institut.

Nur „Befehle“ ausführen

Nach wie vor funktioniert die eingesetzte Technik nur unzureichend: Es werden beispielsweise Personen mit dunkler Hautfarbe durch die Programme schlechter erkannt. Auch Kleidungstücke wie Mütze, Kapuze und Brille beeinflussen die Treffergenauigkeit der Software. Damit bleiben die altbekannten optischen Erscheinungsmerkmale, die zu diskriminierenden Polizeikontrollen führen, weitestgehend erhalten: dunkle Hautfarbe und Kapuzenpulli.

Diskriminierende Einflussfaktoren werden bei polizeilichen Maßnahmen durch den Einsatz von Computerprogrammen nicht behoben, sie werden jedoch verfremdet und die Maßnahmen gegen Kritik immunisiert. Es macht einen Unterschied, ob eine konkrete Beamt*in entscheidet, vorrangig Menschen mit dunkler Hautfarbe zu kontrollieren, oder ob eine automatisierte Gesichtserkennung häufiger Fehlalarm in Bezug auf diese Menschengruppe auslöst. Im erstgenannten Fall wurden immer wieder – wenn auch gemessen an der Kontrollhäufigkeit nicht sehr häufig – polizeiliche Kontrollen durch Gerichte als unzulässiges Racial Profiling gerügt und die Maßnahmen für unzulässig erklärt.

Die Frage besteht nun darin, wie zukünftig Gerichte bei einem Computerprogramm entscheiden, welches scheinbar keine rassistischen Vorurteile haben kann. Die kontrollierenden Beamt*innen können sich dann auf die Nicht-Verantwortlichkeit für die Kontrolle berufen, sie führen in diesem Sinne nur „Befehle“ aus.

Noch komplexer verhält es sich bei der Anwendung von Predictive-Policing-Programmen. Predictive Policing ist eine softwarebasierte Wahrscheinlichkeitsrechnung für Schadenseintritte und lässt sich in zwei Grundformen unterteilen. Zum einen in eine ortsbezogene Variante: Hier wird anhand von Kriminalstatistiken und teilweise auch sozioökonomischen Daten die Wahrscheinlichkeit berechnet, dass sich in einem bestimmten geographischen Raum Straftaten wiederholen, etwa Wohnungseinbruchdiebstahl oder Diebstahl aus Fahrzeugen. Die andere Variante ist personenbezogen, dabei berechnet ein Programm die Wahrscheinlichkeit, dass eine Person zukünftig Straftaten begehen wird (beispielsweise „RADAR iTE“). Verwendet werden hierzu vor allem personenbezogene Daten aus polizeilichen Auskunftssystemen. Denkbar ist aber auch eine Verwendung von frei zugänglichen personenbezogenen Daten, beispielsweise aus Facebook.

Bei den eingeschätzten Personen handelt es sich in der Regel um sogenannte Gefährder im Bereich der politisch motivierten Kriminalität. In Verbindung mit den Neufassungen diverser Polizeigesetze, in denen polizeiliche Maßnahmen gegen Gefährder aufgenommen wurden (etwa Aufenthaltsanordnung und Kontaktverbot, elektronische Aufenthaltsüberwachung), ermöglicht personenbezogenes Predictive Policing Eingriffe in die Grundrechte. Nicht nur, dass die Eingriffe mit möglichen Ereignissen in der Zukunft begründet werden, sondern es wird auch eine Wahrscheinlichkeit für diese Ereignisse durch Computerprogramme ermittelt.

Der Near-Repeat-Ansatz

Dem ortsbezogenen Predictive Policing im Bereich des Wohnungseinbruchdiebstahls liegt die Near-Repeat-Theorie zugrunde. Diese besagt, dass sich in enger zeitlicher und räumlicher Nähe Einbrüche professioneller Täter*innen wiederholen. Laut dieser Theorie wird vermutet, dass professionelle Einbrecher*innen von außerhalb zur Tatbegehung anreisen und deswegen an einem Quartier oder Stadtteil mehrere Einbrüche hintereinander begehen und dass sie an einen erfolgreichen Tatort zurückkehren, da hier die Örtlichkeiten und die Fluchtwege bekannt sind. Aufgrund der geringen Aufklärungsquote bei Wohnungseinbruchdiebstahl sind diese Tatmotivationen jedoch nur unzureichend belegt.

Aber auch wenn der Near-Repeat-Ansatz hinsichtlich der Tatmotivation Bestand haben sollte, ergeben sich weitere Probleme. Near-Repeat ist nur für urbane Räume relevant, bei denen sich mehrere Haushalte in enger Umgebung befinden. In ländlichen Räumen, die vermutlich die Haupttatorte für professionelle „reisende“ Täter*innen darstellen, funktioniert der Near-Repeat-Ansatz aufgrund der faktischen räumlichen Entfernungen zwischen den Wohneinheiten nicht mehr zufriedenstellend. Zudem sind im städtischen Raum vermutlich viele Einbruchstaten mehr oder weniger spontan, etwa im Zusammenhang mit Beschaffungskriminalität. Auch hier stößt der Near-Repeat-Ansatz an seine Grenzen.

Als Ergebnis dieser Schwierigkeiten ergibt sich der Bedarf, entsprechend der jeweiligen unterschiedlichen geographischen Gegebenheiten (ländlich, städtisch, kleinstädtisch mit und ohne Autobahnanbindung) und Jahreszeiten (Ferien, dunkle Wintertage etc.) eigene differenzierte Near-Repeat-Theorien bzw. Spezifikationen der Grundtheorien zu entwickeln und anzuwenden.

Predictive Policing im Bereich Wohnungseinbruchdiebstahl funktioniert vereinfacht dargestellt so: Wohnungseinbrüche werden durch die Polizei registriert, und bei den Taten, die aufgrund der Begehungsart auf professionelle Täter*innen schließen lassen, wird für das betreffende Wohnquartier ein Alarm ausgelöst. Dies führt im optimalen Falle (genügend vorhandenes Personal) zu einer verstärkten Streifentätigkeit in diesem Quartier.

Die Indizien für eine professionelle Tat werden als Trigger bezeichnet. Nur wenn diese durch die Polizeibeamt*innen bei der Aufnahme eines Wohnungseinbruches festgestellt und in das polizeiliche System eingetragen werden, errechnet das angeschlossene Predictive-Policing-Programm die Wahrscheinlichkeit für einen weiteren Einbruch in zeitlicher und räumlicher Nähe. Trigger für die Tatbegehung durch professionelle Täter*innen sind beispielsweise das Aufhebeln von Türen und Fenstern im Gegensatz zum Einsatz stumpfer Gewalt (weniger Geräusche) und das Durchsuchen von Schubläden von unten nach oben bei gleichzeitigem Offenlassen der Schubläden (Zeitersparnis).

Der Einsatz von Predictive Policing im Bereich des Wohnungseinbruchdiebstahl beinhaltet demnach sehr viele Variablen und Möglichkeiten der Ungenauigkeiten:
a) ist der Near-Repeat-Ansatz im konkreten Fall aufgrund der geographischen Gegebenheiten überhaupt tauglich,
b) handelt es sich um professionelle Täter*innen und wenn ja, haben diese der Polizei den Gefallen getan, ausreichend Trigger zurückzulassen,
c) haben die aufnehmenden Beamt*innen die Tatspuren richtig festgestellt und in das System eingetragen,
d) wurde die Polizei rechtzeitig über die Tat informiert und
e) wenn die Polizei rechtzeitig informiert wurde, hat die Polizei genügend Kräfte das betreffende Gebiet zusätzlich zu bestreifen?

Schwachstellen beim Predictive Policing

Gerade die zeitliche Nähe zwischen der Tatbegehung, der Feststellung der Tat durch die Geschädigten, der Aufnahmen der Tat durch die Polizei, der Übertragung der Tat in das Polizeisystem, der Auswertung der Daten durch das Prognoseprogramm, der Auslösung des Alarms und der Übermittlung an die Einsatzkräfte sowie der Umsetzung geeigneter Maßnahmen ist eine erhebliche Schwachstelle beim Predictive Policing. Eine Analyse von Marco Hauber, Judith Heitmann und Stefan Kosbü (in Predictive Policing: Eine Bestandsaufnahme für den deutschsprachigen Raum) über verschiedene Studien zum Near-Repeat-Ansatz in Verbindung mit eigenen Erhebungen kommt zu dem Ergebnis:

[…] über alle Bezirke hinweg [ist] lediglich innerhalb einer zeitlichen Distanz von null Tagen konstant eine signifikante Häufung von Fallverbindungen nachweisbar. Zu dieser Erkenntnis gelangt auch Suckow und schlussfolgert daraus, dass ‚eine polizeiliche Intervention, welche erst am zweiten Tag oder später einsetzt, deutlich geringere Erfolgsaussichten hat‘. Ein signifikantes Mehraufkommen von Fallverbindungen mit einem zeitlichen Abstand von mindestens einem Tag ist nicht einheitlich existent.

Das heißt: Selbst wenn alle Variablen, die es zu einer erfolgreichen Berechnung für eine gesteigerte Wahrscheinlichkeit eines Wohnungseinbruchs braucht, gegeben sind, müssten polizeiliche Maßnahmen noch am selben Tag erfolgen, um eine gute Chance zu bieten, die alarmauslösenden Täter*innen zu stellen. Aufgrund dieser Vielzahl an Eventualitäten scheint eine gewisse Skepsis bezüglich der erwünschten Wirkung gegenwärtig angewendeter Predictive-Policing-Programme angebracht. Diese bedeute aber nicht, dass Predictive Policing nicht dennoch andere als die erwünschten Effekte verursachen kann, etwa eine Stigmatisierung des Stadtteils.

Oft fokussiert sich die Kritik am Predictive Policing auf die Vorverlagerung polizeilicher Maßnahmen in das Vorfeld einer konkreten Gefahr, was plastisch mit der polizeirechtlich neuen Gefahrenkategorie der „drohenden Gefahr“ bezeichnet wird. Auch wenn diese Kritik plausibel ist, umfasst sie nicht alle Aspekte, die sich aus der Anwendung von Predictive-Policing-Software ergeben. Das Besondere bei Predictive Policing liegt in der Art der Wahrscheinlichkeitsbestimmung.

Wahrscheinlichkeiten sind im Polizeirecht nichts Neues. So enthalten viele Normen der diversen Polizeigesetze unterschiedliche Wahrscheinlichkeitskategorien als Voraussetzungen für Maßnahmen der Gefahrenabwehr, etwa „hinreichende Wahrscheinlichkeit“, „mit an Sicherheit grenzender Wahrscheinlichkeit“, „hohe Wahrscheinlichkeit“. Die jeweilige Bewertung der Wahrscheinlichkeit obliegt einzelfallbezogen den handelnden Polizeibeamt*innen und ist somit eine sehr subjektive Entscheidung. Sie muss aber bei einer späteren Überprüfung durch Tatsachen begründet werden, aus denen die Wahrscheinlichkeitseinschätzung nachvollziehbar wird und die zu dem Schluss führt, dass auch andere Beamt*innen unter den gegebenen Bedingungen ähnlich entschieden hätten.

Mit dem Einsatz von Predictive-Policing-Software wird die Wahrscheinlichkeitsbestimmung für einen Schadenseintritt von einer handelnden Person hin zu einem Computerprogramm verlagert. Zwar wird argumentiert, dass die Entscheidung zur polizeilichen Maßnahme nach wie vor von einem Menschen getroffen wird und dass die Software lediglich als Hilfsmittel zur Entscheidungsfindung dient. Diese Argumentation ist jedoch für die praktische Anwendung nicht plausibel.

Denn gerade die Abwägung der Informationen und somit die eigentliche Prognose über die Wahrscheinlichkeit wird nicht mehr durch eine Person durchgeführt, sondern durch ein Computerprogramm. Die handelnde Beamt*in kann dann nur noch entscheiden, ob sie der Wahrscheinlichkeitsberechnung der Software zustimmt oder nicht. Andernfalls müsste sie die Berechnung des Programms erneut händisch nachvollziehen, was die Anwendung der Software ad absurdum führen würde. Besondere Relevanz bekommt die Frage der nachträglichen Nachprüfbarkeit bei der Anwendung kommerzieller Softwareprodukte, bei denen nicht gänzlich geklärt ist, inwieweit die anwendenden Beam*innen Kenntnis von den Algorithmen haben bzw. diese nachvollziehen können.

Mit dem Einsatz von Prognosesoftware findet eine nur scheinbare Objektivierung der Wahrscheinlichkeitsbestimmung statt, denn nach wie vor bleiben bei der Erhebung der verwendeten Daten subjektive menschliche Einflussfaktoren erhalten, die aber bezüglich ihrer Nachprüfbarkeit stark verfremdet werden. Bisher ungeklärt ist die Frage nach der Haftung bei eventuellen Fehlurteilen und damit verbundenen rechtswidrigen Grundrechtseingriffen und Schäden für die betroffenen Personen.

florian krahmer
Gastautor Florian Krahmer.

Im besten Fall soll die Auslösung eines Alarms durch die Software dazu führen, dass die betreffenden Räume verstärkt durch die Polizei bestreift werden. Dies führt zu vermehrten Polizeikontrollen an den betreffenden Orten, entweder von verdächtigen Personen oder weil andere Ordnungswidrigkeiten und Straftaten durch die verstärkte Polizeipräsenz beobachtet wurden. Durch die zusätzlichen Kontrollen und den dabei quasi als „Beifang“ festgestellten Delikten kann sich die Kriminalstatistik des Stadtteils erheblich verschlechtern (Lüchow-Dannenberg-Effekt), was wiederum zu einer Stigmatisierung dieser Räume führt, mit Konsequenzen für die Bewohner*innen, wie Unsicherheitsgefühl, steigende Versicherungskosten, sinkende Immobilienpreise und Bonität.

Auch wenn die Alarmierung durch Predictive-Policing-Programme nicht zu polizeilichen Maßnahmen führt, ergeben sich daraus haftungsrechtliche Fragestellungen. Wäre die Polizei verpflichtet, bei Kenntnis über bevorstehende Straftaten in einem bestimmten geographischen Gebiet geeignete Maßnahmen zu ergreifen, und würde ein Nicht-Handeln zu Schadensersatzansprüchen wegen Unterlassung führen? Diesen Ansprüchen könnten die Sicherheitsbehörden entgehen, indem sie argumentieren, dass die Wahrscheinlichkeitsrechnungen durch Predictive Policing keine hinreichenden Wahrscheinlichkeiten im polizeirechtlichen Sinn ergäben. Dann stellt sich aber die Frage: Wozu überhaupt Predictive Policing?

Um diesem Dilemma zu entgehen, könnte eine Möglichkeit darin bestehen, die risikobehafteten Gebiete zu veröffentlichen, um so die Bewohner*innen zu informieren und ihnen präventive Eigenmaßnahmen zu empfehlen. Das wirft wiederum die Frage nach der Zulässigkeit von Grundrechtseingriffen auf, beispielsweise durch einen Abschreckungseffekt, der durch die Markierung dieser Gebiete entsteht.

Die Anwendungen neuer Technologien in der Polizeiarbeit werfen also erhebliche Fragen auf, die es dringend zu klären gilt. Erste Diskussionen sind bereits erkennbar, doch vermutlich bedarf es in näherer Zukunft eines grundsätzlichen Gerichtsurteils hierzu.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

5 Ergänzungen

  1. „Gefährder im Bereich der politisch motivierten Kriminalität“ hießen früher Opposition.
    Heute reicht es schon, gegen den Corona-Lockdown zu protestieren, um auf eine Gefährder-Liste zu kommen. Ganz konkret behauptet die Regierung seit den ersten Protesten, dass diese von Rechtsextremen gesteuert und unterwandert seien, Antisemiten seien auch vertreten. Der Verfassungsschutz hatte und hat zwar offenbar keine Kenntnisse von diesen Unterwanderungen, stuft aber trotzdem die Querdenker inzwischen als Verfassungsfeinde ein.
    Was uns alle in die interessante Lage bringt, entweder Merkel-Fans oder Verfassungsfeinde zu sein. Ganz wie bei George Bush: Wer nicht für uns ist, ist gegen uns. Und sollte sich darauf gefasst machen, als Terrorist behandelt zu werden.
    Demokratie sieht anders aus!

    1. Naja, also die Stimmen aus den Behörden, die ich im Radio/Fernsehen nebenbei gehört habe, klangen eher als nicht vollständig bzw. nicht erfolgreich unterwandert
      (noch). Eher so.

      Die Stimmung kommt vielleicht aus der Politik, aus Beweggründen von ganz nah am Boden.

      Ansonsten naja, wer soll die Datenbanlen pflegen, wer soll es entscheiden… mit KI wird das natürlich Realität. Weil niemand diese zum Nutzen der Menschheit einsetzen wird. Tatsächlich wird es bei der Invasion einer Roboterarmee noch lustig, da Überwachung sowie autonome Systemfunktionen fast überall fast sämtlich gegen die Menschheit gerichtet sind, da müssen die vielleicht gar nicht so viel Material mitbringen, eine kompate Aufklärungssonde der Marke „Deloitte Handlich“ reicht demnächst völlig aus.

  2. Der gesamte Komplex ist IMHO das, was das Wort ausagt, zu kompliziert.

    Meiner Meinung nach müssen klare Regeln her:
    Wer gegen das Grundgesetz handelt gehört prinzipiell aus dem Dienst entlassen mit harten persönlicher Haftung belegt, durchgriff bis auf Existenzminimum.

    Das muß für Beamte und Politiker gleichermaßen gelten. Die Kosten für eventuell erfolgreiche Verfassungsbeschwerden haben die politisch Verantwortlichen auch aus der Privaten Tasche zu tragen.

    Ebenso ist Schadensersatz zu leisten, z.B. vollständige Kostenerstattung für die Unsägliche Vorradtsdatenspeicherung.

  3. Warum werden die Ergebnisse der Software nicht öffentlich gemacht. Aufmerksame Nachbarn können dann in Verbindung mit der Polizei Straftaten verhindern. Wobei das Ergebnis ja. nur schwer zu messen ist. Wenn nichts passiert kann es eine Falschmeldung gewesen sein oder die Täter wurden verdrängt.
    Keine Software ist aber so gut wie Täterwissen und -handeln hau kennen. Also Festgenommenen eine Art Kronzeugen – Regelung zukommen lassen und diese Erkenntnisse umsetzen. Und da gibts die verschiedensten Handlungsweisen, gut ist immer sobald die Polizei auftaucht erstmal verschwinden aus dem Gebiet und da tätig werden, wo andere schon potentielle Tatorte ausgespäht haben.

  4. Vielen Dank für diesen Beitrag, der viele wichtige Fragen anspricht (z.B. „Wer ist beispielsweise verantwortlich für einen Unfall, der von einem autonom fahrenden Fahrzeug verursacht wurde?“)

    Einzuschränken ist allerdings folgende Aussage: „Bisher ungeklärt ist die Frage nach der Haftung bei eventuellen Fehlurteilen und damit verbundenen rechtswidrigen Grundrechtseingriffen und Schäden für die betroffenen Personen.“

    Tatsächlich gibt es bisher kaum Gerichtsurteile zu diesem Themenkomplex. Jurististische Studien und Analysen zur geltenden Rechtslage existieren allerdings durchaus, z.B.

    N. Bilski / T. Schmid: Verantwortungsfindung beim Einsatz maschinell lernender Systeme
    Neue Juristische Online-Zeitschrift (NJOZ) 2019(20), S. 657-688
    https://beck-online.beck.de/Dokument?vpath=bibdata%2Fzeits%2Fnjoz%2F2019%2Fcont%2Fnjoz.2019.657.1.htm&anchor=Y-300-Z-NJOZ-B-2019-S-657-N-1

    Martin Sommer: Haftung für autonome Systeme – Verteilung der Risiken selbstlernender und vernetzter Algorithmen im Vertrags- und Deliktsrecht. 1. Auflage 2020, ISBN print: 978-3-8487-7789-1
    https://doi.org/10.5771/9783748921943

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.