BKA-GesetzWenn der Staat zum Spanner wird

Die Bundesregierung will Polizei und Migrationsbehörden erlauben, alle Gesichtsfotos im Internet zu speichern und zu nutzen. AlgorithmWatch kritisiert diese neue Form der anlasslosen Vorratsdatenspeicherung. Die Bundesregierung muss stattdessen geltendes Recht umsetzen – und Gesichtssuchmaschinen verbieten.

Viele Menschen mit markierten Gesichtern.
Deutsche Firma wirbt mit Gesichtserkennung bei Marathon. – Alle Rechte vorbehalten Videmo

Pia Sombetzki ist Policy & Advocacy Managerin bei der Nichtregierungsorganisation AlgorithmWatch. Sie beschäftigt sich mit der Regulierung von algorithmischer Entscheidungsfindung in Deutschland, insbesondere im öffentlichen Sektor.

Was haben Millionen Deutsche und ein Ex-RAF-Mitglied gemeinsam? Wahrscheinlich mindestens ein Foto in veralteter Bildqualität auf Facebook und einen Post, der nur drei Likes bekommen hat.

Was erstmal wie das Normalste von der Welt klingt, ist Daniela Klette dieses Jahr zum Verhängnis geworden. Nach über 30 Jahren Suche wurde das ehemalige RAF-Mitglied im Februar festgenommen.

Journalisten helfen der Polizei

Ein ARD-Rechercheteam um Investigativ-Journalist Khesrau Behroz war ihr in deren Recherche für den Podcast Legion: Most Wanted im Dezember 2023 bereits sehr nah gekommen. Behroz erklärte später, das Recherchenetzwerk Bellingcat hatte das Team dabei unterstützt, mit Hilfe der Gesichtsdatenbank PimEyes nach ihr zu suchen. Bilder von Klette auf der Webseite eines Capoeira-Vereins in Kreuzberg wurden damit in nur knapp 30 Minuten gefunden.

Es stellte sich heraus, dass Klette über 30 Jahre lang mitnichten im „Untergrund“ gelebt hatte, sondern, im Gegenteil, sich die meiste Zeit aktiv am öffentlichen Leben beteiligte.

Als Klette nur wenige Wochen nach Veröffentlichung der Recherchen festgenommen wurde, entbrannte eine Diskussion um die Methoden, mit denen die Polizei und die Journalist:innen nach ihr gesucht hatten.

Hatte die Polizei nicht ausreichend ermittelt? Und hätte Klette eigentlich früher gefunden werden müssen, wenn sie ihr genauso gut zufällig auf den Straßen von Berlin-Kreuzberg begegnen hätten können? Oder fehlten der Polizei etwa die nötigen digitalen Ermittlungstools?

Das Argument der Polizeigewerkschaften klang in Folge etwa so: Wir haben den Fall zwar perfekt gelöst, hätten wir PimEyes allerdings selbst benutzen dürfen, hätte es nicht 30 Jahre dauern müssen, Daniela Klette zu finden. So weit, so verwirrend.

Gesichtsdatenbanken sind illegal

Wir alle sind im Netz wiederzufinden, ob wir wollen oder nicht. Jedes Mal angestrengt wegzugucken, wenn jemand im Vorbeilaufen ein Foto macht, ist auf Dauer mindestens etwas anstrengend. Am Ende landet das Bild dann doch auf Social Media.

Firmen wie Clearview AI und PimEyes haben es zu ihrem Geschäftsmodell gemacht, öffentlich einsehbare Bilder aus dem Netz in Datenbanken abzuspeichern und sie durchsuchbar zu machen. Eine Geschäftspraxis, die von Datenschützern über die Jahre immer wieder beanstandet und mit Bußgeldern geahndet wurde – allein schon, weil die abgebildeten Personen nie in die Bildernutzung eingewilligt haben.

Erst diese Woche hat die niederländische Datenschutzbehörde eine Strafe von 30,5 Millionen Euro gegenüber Clearview AI wegen des illegalen Aufbaus einer Datenbank verhangen, die mittlerweile mehr als 50 Milliarden Fotos umfassen soll.

Wenn Polizeigewerkschaften in Deutschland fordern, dass sie solche riesigen Gesichtsdatenbanken nutzen wollen, sagen sie also gleichzeitig, dass sie damit eine illegale Praxis unterstützen wollen.

Und nicht nur Datenschützern ist dieses Vorhaben ein Dorn im Auge. Die gerade erst im Sommer beschlossene KI-Verordnung der EU verbietet explizit das Verkaufen, Bereitstellen oder Verwenden von KI-Systemen, „die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Zum 2. Februar 2025 wird das Verbot offiziell in Kraft treten.

Bereits während der Verhandlungen wurde intensiv über dessen Sinn und Notwendigkeit diskutiert. Dass dieses Verbot in der aktuellen Debatte um Befugnisse einfach ignoriert wird, lässt tief blicken.

Immer mehr biometrische Überwachung

Die Rufe nach mehr biometrischen Überwachungsbefugnissen sind aber mitnichten neu. Seit mehreren Jahren läuft die Debatte um KI-getriebene Überwachungsmaßnahmen im öffentlichen Raum.

Während der G20-Proteste 2017 wurden Menschen, die sich in Hamburg aufhielten, zum ersten Mal großflächig mit der Software Videmo 360 erfasst. Ihre Bewegungsabläufe konnten damit über mehrere Tage hinweg durch die Stadt nachvollzogen werden – natürlich ohne dass die Betroffenen davon wussten.

Weil die Software so großflächig eingesetzt wurde, wurden um die 100.000 Menschen erfasst und ihre biometrischen Profile in einer Datenbank abgespeichert. Nicht nur wurde ihr Recht auf informationelle Selbstbestimmung und Anonymität im öffentlichen Raum vor Ort eingeschränkt. Noch dazu sind sie in einer Datenbank der Polizei gelandet, die sie auch in Zukunft wieder auffindbar macht.

Gesichtsdatenbanken treffen Unschuldige

Welche Gefahren in der Nutzung von Gesichtserkennungssystemen in den Händen der Polizei bestehen, zeigen auch immer wieder Fälle aus den USA. Porcha Woodruff, eine Schwarze Amerikanerin aus Detroit, war im achten Monat schwanger als sie 2023 wegen Autodiebstahls verhaftet wurde.

Die dortige Polizei setzte Gesichtserkennungstechnologie ein und ließ das Bild einer verdächtigen Person durch eine Fahndungsdatenbank laufen. Das Foto von Woodruff wurde als Ergebnis ausgespielt. Elf Stunden lang wurde sie daraufhin verhört. Einen Monat später stellte die Staatsanwaltschaft das Verfahren wegen unzureichender Beweise ein.

Der Fall von Woodruff zeigt das reale Risiko, das auf künstlicher Intelligenz basierende Tools für unschuldige Menschen darstellt. Untersuchungen weisen außerdem immer wieder darauf hin, dass die Falschpositivraten für People of Color und insbesondere Schwarze Frauen besonders hoch sind.

In erster Linie hätte ihr Bild aber erst gar nicht in der Polizeidatenbank landen sollen.

Solingen hat der Innenministerin geholfen

Trotz aller Gegenargumente wurden die Rufe nach mehr Überwachungsbefugnissen für die Polizei von Innenministerin Nancy Faeser erhört. Bereits Mitte August hat netzpolitik.org einen Gesetzesentwurf des Innenministeriums veröffentlicht, der Befugnisse für den Einsatz von Gesichtserkennungssoftware bei der Polizei ausweiten soll.

Nach dem Anschlag von Solingen ist dieses Vorhaben zu einem Teil des „Sicherheitspakets“ der Bundesregierung geworden, obwohl völlig unklar ist, was eine Polizeibefugnis zur massenhaften Gesichtserkennung in dem Fall hätte bewirken sollen. Dennoch ist es Faeser so gelungen, ihre Ampel-Partner, insbesondere Justizminister Buschmann, als Unterstützer zu mobilisieren, der sich zuvor zu ihren Plänen skeptisch geäußert hatte.

In diesem Sicherheitspaket taucht also neben erweiterten Befugnissen für Big-Data-Analysen und Wohnungsdurchsuchungen auch die Forderung nach Gesichtserkennungstools für die Polizei wieder auf.

Neue Form von Vorratsdatenspeicherung

In welchem Ausmaß dieser Wunsch nach Befugnissen in dem Sicherheitspaket ausbuchstabiert wird, verwundert dabei allerdings doch.

Ermittlungsbehörden sollen die Befugnis zum biometrischen Abgleich von allgemein öffentlich zugänglichen Internetdaten bekommen, um Tatverdächtige identifizieren zu können. Man beachte: Der Begriff Internetdaten ist hier viel weiter gefasst als Gesichtsbilder.

Künftig dürfte vor allem auch Videomaterial relevant werden, beispielsweise um die individuelle Gangart, die Stimme und spezifische Sprechmuster von Menschen zu erfassen und identifizierbar zu machen.

Das kommt einer neuen Form der anlasslosen Vorratsdatenspeicherung gleich. Nur dass es diesmal nicht um das Durchsuchbarmachen von Telekommunikations-Verkehrsdaten, sondern von besonders sensiblen personenbezogenen Körperdaten geht.

Nicht nur Tatverdächtige

Zusätzlich soll sich die Befugnis außerdem auch auf die Suche nach der denkbar unbestimmten Gruppe „gesuchter Personen“ erstrecken, beispielhaft werden Opfer und Zeug:innen genannt.

Ebenso soll auch das Bundesamt für Migration und Flüchtlinge die Befugnis zum biometrischen Abgleich von Internetdaten erhalten, zu einem noch weniger eingegrenzten Zweck – der Feststellung der Identität von Schutzsuchenden.

Das Sicherheitspaket verweist zwar u.a. darauf, die KI-Verordnung, die Datenschutzgrundverordnung und Vorgaben des Bundesverfassungsgerichts beachten zu wollen. Doch die Bundesregierung will das unmissverständliche Verbot in der KI-Verordnung augenscheinlich ignorieren.

Wir müssen Gesichtserkennung verbieten

Wenn die Befugnisse, wie sie die Bundesregierung jetzt mit ihrem Sicherheitspaket auf die Tagesordnung gesetzt hat, nur auf annähernde Weise ins Gesetz gegossen und die Gesichtsdatenbanken eingeführt werden, ist es nur eine Frage der Zeit, bis unbescholtene Personen zu Beschuldigten werden. Derweil werden sie unter Generalverdacht gestellt und ihre privaten Urlaubsfotos landen in einer undurchsichtigen Datenbank.

Wir sollten es nicht darauf ankommen lassen, dass Fälle wie der von Woodruff zukünftig als zeitgemäße Nebeneffekte „zeitgemäßer“ Überwachungstools wegerklärt werden.

Stattdessen muss sich die Bundesregierung auf die Fakten besinnen, die zuletzt mit der KI-Verordnung uneindeutig geschaffen wurden. Sie darf nicht die Tools für einen Überwachungsstaat schaffen, die im Zweifel noch in die falschen Hände geraten könnten.

Was eigentlich ihre Aufgabe wäre: Sich gemeinsam mit den Partnern in der EU für die Durchsetzung der neuen geschaffenen Regeln einsetzen und den Gesichtssuchmaschinen von Clearview AI und PimEyes den Garaus machen.

5 Ergänzungen

  1. Ich halte den Text für kompletten Blödsinn. Selbstverständlich darf ich legal und öffentlich verfügbare Daten in eine Datenbank einpflegen. Und in der Regel darf ich diese Datenbank auch veröffentlichen, Beispiele sind Artikel aus Fachzeitschriften und Fanseiten von Serien.
    Bei Gesichtern wird es ohnehin schon lange gemacht — von Geheimdiensten und kommerziellen Datenhändlern z.B. — und keiner kann es kontrollieren. Wenn die Polizei sich dieser Methoden bedient, muß sie es im Gegensatz zu den anderen offen und wohldokumentiert tun. Der Datenschutz und das Datenbewußtsein können dabei nur gewinnen.

  2. „ist es nur eine Frage der Zeit, bis unbescholtene Personen zu Beschuldigten werden.“ – Was ja zum Glück vor 50 Jahren noch nie passiert ist… außer halt wann immer eine Person eine andere zu unrecht beschuldigt hat, was praktisch ständig vorkommt und sogar schon zig mal nachweislich zu falschen Verurteilungen geführt hat, weil eine ganze Gruppe von Zeugen sich einig war, dass sie diese Person gesehen haben und sie damit aber alle falsch lagen. Und das sie falsch lagen, dass wissen wir heute nur dank DNA Spuren oder der Auswertung von anderen Daten, wie z.B. Fotos, Filmen und Aufenthaltsinformationen, die es unmöglich machen, dass diese Zeugen, diese Person dort gesehen haben könnten. Also alles das, was dieser Artikel mit aller Gewalt verbieten lassen will.

    Das Argument „könnte auch mal Verdacht auf den falschen lenken“ ist kein Argument, weil wenn es nur danach ging, dann dürfte es gar keine strafrechtliche Ermittlung geben, weil jedes Instrument der Ermittlung kann dazu führen. Wo ist der wissenschaftliche Beleg, dass eine Gesichtserkennung zu mehr falschen beschuldigten führt, als z.B. Zeugenaussagen? Denn wenn sie das nicht tut, wenn sie ggf. sogar zuverlässiger ist (und ich denke, das ist sie), dann müssten wir eher Zeugenaussagen als Gesichtserkennung verbieten. Die Formulierung „Ist nur eine Frage der Zeit“ legt nahe, dass das noch nie passiert ist, im Gegensatz zu anderen Ermittlungsverfahren, wo das schon hunderte mal passiert ist, die dieser Artikel aber nicht kritisiert.

    Denn ein Foto ist sehr zuverlässig, eine Zeugenaussage nicht. Frage ich 5 Leute, die alle das gleiche gesehen habe, bekomme ich 5 unterschiedliche Geschichten zu hören und selbst in wesentlichen Kernaspekten, ist man sich uneins. Oft kann man sich nicht mal einigen welche Farbe die Jacke des Täters hatte oder ob er überhaupt eine trug. Aber ein Foto beantwortet diese Frage ohne jeden Zweifel.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.