BKA-GesetzWenn der Staat zum Spanner wird

Die Bundesregierung will Polizei und Migrationsbehörden erlauben, alle Gesichtsfotos im Internet zu speichern und zu nutzen. AlgorithmWatch kritisiert diese neue Form der anlasslosen Vorratsdatenspeicherung. Die Bundesregierung muss stattdessen geltendes Recht umsetzen – und Gesichtssuchmaschinen verbieten.

Viele Menschen mit markierten Gesichtern.
Deutsche Firma wirbt mit Gesichtserkennung bei Marathon. – Alle Rechte vorbehalten Videmo

Pia Sombetzki ist Policy & Advocacy Managerin bei der Nichtregierungsorganisation AlgorithmWatch. Sie beschäftigt sich mit der Regulierung von algorithmischer Entscheidungsfindung in Deutschland, insbesondere im öffentlichen Sektor.

Was haben Millionen Deutsche und ein Ex-RAF-Mitglied gemeinsam? Wahrscheinlich mindestens ein Foto in veralteter Bildqualität auf Facebook und einen Post, der nur drei Likes bekommen hat.

Was erstmal wie das Normalste von der Welt klingt, ist Daniela Klette dieses Jahr zum Verhängnis geworden. Nach über 30 Jahren Suche wurde das ehemalige RAF-Mitglied im Februar festgenommen.

Journalisten helfen der Polizei

Ein ARD-Rechercheteam um Investigativ-Journalist Khesrau Behroz war ihr in deren Recherche für den Podcast Legion: Most Wanted im Dezember 2023 bereits sehr nah gekommen. Behroz erklärte später, das Recherchenetzwerk Bellingcat hatte das Team dabei unterstützt, mit Hilfe der Gesichtsdatenbank PimEyes nach ihr zu suchen. Bilder von Klette auf der Webseite eines Capoeira-Vereins in Kreuzberg wurden damit in nur knapp 30 Minuten gefunden.

Es stellte sich heraus, dass Klette über 30 Jahre lang mitnichten im „Untergrund“ gelebt hatte, sondern, im Gegenteil, sich die meiste Zeit aktiv am öffentlichen Leben beteiligte.

Als Klette nur wenige Wochen nach Veröffentlichung der Recherchen festgenommen wurde, entbrannte eine Diskussion um die Methoden, mit denen die Polizei und die Journalist:innen nach ihr gesucht hatten.

Hatte die Polizei nicht ausreichend ermittelt? Und hätte Klette eigentlich früher gefunden werden müssen, wenn sie ihr genauso gut zufällig auf den Straßen von Berlin-Kreuzberg begegnen hätten können? Oder fehlten der Polizei etwa die nötigen digitalen Ermittlungstools?

Das Argument der Polizeigewerkschaften klang in Folge etwa so: Wir haben den Fall zwar perfekt gelöst, hätten wir PimEyes allerdings selbst benutzen dürfen, hätte es nicht 30 Jahre dauern müssen, Daniela Klette zu finden. So weit, so verwirrend.

Gesichtsdatenbanken sind illegal

Wir alle sind im Netz wiederzufinden, ob wir wollen oder nicht. Jedes Mal angestrengt wegzugucken, wenn jemand im Vorbeilaufen ein Foto macht, ist auf Dauer mindestens etwas anstrengend. Am Ende landet das Bild dann doch auf Social Media.

Firmen wie Clearview AI und PimEyes haben es zu ihrem Geschäftsmodell gemacht, öffentlich einsehbare Bilder aus dem Netz in Datenbanken abzuspeichern und sie durchsuchbar zu machen. Eine Geschäftspraxis, die von Datenschützern über die Jahre immer wieder beanstandet und mit Bußgeldern geahndet wurde – allein schon, weil die abgebildeten Personen nie in die Bildernutzung eingewilligt haben.

Erst diese Woche hat die niederländische Datenschutzbehörde eine Strafe von 30,5 Millionen Euro gegenüber Clearview AI wegen des illegalen Aufbaus einer Datenbank verhangen, die mittlerweile mehr als 50 Milliarden Fotos umfassen soll.

Wenn Polizeigewerkschaften in Deutschland fordern, dass sie solche riesigen Gesichtsdatenbanken nutzen wollen, sagen sie also gleichzeitig, dass sie damit eine illegale Praxis unterstützen wollen.

Rechtsextreme Kräfte sind auf dem Vormarsch.

Wir halten mit unserer Arbeit dagegen.

Jetzt spenden

Und nicht nur Datenschützern ist dieses Vorhaben ein Dorn im Auge. Die gerade erst im Sommer beschlossene KI-Verordnung der EU verbietet explizit das Verkaufen, Bereitstellen oder Verwenden von KI-Systemen, „die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Zum 2. Februar 2025 wird das Verbot offiziell in Kraft treten.

Bereits während der Verhandlungen wurde intensiv über dessen Sinn und Notwendigkeit diskutiert. Dass dieses Verbot in der aktuellen Debatte um Befugnisse einfach ignoriert wird, lässt tief blicken.

Immer mehr biometrische Überwachung

Die Rufe nach mehr biometrischen Überwachungsbefugnissen sind aber mitnichten neu. Seit mehreren Jahren läuft die Debatte um KI-getriebene Überwachungsmaßnahmen im öffentlichen Raum.

Während der G20-Proteste 2017 wurden Menschen, die sich in Hamburg aufhielten, zum ersten Mal großflächig mit der Software Videmo 360 erfasst. Ihre Bewegungsabläufe konnten damit über mehrere Tage hinweg durch die Stadt nachvollzogen werden – natürlich ohne dass die Betroffenen davon wussten.

Weil die Software so großflächig eingesetzt wurde, wurden um die 100.000 Menschen erfasst und ihre biometrischen Profile in einer Datenbank abgespeichert. Nicht nur wurde ihr Recht auf informationelle Selbstbestimmung und Anonymität im öffentlichen Raum vor Ort eingeschränkt. Noch dazu sind sie in einer Datenbank der Polizei gelandet, die sie auch in Zukunft wieder auffindbar macht.

Gesichtsdatenbanken treffen Unschuldige

Welche Gefahren in der Nutzung von Gesichtserkennungssystemen in den Händen der Polizei bestehen, zeigen auch immer wieder Fälle aus den USA. Porcha Woodruff, eine Schwarze Amerikanerin aus Detroit, war im achten Monat schwanger als sie 2023 wegen Autodiebstahls verhaftet wurde.

Die dortige Polizei setzte Gesichtserkennungstechnologie ein und ließ das Bild einer verdächtigen Person durch eine Fahndungsdatenbank laufen. Das Foto von Woodruff wurde als Ergebnis ausgespielt. Elf Stunden lang wurde sie daraufhin verhört. Einen Monat später stellte die Staatsanwaltschaft das Verfahren wegen unzureichender Beweise ein.

Der Fall von Woodruff zeigt das reale Risiko, das auf künstlicher Intelligenz basierende Tools für unschuldige Menschen darstellt. Untersuchungen weisen außerdem immer wieder darauf hin, dass die Falschpositivraten für People of Color und insbesondere Schwarze Frauen besonders hoch sind.

In erster Linie hätte ihr Bild aber erst gar nicht in der Polizeidatenbank landen sollen.

Solingen hat der Innenministerin geholfen

Trotz aller Gegenargumente wurden die Rufe nach mehr Überwachungsbefugnissen für die Polizei von Innenministerin Nancy Faeser erhört. Bereits Mitte August hat netzpolitik.org einen Gesetzesentwurf des Innenministeriums veröffentlicht, der Befugnisse für den Einsatz von Gesichtserkennungssoftware bei der Polizei ausweiten soll.

Nach dem Anschlag von Solingen ist dieses Vorhaben zu einem Teil des „Sicherheitspakets“ der Bundesregierung geworden, obwohl völlig unklar ist, was eine Polizeibefugnis zur massenhaften Gesichtserkennung in dem Fall hätte bewirken sollen. Dennoch ist es Faeser so gelungen, ihre Ampel-Partner, insbesondere Justizminister Buschmann, als Unterstützer zu mobilisieren, der sich zuvor zu ihren Plänen skeptisch geäußert hatte.

In diesem Sicherheitspaket taucht also neben erweiterten Befugnissen für Big-Data-Analysen und Wohnungsdurchsuchungen auch die Forderung nach Gesichtserkennungstools für die Polizei wieder auf.

Neue Form von Vorratsdatenspeicherung

In welchem Ausmaß dieser Wunsch nach Befugnissen in dem Sicherheitspaket ausbuchstabiert wird, verwundert dabei allerdings doch.

Ermittlungsbehörden sollen die Befugnis zum biometrischen Abgleich von allgemein öffentlich zugänglichen Internetdaten bekommen, um Tatverdächtige identifizieren zu können. Man beachte: Der Begriff Internetdaten ist hier viel weiter gefasst als Gesichtsbilder.

Künftig dürfte vor allem auch Videomaterial relevant werden, beispielsweise um die individuelle Gangart, die Stimme und spezifische Sprechmuster von Menschen zu erfassen und identifizierbar zu machen.

Das kommt einer neuen Form der anlasslosen Vorratsdatenspeicherung gleich. Nur das es diesmal nicht um das Durchsuchbarmachen von Telekommunikations-Verkehrsdaten, sondern von besonders sensiblen personenbezogenen Körperdaten geht.

Nicht nur Tatverdächtige

Zusätzlich soll die Befugnis sich außerdem auch auf die Suche nach der denkbar unbestimmten Gruppe „gesuchter Personen“ erstrecken, beispielhaft werden Opfer und Zeug:innen genannt.

Ebenso soll auch das Bundesamt für Migration und Flüchtlinge die Befugnis zum biometrischen Abgleich von Internetdaten erhalten, zu einem noch weniger eingegrenzten Zweck – der Feststellung der Identität von Schutzsuchenden.

Das Sicherheitspaket verweist zwar u.a. darauf, die KI-Verordnung, die Datenschutzgrundverordnung und Vorgaben des Bundesverfassungsgerichts beachten zu wollen. Doch die Bundesregierung will das unmissverständliche Verbot in der KI-Verordnung augenscheinlich ignorieren.

Wir müssen Gesichtserkennung verbieten

Wenn die Befugnisse, wie sie die Bundesregierung jetzt mit ihrem Sicherheitspaket auf die Tagesordnung gesetzt hat, nur auf annähernde Weise ins Gesetz gegossen und die Gesichtsdatenbanken eingeführt werden, ist es nur eine Frage der Zeit, bis unbescholtene Personen zu Beschuldigten werden. Derweil werden sie unter Generalverdacht gestellt und ihre privaten Urlaubsfotos landen in einer undurchsichtigen Datenbank.

Wir sollten es nicht darauf ankommen lassen, dass Fälle wie der von Woodruff zukünftig als zeitgemäße Nebeneffekte „zeitgemäßer“ Überwachungstools wegerklärt werden.

Stattdessen muss sich die Bundesregierung auf die Fakten besinnen, die zuletzt mit der KI-Verordnung uneindeutig geschaffen wurden. Sie darf nicht die Tools für einen Überwachungsstaat schaffen, die im Zweifel noch in die falschen Hände geraten könnten.

Was eigentlich ihre Aufgabe wäre: Sich gemeinsam mit den Partnern in der EU für die Durchsetzung der neuen geschaffenen Regeln einsetzen und den Gesichtssuchmaschinen von Clearview AI und PimEyes den Garaus machen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

0 Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.