Nancy FaeserWas das Innenministerium zur Gesichtserkennung plant

Künftig sollen Polizeibehörden Bilder von Verdächtigen mit dem Internet abgleichen können, um sie zu finden. Dieser Vorschlag aus dem Innenministerium ist ein Albtraum für Grundrechte.

Nancy Faesers Gesicht mit Polygonen überlagert.
Jedes Gesicht ist einzigartig. – Alle Rechte vorbehalten Nancy Faeser: IMAGO / NurPhoto, Polygone: IMAGO / Depositphotos

Das Innenministerium unter Nancy Faeser arbeitet an einem Entwurf, der die polizeiliche Gesichtserkennung ausweiten soll. Bisher ist der Referentenentwurf nicht öffentlich, doch mehrere Medien wie Spiegel, taz und Deutschlandfunk haben über den ihnen zugespielten Entwurf berichtet.

Gesichtserkennung ist nicht gleich Gesichtserkennung

Dass die Polizei Gesichtserkennungssoftware nutzen darf, ist nicht neu. Seit mehr als 15 Jahren setzt etwa das Bundeskriminalamt (BKA) das Gesichtserkennungssystem GES ein, mit dem die Polizeibehörde Bildmaterial von nicht-identifizierten Verdächtigen mit der polizeilichen Inpol-Datenbank abgleicht.

An Faesers Entwurf ist anders, dass der Abgleich von Bildmaterial nun nicht mehr gegen polizeiliche Datenbanken, sondern auch mit Daten aus dem Internet erfolgen können soll. Das bezieht sich auf Internet-Informationen, die „öffentlich zugänglich“ sind – etwa Partyfotos von Facebook oder Schnappschüsse von Flickr.

Auch soll der Abgleich nicht speziell auf Gesichter beschränkt sein, sondern auch mit anderen Daten aus dem Netz erfolgen können. Dazu könnte beispielsweise die Gangart von Menschen gehören, die recht einzigartig ist und die sich bei Videos vergleichen lässt. Für biometrische Abgleiche lassen sich auch Stimmprofile nutzen.

Außerdem, so eine Sprecherin des Bundesinnenministeriums (BMI) auf Anfrage von netzpolitik.org, sollen neue Befugnisse zur „automatisierten Datenanalyse polizeilicher Daten“ geschaffen werden. Bei diesen Befugnissen wird es auf die Details ankommen. So fällte das Bundesverfassungsgericht in Karlsruhe im Jahr 2023 ein Urteil zum Einsatz automatisierter Datenauswertung bei der Polizei und formulierte, dass bei „besonders daten- und methodenoffenen“ Befugnissen die Eingriffsschwelle hoch sein muss.

Die Richter setzten im Bereich der vorbeugenden Bekämpfung von Straftaten mit dem sogenannten Palantir-Urteil der digitalen Rasterfahndung enge Grenzen. Zudem liegen weitere Verfassungsbeschwerden gegen Landesgesetze mit Regelungen zur automatisierten Datenanalyse vor.

Bei der automatisierten Datenanalyse polizeilicher Daten geht es um mehr als nur den Abgleich von Fotos, Videos oder Audio-Dateien, es geht um die Vernetzung und Rasterung bestehender Datensysteme. Für das ganze Vorhaben sollen mehrere Gesetze geändert werden, etwa das Bundespolizeigesetz und das BKA-Gesetz.

Was Nancy Faeser offenbar explizit nicht will, ist eine „Echtzeit“-Überwachung. Damit ist beispielsweise die Live-Auswertung von Videoüberwachungsaufnahmen gemeint. Wann eine Auswertung aber „Echtzeit“ ist und wann „retrograd“ – also im Nachhinein -, kann zum definitorischen Unterschied verkommen. Etwa wenn man große Mengen Bild- und Videomaterial leicht zeitverzögert analysieren lässt. Schon bei der kürzlich in Kraft getretenen KI-Verordnung war diese formale Unterscheidung kritisiert worden. Während die KI-Verordnung Echtzeit-Erkennung stark einschränkt, gibt es für nachträgliche Erkennung viel Spielraum.

Was Nancy Faeser will

Laut einem Bericht der taz geht es nicht nur darum, Verdächtige zu finden, sondern auch Zeugen und Opfer von Straftaten. Als Beispiel für gesuchte Täter werden islamistische Terroristen genannt, die auf Hinrichtungs- oder Folter-Videos zu sehen sind. Neben der Identifizierung von Einzelpersonen soll außerdem ihr Aufenthaltsort ermittelt werden.

Der biometrische Abgleich von Fotos soll nicht nur dem Bundeskriminalamt oder der Bundespolizei, sondern auch Landespolizeien erlaubt werden. Dabei geht es nicht nur um Terrorismus. Erfasst wäre alles, was die Schwelle von Straftaten von „erheblicher“ Bedeutung erreicht. Darunter kann etwa Drogenhandel, Diebstahl in organisierter Form oder Beihilfe zur illegalen Einreise fallen.

Es liegt nahe, dass Faesers Vorschlag auf Ereignisse Anfang des Jahres zurückgeht. Nach mehr als 30 Jahren nahmen am 26. Februar Fahnder die Ex-RAF-Terroristin Daniela Klette in Berlin fest. Dem vorausgegangen war eine journalistische Recherche, die Klette im Dezember 2023 fast aufgespürt hatte.

Mit der Gesichtserkennungs-Suchmaschine PimEyes brauchte ein Journalist nach eigener Auskunft 30 Minuten, um ausgehend von Klettes Fahndungsfotos Bilder von ihr auf der Seite eines Capoeira-Vereins in Berlin zu entdecken. Daraufhin begann eine Debatte über die Gesichtserkennungsbefugnisse der Polizei.

Welche Infrastruktur braucht es dazu?

Damit Faesers Ansatz langfristig Sinn ergibt, müssten deutsche Behörden wohl weitflächig das Internet abgrasen und speichern. Der dabei anfallende Datenbestand wäre nicht unerheblich: Die auf Gesichtserkennung spezialisierte Überwachungsfirma Clearview AI gibt etwa an, mehrere Milliarden Bilder aus öffentlich zugänglichen Online-Quellen wie Facebook oder YouTube vorzuhalten. Um zudem eine Verknüpfung mit Individuen herzustellen, braucht es neben den Bildern noch zusätzliche Informationen, unter anderem die Profile von Nutzer:innen in den jeweiligen sozialen Medien.

Wie das genau ablaufen könnte, bleibt vorerst offen. Derzeit weicht der Referentenentwurf der Frage noch vollständig aus. Der „Erfüllungsaufwand“ soll zu einem späteren Zeitpunkt nachgereicht werden, berichtet LTO.

Gut möglich, dass es solche umfassenden Datenbanken hierzulande schon gibt: So überwacht etwa das Bundesamt für Verfassungsschutz seit mindestens 2015 massenhaft das Internet. Rechtlich wäre das ohnehin fragwürdig.

Nicht zuletzt flüchtete etwa die Gesichtserkennungsfirma PimEyes aus der EU, nachdem erhebliche Zweifel daran laut wurden, dass die biometrische Erfassung von Millionen Gesichtern mit der Datenschutz-Grundverordnung vereinbar ist. Solche rechtlichen Probleme könnten staatliche Stellen und insbesondere Ermittlungsbehörden zwar umschiffen. Mit dem BMI-Vorschlag würde jedoch eine weitere Brandmauer in puncto Massenüberwachung fallen.

In welchem Stadium ist der Gesetzesvorschlag?

Bisher ist der Entwurf aus dem BMI ein Referentenentwurf. Das heißt, er ist noch nicht mit den übrigen Ministerien abgestimmt. Besonders das Bundesjustizministerium (BMJ) dürfte etwas mitzureden haben, denn es geht auch um Änderungen der Strafprozessordnung – das fällt in die Zuständigkeit des Hauses von Justizminister Marco Buschmann (FDP).

LTO zitiert eine Sprecherin des BMJ, das derzeit prüfe, „ob Regelungsbedarf beim Thema der biometrischen Fernidentifizierung im strafprozessual-repressiven Bereich besteht“.

Haben sich die Ministerien auf einen Kabinettsentwurf geeinigt, geht dieser an den Bundestag. Dort ist Widerstand zu erwarten. Nach Bekanntwerden von Faesers Plänen haben sich mehrere Digital- und Innenpolitiker auch aus den Regierungsparteien kritisch geäußert.

Der grüne Innenpolitiker und Fraktionsvize Konstantin von Notz sagte: „Auch wer freiwillig die Öffentlichkeit eines sozialen Netzwerks sucht, gibt dadurch nicht seine verfassungsrechtlich garantierten Rechte auf.“ Er verweist auch auf den Koalitionsvertrag, der „aus gutem Grund eine klare Absage an die biometrische Erfassung zu Überwachungszwecken im öffentlichen Raum“ erteile.

Auch vom Koalitionspartner FDP gibt es Zweifel. Maximilian Funke-Kaiser teilt die Kritik seines Grünen-Kollegen. „Es bleibt unklar, wie diese Pläne mit den klaren Vorgaben des Koalitionsvertrags – wie der Ablehnung der biometrischen Überwachung im öffentlichen Raum und der Wahrung des Rechts auf Anonymität im Internet – vereinbar sein sollen“, sagte er der Nachrichtenagentur AFP.

Grundrechtliche Bedenken

Neben Bundestagsabgeordneten zeigten sich auch mehrere zivilgesellschaftliche Organisationen alarmiert.

Erik Tuchtfeld vom Digitalverein D64 sagt, die Pläne des BMI führten „zur Totalüberwachung des öffentlichen Raums. Jedes auf Social Media veröffentlichte Urlaubsfoto wird auf Zufallstreffer im Hintergrund ausgewertet, die Handys der Bürger:innen in Zukunft also immer auch als Überwachungskameras des Staates verwendet.“ Das sei mit einer liberalen Gesellschaft unvereinbar.

Kilian Vieth-Ditlmann von Algorithmwatch kommentiert: „Uns irritiert der Vorstoß des Ministeriums, weil biometrische Erkennungsverfahren in der gerade verabschiedeten europäischen KI-Verordnung geregelt werden.“ Dort sei der Einsatz von KI-Systemen, die massenhaft Gesichtsbilder aus dem Internet in einer Datenbank sammeln, „klipp und klar verboten“.

Artikel 5 der Verordnung verbietet „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen“. Auch ein klarer Grund ist im Gesetz beschrieben: „Da dies das Gefühl der Massenüberwachung verstärkt und zu schweren Verstößen gegen die Grundrechte, einschließlich des Rechts auf Privatsphäre, führen kann.“

Vieth-Ditlmanns Kollege Matthias Spielkamp kritisiert den „immer wieder aufgeführten Tanz um Begrifflichkeiten wie ‚Echtzeit‘, ’nachgelagert‘ oder ‚Fernerkennung'“. Das lenke davon ab, „dass die Bundesregierung immer wieder versucht, biometrische Erkennungsverfahren doch noch durch die Hintertür einzuführen“.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

1 Ergänzungen

  1. Welche Grundrechte werden jetzt genau hier verletzt? (iSv, nicht das ich glaube das das nicht passiert, aber es wird leider im Text nirgendwo darauf eingegangen)

    Und zum Beispiel des „Jedes auf Social Media veröffentlichte Urlaubsfoto wird auf Zufallstreffer im Hintergrund ausgewertet“ – Guten Morgen, Zufallstreffer im Hintergrund ohne Einwilligung zu veröffentlichen ist bereits selber ein kritischer Punkt.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.