Hamburg: Polizei will Software zur Gesichtserkennung dauerhaft einsetzen

Die Hamburger Polizei will künftig permanent eine Software zur Gesichtserkennung nutzen, die sie für die Strafverfolgung nach dem G20-Gipfel eingeführt hat. Der hamburgische Datenschutzbeauftragte hält die Technologie für verfassungsrechtlich bedenklich.

Protest gegen den Test von Videokameras mit Gesichtserkennung am Bahnhof Berlin-Südkreuz. CC-BY 2.0 Endstation Jetzt

Die Hamburger Polizei will künftig dauerhaft Software zur Gesichtserkennung in Bild- und Videoaufnahmen einsetzen, um Personen zu identifizieren. Mit dem Programm, das seit März in der G20-Sonderkommission im Einsatz ist, können ErmittlerInnen im Nachgang einer Straftat Aufnahmen nach Personen durchforsten. Jetzt soll der Einsatz ausgeweitet werden, schreibt die taz unter Berufung auf einen Polizeisprecher.

Über die Funktionsweise des Gesichtserkennungsprogramms ist bislang wenig an die Öffentlichkeit gelangt. Laut taz kann es Gesichter in Videoaufnahmen anhand biometrischer Merkmale wiedererkennen, herausfiltern und speichern. Ob bei der Software auch eine Inverssuche zum Einsatz kommt, also der Abgleich mit vorhandenen Aufnahmen aus Polizeiakten oder Melderegistern, ist nicht bekannt. Technisch wäre das längst möglich. Von welchem Hersteller das verwendete Programm stammt, möchte die Polizei ebenso nicht sagen.

Seit letztem Jahr dürfen Polizei und Geheimdienste automatisiert auf biometrische Pass- und Ausweisdaten zugreifen. Durch den Einsatz von Gesichtserkennungsprogrammen wird Realität, wovor Datenschützer seit Einführung der biometrischen Ausweisbilder warnen: Die Gesichter der Menschen werden zu einem Identifizierungsmerkmal, das in Datenbanken landet und automatisiert analysiert werden kann.

Diese Entwicklung hält der hamburgische Datenschutzbeauftragte Johannes Caspar für verfassungsrechtlich bedenklich, schreibt die taz:

Die automatisierte Gesichtserkennung setzt eine möglichst große Menge personenbezogener Daten voraus. „Wenn das Verfahren dazu führt, dass von allen auf dem Bildmaterial abgebildeten Personen individuelle Gesichts-IDs erstellt werden, über die eine biometrische Analyse läuft, werden massenhaft Daten Unbeteiligter über längere Zeiträume in Datenbanken gespeichert.“ Es sei davon auszugehen, dass die Betroffenen darüber nicht informiert werden, und sich folglich auch nicht juristisch wehren können, moniert Caspar.

Wundermittel „intelligente Videotechnik“

Nicht nur in Hamburg kommt vermehrt sogenannte „intelligente Videotechnik“ zum Einsatz. Am Bahnhof Berlin-Südkreuz läuft derzeit ein Versuch mit verschiedenen Programmen – anders als in Hamburg geschieht die Erkennung allerdings in Echtzeit. Nach einer ersten Testreihe zur Gesichtserkennung erproben die Sicherheitsbehörden dort aktuell Technik zur Erkennung und Intervention bei „auffälligem Verhalten“.

Über die Gesichtserkennungsprogramme in Berlin und Hamburg sprechen die beiden JournalistInnen Katharina Schipkowski und Erik Peter auch in einer Folge des taz-Podcasts „Lokalrunde“.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. der AUSSTEHENDE Bericht des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag zu folgendem Thema aus:

    Beobachtungstechnologien im Bereich der zivilen Sicherheit – Möglichkeiten und Herausforderungen

    Wie lauten die Antworten auf folgende Fragen
    Lassen sich durch staatliche Beobachtungsmaßnahmen tatsächlich Gefahrenlagen rechtzeitig vorhersehen, Straftaten wirksam vermeiden oder
    das Katastrophenmanagement verbessern?
    Wie viel der Privatsphäre soll für den (vermeintlichen) Gewinn an Sicherheit aufgegeben werden?
    Wer beobachtet wen und wozu?
    Was geschieht mit den gesammelten Daten?
    http://www.tab-beim-bundestag.de/de/untersuchungen/u20900.html

    Siehe auch
    https://ddrm.de/nach-bahnhof-berlin-suedkreuz-mannheim-als-zweites-versuchslabor-fuer-videoueberwachung-zur-erkennung-von-verhaltensauffaelligkeiten/

  2. Nur 48 Stunden gespeichert, haben sie gesagt …
    Nur für schwere Straftaten, haben sie gesagt …
    Nur von Polizisten und vereidigten Mitarbeitern angeguckt, haben sie gesagt …
    Nur zu Ihrer Sicherheit, haben sie gesagt …

    Ich weiß schon, warum ich bei Verdacht auf Videoüberwachung soweit möglich immer (!) mein Gesicht verhülle und ein Verbot dieser elementaren Offline-Schutzmaßnahme (gleichgültig, ob als „Burka-Verbot“ getarnt oder nicht) angesichts der Entgrenzung der Auswertung ebensowenig akzeptieren werde wie ein Verbot von Tor oder TLS.

    Paranoid ist nicht, wer sich vor Dauerauswertung schützen möchte. Paranoid ist diese durchgedrehte Gesellschaft.

    1. Mir macht diese Entwicklung auch Angst…,vor allem der Gleichmut der Gesellschaft ist beunruhigend.
      Schleichend werden wir dauerüberwacht!
      In China werden Sie dazu gezwungen, wir -als Mehrheit- machen da freiwillig mit…,was ist also schlimmer?

      1. Freiwillig schrieb am 7. August 2018 um 13:01 Uhr:
        > Schleichend werden wir dauerüberwacht.

        Wenn ich dich richtig verstehe möchtest du etwas dagegen tun um sich nicht so hilflos zu fühlen? Ausgezeichnet, dann schlage ich vor, sich mit den technischen Details näher zu beschäftigen. Beispielsweise ist ein noch ungelöstes Problem innerhalb der Künstlichen Intelligenz wie man aus einem Videostream eine semantrische Beschreibung extrahiert. Die Software erhält als Input die Pixelwerte und soll dafür die natürlichsprachliche Anmerkungen ermitteln. Eine derartige Software ist der ideale Schutz gegen Videoüberwachung. Technisch könnte man sowas mittels Deeplearning realisieren. Das ist ein Verfahren zur optischen Bilderkennung was auf neuronalen Netzen basiert.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.