GesichtserkennungSieben bizarre Blicke in die Glaskugel

Immer-lächelnde Kundenberater und allgegenwärtige Überwachung: Wir erklären die Gefahren durch Gesichtserkennung in sieben bemerkenswerten Beispielen.

Blick in die Glaskugel
– Gemeinfrei-ähnlich freigegeben durch unsplash.com Jonathan Sebastiao

Nie mehr anonym: 2020 könnte als das Jahr in die Geschichte eingehen, in der automatisierte Gesichtserkennung in Europa zum Alltag wird. Behörden und Firmen überall in Europa testen solche Technologien.

Die EU-Kommission legt nächste Woche ihren Masterplan für Künstliche Intelligenz vor, das heiße Thema eines möglichen Verbotes von Gesichtserkennung in der Öffentlichkeit dürfte sie dabei eher umschiffen.

Ohne staatliche Verbote könnte Gesichtserkennung bald allgegenwärtig sein. Als Einstimmung darauf haben wir einige bizarre und bedenkliche Beispiele aus ihrem Einsatz rund um die Welt gesammelt.

Klassenaufsicht

Wenn die Kamera nach Schulschwänzern späht: Eine Schule in Skellefteå im Norden Schwedens kontrollierte die Anwesenheit von 22 Schülerinnen und Schülern in einem Pilotprojekt drei Wochen lang mit Gesichtsscannern. Damit verlieren die Jugendlichen selbst in der Schule einen Raum, um sich unerkannt und unregistriert zu bewegen.

Das Städtchen Skellefteå
Das Städtchen Skellefteå in Nordschweden - CC0 Perlindgren

Einen unmäßigen Eingriff in die Privatsphäre fand das die schwedische Datenschutzbehörde. Die Jugendlichen hätten den automatisierten Kontrollen zwar zugestimmt, die Einwilligung sei aber wegen des Machtgefälles zwischen ihnen und der Schulverwaltung ungültig. Die Behörde stoppte das Projekt, die Kommune muss 20.000 Euro Strafe zahlen. In Frankreich verbot die Datenschutzbehörde einen Testlauf von vornherein.

Lächeldetektor

Die polnische Bank PKO Bank Polski möchte ihr Schalterpersonal zu guter Laune erziehen. Dafür setzt Polens größte Bank auf die Technologie eines Startups, die sie gerade in ihren Filialen testet. Die Geräte sollen durch Gesichtsscans verraten, ob die Angestellten auch genug lächeln. Tun sie es, geht ein kleiner Geldbetrag an einen wohltätigen Zweck, verrät die Bank in ihren PR-Materialien. Unklar ist, ob die Technologie zwischen einem echten und einem erzwungenen Lächeln unterscheiden kann.

Eine Box, die einen zum Lächeln bringt
Ein Reddit-Nutzer postete ein Bild eines Testgerätes - Alle Rechte vorbehalten u/hesusplace

Meerlaus-Falle

Meist wird an Tieren getestet, was erst später bei Menschen eingesetzt wird – bei Gesichtserkennung ist es andersrum. Ein norwegischer Konzern möchte die Technologie in seinen High-Tech-Fischfarmen einsetzen. Sie soll erkennen, ob die Lachse vom Parasiten Caligidae befallen ist, auch bekannt als Meerlaus. Allerdings werde die Technologie erst in einigen Jahren marktreif sein, sagt die norwegische Firma. Für Fische reicht es offenbar noch nicht.

In diesem Fenster soll ein YouTube-Video wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an YouTube. Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Datenabfluss an YouTube solange, bis ein aktiver Klick auf diesen Hinweis erfolgt. Technisch gesehen wird das Video von YouTube erst nach dem Klick eingebunden. YouTube betrachtet Deinen Klick als Einwilligung, dass das Unternehmen auf dem von Dir verwendeten Endgerät Cookies setzt und andere Tracking-Technologien anwendet, die auch einer Analyse des Nutzungsverhaltens zu Marktforschungs- und Marketing-Zwecken dienen.

Zur Datenschutzerklärung von YouTube/Google

Zur Datenschutzerklärung von netzpolitik.org

Offene rechtliche Fragen und hohe Fehlerraten tun allerdings bisher wenig, um den Einsatz von Gesichtserkennung am Menschen zu stoppen. Im Gegenteil, Politiker wie der EU-Abgeordnete Axel Voss und der frühere EU-Digitalkommissar Andrus Ansip sprechen sich vehement gegen ein Verbot der Technologie aus – immerhin könnte dies deren Einsatz an Fischen verhindern, stellte Ansip jüngst in den Raum.

Wählerinnenvergrauler

Bei der Präsidentenwahl in Afghanistan im September 2019 fotografierte die Wahlbehörde jede Wählerin und jeden Wähler, die Bilder wurden in einer biometrischen Datenbank gespeichert. Der Einsatz von Gesichtserkennung sollte Wahlbetrug verhindern.

Wahlen in Afghanistan
Wahllokal in Afghanistan - Alle Rechte vorbehalten UNAMA / Fardin Waezi

Allerdings schrecke dies Frauen vom Wählen ab, klagen Frauenrechtlerinnen. Denn die Frauen müssen im Wahllokal ihren Schleier vor Fremden ablegen, um fotografiert zu werden – besonders in religiösen Kreisen in konservativen Gegenden des Landes sei das ein No-Go. Aktivistinnen fürchten, dass durch Gesichtserkennung die Wahlbeteiligung von Frauen weiter sinkt.

Wildparkwächter

Automatisierte Gesichtserkennung breitet sich in China in rasantem Tempo aus: Polizei und Sicherheitsbehörden, aber auch Geschäfte, Bürogebäude und Schulen setzen auf die Technologie. Der chinesische Staat setzt die Technologie überdies als rassistisches Machtwerkzeug zur Unterdrückung der uigurischen Minderheit ein.

Dschunken in Hangzhou
Naturerlebnis in Hangzhou – mit Kameras? - CC-BY 2.0 Kan Wu

Widerstand gibt es nun ausgerechnet bei einem Safari-Park in der Metropole Hangzhou. Ein chinesischer Jura-Professor klagt dagegen, dass der Park Gesichtserkennung am Eingang verpflichtend machte. Dies verstoße gegen seine Rechte als Konsument. Chinas schwache Datenschutzgesetze lassen kaum Spielraum für solche Beschwerden, doch sind Berichte über den Fall in den Staatsmedien ein Anzeichen, dass selbst in China die Skepsis gegenüber der Verbreitung der Technologie wächst.

Städteverwanzer

Das serbische Innenministerium kündigte vor einem Jahr an, es werde in der Hauptstadt Belgrad 1.000 Kameras für Gesichtserkennung und automatische Kennzeichenerfassung an 800 Standorten installieren. Die Technologie liefert der Konzern Huawei, der von den USA der Spionage für den chinesischen Staat verdächtigt wird. Das Projekt sorgt für einen Aufschrei der serbischen Zivilgesellschaft, bisher aber ohne viel Wirkung.

Die Straßen von Belgrad
Die Straßen von Belgrad, gut überwacht - Gemeinfrei-ähnlich freigegeben durch unsplash.com Sherise .

Der serbische Fall zeigt, wie weit Behörden jenseits der EU-Datenschutzgesetze gehen können. Die serbische Regierung möchte mit dem System Kriminalität verhindern, sie könnte zugleich aber auch Regierungsgegner:innen überwachen und vom Demonstrieren abhalten, fürchtet ein serbischer Datenschützer. Huawei prahlte in einer Broschüre, dass seine „Safe City“-Technologie bereits in 230 Städten weltweit verwendet wird, darunter in autoritär regierten Staaten wie Russland, der Türkei und Aserbaidschan.

Fanbremse

Dem dänischen Fußballverein Brøndby IF sieht sich seine Fans genauer an. Seit dem Sommer sind an den Eingängen des Brøndbyer Stadions Kameras installiert, um automatisiert nach Leuten zu suchen, gegen die ein Platzverbot besteht. Pro Match scannt das System im Schnitt 14.000 Besucherinnen und Besucher, um eine der 50 gesperrten Personen zu finden. Durch die Technologie könnten Besucher rascher gescannt und schneller ins Stadion geschleust werden, sagt der Verein.

Brøndby Stadium
Fans im Stadion von Brøndby - CC-BY-NC 2.0 Christian Riis Kistrup

Datenschützer:innen werfen aber die Frage der Verhältnismäßigkeit auf – immerhin muss nun jede Besucherin und jeder Besucher überwacht werden, bloß um eine kleine Gruppe von Menschen von dem Stadion fernzuhalten. Dabei sei die Zahl der Festnahmen bei Fußballspielen an einem Rekordtief und die Sicherheit in den Stadien selbst nach Angaben des Vereins gestiegen, sagt die NGO IT-Pol. Der Fall sollte auch Nicht-Fußballfans zu denken geben – denn bewährt sich der automatisierte Gesichtsabgleich im Stadion aus Sicht der Behörden, ist es bald auch mit der Anonymität bei Rockkonzerten, Messen und anderen Großveranstaltungen vorbei.

Wir suchen weitere Beispiele für bizarre und problematische Anwendungsfälle von automatisierter Geschichtserkennung. Tipps gerne in den Ergänzungen oder an alex at netzpolitik.org.

2 Ergänzungen

  1. Es ist schon ein wenig beklemmend Kameras – früher oder später mit KI-Systemen – in Klassenräumen hängen zu haben. Solche Systeme sind in naher Zukunft geeignet – neben Anwesenheitsverletzungen – z.B. auffälliges Verhalten und “Abschreiben“ der SchülerInnen zu detektieren und zuzuordnen.
    Traurige Realität: Die heutige Jugend ist es gewohnt von Kameras (z.B. öffentlichen Raum, ÖPNV, Geschäften, Wohnanlagen etc.) umgeben zu sein und mit dem Smartphone zu filmen und gefilmt zu werden; da wird vermutlich die (öffentliche) Empörung unter den SchülerInnen – wegen Kameras in Klassenräumen – ausbleiben. Für die Gewerkschaft Erziehung und Wissenschaft (GEW) – und auch die Eltern der SchülerInnen – müsste die „technische/ visuelle Klassenaufsicht“ sehr wohl ein Thema sein, welches sie kritisch begleiten.

  2. Ich bin Prinzipiell gegen solche Überwachungsmaßnahmen könnte mir aber vorstellen das man in Notfällen z.B. während(nicht davor oder lange danach) einem Amoklauf das Passbild des flüchtigen einspeist, auf einen Knopf drückt und dann wird in Ausgewählten bereichen nach dem verdächtigen gesucht allerdings darf die KI dafür nicht durch die hierdurch erfassten Daten Lernen und keine Daten außer einem Positiv(Standort Angabe und bild usw.) bei einem (vermuteten)Treffer ausgeben.
    Und allgemein muss es ein Absolutes verbot für die Analyse von Verhaltensmustern geben warum §1 vom Grundgesetz, sehr Private Daten und überaus fehleranfällig.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.