Gesichtserkennung

Sieben bizarre Blicke in die Glaskugel

Immer-lächelnde Kundenberater und allgegenwärtige Überwachung: Wir erklären die Gefahren durch Gesichtserkennung in sieben bemerkenswerten Beispielen.

Blick in die Glaskugel
Gemeinfrei-ähnlich freigegeben durch unsplash.com Jonathan Sebastiao

Nie mehr anonym: 2020 könnte als das Jahr in die Geschichte eingehen, in der automatisierte Gesichtserkennung in Europa zum Alltag wird. Behörden und Firmen überall in Europa testen solche Technologien.

Die EU-Kommission legt nächste Woche ihren Masterplan für Künstliche Intelligenz vor, das heiße Thema eines möglichen Verbotes von Gesichtserkennung in der Öffentlichkeit dürfte sie dabei eher umschiffen.

Ohne staatliche Verbote könnte Gesichtserkennung bald allgegenwärtig sein. Als Einstimmung darauf haben wir einige bizarre und bedenkliche Beispiele aus ihrem Einsatz rund um die Welt gesammelt.

Klassenaufsicht

Wenn die Kamera nach Schulschwänzern späht: Eine Schule in Skellefteå im Norden Schwedens kontrollierte die Anwesenheit von 22 Schülerinnen und Schülern in einem Pilotprojekt drei Wochen lang mit Gesichtsscannern. Damit verlieren die Jugendlichen selbst in der Schule einen Raum, um sich unerkannt und unregistriert zu bewegen.

Das Städtchen Skellefteå
Das Städtchen Skellefteå in Nordschweden CC0 Perlindgren

Einen unmäßigen Eingriff in die Privatsphäre fand das die schwedische Datenschutzbehörde. Die Jugendlichen hätten den automatisierten Kontrollen zwar zugestimmt, die Einwilligung sei aber wegen des Machtgefälles zwischen ihnen und der Schulverwaltung ungültig. Die Behörde stoppte das Projekt, die Kommune muss 20.000 Euro Strafe zahlen. In Frankreich verbot die Datenschutzbehörde einen Testlauf von vornherein.

Lächeldetektor

Die polnische Bank PKO Bank Polski möchte ihr Schalterpersonal zu guter Laune erziehen. Dafür setzt Polens größte Bank auf die Technologie eines Startups, die sie gerade in ihren Filialen testet. Die Geräte sollen durch Gesichtsscans verraten, ob die Angestellten auch genug lächeln. Tun sie es, geht ein kleiner Geldbetrag an einen wohltätigen Zweck, verrät die Bank in ihren PR-Materialien. Unklar ist, ob die Technologie zwischen einem echten und einem erzwungenen Lächeln unterscheiden kann.

Eine Box, die einen zum Lächeln bringt
Ein Reddit-Nutzer postete ein Bild eines Testgerätes Alle Rechte vorbehalten u/hesusplace

Meerlaus-Falle

Meist wird an Tieren getestet, was erst später bei Menschen eingesetzt wird – bei Gesichtserkennung ist es andersrum. Ein norwegischer Konzern möchte die Technologie in seinen High-Tech-Fischfarmen einsetzen. Sie soll erkennen, ob die Lachse vom Parasiten Caligidae befallen ist, auch bekannt als Meerlaus. Allerdings werde die Technologie erst in einigen Jahren marktreif sein, sagt die norwegische Firma. Für Fische reicht es offenbar noch nicht.

Offene rechtliche Fragen und hohe Fehlerraten tun allerdings bisher wenig, um den Einsatz von Gesichtserkennung am Menschen zu stoppen. Im Gegenteil, Politiker wie der EU-Abgeordnete Axel Voss und der frühere EU-Digitalkommissar Andrus Ansip sprechen sich vehement gegen ein Verbot der Technologie aus – immerhin könnte dies deren Einsatz an Fischen verhindern, stellte Ansip jüngst in den Raum.

Wählerinnenvergrauler

Bei der Präsidentenwahl in Afghanistan im September 2019 fotografierte die Wahlbehörde jede Wählerin und jeden Wähler, die Bilder wurden in einer biometrischen Datenbank gespeichert. Der Einsatz von Gesichtserkennung sollte Wahlbetrug verhindern.

Wahlen in Afghanistan
Wahllokal in Afghanistan Alle Rechte vorbehalten UNAMA / Fardin Waezi

Allerdings schrecke dies Frauen vom Wählen ab, klagen Frauenrechtlerinnen. Denn die Frauen müssen im Wahllokal ihren Schleier vor Fremden ablegen, um fotografiert zu werden – besonders in religiösen Kreisen in konservativen Gegenden des Landes sei das ein No-Go. Aktivistinnen fürchten, dass durch Gesichtserkennung die Wahlbeteiligung von Frauen weiter sinkt.

Wildparkwächter

Automatisierte Gesichtserkennung breitet sich in China in rasantem Tempo aus: Polizei und Sicherheitsbehörden, aber auch Geschäfte, Bürogebäude und Schulen setzen auf die Technologie. Der chinesische Staat setzt die Technologie überdies als rassistisches Machtwerkzeug zur Unterdrückung der uigurischen Minderheit ein.

Dschunken in Hangzhou
Naturerlebnis in Hangzhou – mit Kameras? CC-BY 2.0 Kan Wu

Widerstand gibt es nun ausgerechnet bei einem Safari-Park in der Metropole Hangzhou. Ein chinesischer Jura-Professor klagt dagegen, dass der Park Gesichtserkennung am Eingang verpflichtend machte. Dies verstoße gegen seine Rechte als Konsument. Chinas schwache Datenschutzgesetze lassen kaum Spielraum für solche Beschwerden, doch sind Berichte über den Fall in den Staatsmedien ein Anzeichen, dass selbst in China die Skepsis gegenüber der Verbreitung der Technologie wächst.

Städteverwanzer

Das serbische Innenministerium kündigte vor einem Jahr an, es werde in der Hauptstadt Belgrad 1.000 Kameras für Gesichtserkennung und automatische Kennzeichenerfassung an 800 Standorten installieren. Die Technologie liefert der Konzern Huawei, der von den USA der Spionage für den chinesischen Staat verdächtigt wird. Das Projekt sorgt für einen Aufschrei der serbischen Zivilgesellschaft, bisher aber ohne viel Wirkung.

Die Straßen von Belgrad
Die Straßen von Belgrad, gut überwacht Gemeinfrei-ähnlich freigegeben durch unsplash.com Sherise .

Der serbische Fall zeigt, wie weit Behörden jenseits der EU-Datenschutzgesetze gehen können. Die serbische Regierung möchte mit dem System Kriminalität verhindern, sie könnte zugleich aber auch Regierungsgegner:innen überwachen und vom Demonstrieren abhalten, fürchtet ein serbischer Datenschützer. Huawei prahlte in einer Broschüre, dass seine „Safe City“-Technologie bereits in 230 Städten weltweit verwendet wird, darunter in autoritär regierten Staaten wie Russland, der Türkei und Aserbaidschan.

Fanbremse

Dem dänischen Fußballverein Brøndby IF sieht sich seine Fans genauer an. Seit dem Sommer sind an den Eingängen des Brøndbyer Stadions Kameras installiert, um automatisiert nach Leuten zu suchen, gegen die ein Platzverbot besteht. Pro Match scannt das System im Schnitt 14.000 Besucherinnen und Besucher, um eine der 50 gesperrten Personen zu finden. Durch die Technologie könnten Besucher rascher gescannt und schneller ins Stadion geschleust werden, sagt der Verein.

Brøndby Stadium
Fans im Stadion von Brøndby CC-BY-NC 2.0 Christian Riis Kistrup

Datenschützer:innen werfen aber die Frage der Verhältnismäßigkeit auf – immerhin muss nun jede Besucherin und jeder Besucher überwacht werden, bloß um eine kleine Gruppe von Menschen von dem Stadion fernzuhalten. Dabei sei die Zahl der Festnahmen bei Fußballspielen an einem Rekordtief und die Sicherheit in den Stadien selbst nach Angaben des Vereins gestiegen, sagt die NGO IT-Pol. Der Fall sollte auch Nicht-Fußballfans zu denken geben – denn bewährt sich der automatisierte Gesichtsabgleich im Stadion aus Sicht der Behörden, ist es bald auch mit der Anonymität bei Rockkonzerten, Messen und anderen Großveranstaltungen vorbei.

Wir suchen weitere Beispiele für bizarre und problematische Anwendungsfälle von automatisierter Geschichtserkennung. Tipps gerne in den Ergänzungen oder an alex at netzpolitik.org.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

 

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Dann unterstütze uns hier mit einer Spende.

Eine Ergänzung
  1. Es ist schon ein wenig beklemmend Kameras – früher oder später mit KI-Systemen – in Klassenräumen hängen zu haben. Solche Systeme sind in naher Zukunft geeignet – neben Anwesenheitsverletzungen – z.B. auffälliges Verhalten und “Abschreiben“ der SchülerInnen zu detektieren und zuzuordnen.
    Traurige Realität: Die heutige Jugend ist es gewohnt von Kameras (z.B. öffentlichen Raum, ÖPNV, Geschäften, Wohnanlagen etc.) umgeben zu sein und mit dem Smartphone zu filmen und gefilmt zu werden; da wird vermutlich die (öffentliche) Empörung unter den SchülerInnen – wegen Kameras in Klassenräumen – ausbleiben. Für die Gewerkschaft Erziehung und Wissenschaft (GEW) – und auch die Eltern der SchülerInnen – müsste die „technische/ visuelle Klassenaufsicht“ sehr wohl ein Thema sein, welches sie kritisch begleiten.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.