Black Lives MatterAmazon setzt Gesichtserkennung für Polizei ein Jahr aus

Jetzt hat auch Amazon auf die Kritik an Gesichtserkennung reagiert. Bürgerrechtsorganisationen fordern, dass der Konzern ganz aus der Technologie aussteigt und Verträge mit der Polizei auflöst.

Stilisierte Gesichtserkennung
Gesichtserkennungstechnologien geraten zunehmend in die Kritik. – Alle Rechte vorbehalten banfacialrecognition.com / Bearbeitung: netzpolitik.org

Nach IBM ändert nun auch Amazon sein Geschäft mit der Gesichtserkennung – allerdings nur für ein Jahr. Amazon hatte am Mittwoch angekündigt, dass es ein einjähriges Moratorium für die Nutzung seiner Gesichtserkennungstechnologie Rekognition bei der Polizei beschlossen habe. Gleichzeitig fordert das Unternehmen mehr Regulierung durch die Politik.

Amazons Gesichtserkennung „Rekognition“ wird in zahlreichen Polizeirevieren in den USA eingesetzt, mit mehr als 1000 Polizeirevieren ist das Unternehmen eine Partnerschaft bei seiner umstrittenen Überwachungstechnologie „Ring“ eingegangen. Beide Produkte haben nachweislich einen rassistischen Bias.

Verschiedene Organisationen kritisierten die Ankündigung als PR-Maßnahme. Das Anti-Amazon-Bündnis „Athena for all“ weist darauf hin, dass Amazon alleine seit dem Tod von George Floyd mit 30 Polizeirevieren eine neue Partnerschaft eingegangen sei. Wenn Amazon es ernst meine, solle das Unternehmen die Partnerschaft mit allen Polizeien beenden.

„Sollte gänzlich verboten werden“

Die digitale Bürgerrechtsorganisation „Fight for the Future“ moniert zwar einen PR-Stunt, sieht die Ankündigung Amazons aber als Zeichen, dass Gesichtserkennung politisch zunehmend schwer zu vermitteln sei. Evan Greer von Fight for the Future wendet sich gegen eine Regulierung, die Gesichtserkennung erlaubt: „Die Realität sieht so aus, dass die Gesichtserkennungstechnologie zu gefährlich ist, um überhaupt eingesetzt zu werden. Wie nukleare oder biologische Waffen stellt sie eine so tiefe Bedrohung für die Zukunft der Menschheit dar, dass sie gänzlich verboten werden sollte.“

Den jetzigen Entscheidungen von IBM und Amazon ist eine jahrelange Debatte über rassistischen Bias von Algorithmen und Gesichtserkennung vorausgegangen. Schwarze Wissenschaftlerinnen wie Joy Buolamwini oder Timnit Gebru hatten das Thema erforscht und in Projekten wie Gender Shades sowie Veröffentlichungen (PDF) darauf hingewiesen.

Dabei geht es unter anderem Fehler bei der Erkennung: Weil Gesichterkennungssysteme bei People of Color eine höhere Fehlerquote als bei weißen Personen haben, sind sie vom Einsatz der Technologie besonders betroffen. Jeder Fehlalarm kann dazu führen, dass eigentlich unverdächtige Personen überwacht, durchsucht und festgehalten werden, was für diese traumatisierend und stigmatisierend sein kann.

Gemeinsamer Erfolg von Wissenschaft und Protesten

Amazon versuchte damals die Studienergebnisse zu untergraben, aber Buolamwini veröffentlichte eine detaillierte Antwort, in der sie sagte: „Amazons Ansatz war bisher Verleugnung, Ablenkung und Verzögerung. Wir können uns nicht darauf verlassen, dass Amazon sich selbst überprüft und der Polizei oder Regierungsbehörden unregulierte und nicht-erprobte Technologien zur Verfügung stellt“.

Das Moratorium von Amazon bezeichnet sie auf Twitter als „Erfolg nicht nur von Wissenschaftler:innen, sondern auch von Bürgerrechtsorganisationen, Aktivist:innen, Angestellten und Aktionär:innen“, der im Zusammenhang mit dem Tod von George Floyd und aufgrund der Proteste möglich geworden sei.

Doch nicht nur der rassistische Bias ist ein Problem der Technologie: Gesichtserkennung erhöht mit „dem Nummernschild im Gesicht“ die allgegenwärtige Überwachung und bedroht Grundrechte wie die Versammlungsfreiheit. In Deutschland setzt sich unter anderem das Bündnis „Gesichtserkennung stoppen!“ gegen die Technologie ein. Dem Bündnis gehören zahlreiche Digital- und Bürgerrechtsorganisationen an.

 

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

2 Ergänzungen

  1. Es ist ja nicht erst seit gestern so, dass die Gesichtserkennungs-Technologie als gefährliche Technologie für Individuen bewertet wurde. Die Positionen in einer jahrelangen, gleichwohl aber leisen Debatte, sind hinlänglich bekannt. Man musste sich nur dafür interessieren. Dass Gesichtserkennung ein Problem mit dunkelhäutigen Gesichtern hat, ist ein fototechnisches Grundproblem. Worin besteht aber nun die Diskriminierung der persons of color im Bereich der Gesichtserkennung? Eindeutig in der Bewertung von Daten entlang gängiger psychologischer und soziologischer Vorurteile. Software samt Algorithmen werden ganz überwiegend von männlichen Weißen geschrieben. Abhilfe käme in Jahrzehnten erst – vielleicht, wenn es mehr Girls Coding https://girlswhocode.com/ gäbe, also wenn das gegenwärtige Gender- und Hautfarben-Problem überwunden wäre. Und ja, es gibt ein Rassismus-Problem im IT-Bereich!

    Als der IBM-CEO Abstand von der Gesichtserkennung in Aussicht stellte, habe ich mir zwei Tage lang die Augen gerieben. Ach doch so plötzlich, wie kann das sein?

    Und nun das Echo aus der Bezos-Amazon-Ecke. Was im Gegensatz zu IBM hat Bezos bisher gegen Rassismus (inkl. rassistischer Ausbeutung in eigenen Lagerhallen) unternommen? Fehlt da was?

    So begrüßenswert eine generelle Abkehr von Gesichtserkennung auch wäre, so eindrücklicher ist der Anschein, dass es sich doch nur um ein opportunistisches PR-Manöver handeln dürfte, angesichts (!) der Tatsache, dass Mund- und Nasenschutz im öffentlichen Raum zum alltäglichen und normalen Erscheinungsbild werden, allen Vermummungsverboten zum Trotz.

    Ich denke, dass der Kapitalismus keine Moral kennt, aber dafür auf der Kostenseite um so lernfähiger bzw. anfälliger ist.

    1. > Und ja, es gibt ein Rassismus-Problem im IT-Bereich!

      Lesbar wird es in manchen IT-Foren, wenn auf rassistisches Denken hingewiesen wird. Das ist wie ein hin gehaltenes Stöckchen auf das die Gestrigen springen. Subtiler Sprachcode.

      Wenn es allzu peinlich wird, verschwinden die Threads komplett, und die Weste ist wieder weiß.

      Hier entwickelt sich gerade was, mal sehen wie lange noch:
      https://forums.freebsd.org/threads/bye-bye-master-and-slave.75789/#post-466118

      Im Übrigen wurde an gleicher Stelle vor ein paar Monaten ein Link auf https://girlswhocode.com/ gesetzt, nur der Link ohne Kommentar dazu. Was darauf folgte war heftig und eignete sich zur vollständigen Desillusionierung wer da sonst noch werkelt in FOSS und Open Source. Wurde vollständig getilgt. Der Link auf Girls Who Code wurde auch entfernt.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.