Überwachungstechnologie

Microsoft unterbricht Verkauf von Gesichtserkennung an Polizei in den USA

Der nächste Technikkonzern beendet vorerst seine Zusammenarbeit mit Polizeidienststellen in den USA. Bürgerrechtsorganisationen wie die Electronic Frontier Foundation gehen jetzt aufs Ganze – und fordern ein Verbot der Technologie.

Gesichtserkennung (Symbolbild) Alle Rechte vorbehalten Abigail Russell

Der Ausstieg von IBM aus der Gesichtserkennungstechnologie hat einen Domino-Effekt ausgelöst. Nachdem gestern erst Amazon ein einjähriges Moratorium verkündet hatte, hat nun Microsoft den Verkauf der Technologie an US-Polizeidienststellen ausgesetzt.

Während eines Gesprächs mit der Washington Post sagte Microsoft-Vorstand Brad Smith, das Unternehmen habe beschlossen, „dass wir die Gesichtserkennung nicht an Polizeidienststellen in den USA verkaufen werden, bis wir ein nationales, auf den Menschenrechten basierendes Gesetz haben, das diese Technologie regelt.“

Bürgerrechtsorganisationen fordern Verbot

Liz O’Sullivan vom „Surveillance Technology Oversight Project“ weist darauf hin, dass Microsoft ein solches Gesetz geschrieben habe und nun im Namen von „Black Lives Matter“ dafür auch mit dieser Maßnahme lobbyiere.

Die Electronic Frontier Foundation fordert in einer Stellungnahme „ein landesweites Verbot für den Einsatz der Gesichtserkennung durch die Regierung“. Selbst wenn die Technologie stark reguliert wäre, würde ihr Einsatz weiterhin die Krise der Polizeiarbeit in den USA verschärfen.

Die Bürgerrechtsorganisation ACLU begrüßte den Schritt von Microsoft und forderte, dass ein Gesetz die Nutzung der Gesichtserkennung pausieren solle. „Fight for the Future“ sprach sich für ein komplettes Verbot aus.

Den jetzigen Entscheidungen von IBM, Amazon und Microsoft ist eine jahrelange Debatte über rassistischen Bias von Algorithmen und Gesichtserkennung vorausgegangen. Schwarze Wissenschaftlerinnen wie Joy Buolamwini oder Timnit Gebru hatten das Thema erforscht und in Projekten wie Gender Shades sowie Veröffentlichungen (PDF) darauf hingewiesen.

Grundrechtsfeindliche Technologie

Dabei geht es unter anderem um Fehler bei der Erkennung: Weil Gesichtserkennungssysteme bei People of Color eine höhere Fehlerquote als bei weißen Personen haben, sind sie vom Einsatz der Technologie besonders betroffen. Jeder Fehlalarm kann dazu führen, dass eigentlich unverdächtige Personen überwacht, durchsucht und festgehalten werden, was für diese traumatisierend und stigmatisierend sein kann.

Doch nicht nur der rassistische Bias ist ein Problem der Technologie: Gesichtserkennung erhöht mit„dem Nummernschild im Gesicht“ die allgegenwärtige Überwachung und bedroht Grundrechte wie die Versammlungsfreiheit. In Deutschland setzt sich unter anderem das Bündnis „Gesichtserkennung stoppen!“ gegen diese Hoch-Risikotechnologie ein. Dem Bündnis gehören zahlreiche Digital- und Bürgerrechtsorganisationen an.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

Eine Ergänzung

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.