Biometrie-StudieMundschutz hilft nicht mehr gegen Gesichtserkennung

Die Entwickler von biometrischer Gesichtserkennung haben ihre Software an die Pandemie angepasst. Während die Algorithmen im Sommer noch große Schwierigkeiten mit maskierten Gesichtern hatten, sieht es fünf Monate später ganz anders aus, zeigt eine neue Untersuchung.

Frau mit Weihnachtsmannmütze und Mundschutz hält sich Finger an den Kopf
Zu Beginn der Pandemie erschwerte ein Mundschutz die Gesichtserkennung erheblich. Diese Zeiten sind jetzt vorbei. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Volodymyr Hryshchenko

Gesichtserkennung wird immer genauer, auch wenn die Überwachten einen Mundschutz tragen. Zu diesem Ergebnis kommt eine am Dienstag veröffentlichte Untersuchung des US National Institute of Standards and Technology (NIST), die 152 unterschiedliche Gesichtserkennungsalgorithmen geprüft hat.

Noch im Juli hatte die Vorgänger-Studie herausgefunden, dass selbst die besten der untersuchten Gesichtserkennungsalgorithmen nicht gut mit maskierten Gesichtern zurecht kamen. Die Fehlerrate gegenüber den maskenlosen Bildern lag bei Tragen einer Maske zwischen fünf und 50 Prozent.

Das hat sich inzwischen geändert, vor allem auch durch neu vorgelegte Algorithmen. In der Studie heißt es: „Während einige Algorithmen aus der Zeit vor der Pandemie immer noch zu den genauesten auf maskierten Fotos gehören, haben einige Entwickler nach der Pandemie Algorithmen vorgelegt, die eine deutlich verbesserte Genauigkeit aufweisen und nun zu den genauesten in unserem Test gehören“.

Die Performance ausgewählter Gesichtserkennungsalgorithmen aus der Studie. - Alle Rechte vorbehalten NIST

Die genauesten Algorithmen haben nur noch eine Fehlerquote von fünf Prozent, selbst wenn 70 Prozent des Gesichtes mit einer Maske bedeckt sind. Viele der untersuchten Algorithmen haben zwar weiterhin schlechtere Erkennungsraten, wenn die Personen maskiert sind, aber der Trend geht zu einer treffsicheren Identifizierung trotz Maske.

Viele Algorithmen schnitten außerdem besser ab, wenn sowohl das in der Datenbank abgelegte Referenzbild wie auch das überprüfte Bild ein Gesicht mit Maske zeigen.

Grundrechtsfeindliche Technologie

Gesichtserkennung ist in vielen Anwendungsfällen eine grundrechtsfeindliche Technologie. Dabei geht es unter anderem um Fehler bei der Erkennung, die auf einem rassistischen Bias der Daten beruhen. Weil Gesichtserkennungssysteme bei People of Color eine höhere Fehlerquote als bei weißen Personen aufweisen, sind diese vom Einsatz der Technologie besonders betroffen. Jeder Fehlalarm kann dazu führen, dass eigentlich unverdächtige Personen überwacht, durchsucht und festgehalten werden, was für diese traumatisierend und stigmatisierend sein kann. Erst im Sommer wurde der Fall eines Mannes aus Detroit bekannt, der aufgrund eines falsch-posisitiven Treffers beim Bilderabgleich fälschlicherweise verhaftet wurde.

Doch nicht nur der rassistische Bias ist ein Problem: Gesichtserkennung erhöht mit „dem Nummernschild im Gesicht“ die allgegenwärtige Überwachung, bedroht Grundrechte wie die Versammlungsfreiheit und schafft letztlich die Privatsphäre ab.

In Deutschland setzt sich unter anderem das Bündnis „Gesichtserkennung stoppen!“ gegen diese Hoch-Risikotechnologie ein. Dem Bündnis gehören zahlreiche Digital- und Bürgerrechtsorganisationen an.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

6 Ergänzungen

  1. Mittlerweile sind Systeme verfügbar, welche Iris-Scans mittels hochauflösenden Kameras i. V. m. dem automatischen Abgleich von Datenbanken zur Grundlage haben. Das klappt aus vielen Metern Entfernung ohne das die Betroffenen etwas davon mitbekommen. Die Iris eines Menschen ist so einzigartig wie ein Fingerabdruck.

  2. Der Precht hat gesagt dass es gut sei, dass 85% der Deutschen gute Staatsbürger sind. Er hat es mit dem Beispiel der roten Ampel nachts und einem Auto verglichen. Kommt ein Autofahrer nachts an eine rote Ampel, bleibt dieser stehen – auch wenn kein anderes Fahrzeug zu sehen ist. Weil er sich an Verordnungen und Gesetze hält. So wollte er dies als Vergleich zur aktuellen Situation bringen, dass wir über die Maßnahmen zwar denken können was wir wollen – es uns aber nicht zu steht diese öffentlich zu bewerten und zu hinterfragen.

    Ich behaupte: Wäre es eine rote Fußgängerampel, so würde sich niemand daran halten. Weil die Strafe und Konsequenzen viel geringer sind. Der Autofahrer muss eine viel größere Strafe fürchten und die Ampel könnte sogar einen Rot-Blitzer eingebaut haben.

    Worauf ich hinaus will: Wenn dann demnächst an den Fußgängerampeln Kameras hängen und du automatisch eine Strafe per Post bekommst weil du bei rot über die Straße gegangen bist und dort eine Gesichsterkennung hing, dann werden auch Fußgänger brave Staatsbürger werden.

    Dann braucht man auch irgendwann keine Sozialpunkte-App wie in China. Aber auch gegen solche Technologien werden die Deutschen nichts unternehmen und achselzuckend hinnehmen.

    1. Naja es findet doch noch ein Lernprozess statt. So musste die Internetzensur in China lernen, in der zweiten Runde z.B. Alternativbegriffe und Umschreibungen zu erkennen. Aus der Sowjetzeit wissen wir auch einiges über die Anpassungen, die Menschen… aber was soll’s, die haben wir ja gerade wieder vor uns, ich will hier mal nicht spoilern.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.