Biometrie-StudieMundschutz hilft nicht mehr gegen Gesichtserkennung

Die Entwickler von biometrischer Gesichtserkennung haben ihre Software an die Pandemie angepasst. Während die Algorithmen im Sommer noch große Schwierigkeiten mit maskierten Gesichtern hatten, sieht es fünf Monate später ganz anders aus, zeigt eine neue Untersuchung.

Frau mit Weihnachtsmannmütze und Mundschutz hält sich Finger an den Kopf
Zu Beginn der Pandemie erschwerte ein Mundschutz die Gesichtserkennung erheblich. Diese Zeiten sind jetzt vorbei. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Volodymyr Hryshchenko

Gesichtserkennung wird immer genauer, auch wenn die Überwachten einen Mundschutz tragen. Zu diesem Ergebnis kommt eine am Dienstag veröffentlichte Untersuchung des US National Institute of Standards and Technology (NIST), die 152 unterschiedliche Gesichtserkennungsalgorithmen geprüft hat.

Noch im Juli hatte die Vorgänger-Studie herausgefunden, dass selbst die besten der untersuchten Gesichtserkennungsalgorithmen nicht gut mit maskierten Gesichtern zurecht kamen. Die Fehlerrate gegenüber den maskenlosen Bildern lag bei Tragen einer Maske zwischen fünf und 50 Prozent.

Das hat sich inzwischen geändert, vor allem auch durch neu vorgelegte Algorithmen. In der Studie heißt es: „Während einige Algorithmen aus der Zeit vor der Pandemie immer noch zu den genauesten auf maskierten Fotos gehören, haben einige Entwickler nach der Pandemie Algorithmen vorgelegt, die eine deutlich verbesserte Genauigkeit aufweisen und nun zu den genauesten in unserem Test gehören“.

Die Performance ausgewählter Gesichtserkennungsalgorithmen aus der Studie. - Alle Rechte vorbehalten NIST

Die genauesten Algorithmen haben nur noch eine Fehlerquote von fünf Prozent, selbst wenn 70 Prozent des Gesichtes mit einer Maske bedeckt sind. Viele der untersuchten Algorithmen haben zwar weiterhin schlechtere Erkennungsraten, wenn die Personen maskiert sind, aber der Trend geht zu einer treffsicheren Identifizierung trotz Maske.

Viele Algorithmen schnitten außerdem besser ab, wenn sowohl das in der Datenbank abgelegte Referenzbild wie auch das überprüfte Bild ein Gesicht mit Maske zeigen.

Grundrechtsfeindliche Technologie

Gesichtserkennung ist in vielen Anwendungsfällen eine grundrechtsfeindliche Technologie. Dabei geht es unter anderem um Fehler bei der Erkennung, die auf einem rassistischen Bias der Daten beruhen. Weil Gesichtserkennungssysteme bei People of Color eine höhere Fehlerquote als bei weißen Personen aufweisen, sind diese vom Einsatz der Technologie besonders betroffen. Jeder Fehlalarm kann dazu führen, dass eigentlich unverdächtige Personen überwacht, durchsucht und festgehalten werden, was für diese traumatisierend und stigmatisierend sein kann. Erst im Sommer wurde der Fall eines Mannes aus Detroit bekannt, der aufgrund eines falsch-posisitiven Treffers beim Bilderabgleich fälschlicherweise verhaftet wurde.

Doch nicht nur der rassistische Bias ist ein Problem: Gesichtserkennung erhöht mit „dem Nummernschild im Gesicht“ die allgegenwärtige Überwachung, bedroht Grundrechte wie die Versammlungsfreiheit und schafft letztlich die Privatsphäre ab.

In Deutschland setzt sich unter anderem das Bündnis „Gesichtserkennung stoppen!“ gegen diese Hoch-Risikotechnologie ein. Dem Bündnis gehören zahlreiche Digital- und Bürgerrechtsorganisationen an.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Mittlerweile sind Systeme verfügbar, welche Iris-Scans mittels hochauflösenden Kameras i. V. m. dem automatischen Abgleich von Datenbanken zur Grundlage haben. Das klappt aus vielen Metern Entfernung ohne das die Betroffenen etwas davon mitbekommen. Die Iris eines Menschen ist so einzigartig wie ein Fingerabdruck.

    1. Wobei die Systeme auf die Entfernung nicht fool-proof sein dürften. Nicht dass das am Problem etwas ändern würde, dennoch.

  2. Der Precht hat gesagt dass es gut sei, dass 85% der Deutschen gute Staatsbürger sind. Er hat es mit dem Beispiel der roten Ampel nachts und einem Auto verglichen. Kommt ein Autofahrer nachts an eine rote Ampel, bleibt dieser stehen – auch wenn kein anderes Fahrzeug zu sehen ist. Weil er sich an Verordnungen und Gesetze hält. So wollte er dies als Vergleich zur aktuellen Situation bringen, dass wir über die Maßnahmen zwar denken können was wir wollen – es uns aber nicht zu steht diese öffentlich zu bewerten und zu hinterfragen.

    Ich behaupte: Wäre es eine rote Fußgängerampel, so würde sich niemand daran halten. Weil die Strafe und Konsequenzen viel geringer sind. Der Autofahrer muss eine viel größere Strafe fürchten und die Ampel könnte sogar einen Rot-Blitzer eingebaut haben.

    Worauf ich hinaus will: Wenn dann demnächst an den Fußgängerampeln Kameras hängen und du automatisch eine Strafe per Post bekommst weil du bei rot über die Straße gegangen bist und dort eine Gesichsterkennung hing, dann werden auch Fußgänger brave Staatsbürger werden.

    Dann braucht man auch irgendwann keine Sozialpunkte-App wie in China. Aber auch gegen solche Technologien werden die Deutschen nichts unternehmen und achselzuckend hinnehmen.

    1. Naja es findet doch noch ein Lernprozess statt. So musste die Internetzensur in China lernen, in der zweiten Runde z.B. Alternativbegriffe und Umschreibungen zu erkennen. Aus der Sowjetzeit wissen wir auch einiges über die Anpassungen, die Menschen… aber was soll’s, die haben wir ja gerade wieder vor uns, ich will hier mal nicht spoilern.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.