Studie

Masken schützen nicht nur vor Corona, sondern auch gegen Überwachung

Eine Studie des US National Institute of Standards and Technology weist nach, dass das Tragen einer Gesichtsmaske bei allen 89 untersuchten Gesichtserkennungsalgorithmen zu teils hohen Fehlerraten führt. Besonders gut schützen schwarze Masken, die weit über die Nase gehen.

Nahaufnahme Gesicht einer Frau mit einer bunten Gesichtsmaske
Das korrekte Tragen einer Maske führt zu Fehlerquoten von 5-50 Prozent bei Gesichtserkennungssystemen. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Vera Davidova

Gesichtsmasken bieten doppelten Schutz: Sie helfen gegen die Ausbreitung des Coronavirus – und dagegen, von Gesichtserkennung erkannt zu werden. Laut einer Studie des US National Institute of Standards and Technology (NIST) kommen selbst die besten der 89 untersuchten Gesichtserkennungsalgorithmen nicht gut mit maskierten Gesichtern klar. Die Fehlerrate gegenüber dem Originalbild ohne Maske liegt durch die Maske zwischen 5 und 50 Prozent.

Für die Untersuchung (PDF) setzte das Forschungsteam neun verschiedene Maskenformen digital auf die Originalfotos und testete damit die Leistung der Algorithmen. Die digitalen Masken waren schwarz oder im hellblau chirurgischer Masken gehalten. Es gab Masken, welche die Nase mitbedecken und welche ohne. Das Team verglich dann die Ergebnisse mit der Leistung der Algorithmen bei unmaskierten Gesichtern.

Die akkuratesten der untersuchten Gesichtserkennungssysteme hatten bei unmaskierten Gesichtern eine Fehlerrate von 0,3 Prozent. Bei Maskenbildern stieg die Rate bei den besten Algorithmen auf fünf Prozent, bei den meisten untersuchten Algorithmen jedoch auf 20 bis 50 Prozent.

Heraus kam auch: Die Algorithmen kamen mit runden Masken besser zurecht und mit den hellblauen besser als mit schwarzen Masken. Je mehr die Nase von der Maske bedeckt ist, desto schlechter konnten die Algorithmen das Gesicht erkennen.

Algorithmen werden mit maskierten Gesichtern gefüttert

Der jetzige Vorteil von maskierten Gesichtern gegenüber der Gesichtserkennung könnte allerdings von kurzer Dauer sein. Derzeit arbeiten Forschende und Überwachungsunternehmen daran, ihre Computer mit Datensätzen maskierter und unmaskierter Menschen zu füttern, damit die Algorithmen auch maskierte Menschen besser erkennen. NIST kündigte für den Spätsommer eine weitere Studie an, bei der die Algorithmen die Maskierung stärker berücksichtigen würden.

Gesichtserkennungsforscher:innen und Überwachungsunternehmen nutzen derzeit auch Selfies von Menschen mit Masken auf Instagram-Accounts, weil sie dort Bilder sowohl mit und ohne Maske der gleichen Personen vorfinden. Ein solches Abgrasen von Bildern im Internet hatte auch die Recherche von netzpolitik.org zum Unternehmen PimEyes aufgedeckt.

Den Sicherheitsapparaten verursacht das Tragen von Masken zumindest derzeit noch Kopfschmerzen. In einem internen Bulletin warnte zum Beispiel die US-Behörde Department of Homeland Security (DHS) schon Ende Mai, dass die weit verbreitete Maskennutzung der polizeilichen Gesichtserkennung Probleme bereite. Das geht aus den BlueLeaks hervor, einem fast 300 GB großen Datensatz, der aus US-Polizeicomputern stammt.

Im Bulletin heißt es: „Wir gehen davon aus, dass gewalttätige Extremisten und andere Kriminelle, die seit jeher ein Interesse daran haben, die Gesichtserkennung zu vermeiden wahrscheinlich opportunistisch [..] das Tragen von Gesichtsmasken empfehlen werden, um die Wirksamkeit von Gesichtserkennungssystemen in öffentlichen Räumen [..] zu behindern“.

Grundrechtsfeindliche Technologie

Gesichtserkennung ist eine grundrechtsfeindliche Technologie. Dabei geht es unter anderem um Fehler bei der Erkennung, die auf einem rassistischen Bias der Daten beruhen. Weil Gesichtserkennungssysteme bei People of Color eine höhere Fehlerquote als bei weißen Personen haben, sind sie vom Einsatz der Technologie besonders betroffen. Jeder Fehlalarm kann dazu führen, dass eigentlich unverdächtige Personen überwacht, durchsucht und festgehalten werden, was für diese traumatisierend und stigmatisierend sein kann.

Doch nicht nur der rassistische Bias ist ein Problem der Technologie: Gesichtserkennung erhöht mit „dem Nummernschild im Gesicht“ die allgegenwärtige Überwachung, bedroht Grundrechte wie die Versammlungsfreiheit und schafft letztlich die Privatsphäre ab.

In Deutschland setzt sich unter anderem das Bündnis „Gesichtserkennung stoppen!“ gegen diese Hoch-Risikotechnologie ein. Dem Bündnis gehören zahlreiche Digital- und Bürgerrechtsorganisationen an.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

18 Ergänzungen
  1. Da habe ich mich schon seit März gefragt wie das funktionieren soll: prinzipiell hatte ich ja schon immer ein Recht auf individuelle Vorsorge gegen Krankheiten. Trotzdem war (war = vor Corona!) es meines Wissens nach in praktisch allen Bundesländern verboten mit einer Mund-Nasen-Maske an Demonstrationen teilzunehmen (Stichwort Vermummungsverbot). Ähnliches ist ja auch beim Autofahren eine Falle gewesen: mit Maske fahren hat hier bei uns 80€ Strafe gekostet, und das wirklich ohne erbarmen.
    Wird sich das in Zukunft wohl ändern? Oder stellen die „Freiheitsfreunde“ der CDU/CSU uns zukünftig vor die Wahl „Demonstrieren oder Gesundbleiben“? (Oder besser noch: Ansteckungsschutz nur noch bei bewiesener Unschuld gestattet!?)
    Auch wenn Corona irgendwann vorbei geht werden viele Menschen ein neues Bewusstsein für individuelle Gesundheitsvorsorge entwickelt haben; gerade bei Risikopatienten kann ich mir vorstellen, dass die Maske zukünftig zum Dauerbegleiter in der Öffentlichkeit wird. Und bei anderen Menschen vielleicht nur in der Grippesaison auf dem Weg zur Arbeit genutzt wird.

    1. Das Gesetz ist doch klar: Autofahren mit Maske auf eigene Gefahr!

      Heißt also, Omi Fuß kaputt? Stirbtse halt. Oder 1000 Euro im Monat für Taxi – gut für die Wirtschaft.

      1. Nix „auf eigene Gefahr“ – es ist VERBOTEN!
        „Sie haben beim Führen des Kraftfahrzeuges das Gesicht verdeckt oder verhüllt.
        Paragraf 23 Abs. 4, Paragraf 49 StVO; Paragraf 24 StVG; 247a BKat “ => 60€ Strafe.

        Und zum Thema Atemschutzmaske: „Demonstrationssanitäter wurde wegen Vermummung und Passivbewaffnung verurteilt“ (von 2017; https://www.neues-deutschland.de/artikel/1073292.urteil-wegen-vermummung-schutz-durch-selbstschutz.html); also JA, gegen so etwas wurde in der Vergangenheit gnadenlos (hirnlos?) vorgegangen!

        1. Das ist mit eigener Gefahr gemeint. Vielleicht währen Anführungszeichen besser gewesen. Die Gefahr ist ja, erwischt zu werden, nicht Infektionen zu verhindern.

          Ich kann nicht einschätzen, ob ich um die Strafe herumkomme oder erst nach Strafe, gewissermaßen als Geschädigter den Weg eröffnet bekomme, mittels Klage eben doch Maske tragen zu dürfen, wenn z.B. Omi mit dem kaputten Fuß irgendwo hin muss.

          Das Taxi ist ja auch ein extra Risiko und kostet und kostet. Fenster auf geht auch nicht immer. Vermutlich darf man dann aber nur zum Leichenschauhaus fahren oder ins Krankenhaus usw, nicht zum Einkaufen oder „Leben“.

  2. Also ich kann nicht behaupten, dass die Gesichtserkennung bei Gesichtern mit Maske nun schlechter funktioniert. Die Gesichtserkennung in meiner Google Fotos Cloud matcht die abgebildeten Personen, ob mit oder ohne Maske, weiterhin gefühlt zu 99 %. Nur in in wenigen Fällen fordert mich Google dazu auf „Ist die abgebildete Person … dieselbe oder eine andere Person?“ um zu validieren, ob ein Gesicht korrekt der Person zugeordnet wurde.
    Ich finde die Trefferquote inzwischen frappierend, zumal Google Fotos mittlerweile auch Gesichter erkennt, wenn diese verpixelt, im Dunkeln und sogar nur von der Seite zu erkennen sind.
    Selbst auf Fotos, z.B. aus dem öffentlichen Raum auf welchen es eigentlich (für den Zweck des Bildes) nur um die bewusst fotografierten Personen im Bildvordergrund geht, scannt Google mittlerweile auch treffsicher sämtliche noch so kleinen Gesichter im Bildhintergrund, wie bspw. bei einem Foto bei einem Stadtfest oder Freizeitpark. Schade, dass diese unbescholtenen Personen sich auch gar nicht davor schützen können, dass Google per privater Foto Clouds seiner Nutzer deren Gesichter (ungewollt und unwissentlich) scannt, modelliert und identifiziert – Maske hin oder her.

    1. Google hat sicherlich Anpassungen vorgenommen, obwohl ja auch von höherer Effizienz von schwarzen Masken mit über der Nase die Rede ist. Das können andere natürlich auch, es sei denn z.B. die Suchpolizeibehörde Nr. 11 hätte vergessen diesen Fall im Vertragswerk mit einzubinden, dann wird es teuer :). Wie es wohl um die „anonymisierte“ Kundenverfolgung per Gesichtserkennung im Supermarkt bestellt ist…

      In der nichtisolierten Realität könnte man noch Hut, Haar, Brille Schuhe, Kleidungssorte, Kleidungsfarben und Gang dazunehmen. Alles flüchtig, klar. Für den Supermarkt reicht es, Dienste wollen sowas sicherlich auch können.

      Was die Fotos im öffentlichen Raum betrifft… ab N Leuten darf man Fotografieren usw…. die Regeln sind aus der Steinzeit, die Konsequenz des Verbots wird gescheut (Abhilfe wäre ja Unkenntlichmachung von Menschen und Nummernschildern und zwar komplett mit Farben und Formen). Vgl. isolierte Sicht auf „Anonymisierung“ unter Auslassung der Möglichkeit der Hinzuziehung weiterer Datensätze, legal/illegal/…

  3. „Masken schützen nicht nur vor Corona“ ist ein irreführender Titel in Zusammenhang mit dem Titelbild.
    Laut RKI und dem BfArM bieten die im Titelbild dargestellten „DIY-Masken“ „keine nachgewiesene Schutzfunktion für die Trägerin oder den Träger selbst“ und dürfen auch nicht als „Mundschutz“ oder „Schutzausrüstung“ deklariert, verkauft oder gar eine Schutzfunktion zugesprochen werden. Nur N95 bzw. FFP Masken dürfen als „Schutzmasken“ deklariert werden.

    1. Masken schützen nachgewiesenermaßen andere Menschen vor Corona. Da helfen sogar die einfachen. Außerdem verkaufen wir hier keine Masken.

  4. Einerseits eine gute Nachricht. Andererseits bleibt dadurch zu befürchten, dass das ganze andere Formen der biometrischen Erkennung wie Schrittmuster und Herzschlagmessungen etc. beschleunigt voranbringt. Solange es keinen gesellschaftlichen Konsens und keine gesetzlichen Regulierungen für bzw. gegen diese Technologien gibt, wird das gemacht, was technisch machbar ist. Eigentlich ist es erstaunlich, dass das in der Öffentlichkeit nicht präsenter ist, da man heute z.B. in der Klimabewegung längst realisiert , dass Technologien längst nicht nur Heilsbringer sind, auch wenn sie früher als Fortschritt oder Notwendigkeit wahrgenommen wurden.

    1. Ich denke, dass die Digitalisierung sich längst in einem Stadium befindet, welches sich nicht mehr viel um „gesellschaftlichen Konsens“ oder „gesetzliche Regulierungen“ kümmert.
      Die Digitalisierung in ihrem Lauf, hält weder Ochs noch Esel auf – könnte man sagen! Doch wer schützt uns vor einem Schicksal als Knechte eines digitalen und totalitären Überwachungskapitalismus? Digitalisierung bedeutet auch Dehumanisierung. Nach einem halben Jahrtausend humanistischer Bemühungen, sich von den darwinistischen Naturgesetzmäßigkeiten der (menschlichen) Evolution zu befreien, um jedem Menschenkind – zumindest theoretisch – eine unveräußerliche Würde nebst Grundrechten angedeihen zu lassen, determiniert uns die Digitalisierung nun den brutalen Weg zurück zur Natur: Fressen und gefressen werden. Vom freien Geist des Individuums zum bloßen Datenobjekt. Digitalisierung heißt ja vor allem Messbarmachung, ob Gesicht, Stimme, Gang, Herzschlag, usw. Denn alles was sich in Daten ausdrücken lässt, lässt sich auch quantifizieren. Und alles was sich quantifizieren lässt, lässt sich auch (aus)werten bzw. steuern. Information ist Wissen und Wissen ist Macht und damit das Gegenteil von Freiheit. Die Digitalisierung disruptiert eben auch jene Grauzonen der Information, welche seither Quellen der Freiheit waren, nämlich den geschützten Raum; sei es die räumlich-analoge Privatsphäre oder der Gedankenraum der eigenen Seele. Die Digitalisierung – sozusagen als digitales Krebsgeschwür unserer Zeit – frisst sich unaufhaltsam und in nahezu sämtliche Lebensbereiche hinein, um diese den Gesetzen des digitalen Informationskapitalismus zu unterwerfen. Wobei hier sicherlich keine dunklen Mächte einer Verschwörung walten, sondern schlicht die Gesetze der Evolution ihren Tribut zollen, im leidenschaftlosen Zusammenwirken von Biologie und Informationsphysik – denn letztlich ist Information etwas physikalisches und damit weder Moral noch Gott verpflichtet.

      Doch bei aller menschlichen Lust zum Untergang; unsere Spezies ist letztlich doch robuster als man manchmal meinen will.

    2. Politische Probleme müssen letztlich politisch gelöst werden. „Hacking“ am System, wie z.B. das Austricksen von Überwachungssystemen, kann aber hilfreich sein um die politische Diskussion voranzubringen.

      Dabei sollte nicht nur das Thema Überwachung isoliert betrachtet werden:

      Nachdem z.B. Österreich eine Weile jegliche Gesichtsmaskierung in der Öffentlichkeit verboten hatte – und zwar aus xenophob-antimuslimischer Motivation – ist es geradezu amüsant, daß die Maskierung nun quasi Bürgerpflicht sein soll.

      1. Kam das Vermummungsverbot nicht mit dem damaligen Überwachungspaket unter Schwarz(Türkis)/Blau?
        Die Face Recognition des Innenministeriums war auch schon seit geraumer Zeit im Testbetrieb. Man könnte daraus ableiten, dass man vor diesem Hoax noch mal Maskenfreie Gesichter sammeln wollte.

  5. Wie sieht es aus, wenn zur Maske eine Mütze getragen wird, die die Ohren bedeckt, sowie eine dunkle Sonnenbrille? Das kann die ganz große Mode 2020 werden!

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.