Ethik der BiometrieMicrosoft gesteht Missbrauchsgefahr von Gesichtserkennung ein

Microsoft will künftig keine Gesichtserkennungstools mehr anbieten, die Alter, Geschlecht und emotionalen Ausdruck bestimmen sollen. Bei der Entscheidung dürfte auch die hohe Fehleranfälligkeit der Technologie eine Rolle gespielt haben.

Gesichter von Passanten werden in der Menschenmenge erfasst
Zwar geben große Tech-Konzerne wie Microsoft, IBM und Amazon an, die Gesichtserkennungstechnologie ethisch zu problematisieren. Für ausgewählte Kund:innen besteht das Angebot jedoch weiterhin. – Alle Rechte vorbehalten IMAGO / Jochen Tack

Microsoft will vorerst keine Tools mehr anbieten, die automatisiert Geschlecht, Alter und den emotionalen Ausdruck von Gesichtern erkennen sollen. Der Software-Riese will künftig „verantwortungsvoll“ mit Künstlicher Intelligenz (KI) umgehen, gab das Unternehmen letzte Woche bekannt.

Schon länger machen Aktivist:innen und Akademiker:innen auf die Gefahren der Gesichtserkennungstechnologie aufmerksam. Denn sie greift Grundrechte an, vor allem dann, wenn sie zur Überwachung und in der Strafverfolgung eingesetzt wird.

Mit dem Schritt, das Angebot einzustellen und bis Ende des Jahres auslaufen zu lassen, reagiert Microsoft auf bevorstehende Regulierung sowie auf die Kritik an der Gesichtserkennungstechnologie. In den USA wurde diese zuletzt im Jahr 2020 besonders laut, als die Polizei friedliche Proteste gegen Rassismus und Polizeigewalt radikal niederschlug. Daraufhin standen große Technologiekonzerne wie IBM, Amazon und Microsoft unter dem Druck einer großen Öffentlichkeit.

Während IBM in einem öffentlichen Brief an den Kongress erklärte, seinen Dienst zur Gesichtserkennung einstellen zu wollen, reagierten Microsoft und Amazon mit einem Moratorium. Sie setzten den Verkauf ihrer Produkte zur Gesichtserkennung an Strafverfolgungsbehörden zunächst für ein Jahr und schließlich bis auf Weiteres aus.

Microsoft gibt sich Regeln

In einem 27-seitigen Dokument zum verantwortungsvollen Umgang mit Künstlicher Intelligenz („Responsible AI Standard“) legt Microsoft nun offen, an welche selbsterstellten Regeln sich der Konzern künftig halten will. So dürfe die Technologie nur so eingesetzt werden, um tatsächlich Probleme zu lösen, für deren Lösung sie entworfen wurde. Zudem müsse sie eine vergleichbare Qualität bei der Erkennung demografischer Gruppen aufweisen, „einschließlich marginalisierter Gruppen“. Schon in der Vergangenheit hatten Untersuchungen wiederholt nachgewiesen, dass die Fehlerquote solcher Systeme erschreckend hoch liegt.

Das Papier ist das Ergebnis einer zweijährigen Prüfung durch ein Expert:innen-Team. Dieses hatte untersucht, wie sich die schädliche Anwendung der Technologie vermeiden lasse. Vor allem bei der Emotionserkennung fehle ein wissenschaftlicher Konsens, schreibt Microsoft. „Es gibt enorme kulturelle, geografische und individuelle Unterschiede in der Art und Weise, wie wir uns ausdrücken“, sagte die verantwortliche KI-Beauftragte, Natasha Crampton der New York Times. Auch die Frage, ob „der Gesichtsausdruck ein zuverlässiger Indikator für den inneren emotionalen Zustand“ sei, habe Zweifel am Produkt hervorgerufen.

Indes behält Microsoft Gesichtserkennungssoftware weiterhin im Angebot. Potenzielle Kunden müssen sich jedoch um den Zugang bewerben. Dabei müssen sie eine Reihe an Vorgaben des Konzerns einhalten und etwa erklären, wie sie die Technologie einsetzen wollen.

Wachstum ohne Kontrolle

Generell rechnen Systeme zur Gesichtserkennung bestimmte Merkmale in einen biometrischen Datensatz um. Mit diesem digitalen Muster sollen anschließend die selben Eigenschaften in weiteren Bildern erkannt und der analysierten Person zugerechnet werden. Unterschieden wird zwischen zwei Anwendungsarten der Gesichtserkennungstechnologie.

Die sogenannte Eins-zu-eins-Verifikation wird beispielsweise in Apps eingesetzt, mit denen man sich auf einem Gerät anmeldet oder eine Bezahlung tätigt. Das Unternehmen Uber nutzt etwa Microsoft Gesichtserkennungstool, um zu prüfen, ob Fahrer:innen wirklich jene sind, die sie vorgeben zu sein. Die Eins-zu-viele-Identifikation wiederum soll unter anderem dabei helfen, große Mengen an Bildern zu systematisieren. Prominentestes Beispiel für diese Art der Anwendung ist die Strafverfolgung.

Der Einsatz der Technologie ist in den letzten Jahren rasant angewachsen. Zum einen liegt das an technologischen Fortschritten, zum anderen an der steigenden Nachfrage. Bislang wird die Technologie jedoch kaum kontrolliert oder reguliert, obwohl sie vor allem marginalisierte Gruppen in Gefahr bringt.

Fehleranfälligkeit und die verheerenden Folgen

Abgesehen davon, dass Gesichtserkennung die Anonymität abschafft, scheitert die Technik beharrlich an der zuverlässigen Bestimmung von Geschlecht und ethnischer Herkunft. Wie Joy Buolamwini vom MIT Media Lab in ihrer Studie Gender Shades herausstellt, funktionieren Gesichtserkennungssysteme nicht so akurat, wie beispielsweise Amazon seinen Kund:innen suggeriert. Sie testete 2018 Software von IBM, Microsoft und der chinesischen Firma Face++. Zwar erkannten alle Systeme besonders gut weiße Männer, versagten aber bei People of Color und hier besonders bei Frauen mit einer Fehlerquote von 30,3 Prozent.

Die höhere Fehlerquote bedeutet für People of Color ein großes Risiko. Denn ein falscher Treffer kann dazu führen, dass unschuldige Menschen überwacht oder festgenommen werden. In den USA gibt es dazu bereits mehrere Fälle. So wurde etwa Nijeer Parks beschuldigt, er habe Süßigkeiten gestohlen und versucht, einen Polizisten mit einem Auto umzufahren. Anhand des Bildes auf einem gefälschten Ausweis, den der Täter den Polizisten am Tatort ausgehändigt hatte, wurde Parks nach dem Abgleich mit einer Fahndungsdatenbank ermittelt. Und das, obwohl er zum Tatzeitpunkt rund 50 Kilometer vom Geschehen entfernt war. Parks saß daraufhin zehn Tage im Gefängnis und bezahlte 5.000 Dollar, um sich zu verteidigen. Aus Mangel an Beweisen wurde die Klage ein halbes Jahr später abgewiesen, doch der Schaden war bereits angerichtet.

Ethische Bedenken – aber nicht ganz so

Microsofts Entscheidung sei zu begrüßen, erklärt Ioannis Kouvakas von Privacy International gegenüber netzpolitik. Doch sei es wichtig, sich die Details genau anzuschauen. IBM beispielsweise stellte zwar den Verkauf von Gesichtserkennung ein. Im Schreiben an den US-Kongress heißt es: „IBM bietet keine IBM-Gesichtserkennungs- oder -analysesoftware für den allgemeinen Gebrauch mehr an.“ Der Knackpunkt liege aber, so Kouvakas, in der Formulierung „für den allgemeinen Gebrauch“. IBM ließ sich die Option offen, eigene Gesichtserkennungstechnologie für bestimmte Zwecke zu verkaufen und die von anderen Anbietern im Rahmen seines umfangreichen Beratungsgeschäfts weiterzuverkaufen.

Auch Amazon und Microsoft erkennen zwar die Missbrauchsgefahren an oder bangen, dass ihre Reputation Schaden nimmt, bieten aber weiterhin für ausgewählte Kund:innen Gesichtserkennungstools an. Wollten Microsoft und andere ein deutliches Zeichen gegen den Missbrauch setzen, „den sie Berichten zufolge über öffentlich-private Überwachungspartnerschaften (public private surveillance partnerships) unterstützt haben, dann müssen sie aufhören, sich auf die Entwicklung der neuesten Shiny Toys zu stürzen, die letztlich der Gesellschaft schadet und zu schweren Menschenrechtsverletzungen führen kann,“ so Kouvakas.

Dafür muss es Regulierung geben, damit der Schutz unserer Grundrechte nicht mehr „von der Entscheidung privater Anbieter*innen abhängig gemacht werden muss,“ sagt Angela Müller von AlgorithmWatch gegenüber netzpolitik. Das sei Sache des demokratischen Rechtsstaats. Dass Konzerne Verantwortung übernehmen, sei zwar willkommen, könne „aber gleichzeitig nicht die Lösung sein.“

Gesetze in der Mache

Regulierung strebt der derzeit verhandelte Artificial Intelligence Act (AI Act) der EU an. Es ist das erste Regelwerk seiner Art und findet daher international Beachtung, auch bei Microsoft. „Es ist eine entscheidende Zeit, in der Normen für Künstliche Intelligenz gesetzt werden“, verweist die Microsoft-Managerin Crampton auf das geplante EU-Gesetz. „Wir hoffen, unseren Standard nutzen zu können, um zu den notwendigen Diskussionen über die Standards beizutragen, an denen Tech-Unternehmen gemessen werden sollen“.

Der europäische AI Act kategorisiert die Risiken der missbräuchlichen Anwendung von KI, zum Beispiel in der Gesichtserkennung: nicht akzeptable, hohe und kleine oder vernachlässigbare. Abgesehen davon, dass diese Einstufung starr und ungenau formuliert ist, werden auch in diesem Regulierungsvorhaben Ausnahmen eingeräumt. Laut dem Vorschlag der EU-Kommission soll etwa Videoüberwachung mit automatisierter Gesichtserkennung im öffentlichen Raum möglich sein, wenn Täter:innen per europäischem Haftbefehl gesucht werden. Das EU-Parlament hat sich hingegen für ein Verbot automatisierter Gesichtserkennung ausgesprochen.

Während sich die Großen teilweise aus dem Geschäft zurückziehen und darauf setzen, nur geprüfte Kund:innen zuzulassen, stürzen sich kleinere Unternehmen auf den Markt, darunter die umstrittenen Unternehmen PimEyes oder ClearView AI. Diese sehen dabei gern über die ethischen wie auch die technischen Hürden hinweg. Zwar müssten sie dabei „Reputationsrisiken“ in Kauf nehmen, sagt Müller von AlgorithmWatch. Da aber die Entwicklung und der Vertrieb von solchen Technologien weitgehend intransparent passiere und selten ans Licht der Öffentlichkeit gelange, gebe es „kaum eine Möglichkeit Kontrolle auszuüben und abzuschätzen, welche Technologien wo, von wem und wozu eingesetzt werden – und was das für uns für Folgen haben kann.“

Diese Intransparenz sei für andere Anbieter:innen fürs Geschäft optimal. Solange es keine verlässlichen Rahmenbedingungen gebe, wie und wo biometrische Erkennungssysteme eingesetzt werden dürfen – und wo es Grenzen gibt –, „sind wir weiterhin den Entscheidungen und Erwägungen der Anbieter*innen sowie jener öffentlichen und privaten Stellen, die die Systeme dann einsetzen, ausgeliefert“, sagt Müller.

No Tracking. No Paywall. No Bullshit.

Unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze jetzt unsere Arbeit mit einer Spende.

Jetzt spenden


Jetzt spenden

2 Ergänzungen

  1. Jetzt entscheiden diese Unternehmen schon wieder (durch die Macht des Faktischen), was unser Staat so tut und lässt.

    Die Krux ist doch, dass alle Beteiligten ein Interesse daran haben, solche Technologie zu bauen. Die Staaten ein Faschistisches, die Unternehmen ein Finanzielles, für die Konsumenten ist es Bequemlichkeit.
    Die Regierungen haben darin versagt, freiwillig auf den Einsatz der Technologie zu verzichten. Was jetzt die Unternehmen dazu bewegen soll, auf die Herstellung zu verzichten. Wat?
    Das ist ein fundamental zum Scheitern verurteilter Ansatz, da sich im Zweifel irgendwer findet, der Gesichtserkennung baut, wie auch im letzten Absatz des Artikels diskutiert wird.

    Und die Idee „nur vertrauenswürdige Kunden“? Wer soll das sein? Wenn die US-Polizei das aktiv für Repressalien einsetzt?
    Die einzige Lösung kann sein, dass unsere Regierungen sich selbst gesetzlich verbieten, sowas einzusetzen und dann auf andere Länder einwirken, das ebenfalls zu tun. Und natürlich genügend Transparenz schaffen, damit jeder diesen Verzicht auch faktisch nachvollziehen kann. Naja man wird ja nochmal träumen dürfen…

    1. Statt im Sinne von?

      Es wäre nicht klug, solche Technologie von extern einzukaufen, z.B. für Behörden und Dienste. Europa wäre da grundlegend beraten, sowas selbst zu entwickeln. Ohne Wertung der Sinnhaftigkeit o.ä.

      Was aber bedeutet das hier wirklich?
      Unternehmen und auch Menschen außerhalb der militärischen Sphäre kriegen diese Technologie jetzt nicht mehr. Dafür setzen Böse, Reiche und Regierungen diese oder solche trotzdem ein. Im Grunde also ein weiterer Schritt auf dem Weg zur Entkapabilisierung der großen Menge der Menschen. Oder vielleicht doch lieber andersherum: BRR behält sich vor es zu nutzen, sollte es aber vielleicht nicht, also ein weiterer Schritt in Richtung der Auslieferung der großen Menge an Menschen an BRR. Will gefragt haben: wirklich ein balancierter Akt der Gefahrenminderung?

      In der Hand von Unternehmen wäre das vielleicht schon katastrophal. Einfach wegen den Möglichkeit schmerz- und sinnbefreit aussieben zu können, was bei diesen Mitteln allerdings auch eine Form der „Konformisierung“ mit sich bringt. Durch die Hintertür, bzw. durch die Vordertür. Solche Sachen sollte man kritisch beäugen, wenn man später noch eine funktionierende Gesellschaft bauen will.

Ergänzung an Das "BRR"-Moment Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.