Automatisierte Gesichtserkennung

Setzt unsere Datenschutzrechte endlich auch durch!

Die Abgraserei von Fotos im Internet und deren Nutzung für automatisierte Gesichtserkennung sind ein Angriff auf unsere Anonymität und Privatsphäre. Dabei gibt es genug Möglichkeiten, gegen solche Unternehmen vorzugehen. Ein Kommentar.

Markus Beckedahl
Markus Beckedahl Alle Rechte vorbehalten netzpolitik.org mit Gesichtern von thispersondoesnotexist.com

Alle paar Monate diskutieren wir jetzt über ein neues Unternehmen, das dreist so viele Bilder wie möglich im Netz abgreift und dann mit algorithmischen Entscheidungssystemen unsere Gesichter durchsuchbar macht. Und das auch noch mit dem Ziel, diese Dienstleistung für private und staatliche Überwachungssysteme zu verkaufen.

Anfang des Jahres hatten wir das US-Unternehmen Clearview AI. In den vergangenen Wochen haben wir den Geschäftspraktiken von PimEyes hinterher recherchiert. Im Gegensatz zu Clearview AI agiert das polnische Unternehmen aus der EU heraus und bietet seine Dienstleistungen nicht nur Sicherheitsbehörden und Unternehmen an, sondern allen. Noch nie war Stalking so einfach.

Was dort passiert, ist ein Angriff auf unsere Anonymität und unsere Privatsphäre. Die Geschäftspraxis des Unternehmens ist illegal und verstößt gegen die EU-Datenschutzgrundverordnung. Die gilt selbstverständlich auch in Polen.

Die Verantwortung der Plattformen

Wir müssen anhand dieses Falls auch über die Rolle der großen Plattformen sprechen, bei denen es möglich ist, automatisiert Millionen Profile abzugrasen, Fotos zu kopieren und damit Datenbanken zu befüllen. Wir reden bei PimEyes von 900 Millionen Fotos und bei Clearview AI sogar von drei Milliarden. Das geben diese Unternehmen in ihrer PR auch noch stolz zu.

Es gibt doch für jeden Mist automatisierte Entscheidungssysteme, warum eigentlich nicht für das millionenfache Abgrasen von Fotos?

Wir brauchen eine bessere Umsetzung von Datenschutz als Grundeinstellung und im Design. Solchen Unternehmen wird es sehr einfach gemacht, indem die Grundeinstellungen in sozialen Medien immer auf öffentlich stehen. Wer das ändern will, braucht die Kompetenz und häufig einen langen Atem, die richtigen Einstellungen zu finden und zu verschärfen. Warum ist dieses Privacy-by-Design immer noch nicht eingeführt? Es wäre so einfach: Alles wird erst mal auf nicht-öffentlich gestellt – und wer freizügig sein will, hat die Freiheit, sich zum Verlust seiner privaten Daten mühsam durchzuklicken! Dann hätten wir sofort weniger Probleme.

Alle unsere Fotos können gegen uns verwendet werden

Aber wir alle haben auch eine Verantwortung, über die wir zu wenig reflektieren. Jedes Foto, das wir von uns und anderen hochladen, kann dazu beitragen, diese Gesichtserkennungssysteme zu verbessern und in Referenzdatenbanken zu landen. Sowohl auf den jeweiligen Plattformen selber wie auch bei den Trittbrettfahrern wie PimEyes. Jedes Mal, wenn wir andere Personen verschlagworten, helfen wir Systemen, uns und andere besser zu erkennen. Wollen wir das überhaupt? Sollten Fotos auch automatisierbar nach einiger Zeit gelöscht werden können?

Es ist vor allem ein institutionelles Problem. Wenn die überwiegende Mehrheit der Expert:innen der Meinung ist, dass das nicht mit der Datenschutzgrundverordnung kompatibel ist: Warum können Unternehmen in der Europäischen Union so agieren? Wer klagt gegen sie? Wie bekommen wir eine effektivere Datenschutzdurchsetzung hin, die schneller und effizienter arbeitet und empfindliche Strafen verteilt? Warum werden Datenschutzbehörden immer noch künstlich klein gehalten, so dass sie nicht effektiv ihre Arbeit machen und Recht durchsetzen können?

Datenbanken und Technologien wie die von PimEyes sind die Basis für die Überwachungssysteme der Zukunft. Wir brauchen ein klares Verbot für die Entwicklung und Einführung von automatisierten Gesichtserkennungssystemen im öffentlichen Raum in der ganzen Europäischen Union. Der gesellschaftliche Schaden durch diese Hoch-Risikotechnologie ist zu groß.


Eine polnische Firma schafft gerade unsere Anonymität ab. Recherchen von netzpolitik.org zeigen das Missbrauchspotenzial von PimEyes, einer kostenlosen Suchmaschine für 900 Millionen Gesichter. Alle, von denen es Fotos im Internet gibt, könnten schon Teil ihrer Datenbank sein.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

11 Ergänzungen
  1. Es ist vor allem ein institutionelles Problem.

    Nein, das glaube ich nicht. Es ist ein gesellschaftliches Problem bzw.: Es ist aus Sicht der meisten Menschen gar kein Problem, denn die breite Masse interessiert sich nicht für Datenschutz.

  2. Da stellt sich ja noch eine weitere Frage.
    Selbst wenn ich diese Plattformen nicht nutze oder nicht mit meinen Bildern füttere, bzw. gerade dann, welche Möglichkeiten habe ich denn überhaupt herauszufinden, ob jemand anderes Bilder von mir dort hochlädt?

    Welche Möglichkeiten habe ich, mein Recht am eigenen Bild durchzusetzen, wenn ich gar nicht weiß, dass es verletzt wurde?

    1. Deine Möglichkeiten hier sind gleich Null. Es gibt mittlerweile noch andere, sehr viel weitergehende Erfassungenvon jeder Person die jemals im net war auch von denen die
      zwischenzeitlich gelöscht wurden. Man kann nur wünschen dass dies nicht für jederman zugänglich wird.

  3. „Alle unsere Fotos können gegen uns verwendet werden“

    Ja, richtig. Deswegen sollte jeder darauf bedacht sein, dass keine Fotos von ihm außerhalb des eigenen Herrschaftsbereich existieren. Und nein, das recht ist keine Hilfe. Denn wenn ein togolesisches Startup eine solche Technologie entwickelt, gilt togolesisches Recht, da sind AGb von XY erst einmal nicht relevant. Relevant ist nur, was sich vor Gericht durchsetzen lässt.

    1. Selbstmord aus Angst vor dem Tod ist keine akzeptable Loesung.

      Bei aktiver Teilnahme an Gesellschaft, Politik und Kultur sind mit dem Namen verknuepfte Bilder kaum zu vermeiden, von beruflichen Aspekten mal ganz abgesehen.

  4. Zitat: „Es gibt doch für jeden Mist automatisierte Entscheidungssysteme, warum eigentlich nicht für das millionenfache Abgrasen von Fotos?“

    Nun ist bekanntlich jeder Mist zu etwas zunutze. Und sei es, dass wir uns wiedermal erregen und trotzdem zum Denken kommen.

    Jeder der es kann und will ladet „seinen Mist“ im Internet ab, irgendwie, irgendwo irgendwas. Angefangen hat das im Web mit Text, dann kam Grafik und heute geht es scheinbar nicht mehr ohne „Medien“. Alles mehr oder weniger frei zugänglich.

    Niemand hat sich darüber beklagt, dass aus „millionenfachem Abgrasen“ von Texten Suchmaschinen entstanden sind. Den Nutzen muss man heute niemandem mehr erklären, er ist evident. Was für die meisten immer noch nicht evident ist, welche Macht dadurch einige wenige über sehr sehr viele erlangt haben. Die einzig übrig gebliebene Begrenzung gegen diese monopolistische Marktmacht von Alphabet Inc. (aka GOGGLE) ist das Schwert des Wettbewerbs- bzw. Kartellrechts. Die Bestimmung des Marktwerts von Gesichtserkennung steht erst am Anfang.

    An dieser Stelle möchte ich beiläufig bemerken, dass analysierte Texte mehr über ein Individuum aussagen können, als Abbildungen desselben. Und nebenbei bemerkt, ich schreibe hier gerne, weil es es hier anonym möglich ist. Ansonsten würde ich es vorziehen zu schweigen, und ich kann mein Schweigen mit Leichtigkeit ertragen.

    Für mich käme es niemals in Betracht, Fotos oder Videos „ins Netz“ zu stellen. Bei Veranstaltungen ist meine Position stets hinter den Fotografen. Plätze mit Videoüberwachung gehören nicht mehr zu meinem Lebensraum, ohne jegliches Bedauern. Und doch fand ich Fotos von mir im Internet. Ich war dabei, mich um zwei ältere Menschen zu kümmern, die von einer BFE-Gruppe der Polizei brutal umgerannt worden sind. Ein Mann wohl über 70 wurde grundlos von denen mit Reizgas besprüht. Eine Frau Mitte 60 lag jammernd am Boden, mit einem Oberschenkelhalsbruch, wie später in der Zeitung stand. Seither gehören Demos auch nicht mehr zu meinem Lebensraum.

    Die Krux mit der Gesichtserkennung ist die mögliche Identifikation eines Menschen. Identifikation ohne Zustimmung und häufig sogar unbemerkt. Nun sind wir schon so weit, dass ein Jäger die Identität von Spaziergängern im Wald feststellen kann, wenn sie an seiner Kamera-Falle vorbei laufen. Nur Tieren bleibt die Identitätsfeststellung erspart, es interessiert nur der Zeitpunkt für einen Abschuss am Futtertrog.

    Wozu eignet sich Identitätsfeststellung? Einerseits zu kommerziellem Targeting als auch für behördliche Ermittlungen. Neu ist, dass diese Technologie niederschwellig jedermann zur Verfügung stehen kann, z.B. dem Nachbarn, der wissen will um welche Art von Damen- bzw. Herrenbesuch es sich handelt, wobei das Fotografieren unbemerkt bleiben kann, und die Recherche ohnehin.

    Und wie geht es weiter? Mit Gesichtsausdruck und Mimik selbstverständlich. Das Gesicht als unverfälschte Quelle von Emotionsausdrücken im Millisekunden-Bereich.

    Wozu nochmal brauchten wir ein Gesetz, das Gesichtsverhüllung verbietet?
    Mag sein, dass Burkas künftig nicht mehr als Bedrohung sondern als Lösung bewertet werden. An Gesichtsmasken haben wir uns schon schnell gewöhnt.

    1. Andererseits gibt es eine kritische Masse, ab der man eben nicht mehr interagieren kann, ohne verfolgt zu werden.

      Im Moment vielleicht etwas größer, aber mit „Tratsch“ sind eben auch unbeteiligte schnell im Visir. Da ist zwar etwas mehr oder weniger stille Post dabei, aber je präziser die Zuordnungen werden, desto weniger kann man sich überhaupt noch irgendwo sehen lassen, schon gar nicht wiederholt, auch nicht zu Hause. „Tratsch“ verbindet dann eben zu den digitalen Schleusen.

      Was kann also die Syndikatskamera an Schaden anrichten, wenn der Staat knallhart Datenschutz im realistisch wirksamen Sinne umsetzt? Voraussetzung ist wohl ein vertrauenswürdiger Staat, Instanzen für fassadenanonymisiertes Online Shopping u.ä. (der Shop weiß nicht wer Sie sind und wohin Pakete gehen, eine staatliche Zwischeninstanz regelt das, im NETZ sehen alle nur temporäre IDs. Sie entscheiden mit wem Sie sich wie unterhalten, auch für Datenlöschung u.ä. sind staatliche Fassaden zwischengeschaltet, laso nicht mehr mit „Personalausweiskopie *bitte*“. Etwas weiter wäre noch eine Art Universalsprachstruktur mit KI-gestützter Hilfestellung zur Kommunikation.)

  5. Das Bild in der Mitte des Titelbildes ist doch der „Markus“ selber. :) Gehst du, Markus, davon aus, dass die minimale „Unkenntlichmachung“ des Bildes (Schriftüberlagerung) ausreicht, um den im Artikel beschriebenen Algorithmen zur massenhaften Bildersammlung die Arbeit zu erschweren?

  6. Was wir brauchen ist ein Recht auf eine deftige finanzielle Entschädigung (ohne jahrelanges Gerichtsverfahren) wenn Bilder für biometrische Auswertungen genutzt werden. Das gleiche muss auch für Datenschutzverstöße gelten. Persönliche Informationen haben bereits einen Wert. Allerdings nur unterhalb von Unternehmen und Regierungen. Privatpersonen haben davon nichts. Wir brauchen ein Recht auf absolute Hoheit über die persönlichen Daten und Strafen und pauschale, hohe Entschädigungen bei Verstößen/ungenehmigte Nutzung/Eingriffe durch Unternehmen oder Staaten.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.