ClearView-AppEU-Datenschutzregeln schützen nicht vor Gesichter-Suchmaschinen

Die New York Times zerrte ein Start-up an die Öffentlichkeit, das Gesichtserkennung an US-Behörden verkauft. Drei Milliarden Bilder soll es dafür aus dem Netz gesaugt haben. Das wäre auch in der EU möglich, trotz strengerer Datenschutzregeln.

Gesichter der Künstlerin Hito Steyerl
Die Künstlerin Hito Steyerl hat für die Arbeit „Machine Readable Hito“ ihr Gesicht freiwillig hergegeben. Das Start-up ClearView bediente sich einfach aus dem Internet. – Alle Rechte vorbehalten Screenshot Video Trevor Paglan

Das bislang kaum bekannte Start-Up ClearView AI soll eine Gesichtserkennungs-App entwickelt haben, mit der man Menschen anhand eines Fotos innerhalb von Sekunden identifizieren kann. Grundlage ist eine gigantische Fotodatenbank, die ClearView mit Bildern von Milliarden Menschen aus dem Netz aufgebaut hat, eingesammelt aus öffentlich zugänglichen Quellen wie Facebook, Twitter oder YouTube. Die New York Times, die über das Start-Up berichtete, spricht vom „Ende der Privatsphäre“.

Die Technologie hinter ClearView ist nicht neu oder besonders bahnbrechend. Entscheidend ist wohl der Tabu-Bruch, denn ClearView hat existierende Technologien so zusammengesetzt, dass sie zu einem äußerst effektiven Ermittlungswerkzeug werden. Lädt man ein Bild in die App hoch, rechnet diese das Gesicht in ein mathematisches Modell um und gleicht es mit allen anderen Modellen in der Datenbank ab. So bekommt man alle öffentlich im Netz zugänglichen Fotos der Person angezeigt, inklusive Links zur Fundstelle. Name, Adresse oder Beruf einer beliebigen Person sind damit nur noch wenige Klicks entfernt – egal ob es sich um einen Passanten handelt, eine gesuchte Verbrecherin oder eine Demoteilnehmerin.

ClearView vermarktet sein Produkt bisher vor allem an Ermittlungsbehörden in den USA und Kanada, mehr als 600 sollen den Service inzwischen nutzen, darunter lokale Polizeibehörden, aber auch das FBI. Die Aufregung ist nachvollziehbar. Was das Start-up geschaffen hat, kommt den dystopischen Zukunftsvisionen aus SciFi-Filmen wie Minority Report recht nahe. Selbst eine passende Augmented-Reality-Brille soll ClearView entwickelt haben. Anonymität auf der Straße würde damit unmöglich, die Suche nach einem Gesicht wäre so einfach wie das schnelle Googlen eines Namens.

Wie eine Suchmaschine für das Gesicht

Bisher lizenziert ClearView seine Dienste nur an Behörden in den USA und Kanada. Was wäre aber, wenn auch europäische Behörden auf die Idee kämen, das angeblich so effektive Ermittlungswerkzeug zu nutzen, von dem US-Kolleg:innen schwärmen? In der EU gelten nicht erst seit der Datenschutz-Grundverordnung (DSGVO) strenge Auflagen für den Datenschutz. Sie verbieten es, ohne Zustimmung oder gesetzliche Erlaubnis der Betroffenen persönliche Daten zu speichern oder zu verarbeiten.

Automatisch rechtswidrig wäre ClearView damit aber nicht, sagt Malte Engeler. Er ist Richter am Verwaltungsgericht, beschäftigt sich wissenschaftlich mit Datenschutzrecht und wundert sich ein wenig über die Aufregung um das Start-up. Im Grunde sei der Dienst nicht viel mehr als eine Rückwärts-Bildersuche, wie sie andere Suchmaschinen bereits seit Jahren zur Verfügung stellen. Neu ist im Grunde nur, dass statt Worten nun Gesichter – ermöglicht durch einen Algorithmus zur Gesichtserkennung – durchsucht und verglichen werden.

Rechtlich gesehen hätte ClearView damit zunächst die gleichen Probleme wie jede andere Suchmaschine auch, die personenbezogene Daten zugänglich macht, sagt Engeler. ClearView nutzt für seine Datenbank schließlich Bilder und Informationen, die öffentlich im Netz verfügbar sind. Nichts anderes täten Google und Startpage auch, wenn sie Suchergebnisse ausspuckten. ClearView hatte die Bilder zwar ohne Erlaubnis von Facebook, Twitter und anderen Websites herunter geladen und damit gegen deren Nutzungsbestimmungen verstoßen. Das an sich ist aber noch keine Gesetzesverletzung, sondern zunächst nur ein Verstoß gegen die Nutzungsbedingungen der Plattformen.

Dass eine Strafverfolgungsbehörde in der EU, die ClearView einsetzen wollte, dafür die nötigen rechtlichen Grundlagen hätte oder jedenfalls bekommen könnte, ist nach Einschätzung von Engeler nicht auszuschließen. Googeln sei den Ermittler:innen schließlich auch nicht untersagt. Und das für Strafverfolgungsbehörden maßgebliche Datenschutzrecht, die Datenschutzrichtline für die Polizei und Justiz, lässt durchaus Spielraum zu

Nötig wäre ein Grundrecht auf Unüberwachtheit

Auch Nils Leopold, innenpolitischer Referent der Grünen im Bundestag, weist auf Twitter darauf hin, dass der Datenschutz alleine nicht ausreicht, um Szenarien wie diese zu verhindern. „Nur als Privatheitsschutz in Öffentlichkeiten, etwa als Grundrecht auf Unüberwachtheit in öffentlichen Räumen, wird man Entwicklung gerecht.“

Horst Seehofers Innenministerium plant derzeit, die Befugnisse der Bundespolizei zu erweitern, so dass diese an Bahnhöfen und Flughäfen demnächst auch Überwachungskameras mit Gesichtserkennung einsetzen kann. Noch ist der Entwurf nicht Gesetz, sollten die Wünsche des Innenministeriums jedoch umgesetzt werden, könnten die Behörden auch hierzulande Gesichtserkennungs-Software wie die von ClearView nutzen.

Expert:innen kritisieren hingegen, dass die Technologie so weiterreichende gesellschaftliche Auswirkungen hat, dass sie grundsätzlich im öffentlichen Raum verboten werden sollte. Einzelne Städte in den USA wie San Francisco haben das bereits getan. Begründung: Die Gefahren für die Grundrechte der Einzelnen überwiegten bei weitem die Vorteile.

EU-Kommission: Vielleicht ein bisschen verbieten

In der EU läuft dagegen noch die Debatte darüber, wie sehr Gesetzgebende in diese Entwicklung eingreifen sollten. Politico hat vor wenigen Tagen einen Entwurf veröffentlicht, in dem die EU-Kommission die grundlegende Richtung festzurrt. Darin heißt es, dass Gesichtserkennung im öffentlichen Raum für drei bis fünf Jahre verboten werden könnte, bis man die Auswirkungen besser abschätzen und Risiken minimieren könne. „Das würde die Rechte der Einzelnen schützen, besonders was den Missbrauch der Technologie angeht.“ Allerdings sei das ein weitreichender Eingriff, der die Entwicklung der Technologie behindern könne. Die Kommission ist „daher der Ansicht“, dass es besser sei, sich auf die „Umsetzung der Datenschutzgrundverordnung zu konzentrieren“.

Ursula von der Leyen hatte angekündigt, binnen der ersten 100 Tage im Amt als neue Kommissionspräsidentin Gesetze zur Regulierung von so genannter Künstlicher Intelligenz auf den Weg zu bringen, in diesen Bereich fällt auch die automatische Gesichtserkennung. Die Frist wird sie wohl halten. Das Whitepaper, das Ende Februar erscheinen soll, ist allerdings noch weit von einer Gesetzgebung entfernt. Es buchstabiert lediglich Optionen aus, die die EU-Kommission für Eingriffe in Betracht zieht. Gesetze, wenn sie denn folgen, werden frühestens Ende des Jahres erwartet. Derzeit klingt es nicht danach, als halte die Kommission gesetzliche Regulierung für die beste Option.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

14 Ergänzungen

  1. Danke für den Artikel. Der schleichende Prozess der Entziehung der Grundrechte schreitet voran.Gibt es eigentlich schon von netzpolitik einen Artikel darüber, wie die Technik funktioniert? Sprich welche Gesichtsbereiche sind „auszulesen“, damit die Maschine das Gesicht einer Person zuordnen kann? Wie funktioniert die Erkennung?

    1. So ist es leider, ja…

      Da wird maschinelles Lernen verwendet, gibt genug Vorgefertigtes, Tutorials usw. davon im Netz und ist sehr einfach.

      Wenn du dich dafür interessierst, die Algorithmen zu täuschen, such mal nach „adversarial images“.

  2. Da hat der gute Richter aber ziemlich daneben-gedacht.

    Die ClearView DB setzt sich ja nicht (nur) aus frei zugänglichen Bildern zusammen, sondern eben auch aus solchen die niemals „public“ gesetzt wurden.
    Ferner hat jeder in der EU-Bürger das Recht auf Vergessen – wie das wohl funktionieren soll bei einer Datenbank mit 3 Milliarden+ Unique Pics?

  3. Die Anfragen an so ein System können natürlich auch einiges über Zeit, Ort und Umstande der Anfragestellenden, der Angefragten, sowie Unbeteiligter verraten. Wenn jetzt noch alle der Meinung sind, diese Technik zu ihrer Verteidigung einsetzen zu müssen, wegen Waffengleichheit und so …

    Das Smartphone wird letztlich zur Atombombe :), und wir alle zu Kollateralschäden.

  4. Danke, daß Sie die Erkenntnis so klar herausarbeiten: Die Datenschutzregeln – mal ganz geschweige von deren Durchsetzung – gehen an der Realität vorbei.

    Nur ein Beispiel zum Thema „privater“ Gesichtserkennungsdatenbanken. Ich selbst habe etwa 80.000 (Privat-)Bildaufnahmen in der Google Fotos Cloud, welche dort nach Upload sofort per Gesichtserkennung gruppiert werden (Personen und Haustiere!); inklusive der Zuordnung zum konkreten Kontakt der jeweils gesichts-identifizierten Person im Handy-Telefonbuch (mit Handy-Nr. und ggf. Geb.datum, Anschrift, Dienst-Anschrift etc.).
    Gewiß – laut Aussage von Google – verbleiben diese konkret-namentlichen Zuordnungen im Privatbereich meines Cloud-Accounts. Ich glaube das auch gerne.
    Anders jedoch, die mir von Zeit zu Zeit abverlangten Trainingseinheiten zur Validierung strittiger Zuordnungen des Gesichtserkennungs-Algorithmus. Nicht daß Google zu schwach wäre das „normale“ Gesicht der betroffenen Person zu identifizieren; nein es geht hierbei vielmehr um Fälle, in denen man bespielsweise nur das halbe Seitenprofil der Person mit einem Ohr sieht oder das Gesicht derart verschwommen ist (aufgrund dessen Erscheinen weit im Hintergrund). Dieses Training bzw. dessen Ergebnis fließt sehr wohl in Googles Gehirn.

    Mit Einführung der DSGVO erwuchs in mir erstmalig ein Bewusstsein, wie schändlich es doch eigentlich von mir ist, tausendfach Bildmaterial mitunter auch mir völlig fremder Personen (Bildhintergrund in Zoo, Urlaub, Kirche, Marktplatz, Konzerte, usw.) explizit OHNE deren Einwilligung auf Googles Server hochzuladen.
    Ich fühlte mich wie ein IM (Inoffizieller Mitarbeiter) einer fremden ausländischen Überwachungsdiktatur, welcher die Daten (Bilder nebst den erkannten Gesichtern, samt Orts- und Zeitstempel der Bild-Datei –> Bewegungsprofil in Raum und Zeit) seiner unbescholtenen Mitbürger*innen an einen totalitären Machtapparat ausliefert. Und dies sogar ohne Zwang, freiwillig, ja gar völlig unentgeltlich (ist das dann Schwarzarbeit?).

    Mein gesundes Rechtsempfinden (ich bin kein Jurist) sagte mir, daß dies nicht rechtens sein kann; schlimmer noch, ja gerade einer eklatanten Mißachtung, gar Verhöhung jener Datenschutzgrundrechte der Betroffnen gleichkommt.

    Postwendend richtete ich mich an meinen „Verbindungsoffizier“ beim Google One Support mit dem Eingeständnis, daß ich die AGB von Googles Cloud Service überlas und eben NICHT wie es dort formuliert ist „die Einwilligung aller auf den Bildern abgebildeten Personen eingeholt“ habe; bevor ich diese in die Google Fotos Cloud uploaden ließ.

    Dessen verduztes „Gelächter“ – welches mir noch heute im Ohr ist – empfand ich zunächst als schlimme Missachtung unserer deutsch/europäischen Rechtsstaatlichkeit und deren Hoheitsanspruch zur Wahrung und Durchsetzung unserer verfassungsmäßigen Grundrechte, wie eben auch das Grundrecht auf informationelle Selbstbestimmung. Doch nach einer kurzen Erläuterung des Google-Mitarbeiters erklärte mir dieser, daß all meine Sorge unbegründet sei; mein Handeln mitunter völlig LEGAL.

    Dies wollte ich natürlich von staatlicher Stelle bestätigt wissen und offenbarte (per Selbstanzeige) meine private Google-Gesichtserkennungsdatenbank gegenüber zwei Länder- und der Bundesdatenschutzbehörden. Mit dem verblüffenden Ergebnis: Alle drei Behörden bemühten sich zwar unterschiedlich, doch im Ergebnis allesamt gleichermaßen, bloß KEIN Unrecht in meinem dargelegten Gebaren zu identifizieren. Begründung: Ich handele privat. Ich handele ohne Gewinnerzielungsabsicht. Ich handele ohne böse Absicht. Ohnehin wäre das ganze ein Antragsdelikt, welches nur durch die betroffene Person bemüht werden könne (welche typischerweise nicht die geringste Ahnung davon hat, was mit ihrem Gesicht passiert). Und mit Blick auf die neue DSGVO unterfalle mein Sachverhalt der Haushaltsausnahme gem. Art. 2 DSGVO. Falls im Extremfall doch nicht, dann wäre dies aber (durch die betroffene Person) fortan gegenüber den irischen Datenschutzbehörden kundzutun.

    (Dies Geschichte ist KEIN Fake!)

    Also, was ist die Pointe?
    Datenschutz ist wie Brandschutz. Dieser schützt ja auch nicht DEN Brand, sondern vielmehr DAVOR und den damit einhergenden Gefahren bzw. Verantwortung im Umgang mit Daten.
    Diese Verantwortung möchte – so meine Interpretation – der Staat (aus Erfahrung der eigenen Geschichte) weiterhin nicht bei sich verortet wissen, also belässt bzw. wälzt er diese sensible Aufgabe lieber beim bzw. auf den einfachen Bürger*in ab und lässt ihn – meines Erachtens – damit im Stich; ja nötigt ihn sogar sich fremder Mächte in Form digitaler Datenkonzerne zu bedienen, um (schon alsbald) die eigenen digitalen (Grund)rechte gewährleistet oder verteidigt zu wissen. Man nennt es womöglich allgemeine Handlungsfreiheit; die Freiheit sich einem anderen Leviathan zu unterwerfen, welcher eher die Courage hat Recht und Gesetz in diesem „Neuland“ zu konstituieren, als es der analoge Heimatstaat dere eigenen menschlichen Hülle vermag.

  5. Wichtigste Punkte des NY Times-Artikels, der in diesem Artikel verlinkt ist:

    In addition to Mr. Ton-That, Clearview was founded by Richard Schwartz — who was an aide to Rudolph W. Giuliani when he was mayor of New York — and backed financially by Peter Thiel, a venture capitalist behind Facebook and Palantir.

    Another early investor is a small firm called Kirenaga Partners. Its founder, David Scalzo, dismissed concerns about Clearview making the internet searchable by face, saying it’s a valuable crime-solving tool.

    “I’ve come to the conclusion that because information constantly increases, there’s never going to be privacy,” Mr. Scalzo said. “Laws have to determine what’s legal, but you can’t ban technology. Sure, that might lead to a dystopian future or something, but you can’t ban it.”
    […]
    Clearview’s algorithm doesn’t require photos of people looking straight at the camera.
    […]
    A person can be wearing a hat or glasses, or it can be a profile shot or partial view of their face.
    […]
    The “software bug” had been fixed, and now my photo returned numerous results, dating back a decade, including photos of myself that I had never seen before. When I used my hand to cover my nose and the bottom of my face, the app still returned seven correct matches for me.
    […]
    There is no monopoly on math,” said Al Gidari, a privacy professor at Stanford Law School. “Absent a very strong federal privacy law, we’re all screwed.”
    […]
    Even if Clearview doesn’t make its app publicly available, a copycat company might, now that the taboo is broken. Searching someone by face could become as easy as Googling a name. Strangers would be able to listen in on sensitive conversations, take photos of the participants and know personal secrets. Someone walking down the street would be immediately identifiable — and his or her home address would be only a few clicks away. It would herald the end of public anonymity.

    Noch kürzer zusammengefasst:
    Sure, that might lead to a dystopian future or something, but you can’t ban it. … we’re all screwed.

  6. Der Ansatz der Datengewinnung ist so interessant wie bislang vielleicht unbedacht.

    Ich denke, ohne das im Weiteren zu prüfen, nicht, dass eine Verwertung oder Auswertung der Bilder, zum einen nach den Geschäftsbedingungen der Unternehmen (fb, yt, twitter, tictoc, etc.) rechtlich, je nach Jurisdiktion, zwingend frei ist. Zum Anderen halte ich es für bisher nicht geklärt, ob eine Auswertung und geschäftsmäßige Nutzung durch das Persönlichkeitsrecht hier nicht Schranken hat.

    Wenn man es schnell auslegt, dann könnte man, denke ich, recht wahrscheinlich davon ausgehen, dass nicht ausreichend stark abstrahierte Metriken eines Gesichtes (die also einen erfolgreichen Abgleich ermöglichen) und anderer, eng personenbezogener Merkmale eines Menschen (Gangart, Sprechweise, etc.) durch die DSGVO zusätzlich zu den Persönlichkeitsrechten vor einer Speicherung und Verwertung geschützt werden (soll).

    Das würde niemanden vor einem staatlichen Zugriff schützen. Die Strafverfolgung ist, zumindest nehme ich das an, von den rechtlichen Schranken des Persönlichkeitsrechts in großem Maß derzeit ausgenommen. Dann wäre dort noch viel Arbeit zu tun. Zumindest der kommerzieller Verwertung wären, im legalen Rahmen, damit in relativ kurzer Zeit Grenzen setzbar.

  7. „In der EU gelten nicht erst seit der Datenschutz-Grundverordnung (DSGVO) strenge Auflagen für den Datenschutz. Sie verbieten es, ohne Zustimmung oder gesetzliche Erlaubnis der Betroffenen persönliche Daten zu speichern oder zu verarbeiten.“

    Solange unter einem Dach und ungehindert jeder Kontrolle Adresshandel, Scoring, Inkassso und der zwingende Aufbau und Betrieb einer für JEDEN Bürger verpflichtenden staatlich subventionierten Gesundheitsdaten-Datenbank durch nicht staatliche Unternehmen möglich ist (Stichwort: Avarto), ist der obige Absatz eine Alibi-Schutzbehauptung, deren Aushöhlung soweit fortgeschritten ist, das ein Zurück auf Anfang eigentlich unmöglich scheint.

    Seit wievielen Jahren wird eigentlich davor gewarnt „Partybilder“ bei (hier selbst eintragen) zu veröffentlichen, weil diese ggfls. Personaler bei ihrer Suche nach dem entsprechenden Bewerber auffallen?

    Das irgendwann irgendwer „irgendjemand“ kommt und daraus ein lukratives Geschäftsmodell macht, war doch schon längst überfällig. Mich wundert nur, das es sich hier um ein StartUp handeln soll…

    1. Rene Schrieb:
      „Solange unter einem Dach und ungehindert jeder Kontrolle Adresshandel, Scoring, Inkassso und der zwingende Aufbau und Betrieb einer für JEDEN Bürger verpflichtenden staatlich subventionierten Gesundheitsdaten-Datenbank durch nicht staatliche Unternehmen möglich ist (Stichwort: Avarto), ist der obige Absatz eine Alibi-Schutzbehauptung, deren Aushöhlung soweit fortgeschritten ist, das ein Zurück auf Anfang eigentlich unmöglich scheint.

      Seit wievielen Jahren wird eigentlich davor gewarnt „Partybilder“ bei (hier selbst eintragen) zu veröffentlichen, … Das irgendwann irgendwer „irgendjemand“ kommt und daraus ein lukratives Geschäftsmodell macht, war doch schon längst überfällig.“

      U.a. aus diesen Gründen; und weil ich so was irgendwie seit langem Befürchtete; habe ich wissentlich nie Aufnahmen von mir, Bekannten oder Verwandten Online gestellt. Das „Recht am eigenen Bild“ hat auch Lücken die nur mehr ausgehöhlt würden.

      Denn was man auch berücksichtigen muß: Das Internet per se vergißt nichts und es ist einfacher etwas gar nicht erst zu veröffentlichen als es zurück zu holen oder löschen zu lassen und doch nicht alle Kopien zu erwischen. Außerdem, wenn man sein Photo auf einer Plattform veröffentlicht dann muß man immer damit rechnen das in deren AGB jetzt oder später ein Passus auftaucht der denen das Teilen des Bildes erlaubte. Oder sie machen es einfach ohne Zustimmung und nehmen den Upload des Bildes als schweigende Zustimmung und treiben handel mit den Daten. Wäre ja alles nicht zum ersten mal passiert. Hier gehts um Porträtbilder, anderswo „nur“ um Meinungen, Links u.a. Das zusammen macht einen statt durchsichtig noch etwas gläserner – bis man zerbricht. :-(

  8. „ClearView hatte die Bilder zwar ohne Erlaubnis von Facebook, Twitter und anderen Websites herunter geladen und damit gegen deren Nutzungsbestimmungen verstoßen. Das an sich ist aber noch keine Gesetzesverletzung, sondern zunächst nur ein Verstoß gegen die Nutzungsbedingungen der Plattformen.“

    Ich würde nicht davon ausgehen dass Bilder heruntergeladen wurden. Wozu auch? Ich benötige nur den Hashwert den meine Software beim Abruf/Scan von Bildern aus den Proportionen berechnet. Die Bilddatei selbst ist uninteressant.

    1. Die Daten wurden aber verarbeitet. Selbst wenn die ihre „KI“ innerhalb Facebooks trainieren, bleibt die Frage, ob die KI nicht die Daten herausträgt, also die Frage der Speicherfähigkeit solcher Systeme (nicht in einem spezifisch trainierten Zustand, sondern allgemein). Vielleicht ist „Risiko anderer Leute heraustragen“ ja erlaubt :).

  9. Tatsächlich muss hier die Möglichkeit der Kartellbildung betrachtet werden. Ich meine nicht nur den Aspekt der Marktbeherrschung, sondern auch den „Schattierungseffekt“, wo lagern „Sachen“ legal, wie werden sie transportiert, wie werden sie verarbeitet.

    Das ist alles Systematisch.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.