We fight for your digital rights!„Die erfassen Milliarden Gesichter biometrisch – ohne jede Zustimmung.“

Biometrische Suchmaschinen schnappen sich unsere Gesichter und attackieren unsere Anonymität. Sie erschaffen eine Welt, in der niemand unerkannt bleibt. Sebastian Meineck, Redakteur bei netzpolitik.org, begann seine Recherche zu Gesichter-Suchmaschinen, indem er selbst ein Foto von sich hochlud – und staunte.

Kommt mit uns in den Maschinenraum von netzpolitik.org: In sieben Videos und persönlichen Einblicken zeigen wir euch, mit welchen Prinzipien und mit welchen Mitteln unsere Redaktion arbeitet. CC-BY-NC-SA 4.0 – Foto: Darja Preuss, Bearbeitung: netzpolitik.org – owieole

Es geht hier um nichts anderes als die Rechte von Menschen mit Gesicht. Also um alle. Du kannst dir das so vorstellen: Du bist unterwegs, du steigst in den Bus, und dann sitzt dir ein Creep gegenüber, macht ein Foto von dir, und sofort weiß er alle Eckdaten über dich: Name, Beruf, Adresse vom Arbeitgeber, Hobbys, Social-Media-Posts, und wer deinen letzten Tweet geteilt hat. Und dann spricht er dich direkt mit Namen an: Hey, Sebastian Meineck! All das ist möglich mit biometrischen Gesichter-Suchmaschinen.

Wir hatten da zuerst einen Vergleich gebracht: Das ist, als hättest du deinen Namen auf der Stirn tätowiert. Aber inzwischen glaube ich, das trifft es immer noch nicht. Es ist mehr als nur der Name. Eigentlich ist es so, als würdest du eine Info-Mappe um deinen Hals tragen, voller Eckdaten über dein Leben, und alle können die einfach durchblättern. Hier geht es um das Recht auf Anonymität und um das Recht auf informationelle Selbstbestimmung.

Angefangen hat das alles im Jahr 2020, im Sommer. Ich wollte gerade ins Bett gehen. Und wie man das so macht, hab ich vorher noch mal kurz bei Twitter reingeschaut. Immer eine schlechte Idee. Und da hatte mich jemand in einem Tweet getaggt mit dem Hinweis, da ist etwas, das könnte mich interessieren. In dem Tweet war ein Link zu einer Website: pimeyes.com. Die habe ich mir angeschaut und zuerst gedacht: Das ist doch irgendein Scam.

Oder?

Meine Doppelgänger und ich

PimEyes ist eine Gesichter-Suchmaschine, auf der du das Foto einer Person hochlädst, und dann kommen noch mehr Fotos dieser Person, plus die Links zu den Fundorten im Netz. Als ich das 2020 gesehen habe, dachte ich: Das wird nie im Leben so funktionieren. Technisch möglich wäre das, aber einfach so offen im Netz würde das niemand anbieten, viel zu krass.

Ich habe dann ein Foto von mir hochgeladen, das ich überall als Profilbild verwende, und im nächsten Moment wusste ich: Wow, diese Suchmaschine funktioniert doch! Und zwar richtig gut. Die Gesichter-Suchmaschine hat viele andere Fotos von mir gefunden, einige Uploads kannte ich noch nicht.

Weiter unten in den Suchergebnissen kamen dann Gesichter, die meinem erstaunlich ähnlich sehen, und ich fand das ziemlich surreal. Da waren einfach Dutzende Männer, die genauso wie ich blond sind, einen Bart und eine Brille mit Rand tragen. Ich habe noch nie so viele potenzielle Doppelgänger auf einmal gesehen.

Man muss dazu sagen, ich habe nicht lange gezögert, da mein Foto hochzuladen, weil ich wenig befürchtet hatte. Ich habe schon früher kaum private Fotos von mir ins Internet gestellt, auch nicht auf Facebook oder SchülerVZ. Es gibt auch keine Fotos von mir auf irgendwelchen Nullerjahre-Partys, die dann vom Party-Fotograf*innen auf einer Website geteilt wurden. Trotzdem war ich schwer beeindruckt von der Gründlichkeit der Suchergebnisse. Plötzlich war eine Stunde vorbei, und ich bin später als geplant und mit klopfendem Herzen ins Bett gegangen – und wusste: Dazu muss ich eine Recherche machen. Zufällig war das auch meine allererste Recherche für netzpolitik.org.

Vom Privileg, nicht bedroht zu sein

Es ist ein Privileg, dass ich von so einer Gesichter-Suchmaschine auf den ersten Blick nichts zu befürchten hatte. Als Journalist halte ich mein Gesicht freiwillig vor Kameras, es gehört zu meinem Beruf, dass man mich und meine Inhalte finden kann. Aber das ist völlig anders bei manchen vulnerablen Personen.

Ich denke da an Menschen in autoritären Regimen, die auf Demos gehen und dann über ihr Gesicht identifiziert werden können. Das kann für einige bedeuten, dass sie verfolgt und verhaftet werden. Ich denke auch an Sexarbeiter*innen, die mit einer Gesichter-Suchmaschine identifiziert werden können. Viele halten ihren Beruf geheim, weil sie sonst massive Benachteiligung erfahren können, bis hin dazu, dass ein*e Vermieter*in sie aus der Wohnung schmeißt.

Im Sommer haben wir beobachtet, was für Gesichter die Leute in einer Telegram-Gruppe suchen, die mit PimEyes verknüpft war. Das war eine einzigartige Gelegenheit, um in Echtzeit zu verfolgen, wofür sich PimEyes-Nutzer*innen interessieren. Das waren vorwiegend Männer, und sie haben vorwiegend Gesichter von fremden Frauen gesucht, die sie „heiß“ fanden. PimEyes selbst hat dazu gesagt, das sei nicht repräsentativ. Die Telegram-Gruppe war auch kein offizielles Angebot der Firma. Für mich zeigt das aber klar: Die Anonymität von uns allen ist durch solche Gesichter-Suchmaschinen in großer Gefahr.

Es ist ja nicht nur, dass wir durch Gesichter-Suchmaschinen gefunden werden können. Es kann auch sein, dass wir verwechselt werden. Die Gesichter-Suchmaschine kann sich irren. Stellen wir uns vor, die Polizei fahndet nach Verdächtigen, und prompt bekommen Unbeteiligte ernste Probleme, weil die Gesichter-Suchmaschine sagt: Dieser Mensch sieht dem Verdächtigen am ähnlichsten. Was für eine Bedrohungslage!

Der Geist ist aus der Flasche

Das ganze ist eine rechtliche Grauzone. Ich würde sagen: Dunkelgrauzone. Die entscheidende Frage ist: Konnten die Leute, die da biometrisch erfasst wurden, dieser Erfassung vorher zustimmen? Haben die wirklich alle ihre informierte Einwilligung gegeben? Über Jahre hinweg wird politisch ausführlich darüber diskutiert, wie gefährlich biometrische Anwendungen sein könnten und wie man die Gefahren von sogenannter Künstlicher Intelligenz einschränken kann. Aber der Geist ist längst aus der Flasche.

Gesichter-Suchmaschinen für alle sind jetzt da, und die sind erstaunlich effektiv. Man muss sich nun entscheiden: Wollen wir das wirklich? Wie können wir vulnerable Leute vor den Konsequenzen schützen? Unsere Berichterstattung hat bewirkt, dass Nachrichtenmedien in Deutschland das auf dem Schirm haben und selbst weiter aufgreifen. Über PimEyes wurde zuvor schon auf Englisch berichtet, aber wir haben das Thema erstmals politisiert.

Der klassische Ansatz vieler Nachrichtenmedien ist eine Warnung an das Publikum: Achtung, so funktionieren Gesichter-Suchmaschinen, passt auf, was ihr mit euren Fotos macht. Für uns ist das aber nicht genug. Wir schauen darüber hinaus, was das politisch bedeutet: Versagen hier aktuelle Regulierungen? Welche Regeln gibt es überhaupt, wer ist dafür zuständig und wohin entwickelt sich das?

Unsere Berichte über Gesichter-Suchmaschinen haben die Politik überhaupt erst alarmiert. Zwar war biometrische Gesichtserkennung im Allgemeinen im Jahr 2020 nichts Neues – wohl aber für alle frei zugänglichen Gesichter-Suchmaschinen. Wir haben mit Abgeordneten im Bundestag und Europa-Parlament gesprochen, Einschätzungen von Datenschutzbehörden geholt. In der Folge unserer Berichte wurden Betroffene auf PimEyes aufmerksam, der Datenschutzbeauftragte Baden-Württemberg hat ein Verfahren gestartet. So bringen wir mit unseren Recherchen einen Stein ins Rollen. Aber damit geben wir uns noch nicht zufrieden.

Probleme nicht einschlafen lassen

Wir haben nach der Veröffentlichung immer wieder nachgehakt: Was wurde aus PimEyes? Was wurde aus dem datenschutzrechtlichen Verfahren? Das Ganze ist ein kleiner Krimi. Die Betreiber der Website sind laut Impressum geflüchtet, aus der EU auf die Seychellen, dann nach Zentral-Amerika.

Solche Follow-up-Berichte sind nicht mehr die großen Würfe, die einem hunderttausende Klicks bringen. Das ist Fleißarbeit. Aber nur so ist es möglich, Probleme nicht einschlafen zu lassen. Manchmal ist die Nachricht eben, das nichts passiert ist – immer noch nicht. Und dann passiert plötzlich eine Wendung, mit der niemand gerechnet hat.

Das war in diesem Jahr, als wir bemerkt haben, PimEyes hat plötzlich einen neuen CEO, und der macht vieles anders. Auf einmal hat PimEyes nicht mehr die Öffentlichkeit gemieden, sondern aktiv Kontakt zu Medien gesucht. Wir haben den CEO ausführlich interviewt und konnten dieser brisanten Suchmaschine, die wir für so problematisch halten, endlich ein Gesicht geben. Viele seiner Antworten fanden wir fragwürdig und haben immer weitergebohrt – und alles hat es ins Interview geschafft. Nach den ersten Recherchen hätte ich es nie für möglich gehalten, dass es eines Tages einen solchen Austausch gibt.

Der CEO von PimEyes hat im Interview klargemacht: Er hält seine Suchmaschine für ein Werkzeug des Guten. Ich glaube: PimEyes schafft überhaupt erst das Risiko, vor dem es Leute daraufhin schützen will. Das ist ein Problem. Um das Problem zu verstehen, muss man sich aber sorgfältig mit den Argumenten beschäftigen. So eine Differenzierung erschließt sich oft erst, wenn man lange an einem Thema dranbleibt. Genau das können wir machen, weil wir die Zeit dafür haben. Wir können uns dafür einsetzen, dass Themen nicht versanden, und wir können auch komplexe Missstände über Jahre herausarbeiten.

Ein flüchtiges Gruppenfoto genügt

Einiges spricht dafür, dass die Praxis dieser Gesichter-Suchmaschinen möglicherweise so nicht erlaubt ist. Die DSGVO, also die Datenschutzgrundverordnung, schützt biometrische Daten eigentlich sehr gut. Ich hoffe, dass unsere Berichte über Gesichter-Suchmaschinen Tempo in die Sache bringen. Es ist richtig und wichtig, dass Regulierungen lange diskutiert werden und dass Behörden nichts überstürzen. Aber es geht hier nicht um ein Problem der Zukunft, das man mal in Ruhe auf sich zukommen lassen kann.

Da draußen sind Leute, die erfassen jetzt gerade Milliarden Gesichter biometrisch – ohne jede Zustimmung. Die Datenbanken werden mit jedem Tag größer. Wir müssen damit rechnen, dass wir alle früher oder später in diesen Datenbanken landen, wenn wir nicht schon längst drin sind. Es reicht, wenn unser Gesicht einmal kurz in irgendeinem Gruppenfoto aufblitzt.

Das erinnert mich an eine Anekdote. Vor einigen Jahren habe ich in Prag an einer geführten Stadt-Tour teilgenommen. Und am Ende hat der Guide alle Teilnehmer*innen gebeten, sich kurz für ein Gruppenfoto aufzustellen. Ich war sofort dagegen und habe mich demonstrativ außer Reichweite der Kamera hingestellt. Den anderen war das offenbar egal. Später ist das Foto auf Facebook gelandet, als Werbung für den Veranstalter. Ich frage mich, ob ich heute immer noch der Einzige wäre, der so ein Foto verweigert.

Unsere Recherchen stellen Sichtbarkeit her. Wir zeigen auf, das sind die Probleme, das sind die Betroffenen, und diese Stellen haben die Macht, etwas zu ändern. Wenn sich herausstellt, solche Gesichter-Suchmaschinen sind tatsächlich nicht vereinbar mit dem Recht auf Anonymität und dem Recht auf informationelle Selbstbestimmung, dann muss das Konsequenzen haben.

Der Text basiert auf einem Gespräch, das Stefanie Talaska geführt und aufbereitet hat.

Kommt mit uns in den Maschinenraum von netzpolitik.org: In sieben Videos und persönlichen Einblicken zeigen wir euch, mit welchen Prinzipien und mit welchen Mitteln unsere Redaktion arbeitet.

17 Ergänzungen

  1. Das ist mir unheimlich!
    Was kann man damit alles anstellen?
    Ich will das nicht!
    Wie kann man das verhindern?
    Oder müsste ich in das Outback von Grönland umziehen, um dem zu entgehen?

  2. Jeder der Google Fotos benutzt betreibt quasi selbst und privat eine biometrische Gesichtersuchmaschine. Und dies praktisch, weil faktisch, völlig legal. Meine Anfrage bei den Datenschutzbehörden hat ergeben: Wenn ich Bilder mit Gesichtern von meinen Angehörigen, Bekannten und sogar völlig Fremden (natürlich OHNE deren Einwilligung) bei Google Fotos hochlade, dann greift trotzdem die Haushaltsausnahme gem. Art. 2 Abs. 2 Buchstabe c) DSGVO, womit die DSGVO dann keine Anwendung findet. Alles alter Käse aus 2018. Sogar die Rechtsabteilung von Google Germany hat sich köstlich amüsiert über diese Antwort von Seiten staatlicher Datenschutzbehörden.

    1. Schon mal gefragt, ob das mit Bildern von Fremden auch geht?

      Noch schöner wäre ja, die Überwachungskameras in Echtzeit so auszuwerten, dass wiedererkannt werden kann, aber auch klassifiziert wird, z.B. Vermummung oder der Übergang von/zu Vermummung.

      Ich vermute mal, dass man das nicht ohne weiteres darf, da der Knackpunkt prinzipiell legale Fotos aus dem Bekanntenkreis sind, die unter der Annahme der Sichtbarkeit des Fotografiervorgangs „ohne Widerspruch“ entstanden sind, bei denen aber zumindest theoretisch noch die Ansprechbarkeit aufgrund der Verwandschaft gegeben ist. Bei Fremden, die zufällig mit im Bild sind, ist das eine andere Sache.

      Also, will sagen: das könnten zwei völlig verschiedene Welten sein.

      1. Ja, die Anfrage bei der Datenschutzbehörde stellte explizit auf die Abbildung von fremden Personen ab. Wenn man „wild“ in der Öffentlichkeit rumknipst, ob Fremde im Fokus oder Halbfokus, so ergeben die hochauflösenden Bilder, gepaart mit dem krassen Algorithmus von Google Fotos (selbst Maske oder Seitenprofil verhindert nur selten die korrekte Gesichtszuordnung; ab mehr als zweimaliger Ablichtung) auch eine sehr gute Identifizierung des vermeintlichen „Beifangs“/Beiwerks.
        Die Begründung der Datenschutzbehörde stellte mit der Haushaltsausnahme darauf ab, dass mein privater Upload der Bilder in Google Fotos eine private (also nicht gewerbliche) Tätigkeit sei. Also ohne Gewinnerzielungsabsicht und ohne eigene „böse“ Absicht. Ich erklärte der Datenschutzbehörde, dass Google Fotos selbst per AGB von mir verlange, dass ich mit dem Upolad der Fotos bestätige, dass die Einwilligung sämtlicher abgebildeten Personen irgendwie vorläge. Google’s Rechtsabteilung bestätigte mir natürlich, dass dies völlig lebensfremd sei. Und die Datenschutzbehörde – wie gesagt – dass es auch gar nicht notwendig ist.

        1. „Wenn ich Bilder mit Gesichtern von meinen Angehörigen“
          Das sind also die Fremden?

          Das ist auf jeden Fall von richtigen Fremden zu differenzieren, vielleicht ja auch so erfolgt.

          Verdeckte Fotos sind auch nicht ohne weiteres legal, und man darf nicht zwingend überwachungskameras überallhin ausrichten. Allerdings haben Sie vielleicht Recht damit, dass die nicht beanstanden können, wenn Sie zu ihrem Privatvergnügen ihre Aufnahmen durchforsten und algorithmisch aufbereiten und vergleichen.

          Etwas abenteuerlich, wenn das z.B. eine ganze „Familie“ z.B. über Berlin so macht, zudem ein Grund, nie jemals wieder Gesicht zu zeigen.

          Wenn die das allgemein erlauben baue ich mir irgendwann unter Garantie eine Datensenke, wo dann ein machinelearningbasiertes System alle Gesichter um die Wohnstätte herum auswertet. Nur so geht’s!
          Der Unterschied ist allerdings der reine Sicherheitskontext und die vermutlich total sichere Architektur ohne Datenabfluss (sowie vordergründig nicht kommerziell – wobei das bei einem Freelancer oder einer Firma, wenn auch „nur zur Sicherheit“, vielleicht doch wieder in Frage steht?).

          1. >>>

            Sollte der Familienkontext erwähnt worden sein, könnte die Behörde hier auch falsch interpretiert haben.

            >>> Wenn man „wild“ in der Öffentlichkeit rumknipst, ob Fremde im Fokus oder Halbfokus,

            Das aber klingt doch nach der allgemeinen Fotofrage. Da sind dann Familienväter in der Nähe ihrer Grundstücke auch schnell beim Nachhaken, wenn einer mit der Kamera herumläuft, auch wenn sie konsequent nach unten gehalten wird. Die Kamera wird (halbwegs zurecht) schon auch prinzipiell als Waffe angesehen. So geht es mir (ohne das Nachhaken) durchaus auch selbst mit in der Gegend „herumguckenden“ Handies mit Kameras dran. Handies sind natürlich viel schlimmer bzw. risikobehafteter als „klassische Knipsen“ (böse Apps, böse Assistenten oder sonstige OS-Funktionalität, böse Hacker, böse Regierungshacker, Staatstrojaner, nette Apps oder Funktionalität mit Unwissen gepaart, …).

            Bei dauerhaft installierten Kameras ist das allerdings eine andere Frage. Zumindest müssen Schilder da sein, und es gibt tatsächliche Restriktionen, welchen (öffentlichen, oder anderer Leute privaten) Raum man damit abdecken darf. Ab da kann man vielleicht für das sogenannte Privatvergnügen auswerten.

            >>>

            Davon ab, ist es natürlich hochproblematisch, zentrale Clouddienste für sowas zu nutzen, ich würde das auch bei Handies schon verbieten. Das sind einfach auch strategische Neckbreaker, wie man an den Zugriffswünschen verschiedener Polizeien bzgl. privater Kameras in den USA sieht. In der Rechnung kommt „dein Feind“ (Im Digitalen unterwegs, nicht nur der Einbrecher!) einfach mal nie vor. Gefördert werden sollten Ansätze, wo man sich die Modelle für „Offlinenutzung“ bzw. für die private Cloud ziehen kann, ohne weiter Kontakt nach außen haben zu müssen (außer für Updates).

            Die Verhaltens- und Verdächtigkeitseinschätuzungen werden mittels KI nicht unbedingt so viel besser, vor allem weil man schamlos weiter skaliert, so dass selbst bei geringeren falschen Positiven ein absolut gesehen größeres Problem entsteht.

  3. Es wird immer irgendwo ein Land auf der Welt geben das sich nicht um den Datenschutz schert wo dann solche Firmen frei agieren können….

    Deshalb wird es um so wichtiger das die Ende zu Ende Verschlüsselung nicht von der EU mit Chatkontrolle zerstört wird. Sonst droht die Gefahr das immer mehr private Photos irgendwo gespeichert und am Ende geleaked werden. Da braucht es endlich mehr private Netze um Photos im Freundeskreis zu tauschen ohne das alles an die große Öffentlichkeit gelangt.

  4. Falls Sie mal wegen offener Schnürsenkel oder anderer grober Vergehen gesucht werden sollten, weissen Sie jetzt, wieviele andere Personen fälschlicherweise des Rauditums verdächtigt werden können: „Ich habe noch nie so viele potenzielle Doppelgänger auf einmal gesehen.“

    Man muss da nicht an autoritäre Regime denken, es reicht wenn einer der „Doppelgänger“ ein Auto klaut und man selber in der S-Bahn „erkannt“ wird. Wo waren Sie am 14.04.2021 zw. 18:00 und 05:30 des folgenden Tages? Jetzt haben Sie kein Alibi für den gesamten Zeitraum. Da klafft eine Lücke von 20 Min. Mindestens!

    Ohne Schuldeingeständinis können Sie auch nicht vorzeitig aus der Haft entlassen werden. Wegen einer Verwechslung sind schon so manche in Teufels Küche gekommen.

    Wie auch im Text erwähnt: Was für eine Bedrohungslage!

  5. Ich habe das ausprobiert und nur ein einziges Photo von mir gefunden. Alles halb so wild, wenn man seine Daten ein bißchen zusammenhält und darauf verzichtet, eine öffentliche Person zu sein.

  6. Ich kann das Urteil darüber, wie gut diese Suchmaschine funktioniert, leider nicht teilen.

    Ich wurde aufgrund des Artikels neugierig und habe den Test selbst durchgeführt. Um es der Suchmaschine leicht zu machen, habe ich zunächst ein Porträt verwendet, was ich auch selbst auf meiner geschäftlichen Homepage verwende. Ergebnis: „We haven’t found any results with your face. Upload a better quality photo to get more matching results. Or try the search with a different photo.“ Die Qualität war nicht der Grund. Es war ein hochauflösundes Bild aus dem Studio. Danach habe ich es mit weiteren Bildern probiert, die von mir im Web existieren. Wieder Fehlanzeige.
    Zu guter Letzt habe ich es dann mit meinem instagram-Profilbild versucht. Hier wurden zumindest drei mir fremde Männer gefunden, die mir aber kaum ähnelten.
    Drollig; Als ich es mit zwei Bildern probiert habe, kam der Hinweis: You cannot search for two different faces at the same time.

    Der gleiche Test mit Google-Images war zuminest etwas erfolgreicher.

  7. Eine Gesichtererkennung auf diesem Niveau ist per se harmlos und nutzlos. Was soll der Wert darin sein zu einem Gesicht zehn weitere zu erkennen, die dem verdammt ähnlich sehen? Letztendlich zeigt das nur was man schon weiß: Bilder sind die schlechtesten Beweismittel.
    Gefährlich sind die Menschen, die an die Untrüglichkeit dieser Technik glauben resp. diese erst hineininterpretieren.
    Wenn es eine Konsequenz gibt, dann ist es die zu fordern, daß Bilder ebenso wie akkustische Aufnahmen nicht oder nur sehr begrenzt als Beweismittel zugelassen werden dürfen.

  8. Man sollte sich auch die staatlichen Foto-Datenbanken aus Ausweis-Anträgen einmal ansehen.

    Was berechtigt eigentlich den Staat bzw. seine Behörden, die im Zuge von Ausweis-Anträgen erlangten Fotos seiner Staatsbürger dauerhaft zu speichern?

    Denn ein Ausweis dient ja dazu, die Identität in Anwesenheit und in Kenntnis der betroffenen Person eben durch Vergleich des Ausweises mit der Person festzustellen. Alles andere ist Vorratsdatenspeicherung – und dafür braucht es einen konkreten und SEHR guten Grund, weil es sich dabei um biometrische Daten gem. Art. 9 DSGVO handelt.

    Der oft vorgebrachte Grund der Echtheitsprüfung kann nicht bestehen: Wenn ein Ausweis einen ICAO-kompatiblen Chip hat ist darauf das Foto digital signiert vorhanden. Digitale Signaturen mit ausreichender Länge des Schlüssels gelten heute als absolut fälschungssicher.

    Wie sicher muss das ganze also noch sein?

    Alle bisher in Rahmen von Beschwerdeverfahren vorgebrachten Gründe von Behörden waren mehr oder minder dahingeschwurbelt – in Wahrheit geht es nämlich um Strafverfolgungs-Zwecke und um das Vorantreiben von digitalen Identitäten, die auf diese Bestandsdaten zugreifen. Damit aber wäre man wieder bei einer Vorratsdatenspeicherung – und die sollte man sich dann auch trauen genau so zu nennen.

    In Österreich ist es noch schlimmer: Die Fotos von Ausweisen gelangen ohne Zustimmung der Betroffenen auf Krankenversicherungs-Karten (e-Card), Schüler-Ausweise, Studierendenausweise, usw… – offenbar interessiert den Staat hier nicht die Zweckbindung und der Vertrauensschutz – wenn ich vor 7 Jahren ein Foto für einen Reisepass abgegeben habe, erwarte ich vielleicht eine Speicherung, aber ganz sicher keine Umwidmung des Zweckes ohne mein Einverständnis und ohne ein Strafverfahren.

    Gleichzeitig müssen sich EU-Bürger in Österreich (z.b. Deutsche) bei der Polizei in ebenjenes Register für Reisedokumente mit Foto eintragen lassen, wenn sie eine Krankenversicherungs-Karte benötigen woraus dann das Foto für diese gezogen wird. Natürlich wird dieses Foto nicht nach Ausstellung der Karte gelöscht, sondern verbleibt 6 Jahre im Register gespeichert, wodurch bei Gültigkeit der Karte von 5 Jahren die Polizei stets aktuelle Fotos von EU-Bürgern hat, die in Österreich einer legalen Arbeit nachgehen und daher eine e-Card haben. Ärzte, Spitäler oder sonstige Stellen haben keinen Zugriff auf diese Fotos, aber dafür 24/7 die Polizei.

    Eigene Zugriffsregelungen für diese Fotos gibt es nicht, da schlichtweg nie ein Gesetz dafür gemacht wurde, was bedeutet, dass sie ebenso wie jene von Reisedokumenten jederzeit durch die Polizei ohne richterlichen Beschluss abgerufen werden können.

    Die Speicherung von Fotos der gesamten Bevölkerung in ZENTRALEN Registern (in Deutschland sind es wenigstens noch dezentrale Register) muss ein Ende finden.

    Ebenso betreffen diese Daten keine „Fremden“ (Visum/Asyl-Antragsteller) und keine Kriminellen, sondern gewöhnliche inländische und europäische Bürger, die keine andere Wahl haben. Denn man hat die Wahl, etwa nicht in die USA zu reisen um die Abnahme biometrischer Daten bei der Einreise zu vermeiden. Wenn das ganze dann aber im eigenen Staat passiert, dessen Staatsbürger man gezwungenerweise ist, hat man keine Wahl.

    2020 wurde in Österriech dann die Notwendigkeit einer strafbaren Handlung für einen Abruf der Fotos aufgehoben – nun kann im Prinzip jeder Inhaber eines österreichischen Reisedokuments oder jeder EU-Bürger mit einer e-Card gegen seinen Willen und ohne sein Wissen jederzeit per Foto identifiziert werden, auch wenn er KEINE strafbare Handlung begangen hat, einfach wenn jede x-beliebige Behörde ihn identifizieren will.

    Auch die EU verlangt eine derartige Speicherung nicht bzw. weist sogar im Beschluss 2019/1157 darauf hin, dass es eigentlich keinen Grund gibt im Zuge der Umstellung auf Personalausweise mit Chip – da einige EU-Staaten noch Ausweise aus Papier hatten – gleich die Fotos zentral zu speichern und dass die Verordnung 2019/1157 keine eigene Rechtsgrundlage dafür bietet.

    Die Nutzbarkeit von Datenbanken mit Fotos für Gesichtserkennung, die nach biometrischen Standards aufgenommen wurden ist eine klare Sache und eine reale Gefahr, denn es bedarf nur einer weiteren Gesetzesänderung durch eine autoritäre Regierung um diese Daten dann in Templates umzuwandeln.

    1. „denn es bedarf nur einer weiteren Gesetzesänderung durch eine autoritäre Regierung “
      Und bwim Zurücknehmen von Sachen mit Wirtschaft, ist hier noch keine einzige Regierung aufgefallen, jedenfalls nicht ohne schwere Geldsäcke fallen zu lassen.

  9. Die Suche ist ja mehr als peinlich! Der einzige Treffer war Xing…
    Das können andere viel besser.
    @Netzpolitik: das ist selbstverständlich meine Meinung, was sonst sollte ich hier schreiben?

    1. danke fürs lesen! ich sehe das so: nur weil manche zu den glücklichen gehören, über die PimEyes noch nicht viel erfasst hat, schmälert das nicht die grundsätzliche gefahr. hast du hinweise auf noch stärkere gesichter-suchmaschinen, die wir uns mal anschauen sollten? auf meinem profil findest du mögilchkeiten, mich zu erreichen. viele grüße

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.