Deutsche Polizeien nutzen das Gesichtserkennungssystem (GES) des Bundeskriminalamtes (BKA) immer zahlreicher für Abfragen. Im Jahr 2023 wurden über die Plattform insgesamt 117.894 Suchen durchgeführt, davon 74.803 durch die Landeskriminalämter, 26.187 durch das BKA und 16.904 durch die Bundespolizei. Dies stellt einen deutlichen Anstieg gegenüber 2022 dar, als insgesamt 91.767 Anfragen gestellt wurden.
Die Statistik war bereits durch die Antwort auf eine Kleine Anfrage im Bundestag bekannt. Auf weitere Nachfrage von netzpolitik.org differenzierte ein BKA-Sprecher auch die Suchläufe für die einzelnen Behörden: Demnach führten Landeskriminalämter im Jahr 2023 74.803 Abfragen durch, das BKA 26.187. Von der Bundespolizei stammten 16.904 Abfragen, was gegenüber dem Vorjahr mehr als eine Verdopplung darstellt.
Die Zunahme der durchgeführten Recherchen erklärt das BKA damit, dass bei den Polizeibehörden „das Bewusstsein über Gesichtserkennung als Hilfsmittel zunimmt“. Jedoch stieg die Zahl der identifizierten Personen nur leicht: Im Jahr 2023 wurden insgesamt 3.796 Personen mithilfe der Gesichtserkennung ausfindig gemacht oder verifiziert, im Jahr 2022 waren es 3.599. Die meisten positiven Treffer (2.113) erzielte wie in den Vorjahren die Bundespolizei, gefolgt von den Landeskriminalämtern (1.674) und dem BKA (9).
Lichtbilddatei wächst weiter
Das bislang ausschließlich retrograd funktionierende GES steht seit 2008 allen deutschen Polizeibehörden zur Verfügung. Es soll helfen, Straftaten aufzuklären oder die Identität von Asylsuchenden zu verifizieren. Neben Fotos aus der erkennungsdienstlichen Behandlung können auch Handyfotos oder Aufnahmen von Videokameras im öffentlichen Raum für die Abfrage genutzt werden.
Die abgefragten biometrischen Daten liegen in der INPOL-Datei. Diese größte deutsche Polizeidatenbank wird ebenfalls vom BKA für alle angeschlossenen Behörden zentral geführt. Auch die Zahl der dort gespeicherten Gesichtsbilder ist im Jahr 2023 wieder deutlich gestiegen. Mit Stand vom 8. März 2024 waren in INPOL insgesamt 7.293.861 Lichtbilder zu 5.099.635 Personen gespeichert – gegenüber dem Vorjahr eine Zunahme um rund zehn Prozent. Von den gespeicherten Bildern stammen 3.061.861 aus „nicht-polizeilichen Quellen“, erklärt das BKA. Einen Großteil davon dürften Asylanträge ausmachen.
Fehlerrate schon jetzt unter ein Prozent
Im Jahr 2014 betrug die Fehlerrate des GES noch rund 30 Prozent, heute soll sie auf unter ein Prozent gesunken sein. Das berichtete eine Mitarbeiterin des BKA auf der Herbsttagung der Wiesbadener Bundeshörde im November. In den kommenden Jahren soll das System dann gar keine Fehler machen: Das BKA hat im September 2024 ein auf Künstlicher Intelligenz basiertes, erneuertes GES eingeführt, das BKA-Chef Holger Münch als eines der leistungsstärksten weltweit bezeichnet.
Es soll präzise Identifizierungen selbst unter schwierigen Bedingungen wie schlechten Lichtverhältnissen, schwierigen Blickwinkeln und bei Altersunterschieden bis zu 30 Jahren ermöglichen.
„Weitere Automatisierungsmaßnahmen“ angekündigt
Auf der Herbsttagung hat Münch unter dem Motto „Wie wir die Welle reiten“ weitere Details zu dem neuen GES mitgeteilt. Demnach ist die Treffergenauigkeit bei sogenannten 1:n-Recherchen so hoch, dass ein nachfolgender manueller Abgleich durch Lichtbildexpert:innen eigentlich überflüssig wäre. Diese menschliche Endkontrolle soll nur aufgrund von Vorgaben der von der EU erlassenen KI-Verordnung weiterhin erfolgen, wie BKA-Präsident Münch betonte. „Aufgrund von rechtlichen Vorgaben werden jedoch Mitarbeitende Aufgaben weiterhin manuell erledigen müssen“, heißt es aber auch in der Präsentation der BKA-Expertin.
Trotzdem werden in der Abteilung für die Verifizierung zahlreiche Stellen abgebaut. Auf der Herbsttagung sprachen BKA-Mitarbeiter hierzu von jetzt schon 15 „freigesetzten“ Mitarbeiter:innen, Ende 2026 soll diese Zahl bei 50 Personen liegen. Anschließend seien „weitere Automatisierungsmaßnahmen“ vorgesehen.
Laut Münch wurde für diesen Prozess ein „Personalprojekt“ ins Leben gerufen, um den Wandel in der Abteilung für Gesichtserkennung zu begleiten und für die obsolet werdenden Mitarbeiter:innen neue, anspruchsvollere Tätigkeiten zu schaffen.
Münch will System weiter „entfesseln“
Der BKA-Chef bezeichnet die Einführung KI-gestützter Biometrie-Methoden als „Kreativität“, die es „weiter zu entfesseln“ gelte. Dazu verweist Münch auf den Fall der als RAF-Terroristin verhafteten Daniela Klette. Ein Investigativjournalist hatte eine Spur Klettes entdeckt, indem er alte Fahndungsfotos von ihr über den privaten Anbieter PimEyes mit Fotos in Sozialen Netzwerken abglich. Auf diese Weise habe der Podcaster „Befugnisdefizite“ der Polizei aufgedeckt, so Münch.
Auch deutsche Polizeien sollen jetzt die Möglichkeit zur Internetsuche mit Gesichtsbildern erhalten, hierzu hatte der Bundestag das sogenannte „Sicherheitspaket“ beschlossen. Einen ersten Anlauf hatte der Bundesrat noch gekippt, da es vielen Ländern nicht weit genug ging. Nun soll das Paket aber noch einen zweiten Anlauf nehmen.
Ich arbeite selbst in der Verwaltung, aber bei „Befugnisdefizit“ gruselt es mich.
Andererseits zeigt die Wortkonstruktion recht deutlich, in welche falsche Richtung sich die Sicherheitsbehörden konsequent entwickeln. Irgendwie brutal frustrierend, das Ganze…
117894 Abfragen mit einer Fehlerrate von unter 1% sind ungefähr 3 Fehler am Tag.
Viel Spaß beim Verwaltungsaufwand!
Ist das ein Problem?
Werden durch einen Fehler irgendwelche Abläufe gestartet, die sonst nicht gestartet worden wären? Oder gucken letztlich Menschen auf Bilder und entscheiden nicht öfter falsch als vorher? Wird ein match als „sicher“ oder bis zu einer unabhängigen Bestätigung als „wahrscheinlich“ geführt?
Problem? Darauf kommt es eben an. 1% bei 40 Menschen ist ein klein bischen anders als bei einem skalierenden System. Dann noch KI-Aktenverwurstung drüberkippen, und fertig ist die Suppe!
Das beantwortet die Frage nicht, zumal der Kommentar das bereits hochskaliert hatte.
Doch, das beantwortet es, und nein, der Kommentar setzt derzeitige Zahlen eines Testbetriebs ins Verhältnis.
Das skaliert der Natur nach. Dann Ausweitungen, komplexere Detektionsziele, und viel Spass mit der Gewöhnung an diese Sorte System. Das ist vor allem dann kein Problem, wenn man die Nachteile für andere ignoriert.
„Das beantwortet die Frage nicht, zumal der Kommentar das bereits hochskaliert hatte.“
Bitte nicht auf das Niveau runter. Der Kommentar hat Beispielzahlen aus dem derzeitigen Betrieb genannt. Das ist nicht hochskaliert.
Wie läuft es in anderen Ländern? Was ist dort der Unterschied, obwohl die viel Gesichtserkennung einsetzen, zumindest an Flughäfen? Wird man da mal geflizt und stundenlang aufgehalten, oder darf gar nicht erst einreisen? Die Probleme werden in der Regel auf den Menschen abgewälzt, wobei in den USA im Falle von Mißbrauch durchaus hohe Entschädigungen erklagt werden können, womit ein Beispiel genannt ist, für was hier fehlt.
Es bleibt Geraune. Kann man machen, nimmt halt ausserhalb der eigenen Kleingruppe niemand ernst.
„Das beantwortet die Frage nicht, zumal der Kommentar das bereits hochskaliert hatte.“
Da kann man einfach mal die Zahlen an Menschen angucken, welche an bestimmten Orten so herumhuschen. Flugähfen, Innenstädte, Außenstädte…
Dann klärt sich das mit dem Skalieren. Ach so, inwiefern stellt denn die Verhältniszahl eine Skalierung dar? Richtig, gar nicht. Wir stellen nämlich nicht X% mehr Polizisten ein, die wir sonst nicht bereits brauchen würden.
„117894 Abfragen mit einer Fehlerrate von unter 1% sind ungefähr 3 Fehler am Tag.“
So, viele fahren in wie kleinen Städten mit den öffentlichen Verkehrsmitteln – am Tag?
„gucken letztlich Menschen auf Bilder und entscheiden nicht öfter falsch als vorher?“
Das ist einerseits ein bischen ein Argument, wenn der Human in the Loop ist, aber wir wissen, wie schnell sich der Zustand einstellt, in dem eben nicht mehr so genau geprüft wird, vgl. Richtervorbehalt. Und nicht öfter falsch entscheiden, rechnen Die also 1% von 1% ist bei 100000 quasi 0, und dann skalieren Sie auf Berlin, München, Tokyo? Die Wahrscheinlichkeiten sind wahrscheinlich nicht unabhängig, und die Polizisten müssen alle Treffer sichten, nicht nur die falschen Positiven.
„die Polizisten müssen alle Treffer sichten“
Nö, die müssen gar nichts. Das System läuft dauernd, aber welche Ereignisse man mit welcher Priorität bearbeitet, ist eine Entscheidung.
Verzweifelt mögliche negative Konsequenzen für die Behörden zu konstruieren hilft niemanden gegen Überwachung.
„Es bleibt Geraune. Kann man machen, nimmt halt ausserhalb der eigenen Kleingruppe niemand ernst.“
Was soll denn das heißen? Fachleute werden nun mal ignoriert, „Geraune“ etc. p.p. Aber es ist nicht klar, dass in einem Kommentarteil nicht nur todbringende Direktposts zu stehen haben?
Nochmal fachlich: 1% Fehlerrate ist für Überwachung von Millionen von Menschen sehr schlecht, es sei denn Repression wäre das Programm. Dann würden wie alsbald die Etablierung von Ermessensspielräumen sehen, d.h. gezielte Formung der Repressionsaspekte. Die Idee, Menschen mit solchem Können durch ein System zu ersetzen, dass 1% Fehlerrate hat, und dann nicht mal falsche Positive und falsche Negative zu kennen, halte ich schon mal für abstrus.
Desweiteren schlägt bei Echtzeitbiometrie quasi jede Interaktion mit der Öffentlichkeit im System auf, d.h. nicht 80 Millionen Menschen ein mal pro Tag, sondern 20 Millionen Menschen 1000 mal pro Tag. Das ist die Zukunft solcher Milchmädchen-„Skalierungen“.
VON
Anonymous sagt:
21. Dezember 2024 um 08:35 Uhr
„die Polizisten müssen alle Treffer sichten“
Nö, die müssen gar nichts. Das System läuft dauernd, aber welche Ereignisse man mit welcher Priorität bearbeitet, ist eine Entscheidung.
Verzweifelt mögliche negative Konsequenzen für die Behörden zu konstruieren hilft niemanden gegen Überwachung.
BIS
1. Bitte anerkennen, dass prinzipiell in dem Modell nicht nur falsche Positive angeguckt werden, nach dem Motto „nur die Kriminellen werden erfasst“. Es werden prinipiell alle Treffer des Systems von Menschen bearbeitet, nicht nur falsche Positive, weil es sich nicht um Magie handelt. Das erhöht auch bei den Menschen den Druck, alles durchzuclicken. Davon ab, behaupten Sie gerade, dass also Human in the Loop offenbar nicht passieren muss, nachdem oben der Start der apologetischen Diskussion damit gesetzt war, dass Menschen die Treffer Sichten, und es daher nicht zu Problemen, wie z.B. Repression, kommen würde. Ihr Einwand verfügt nicht über ein tragfähiges Fundament.
2. Die Konsequenzen bzgl. „mehr Stellen wegen Sichtung von Treffern“ sind gemäß Artikel gar nicht so unsinnig festzustellen, denn es heißt man würde die Sichtungsprofis arbeitslos machen – nur um sie wegen der Skalierung des Systems wieder einstellen zu müssen?
3. Die Konsequenzen der 1% (+-) sind allerdings auch Repression. Wenn sie „Human in the Loop“ verneinen, sind 1% bei 1 Millionen Menschenerkennungen schon mal sowas wie 10000 mal Polizisten hinschicken? Also doch „Humans in the Loop“? Das hat nun mal mehrfache Konsequenzen, wie herum auch immer.
4. Bei einer ähnlichen Diskussion zu Bahnhöfen wurde zu Recht wegen idk-99,9% o.ä. die rute herausgeholt. Plötzlich sollen luschige 1% ohne Detailnennungen gut genug sein? Ist die Fachwelt schon ausgestorben?
„Nö, die müssen gar nichts. Das System läuft dauernd, aber welche Ereignisse man mit welcher Priorität bearbeitet, ist eine Entscheidung.“
Ja, allerdings zwischen (wieder) mehr Personal und mehr Fehler durchlassen. Wenn sie das System skalieren, auf weitere Bereiche und (damit allein schon) häufigere Abfragen, dann gibt es auch entsprechend mehr vom jeweiligen. Human in the Loop, oder mehr Fehler? Jetzt wird das vielleicht untersucht, aber auf Basis von „1% und besser“ kann man nicht ernsthaft eine Skalierungsentscheidung treffen. Man müsste untersuchen, was für Fehler passieren. Und wenn wir die Fehler des Systems über noch mehr Menschen auskippen, dann ist gegebenenfalls die Skalierung selbst der Fehler.
„Verzweifelt mögliche negative Konsequenzen für die Behörden zu konstruieren hilft niemanden gegen Überwachung.“
Garantierte Konsequenzen nicht zu benennen, wäre… töricht? Die „Konstruktion“ dient vielleicht auch als Angebot, die Sache zu klären. Sie tragen da nicht bei.
„Es bleibt Geraune. Kann man machen, nimmt halt ausserhalb der eigenen Kleingruppe niemand ernst.“
Substanz ist nicht Ihr Geschäft, stimmt’s?
Also ich finde es seht gut 1% möchte nicht wissen wie hoch der Fehler bei Menschlicher auswärtig währe
Ob 1% gut oder schlecht ist, hängt vom Einsatz des Systems ab. Bei Gesichtserkennung allgemein wäre 1% wohl ziemlich schlecht, wobei es immer auch darauf ankommt, was daraus folgt.
ABER: Sind es wirklich 1%? Im Text hieß es nahe Null, aber 1% ist nicht Null. Das Zahlenbeispiel aus einem Post oben suggeriert aber eher 1%. Also was ist wessen Datenbasis…
„Demnach ist die Treffergenauigkeit bei sogenannten 1:n-Recherchen so hoch, dass ein nachfolgender manueller Abgleich durch Lichtbildexpert:innen eigentlich überflüssig wäre.“ Offenbar hat der derzeit amtierende BKA-Präsident Holger Münch nicht einmal annähernd verstanden, dass eine manuelle Endkontrolle nicht allein aufgrund von EU-Vorgaben sondern bereits aus ethischer Sicht erforderlich ist um bei Maßnahmen mit gravierend nachteiligen Auswirkungen auf den Betroffenen einen menschlichen Entscheidungsträger im Ablauf zu halten. Wenn Münch es obendrein für ein ledigliches Befugnisdefizit hält sich an gesetzliche Vorgaben halten zu müssen, ist er als Träger seiner dadurch offenbarten Geisteshaltung völlig ungeeignet in unserem von einer FDGO geprägten Rechtsstaat auch nur ein öffentliches Amt zu bekleiden, geschweige sein jetziges!
Irgendwie gerät das Sammeln von Daten und die Überwachung langsam aber sicher völlig ausser Kontrolle.
Da die grosse Mehrheit der Bürger konsequent Überwachungskapitalismus lebt und auch politisch wählt, scheint das so gewünscht zu sein.
Naja, einfaches Denken scheitert an komplexen Problemen.
Wenn dann auch noch Voraussetzungen behauptet werden, die der eigenen Gefühlslage entsprechen, dann führt das zu Schlussfolgerungen, die vielleicht noch empathisches Mitleid mit dem bedauernswerten Mitmenschen hervorruft, aber ansonsten intellektuell zu nichts taugen.
Einfaches Denken scheitert?
Als algorithmisch Initiierter kann ich mit Sicherheit sagen, dass so ein unterkomplexes Statement über das Denken FUD darstellt.
„Naja, einfaches Denken scheitert an komplexen Problemen.“
Strohmann! Komplexes Denken scheitert auch. Einzig die Methode…
VON
vereinfachen bis es falsch wird sagt:
17. Dezember 2024 um 17:39 Uhr
Naja, einfaches Denken scheitert an komplexen Problemen.
Wenn dann auch noch Voraussetzungen behauptet werden, die der eigenen Gefühlslage entsprechen, dann führt das zu Schlussfolgerungen, die vielleicht noch empathisches Mitleid mit dem bedauernswerten Mitmenschen hervorruft, aber ansonsten intellektuell zu nichts taugen.
BIS
Worauf beziehen Sie sich? Ich kann das intellektuell nicht zuordnen (…).
Richtig.
Doch – um es mit einem Zitat aus Wilhelm Busch´s „Max und Moritz“ zu sagen: „Aber wehe, wehe, wehe, wenn ich auf das Ende sehe!“
ja, weil es mittlerweile erforderlich ist.
Erforderlich? Für wen und wozu?
Schaffst Du es auch längere Sätze zu formulieren?
vor 10 Jahren war ich noch total bei euch aber seit 2 Jahren würde ich das alles aufgeben nur um mich wieder sicher in Deutschland zu fühlen
Es ist nur ein Gefühl. Ein Gefühl das trügerisch ist. Problematisch wird es, wenn Individuen ihre persönlichen egozentrischen Gefühle zum allgemeinen Maßstab des gemeinschaftlichen Wohls erheben.
Dann am besten nicht Methoden pushen, die nicht sicherer machen!
Also noch mal zur obigen Diskussion:
Die Idee ist, dass ein Polizist mit Gesichtsvergleichskenntnissen zu einem Treffer, aka Mensch, hingeht, und die Personalien prüft. Je nach Gefahr mit vorgehaltener Waffe, schätze ich mal.
Zahl der Erkennungen ist aber mehrfach pro Person, im Zweifel. Geschäft rein, wieder raus, dies und das. Ja da gibt es Erkennung für Gangarten und anderes, prinzipiell aber nicht zu vernachlässigen, vor allem im Gedränge (!).
Jetzt erklär‘ mir jemand, 1% Fehlerrate (irgendeiner Sorte) bei einem SKALIERENDEN System, mit Millionen an Interaktionen, wo der Personalbedarf für die umherirrenden Beamten berechnet wird?
Alternative: Leute mit Kenntnis prüfen die Treffer durch, bevor jemand geschickt wird. (Usw. usf.) Fehlerraten multiplizieren sich nicht einfach automatisch, wenn sie auf das gleiche Blatt Papier geschrieben werden. D.h. vielleicht kann das System mit Zoomkameras automatisch genauere Aufnahmen von zuvorigen Treffern besorgen, hoffentlich dieselben Personen ;), und diese erneut prüfen?
Man soll das nicht falsch verstehen, denn mehr Polizeipräsenz kann sehr gut sein. D.h. „umherirrende Polizisten“ können auch weitere Funktionen wahrnehmen. Die Frage ist, was uns die Leute da erklären wollen, mit „1% bro…“.
Detail am Rande: Abfragen in der Datenbank mit Straftätern nehme ich an?
1. Fehlerrate nahe Null. Das ist bei verschiedenen Menschen verschieden viel, z.B. aus Unkenntnis über die Auswirkungen von Skalierung.
2. Wer fragt ab? Die nicht so hohe Zahl deutet auf vorauswahl durch Polizei u.ä. hin. Das ist nicht das gleiche, wie ein Kamerasystem vom Hauptbahnhof dranzuflanschen.
3. Human in the Loop. Wie oben erwähnt gibt es ethische Fragestellungen, aber auch die Möglichkeit, dass Menschen und KI z.T. verschiedene Fehler machen. Wie unter 2. erwähnt wird wegen der Limitierung nicht so viel abgefragt, d.h. es wird vermutlichst eine sorgsame Vorauswahl getroffen. Menschen, und bald auch die Vorauswahl wegzulassen hätte qualitativ gesehen gravierende Konsequenzen. In diese Richtung wird normalerweise aber lobbyiert.
Internetsuche klingt wiederum bedenklich, denn
A) Werden die doch wohl nicht eine Cloudsuche benutzen?
B) Muss dafür alles durchforstet und gespeichert werden. Inklusive KI-Bilder der Sorte, die ihr nicht als solche erkennt.
Das mit den Daten und dem Digitalen ist nicht das gleiche wie mit dem Brief und dem Geheimnis. Den Rundungsfehler hat man nun automatisiert und das geplagte Kalb wünscht sich einen Wolf.
Das Stichprobenprinzip wird es im Zweifel retten.