Als erstes BundeslandHessen setzt Live-Gesichtserkennung ein

50 Kameras filmen das Geschehen im Frankfurter Bahnhofsviertel. Die Gesichter aller Passant*innen werden mit Hilfe von KI analysiert und mit Fotos gesuchter Personen abgeglichen. Das zugrundeliegende Gesetz erlaubt noch viel mehr.

Polizeiautos vor dem Hauptbahnhof in Frankfurt am Main.
Das Bahnhofsviertel ist ein Brennpunkt der Polizeiarbeit. – Alle Rechte vorbehalten IMAGO / brennweiteffm

Gestern hat Hessens Innenminister Roman Poseck (CDU) einen Dammbruch verkündet. In Deutschland kommt nun erstmals automatisierte Echtzeit-Gesichtserkennung zum Einsatz. Nicht als Test, wie einst am Berliner Südkreuz, sondern als Anbruch einer neuen Ära. Die Gesichter von Menschen, die sich im Bahnhofsviertel von Frankfurt am Main aufhalten, darunter viele marginalisierte Gruppen, werden von sogenannter Künstlicher Intelligenz vermessen und mit Bildern gesuchter Personen abgeglichen. Gibt es einen Treffer, greift die Polizei zu. Die Technologie gilt als diskriminierend, weil sie bei Frauen oder People of Color mehr Fehler macht.

Die Gesichtserkennung läuft in Frankfurt, wie gestern ebenfalls bekannt wurde, bereits seit dem 10. Juli dieses Jahres. Die rechtliche Grundlage dazu schufen die hessischen Regierungsfraktionen von CDU und SPD mit einem kurzfristigen Änderungsantrag zum „Gesetz zur Stärkung der inneren Sicherheit“, das Ende vergangenen Jahres im Hessischen Landtag verabschiedetet wurde.

„Nur in einer sicheren Gesellschaft können die Menschen frei leben“, sagte Poseck gestern. Die Überwachungsinstrumente bezeichnete er als „Videoschutzanlagen“. Laut einem Bericht der hessenschau überwachen im Frankfurter Bahnhofsviertel 50 Kameras den öffentlichen Raum. Diese würden fortan auch zur Gesichtserkennung genutzt.

Alle Passant*innen werden gescannt

Gescannt werden alle, die das überwachte Areal passieren. Mit Hilfe der Gesichtserkennung wird unter ihnen nach bestimmten Personen gesucht. Um die gesuchten Personen zu erkennen, werden Vergleichsbilder in das System eingespeist. Erlaubt ist das aber nur, wenn ein Beschluss des zuständigen Amtsgerichts vorliegt.

In Frage kommt ein solcher Beschluss beispielsweise für „Gefahrenverursacher einer terroristischen Straftat“. Also nicht nur für tatsächliche Terrorist*innen oder Tatverdächtige eines Anschlages, sondern auch für Menschen, bei denen die Polizei davon ausgeht, dass sie einen Anschlag begehen könnten. „Wer unsere Sicherheit bedroht, darf sich nicht im Schutz der Anonymität im öffentlichen Raum bewegen“, so Poseck.

Außerdem soll die Technologie dabei helfen, „Vermisste und Opfer von Entführungen, Menschenhandel oder sexueller Ausbeutung“ zu finden. Poseck sagt: „Gerade in der Umgebung des Frankfurter Verkehrsknotenpunkts ist die Wahrscheinlichkeit hoch, dass vermisste Kinder und Jugendliche dort auftauchen und dann durch die KI-Videoanalyse erkannt werden.“

Uns fehlen dieses Jahr noch 303.409 Euro.

Ob sie erkannt werden wollen?

Mit Technologie lässt sich das Problem aber nicht lösen. In Vermisstenfällen ist die Wahrscheinlichkeit hoch, dass sich die vermisste Person bewusst aus ihrem sozialen Umfeld entfernt hat. Im Fall von Kindern und Jugendlichen liegen oft Erfahrungen von familiärer Gewalt oder Verwahrlosung zugrunde. Manchmal ist der Grund auch einfach Freiheitsdrang.

Vermisste Erwachsene werden von der Polizei nur dann gesucht, wenn eine Gefahr für Leib und Leben vorliegt. Es ist allerdings möglich, dass Täter*innen häuslicher Gewalt ihren Opfern suizidale Tendenzen zuschreiben, um sie polizeilich – und in Frankfurt mittels Gesichtserkennung – suchen zu lassen.

Der Einsatz der Technologie wird vermutlich nicht lange auf das Frankfurter Bahnhofsviertel beschränkt bleiben. Forscher*innen, die sich mit dem testweisen Einsatz von Videoanalyse-KI in Hamburg beschäftigen, haben bereits konstatiert, dass die Technologie auf ihre eigene Ausweitung drängt. Denn je mehr Trainingsdaten in das Modell fließen, desto effektiver wird es. Das könnte auch erklären, warum etwa in Mannheim eine Videoanalyse-KI bereits seit sieben Jahren testweise läuft.

Hessen will KI-Systeme auch nach Waffen suchen lassen

Die Systeme in Hamburg und Mannheim unterscheiden sich allerdings deutlich von dem in Hessen. Die Technologie, die in den beiden Städten zum Einsatz kommt, erkennt keine Gesichter, sondern nur bestimmte Bewegungsmuster. Entsprechend des Änderungsantrages zum Gesetz zur Stärkung der inneren Sicherheit dürfen in Hessen ebenfalls Systeme eingesetzt werden, die „Bewegungsmuster, die auf die Begehung einer Straftat hindeuten“ automatisch erkennen. Mit der Umsetzung der Bewegungsmusteranalyse lässt sich Hessen anscheinend noch Zeit.

Voraussichtlich ab Ende dieses Jahres sollen aber automatisch Waffen und gefährliche Gegenstände auf den Videobildern aus dem Frankfurter Bahnhofsviertel erkannt werden. Laut dem Koalitionsvertrag von 2023 plant die Landesregierung zudem, Pass- und Personalausweisfotos für die biometrische Identifikation heranzuziehen. Die Videoüberwachung ist in Hessen, anders als beispielsweise in Hamburg, nicht auf tatsächlich kriminalitätsbelastete Orte beschränkt, sondern darf laut dem Gesetz zur Stärkung der inneren Sicherheit auch in polizeilich definierten „Angsträumen“ eingesetzt werden.

Noch 303.409 Euro für digitale Freiheitsrechte.

Bist Du auch Feuer und Flamme für Grundrechte? Dann unterstütze jetzt unsere Arbeit mit einer Spende.

46 Ergänzungen

  1. Was lerne ich daraus?

    In Zukunft eine Zugroute mit anderem Umsteigeort als Frankfurt zu nehmen.

    Aber halt, es wird ja wahrscheinlich irgendwann überall so wie in Frankfurt sein. Also schön zu Hause bleiben! Dort kann man noch klar denken und für sich sein (wie lange noch?).

    1. „Also schön zu Hause bleiben!“

      Ziel erreicht!
      „KI“ Route wird online neu berechnet.

    2. Falls die Kameras noch keine Skeletterkennung verfügen, ist Vermummung noch ein Mittel zum digitalen Widerstand.

      Man müsste schon unsere Gehirne, unsere Herzen, unser Leben verbieten, ehe wir zur Vernunft kommen aus Sicht derjenigen, die uns Überwachung für etwas Notwendiges verkaufen.

      1. „Die Fahndung nach Straftätern ist kein Polizeistaat, weswegen die grosse Mehrheit der Wähler das akzeptiert.“

        Mal vom suggestiven und unbelegten zweiten Teil Ihres Satzes abgesehen:

        Er ist falsch, denn es geht nicht nur um Straftäter und deren (spezifische) Überwachung, sondern darum, dass jeder, der dieses Gebiet betritt, sich nicht anonym in ihm bewegen kann, selbst wenn diese Person keiner Straftat verdächtig ist (siehe Artikel, bzw. „Wer unsere Sicherheit bedroht, darf sich nicht im Schutz der Anonymität im öffentlichen Raum bewegen“, so Poseck.

        Rechtlich höchst fragwürdig, denn erstens: Wer bestimmt, wer wann unsere Sicherheit bedroht? In dem Zusammenhang muss genau und transparent erklärt werden, unter welchen Voraussetzungen ein richterlicher Beschluss greift: Werden die Kameras – und wenn ja, ab wann – in einen speziellen Gesichtserkennungsmodus geschaltet? Nur wenn damit zu rechnen ist, ein potentieller Straftäter könnte (!) dieses Gebiet betreten? Wie misst man das? Unter welchen Prämisssen? Letztere müssen genau definiert werden, und ob das geschieht, ist höchst zweifelhaft und für jede Person, die das Gebiet betritt, völlig intransparent bzw. nicht nachzuvollziehen.

        Zweitens: Anonymität ist ein Grundrecht, das mit solchen Sätzen ausgehebelt werden soll. Man kann potentiell jedem unterstellen, er/sie bedrohe unsere Sicherheit, denn – siehe erstens – dieser Begriff ist relativ, da variabel interpretierbar. Es ist deshalb höchst zweifelhaft, dass diese Systeme wirklich nur zum behaupteten Zweck und nicht irgendwann zum Ausschalten (politisch) missliebiger Personen eingesetzt werden.

        Wenn Systeme Fehler machen – und die machen sie – sind spätestens dann die von diesem Fehler betroffenen Personen sowohl in ihrem Grundrecht auf Anonymität als auch auf informelle Selbstbestimmung verletzt.

        Ich denke, die Verfassungsklage wird nicht lange auf sich warten lassen.

        1. Sehen Sie nennenswerte Proteste, signifikante kritisch in Umfragen, oder eine Änderung des Wahlverhaltens? Nein.

          Ansonsten bauen Sie Strohmänner auf. Das System vergleicht gegen eine kleine Zahl gesuchter Personen und de-anonymisiert nicht, selbst eine Fehlidentifikation ist ja eben genau das.

          1. Ich sehe hier eine Verharmlosung von Strukturen, die sich in einer aufgeklärten Gesellschaft nicht etablieren sollten.

          2. Warum sollte eine aufgeklärte Gesellschaft diese Strukturen nur auf Grund ihrer Aufgeklärtheit nicht etablieren?

            Ehrlich gemeinte Frage. Gerade eine aufgeklärte Gesellschaft könnte die bewusste Entscheidung treffen, das zu wollen und diese Strukturen kontrolliert einzusetzen.

          3. Das Wahlverhalten ist sehr komplex; man kann nicht einen isolierten Punkt aus ihm als signifikant beweisend extrahieren, weder in der einen noch in der anderen Richtung. Eine Änderung an einem einzelnen Punkt festzumachen, ist statistisch nicht seriös. Fehlender sichtbarer Protest bedeutet nicht automatisch eine Zustimmung.

            Ich sehe keine Strohmänner, und Ihr Satz wirkt etwas verwirrend. Diese Systeme bekommen erstens Informationen von der Polizei in die dann vorhandenen Abgleichslisten mit entsprechenden Namen, und zweitens vom System selbst durch die Kamera- und Gesichtserkennungsinformation. Ein Treffer kann nur durch ein Abgleich mit einer Namens- und Bilderdatenbank erfolgen, und spätestens dann ist die Person nicht mehr anonym. Dabei ist es zunächst egal, ob der Abgleich zu einem richtigen oder falschen Ergebnis führt.

            Der entscheidende Punkt ist, dass für keinen in diesem Gebiet transparent ist, wer warum wann wie lange von den Listen und Systemen erfasst und gespeichert wird; ob die Systeme unverdächtige Personen sofort löschen usw., ganz abgesehen von den psychologischen Auswirkungen des Gefühls, immer damit rechnen zu müssen, in der Öffentlichkeit beobachtet zu werden.
            Zudem ist nicht geklärt, inwieweit diese Systeme durch missliebige Personen trainiert werden oder nicht, was weitere juristische Fragestellungen mit sich bringt.

          4. @Anonym sagt: 1. September 2025 um 18:30 Uhr
            > Ehrlich gemeinte Frage. Gerade eine aufgeklärte Gesellschaft könnte …

            Was ist eine „aufgeklärte Gesellschaft“? Eine Gesellschaft ist keine homogene Ansammlung von aufgeklärten Individuen, wobei der Ausprägungsgrad des Merkmals „Aufgeklärtheit“ in größer werdenden Teilen der Gesellschaft (Population) mangels hinreichender Bildung immer dürftiger wird.

            Mit „aufgeklärte Gesellschaft“ kann leider nur ein Teil der Population zutreffend beschrieben werden, ansonsten wäre das ein Zustand der dringend anzustreben wäre, aber kaum erreicht werden kann.

          5. „Mit „aufgeklärte Gesellschaft“ kann leider nur ein Teil der Population zutreffend beschrieben werden“
            Nee, das ist nicht richtig. Aber „aufgeklärte Gesellschaft“ bedarf einer Definition. D.h. man muss sich gegenseitig darüber aufklären, worüber man hier sprechen will, und was man womit meint.

            Die Idee, dass eine Gesellschaft erst dann z.B. demokratisch genannt werden darf, wenn alle Individuen die Demokratie komplett gesoffen haben, ist absurd. Das schaffen nicht mal Insekten.

  2. Wo der Fotograf dies schon nicht gemacht hat, hätte ich aber eine Unkenntlichmachung durch euch von den beiden Personen im Titelbild rechts vorne gut gefunden. Die wollen vielleicht auch nicht in einer der Gesichtersuchmaschinen landen.

    1. Die Personen müssen nicht anonymisiert werden, da es sich um einen öffentlichen und frei einsehbaren Platz handelt und die Personen im Vordergrund nicht das Hauptmotiv bilden. Das Hauptmotiv ist und bleibt der Bahnhof bzw. der Vorplatz mit HBF im Hintergrund.
      Ja, man hätte warten können, bis die Personen im Vordergrund vorbei gegangen wären, wäre Usus eines „guten“ Fotografen, muss aber nicht. Das KUG und das UHG regeln diese Fälle ziemlich genau. Also bitte keine falschen, uninformierten Aussagen blind in den Raum werfen. Danke.
      -Ein Fotografenmeister mit mehreren Jahrzenhten Berufserfahrung-

      1. „Also bitte keine falschen, uninformierten Aussagen blind in den Raum werfen.“

        Das ist leider von der Redaktion geförderter Standard in den Kommentaren.

        1. „Das ist leider von der Redaktion geförderter Standard in den Kommentaren.“

          „Also bitte keine falschen, uninformierten Aussagen blind in den Raum werfen.“

      1. Hätte sich das Parlament durchgesetzt, wäre es ein klarer Verstoß. Ich hatte aber schon wieder verdrängt, dass sich das EU-Parlament im Trilog hat über den Tisch ziehen lassen.

    1. Nein, die hat ja eine Hinter- äh Vordertür. Wenn es um Terrorismus KiPO usw. geht ist quasi alles erlaubt, KI Gesichtserkennung und vielleicht sogar Social-Scoring.

      1. Ihre Verwirrung hat einen Grund. Bei KIPO und Terror werden die Türen nämlich überhaupt nicht eingesetzt. Denn hier wird das Dach abgehoben, damit die Hubschrauber überall drankommen.

  3. Hauptgegenstand der Serie „Psycho-Pass“ wird Realität. Es ist absurd.

    „Entsprechend des Änderungsantrages zum Gesetz zur Stärkung der inneren Sicherheit dürfen in Hessen ebenfalls Systeme eingesetzt werden, die „Bewegungsmuster, die auf die Begehung einer Straftat hindeuten“ automatisch erkennen.“

    1. Wobei die Polzei einen deswegen aber noch nicht unbedingt ansprechen oder gar speichern darf? Oder gilt inzwischen der „KI-Kamera-Vorbehalt“?

  4. Was sind denn das für Verhältnisse in Hessen? Das ist doch der Überwachungsstaat in Reinform! Dagegen sollte irgendwer so schnell wie möglich klagen!

    1. Schon mal was von Bewegungsmustererkennung gehört? Da bringt dir so ne Maske absolut Nix! Es gibt etliche Möglichkeiten einen Menschen mit sehr hoher Treffergenauigkeit wieder zu erkennen. Dafür braucht es kein Gesicht!

  5. „Die Videoüberwachung ist in Hessen, anders als beispielsweise in Hamburg, nicht auf tatsächlich kriminalitätsbelastete Orte beschränkt, sondern darf laut dem Gesetz zur Stärkung der inneren Sicherheit auch in polizeilich definierten „Angsträumen“ eingesetzt werden.“

    Und das ist dann wohl quasi eine Umschreibung für „im gesamten öffentlichen Raum“…?
    Was sonst sollen denn „polizeilich definierte Angsträume“ sein?

    Letztlich haben die Strafverfolger den gleichen … (irgendein böses Wort ausdenken) Tick wie der Großteil der heutigen Politiker auch:

    „Wo mehrere Menschen miteinander interagieren können besteht eine Gefahr für die Sicherheit, weswegen überwacht werden muss.“

    Wenn man überlegt, dass vor nicht allzu langer Zeit noch Leute die davor gewarnt haben, als Verschwörungstheoretiker, Schwurbler oder whatever bezeichnet wurden…
    Tja, was sieht man heute…?

  6. Leider wohne ich in Hessen. Eine Schande! Wir sollten Verfassungsbeschwerde einlegen.
    Mittlerweile kann man auch nach China auswandern, fast identische Überwachung, dennoch kommt hier die Bahn pünktlich, vieles Funktioniert besser…!

    1. Wieviele Bahnkilometer ohne Verzweigung gibt es da denn? Wenn man jedes Streckenstück mit Länge 1 einrechnet, wie viele Verzweigungen pro Streckenstück gibt es dann? Wie viele Kilometer ist ein Streckenstück im Durchschnitt lang?

      Dann noch Passagierauslastung, Staatsförderung, und … meinten Sie S-Bahn?

  7. „die „Bewegungsmuster, die auf die Begehung einer Straftat hindeuten“ automatisch erkennen“

    Ich würde ja gerne mal wissen, wie diese Bewegungsmuster so aussehen sollen. Wie viele Projekte zu sowas sind schon gescheitert? Das ist nicht einfach ein Daten sondern ein theoretisches Problem, das nicht trivial ist.

    1. Ich wette Schüler(oder auch erwachsene) die ihren Kumpels einen Nackenklatscher geben wollen und daher geduckt ansprinten sind sehr verdächtig.

    2. all die die gegen so eine Überwachung sind haben noch nie einen besseren Vorschlag zur Verbrechensvermeidung hervor gebracht.
      Warum wohl?

      1. Ganz einfach: Weil die Maßnahmen, die angeblich Verbrechen vermeiden helfen sollen, in keinem Verhältnis zu den Verbrechen selbst stehen, ob qualitativ oder quantitativ. Dafür wird massiv und immer mehr in unsere freiheitlich-demokratischen Grundrechte eingegriffen, und man kann die berechtigte Frage stellen, ob das nicht sogar, langfristig gesehen, bestimmte Kriminalitätsformen mitbedingt.

        Wurden durch die Vorratsdatenspeicherung wirklich mehr Verbrechen verhindert? In Frankreich gibt es sie, und es sind trotzdem schreckliche Anschläge wie Charlie Hebdo usw. passiert. Der Breitscheidplatz-Anschlag in Berlin konnte nur verübt werden, weil Ermittler und Observanten des Anis Amri kläglich versagten, und nicht, weil es keine Vorratsdatenspeicherung, keine Chatkontrolle, oder keine Kameras auf dem Platz gab.
        Wo Drogen-Plätze mit letzteren überwacht werden, verlagert sich die Kriminalität woanders hin, sie selbst und ihre Ursachen werden aber nicht bekämpft, höchstens lokal-, aber nicht allgemein-präventiv.

        Diese Tatsachen werden jedoch totgeschwiegen, nicht zuletzt deshalb, weil man (mal wieder) glaubt, die Technologie sei Maß aller Dinge und probates Mittel, Unerwünschtes per Knopfdruck beseitigen zu können. Und das ist ein großer Fehler.

  8. Alle Beispiele von Predictive Policing wurden Global entweder missbraucht um mehr Menschen ins Gefängnis zu bringen oder sind schon am Einsatzzweck gescheitert.
    Anstatt, wie versprochen, präventiv zu arbeiten, Menschen anzusprechen und ihnen in ihren Lebenssituation/Nachbarschaften/Gemeinschaften aktiv zu besseren Bedingungen zu verhelfen, wurden sie auf der Basis einer maschinell erzeugten, und zumeist für den Bediener intransparenten, Entscheidung kriminalisiert.

    Wer so etwas in einer Gesellschaft einsetzen will muss >vorher< nachweisen, dass a) die Algorithmen und Modelle korrekt und nachvollziehbar performen (trustworthy, reliable, transparancy) und b) das die Integrität und Sicherheit der verwendeten (biometrischen) Daten gesichert ist.

    Ob nun irgendeine billo Gesichtserkennung oder Palantirs Billion-Dollar-Antisociety-Tools spielt dabei keine Rolle.

  9. Ernstgemeinte Fragen:

    Was passiert, wenn bei eineiigen Zwillingen, die sich bekanntlich optisch zu 99 % gleichen, einer einer Straftat verdächtig ist und der andere nicht? Wie soll das technisch und rechtlich gelöst werden?

    Was passiert, wenn zwei völlig unterschiedliche Menschen, die sich nie im Leben gesehen haben, aber sich sehr ähnlich sehen, in das Visier dieser Geräte kommen?

    Was passiert, wenn Bewegungsmuster völlig zufälliger Personen sich sehr ähneln oder sogar gleichen?

    Fragen über Fragen….

      1. Richtig, aber ohne den technischen und datenschutzbezogenen Aspekt, bei denen eine ebenso fehleranfällige Maschine entscheidet, die ausserdem mit Daten völlig Unbeteiligter „trainiert“ werden muss.
        Bei herkömmlichen Zeugen-Aussagen konnten alle Unbeteiligten aussen vor gelassen werden, was bei diesen Systemen nicht der Fall ist. Genau darum geht es aber hier und um die gesellschaftlichen Auswirkungen.

  10. Ich das anders, weil ich mich im Bahnhofsbereich mit Kameras sicherer fühle. Auch wenn sie Fehler machen – wie sie uns allen passieren – hat es Vorteile, und wenn es nur die Verbesserung der Technologie ist. Sicher kann man das Problem auch anders lösen, aber ich bezahle den Preis meines Gesichts gerne.

    1. > weil ich mich im Bahnhofsbereich mit Kameras sicherer fühle

      Sehr problematisch, dieses „sich fühlen“, denn es ist letztlich nur ein individuelles Gefühl, welches uns oft täuschen kann. Gefühlsbasiert und emotionalisiert und ohne Kenntnis der tatsächlichen Bedrohungslage, ist das Selbsttäuschung.

      Videoüberwachung verhindert keine Straftaten, sondern kann nur nachträglich die Strafermittlung erleichtern. Das macht keine Tat ungeschehen. Erfahrungsgemäß kümmern sich z.B. alkoholisierte und sonst enthemmte Personen nicht um Videokameras, die machen einfach. Auch sind Videoaufnahmen häufiger unbrauchbar oder nicht hilfreich, als sich das Laien so vorstellen. So sind Stellung zur Kamera, Lichtverhältnisse, Entfernung, Nichterfassung oder Defekte häufige Probleme. Dagegen hilft auch sogenannte KI wenig.

      Selbst wenn eine KI einen Alarm auslöst, vergeht je nach Standort und Uhrzeit viel Zeit, bis Polizei vor Ort eintrifft.

      Was bleibt da noch übrig, von einem „sich sicherer fühlen mit Video-Überwachung“?

      Video-Überwachung kann der Polizei helfen, aber nicht den Opfern von Gewaltdelikten.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.