In Hamburg sollen ab dem 1. September die Bewegungen von Menschen auf dem Hansa- und dem Hachmannplatz zum KI-Training genutzt werden. Dazu werden ihre Abbilder in eine Art Strichmännchen umgewandelt. Angeblich sind die personenbezogenen Daten so vollumfänglich geschützt. Dabei können tatsächlich auch nicht-anonymisierte Daten zum KI-Training weitergegeben werden.
Am Hamburger Hansaplatz war das System in 2023 bereits drei Monate in Betrieb. Im Rahmen eines Forschungsprojekts, das noch bis Februar 2026 läuft, wurde offenkundig, dass die Technologie zu ihrer eigenen Ausweitung drängt. Gleichzeitig ist unklar, wie sie am Ende tatsächlich eingesetzt werden soll.
Das Projekt ist an der Uni Hamburg und der TU Chemnitz angesiedelt. Es wird von Stephanie Schmidt und Philipp Knopp geleitet und von Fabian de Hair als wissenschaftlichem Mitarbeiter durchgeführt. Für das Gespräch mit netzpolitik.org haben sich alle drei Zeit genommen.
Kritiker*innen kommen kaum zu Wort
netzpolitik.org: Sie untersuchen die testweise Einführung eines KI-gestützten Überwachungssystems. Was genau erforschen Sie da?
Stephanie Schmidt: Wir beschäftigen uns mit den sozialen Konflikten. Wie verändern sich die sozialen Beziehungen zwischen den Akteur*innen vor Ort und auch die zu den staatlichen Akteuren wie der Polizei? Wir schauen uns auch an, was für mediale Diskurse mit dieser KI-Technologie verbunden sind.
netzpolitik.org: Sie haben ausgewertet, wie Medien über den KI-Testlauf berichten. Diese Berichterstattung ist vermutlich zentral für die gesellschaftliche Verhandlung dieser Technologie. Welche Positionen kommen da zu Wort?
Fabian de Hair: Der Diskurs ist vor allem ordnungspolitisch orientiert. Rund drei Viertel der Sprecher*innen bewerten die Technologie positiv. Sie vereine Datenschutz und Rationalisierung der polizeilichen Arbeit, so die Argumentation. Top-Sprecher der Befürworter ist der Hamburger Innensenator Andy Grote, dann folgen eine ehemalige Sprecherin der Polizei, der Polizeipräsident, der Polizeivizepräsident und Sprecher der Innenbehörde.
Risiken, Kritik und Protest sind im Vergleich dazu unterrepräsentiert. Weniger als ein Fünftel der Menschen, die in den Medien zu Wort kommen, sieht die Technologie negativ. Vor allem der der innenpolitische Sprecher der Linken ist hier eine deutlich vernehmbare Stimme. Daneben sind noch Menschen vom Einwohner*innen-Verein St. Georg und der CCC unter den Kritikern. Aber die sind weit schwächer repräsentiert als die Gegenseite.
Am Hansaplatz gibt es seit 2019 konventionelle Videoüberwachung. Medial wird er als Positivbeispiel angeführt, als Erfolgsgeschichte der Kriminalitätsbekämpfung. Und die aktuelle Entwicklung gilt als Schaufenster in die Zukunft der Polizeiarbeit. Dabei wird die KI-Kameraüberwachung insbesondere im Hinblick auf die Potenziale der Skalierung betrachtet.
Trainingsdaten gesucht: KI-Überwachung führt zu ihrer eigenen Ausweitung
netzpolitik.org: Das heißt, es wird jetzt bereits überlegt, wie man die KI-Überwachung ausweiten kann?
Philipp Knopp: Videoüberwachung ist sehr ressourcenintensiv. Da muss jemand sitzen, der Monitore überwacht und der muss auch noch konzentriert sein. Die KI soll das effizienter machen. Jetzt kann man sagen, das ist eine tolle Arbeitserleichterung für die Polizei. Wir sehen aber auch, dass mit dieser neuen Effizienz eine Ausweitungstendenz verbunden ist. Es hieß ja bereits: Wir überwachen nicht nur den Hansaplatz damit, sondern wir nehmen auch noch den deutlich belebteren Hachmannplatz am Hauptbahnhof dazu.
Fabian de Hair: Auch eine Ausweitung auf andere bestehende Kamerastandorte ist innerhalb des Mediendiskurses im Gespräch: Jungfernstieg, Reeperbahn, öffentlicher Nahverkehr beispielsweise. Und es gibt weitere Ideen: In ihrer Bewerbung auf den Förderfond InnoTecHH der Hamburger Senatskanzlei schreibt die Hamburger Polizei, dass man damit auch Großveranstaltungen wie den Hafengeburtstag oder bei Sportveranstaltungen das Stadion und dessen Umfeld überwachen könne.
Philipp Knopp: Die Notwendigkeit, neue Trainingsdaten zu generieren, hat den Effekt, dass man immer auf der Suche nach Möglichkeiten ist, diese KI einzusetzen. Hamburg hat ja extra ein Gesetz geschaffen, mit dem die Überwachungsdaten auch als Entwicklungsdaten genutzt werden können. Und wenn der Aufwand zu groß ist, die zu anonymisieren, dürfen diese Daten auch unanonymisiert weitergegeben werden.
Die Befugnis, KI mit Überwachungsdaten zu trainieren, findet sich mittlerweile auch in der geplanten Novelle zum Berliner Polizeigesetz. In Baden-Württemberg gibt es die Idee, die Bindung von Videoüberwachung an tatsächliche Kriminalitätsschwerpunkte zu entkoppeln. So könnte die Polizei auch Orte damit überwachen, wo sie nur vermutet, dass dort Kriminalität auftreten könnte, weil man von dort beispielsweise gut flüchten kann, oder weil der Ort sehr belebt oder schlecht einsehbar ist.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Wie die Technologie Verhaltensweisen diskriminiert
netzpolitik.org: Neben dem medialen haben Sie auch den parlamentarischen Diskurs in Hamburg betrachtet. Wie stehen die Parteien zu der Technologie?
Philipp Knopp: Einfach gesagt: Die Linkspartei ist dagegen, SPD und CDU sind dafür. Eine große Verschiebung ist, dass die Grünen sich sehr für die Technologie aussprechen, teils auch sehr vehement gegen die Kritik der Linkspartei argumentieren. Die Befürworter verweisen gerne auf den Datenschutzbeauftragten von Baden-Württemberg, der meint, dass die Technologie es möglich mache, datenschutzsensibler zu überwachen. Laut den Grünen ist es ein technischer Kompromiss, der das Spannungsverhältnis von Sicherheit und Freiheit auflöst.
netzpolitik.org: Was bedeutet das?
Philipp Knopp: Die Technologie rechnet Körper in Vektoren um, in Strichmännchen sozusagen. Und dann schätzt sie, ob deren Bewegungen bestimmten vordefinierten Bewegungsmustern entsprechen. Dazu gehören zum Beispiel Treten, Schlagen oder Würgen, aber auch Liegen und sogenannte aggressive oder defensive Körperhaltungen.
Das wird im Diskurs als ein Verfahren der Anonymisierung gedeutet. Alter, Geschlecht, Hautfarbe, Statur sollen nicht erkennbar sein. Das verhindere Diskriminierung und schütze Daten, heißt es. Die Kritiker der Technologie sagen hingegen, man könne ja nicht nur Alter, Geschlecht oder Hautfarbe diskriminieren, sondern auch bestimmte Praktiken. Das Argument ist, dass Praktiken wie „auf dem Boden liegen“ oder „sich aus Spaß hauen“ von bestimmten Personengruppen durchgeführt werden, zum Beispiel Obdachlosen oder Kindern. Und das sind Praktiken, die von dem System als mögliche Gefahr erkannt werden können, was zu intensiverer Überwachung führen kann.
Die Technologie löscht den Kontext: Welche Interaktionssituation liegt dort vor? Was sind die räumlichen Umstände? Sie bekommt auch keine Ausdrucksweisen mit, die wir mitkommunizieren, wenn wir Bewegungen durchführen. Das macht sie derzeit und möglicherweise auch in Zukunft unpräzise. Zudem ist die Polizei sehr zurückhaltend damit, Situationen aus der Detektion auszuschließen. Es wird also niemals nur der tatsächliche kriminelle Vorfall erkannt.
Die Daten sind auf Personen rückführbar
netzpolitik.org: Wie anonym sind diese Strichmännchen denn wirklich? Mein Bewegungsmuster ist doch so einzigartig wie ein Fingerabdruck.
Philipp Knopp: Dadurch, dass diese Daten zeit- und ortsbezogen sind, sind sie rückführbar auf die Person. Weil sich eine bestimmte Person zu einer bestimmten Zeit an einem bestimmten Ort auf diese Art und Weise bewegt. Die müssen ja auch rückführbar sein, weil die Polizei vielleicht auf diese Person zugreifen will. Das Gesamtprogramm des Fraunhofer-Instituts umfasst auch Trackingsoftware, mit der Dinge oder Personen markiert und über mehrere Kameras hinweg verfolgt werden können. Die wird allerdings aktuell nicht erprobt.
Wo die Reise hingeht, hängt auch davon ab, wie gut die Technologie ist. Die große Vision am Fraunhofer Institut ist ein meist schwarzer Bildschirm, auf dem die überwachende Person nur noch das sieht, was die KI als Gefahrensituation erkannt hat. Es ist aber auch möglich, dass die Technologie nur als Assistenzsoftware genutzt wird, die mitläuft, während weiter ein Mensch die Bildschirme überwacht. Es kann auch sein, dass die überwachende Person viel mehr Gebiete beobachtet, weil sie nur noch sehen muss, was die KI ihr anzeigt. Und es ist auch möglich, dass man die Überwachung um neue Technologien erweitert, zum Beispiel zum Tracking oder Objekterkennung.
Der Endzweck dieser Technologie, wie sie als polizeiliches Werkzeug genutzt wird, ist derzeit nicht klar. Weil die Technologie noch nicht fertig entwickelt ist, ist es auch für Menschen, NGOs oder Politik schwer zu bewerten, was sie derzeit kann und womit man in Zukunft zu rechnen hat. Diese Ungewissheit ist bei Tests im öffentlichen Raum problematisch.
netzpolitik.org: Was ist das eigentlich für ein Ort, den sie da untersuchen, dieser Hansaplatz?
Fabian de Hair: Ein enorm heterogener und vielfältiger. Der kleine Stadtteil St. Georg ist ein in Gentrifizierung befindliches Wohnquartier und Lebensort verschiedenster sozialer sowie marginalisierter Gruppen und internationaler Communitys. Der Hansaplatz ist für alle ein zentraler Durchgangs- und Verweilort. Es ist sehr schwierig, ihn zu umlaufen, wenn man nicht Umwege durch das komplette Viertel gehen will. Er wird als sehr lebhaft und als ein wichtiger, schöner Ort beschrieben. Er ist verkehrsberuhigt und hat einen großen Brunnen in der Mitte.
Seitens der Polizei gilt er als gefährlicher Ort. Es ist einer der Orte in Hamburg mit der höchsten Dichte an polizeilichen Maßnahmen. Es gibt dort visuelle Überwachung, ein Glasflaschenverbot von 17 Uhr bis morgens, eine Waffenverbotszone, und weil dort Personen der Straßenprostitution nachgehen, auch ein Kontaktverbot. Entsprechend gibt es diverse Verdrängungseffekte insbesondere von marginalisierten Gruppen in die Nebenstraßen und anliegenden Viertel.
Schaukämpfe zwischen Polizist*innen
netzpolitik.org: Wie wird sich dieser Platz verändern, wenn ab dem 1. September die Bewegungsdaten der Menschen dort zum KI-Training genutzt werden?
Philipp Knopp: Was passieren könnte, ist, dass sich öfter mal Polizist*innen untereinander prügeln werden. Aktuell bestehen die Trainingsdaten nämlich vor allem aus Schaukämpfen zwischen Polizist*innen, die in Mannheim simuliert wurden, wo die Technik ebenfalls getestet wird. Die spielen wie in einem Film mit Regisseur und Drehbuch und verschiedenen Kamerawinkeln gezielt Konfliktsituationen wie Schlägereien nach.
netzpolitik.org: Werden sich die Platznutzer*innen angesichts der KI-Überwachung noch unbefangen dort bewegen können?
Fabian de Hair: Selbst Leute, die sich sehr ablehnend gegenüber der Technologie zeigen, leiten daraus keine anderen Nutzungspraktiken ab. Auch weil sie den Platz nicht wirklich meiden können. Weil er Durchgangsort ist oder auch der Ort, an dem die Leute arbeiten.
Philipp Knopp: Im Vergleich zu 2019, als KI-Videoüberwachung am Berliner Südkreuz getestet wurde, sind wir heute noch viel stärker daran gewöhnt, von verschiedensten Akteuren überwacht zu werden. Der Widerstand ist heute auch geringer, wie das Beispiel der Grünen in Bezug auf diese konkrete Technologie zeigt.
netzpolitik.org: Hat die Technik auch Auswirkungen auf die Freiheit, an diesem Ort politische Versammlungen abzuhalten?
Philipp Knopp: Natürlich resultiert aus der Überwachung eine Versammlungsöffentlichkeit, in der ich mich nicht mehr unbefangen mit anderen Menschen im ermächtigenden Erscheinungsraum befinde, wo ich mich verbünden kann, um politische Angelegenheiten zu klären. Sondern es ist verstärkt ein Raum der Kontrolle.
Vertrauen in die Polizei wird überflüssig
netzpolitik.org: Wie wirkt sich die KI-Überwachung auf die Beziehung zwischen den Platznutzer*innen und der Polizei aus?
Philipp Knopp: Es gibt auf jeden Fall eine Verschiebung: weg von einer Tradition, wo die Polizei vor Ort ist oder wo Bürger*innen vor Ort die Polizei per Notruf alarmieren, hin zu einer technisierten Überwachung. Das hat natürlich Folgen für die sozialen Abhängigkeitsverhältnisse der Polizei gegenüber der Bevölkerung. Wenn man auf den Notruf angewiesen ist, dann ist man auch darauf angewiesen, dass Menschen in dem konkreten Sozialraum der Polizei vertrauen. Das ist, wenn man sich voll auf die Technik verlässt, nicht mehr der Fall. Dann gibt es nur noch die Polizei und den Raum. Nicht mehr die Polizei, die Menschen und den Raum.
netzpolitik.org: Ist das auch eine Entmenschlichung von Kontrolle?
Fabian de Hair: Wir wissen aus Interviews mit Menschen, die am Hansaplatz arbeiten, dass alle Akteur*innen miteinander üblicherweise eine Form von vertrauensvollem Umgang pflegen. Das verändert sich jetzt aber.
netzpolitik.org: Als ein Ergebnis ihrer Forschung wollen Sie eine Toolbox entwickeln. Was kann man sich darunter vorstellen und wozu ist es gut?
Stephanie Schmidt: Wir nutzen unsere Erkenntnisse aus Gesprächen mit Expert*innen, Polizei und Platznutzer*innen, um gemeinsam mit Menschen, die vor Ort arbeiten, und bundesweiten NGOs eine Toolbox zu entwickeln. Sie soll lokalen zivilgesellschaftlichen Akteur*innen dabei helfen, ich informiert mit solchen KI-Anwendungen auseinanderzusetzen.
Wenn in irgendeiner Stadt eine KI-basierte Technologie angekündigt wird und sich Menschen damit beschäftigen wollen, dann finden sie in der Toolbox Quellen, die über KI bei der Polizei informieren. Hinzu kommt ein sogenanntes Sozialraummapping, mit dem man Gruppen und Nutzungsweisen im Raum erschließen kann. So lässt sich aufzuzeigen, wen man alles in den Diskurs miteinbeziehen sollte. Das dritte Tool ist eine Bewertungsmatrix, die Rechtfertigungen und Kritiken der KI mittels eines Fragenkatalogs aufschlüsselt.
Die Tools helfen auch einzuschätzen, was zivilgesellschaftliche Perspektiven auf die Technologie sein können. Jenseits davon, dass Fragen nach Datenschutz und Sicherheit einfach nur mit Ja oder Nein beantwortet werden, was ja von staatlichen Akteuren in den Vordergrund gestellt wird.

Bitte hört doch endlich mit dem Gendern auf!
Wieso hast du diesen Kommentar freigeschaltet, Martin? Ein unnötiger Wutbürger in den Comments…
Von meiner Seite möchte ich dazu ergänzen: Vielen Dank an netzpolitik, dass Ihr euch bemüht, sensible Sprache zu verwenden!
Gerade in einem Artikel, in dem es um die Überwachung eines Ortes geht, an dem sich u.a. vielfältige marginalisierte Gruppen begegnen, würde es das Bild sehr verzerren, im Text nur mit maskuliner Form zu gendern.
Danke für diesen Beitrag
Ist es bekannt, welche Kamera a. Hardwarehersteller und b. Marke zum Einsatz kommt?
Meine Vermutung: Das Modell Panomera. Sind deutschlandweit verbreitet und scheinen ein gutes Preis-Leistungs-Verhältnis zu haben. Besitzen die sogenannte Multifokaltechnologie.
Auch die Q6000 der Firma Axis sollen leistungsfähig sein.
Am Hansaplatz handelt es sich um das Modell DS-2DF8225IX-AEL der Firma Hikvision.
Hikvision gehört zum Teil dem chinesischen Staat, Software des Konzerns detektiert beispielsweise auch ungenehmigte Versammlungen. https://netzpolitik.org/?s=hikvision
https://www.heise.de/hintergrund/Wie-autoritaere-Laender-Ueberwachungstechnik-aus-China-einsetzen-7273169.html
Wie autoritäre Länder Überwachungstechnik aus China einsetzen
Iran, Myanmar, Russland, Türkei: Autoritäre Staaten rücken bei der Überwachung mit China zusammen, das die Technik liefert.
Die freien Länder setzen natürlich Überwachungstechnik aus USA und Israel ein, zB Palantir. An vorderster Front die USA.
„Aber China“ my ass.
„Rund drei Viertel der Sprecher*innen bewerten die Technologie positiv.“
An der Stelle wäre es interessant zu wissen, wer genau da alles befragt wurde. Ich meine: Wenn die Befragten überwiegend Polizeileute und irgendwelche (Innen-)Politiker waren, ist dieses Ergebnis doch kein Wunder. Beide Gruppen können nie genug Überwachung und Kontrolle der Bevölkerung bekommen.
Die wären wahrscheinlich froh, wenn wir heute schon Verhältnisse wie in China, UK oder ähnlichen Ländern hätten.
Wir sind aber auf dem besten Weg dahin.
Das Ergebnis dieses Teils der Studie ist ja genau das: Dass in den Medien vor allem Polizei-Vertreter*innen, Innenpolitiker*innen und andere Überwachungsfreunde zu Wort kamen.
Insgesamt verwenden Interviewer und die drei Verantwortlichen eine recht unpräzise Sprache, die oft genug schwammig und unklar bleibt. Die verwendeten „Fachtermini“ erfüllen ebenfalls eher die Funktion von Nebelkerzen, als sie zur Klarheit der Aussagen beitragen können.
Beispiel: „…nicht mehr unbefangen mit anderen Menschen im ermächtigenden Erscheinungsraum befinde, …“
Schlimmer geht‘s kaum.
Schade eigentlich, denn KI und Überwachung sollten verständlich und frei von (soziologischen) Eitelkeiten in der Öffentlichkeit diskutiert werden!
„(soziologischen) Eitelkeiten“
Feindbild Wissenschaft?
Kann mir jemand sagen, was daran nun KI sein soll? Dass sowas auch hier jetzt (unkritisch ) übernommen wird ist traurig.
Text:
– „KI-gestützte Videoüberwachung“
– „Philipp Knopp: Die Technologie rechnet Körper in Vektoren um, in Strichmännchen sozusagen. Und dann schätzt sie, ob deren Bewegungen bestimmten vordefinierten Bewegungsmustern entsprechen.“ (ff.)
– „Und es ist auch möglich, dass man die Überwachung um neue Technologien erweitert, zum Beispiel zum Tracking oder Objekterkennung.“
„Und wenn der Aufwand zu groß ist, die zu anonymisieren, dürfen diese Daten auch unanonymisiert weitergegeben werden.“
Wenn die Software ja so toll ist, dann werden Tiere Beispiel Hunde und LKW bzw. Transporter für die Warenanlieferung auch in Strichmännchen bearbeitet?
Die angrenzenden Einkaufzentren und Läden, werden blad kaum Kundschaft haben.
Ich bin zwar nicht sicher, ob das Gerät, das in meiner folgenden Schilderung zum Einsatz kam, KI-gestützt arbeitete, aber hier ein persönliches Erlebnis von vor drei Tagen, das die kranken Auswüchse der Videoüberwachung darlegt:
Schauplatz: ein sehr großer und gut sortierter Supermarkt in einer kleinen Stadt östlich von Bremen. Alle fünf Meter sind die bekannten Halbkugelkameras an der Decke zu sehen. Mein Freund und ich schlendern einfach so durch und bleiben beim Zeitschriften- und Buchstand stehen. Ihm fällt ein interessantes Buch auf, von dessen Deckel er ein Foto mit dem Handy für einen Bekannten machen möchte. Um es ihm zu erleichtern, nehme ich das Buch und halte es ihm vor seine Handykamera, danach stelle ich es ins Regal zurück.
Ungefähr eine Minute später kommen zwei Sicherheitsleute in voller Montur auf uns zu und sprechen mich an:
„Wir wurden von unserem Kollegen vor der Kamera darüber informiert, dass Sie sich an die Nase gefasst haben und „Dreck“ in das Buch geschmiert haben. Das kann Konsequenzen haben.“
Wir waren ziemlich perplex und ich habe geantwortet, dass ich so etwas grundsätzlich nicht mache und dass es sich um einen ziemlich großen Irrtum handeln müsse. Daraufhin meinten sie: „Wir werden sie nicht weiter belästigen“ und sind gegangen.
Mein Freund meinte noch: „So kann man einem den Spaß am Einkaufen auch verderben und es bleibt „ein mehr als ungutes Gefühl“, wohin uns das alles noch führen wird und was passiert, wenn es sich um ganz andere Zusammenhänge oder Situationen handelt?“
Was uns aber zu spät eingefallen ist: Wir hätten nach Beweisen fragen und uns diese zeigen lassen sollen, aber das hätte wahrscheinlich viel Zeit gekostet.
Soviel dazu…!
Naja, Personal ist knapp, oder teuer.
Die Außenbereiche aller Cafés hier, die auf privatem Grund liegen, sind mittlerweile videoüberwacht. Wegen Vandalismus.
Die meisten Café-Betreiber hier haben übrigens Migrationshintergrund und wünschen sich mehr Kameras und wesentlich härteres Vorgehen der Behörden.
„Naja, Personal ist knapp, oder teuer.“
Es gibt genug arbeitssuchende Leute. Man baut eher bewusst Personal ab. Eben erst gehört, dass KI zig junge Leute den Job kostet und sich das auch fortsetzt. Ausserdem kostet technische Überwachung auch Geld.
Ein Cafe auf „privatem Grund“ kann jeder meiden, wenn er die dortige Videoüberwachung nicht mag. Einen Supermarkt brauchen dagegen alle. Übrigens ist es ein Widerspruch: Wenn ein Cafe auf privatem Grund liegt, dann wäre es der erste Schritt, diesen privaten Grund gegen unbefugte Eindringlinge bzw. Vandalen zu sichern. Weiterhin sind „Aussenbereiche“ die Straße (ich nehme an, Sie meinen Straßencafes), und dort kann nur unter engen Voraussetzungen Videoüberwachung stattfinden.
„Die meisten Café-Betreiber hier haben übrigens Migrationshintergrund und wünschen sich mehr Kameras und wesentlich härteres Vorgehen der Behörden.“
Wo ist „hier“? „Härteres Vorgehen“ – wogegen? Gibt es zu Ihrer Behauptung eine Quelle?
„Ein Cafe auf „privatem Grund“ kann jeder meiden, wenn er die dortige Videoüberwachung nicht mag.“
Richtig. Die Kundschaft bleibt und äußert Verständnis.
„Übrigens ist es ein Widerspruch: Wenn ein Cafe auf privatem Grund liegt, dann wäre es der erste Schritt, diesen privaten Grund gegen unbefugte Eindringlinge bzw. Vandalen zu sichern.“
Nein, das widerspräche offensichtlich dem Sinn eines Café-Aussenbereiches am öffentlichen Raum und ist bauchrechtlich idR auch nicht möglich.
„Weiterhin sind „Aussenbereiche“ die Straße (ich nehme an, Sie meinen Straßencafes), und dort kann nur unter engen Voraussetzungen Videoüberwachung stattfinden.“
Der an den öffentlichen Raum anschließende private Grund darf überwacht werden, die Voraussetzungen sind gegeben.
„Wo ist „hier“?“
Buntes Städtchen mit über 70k Einwohnern, kein failed state wie Berlin.
„„Härteres Vorgehen“ – wogegen?“
Gegen Vandalismus, wie aus dem Kontext leicht zu schliessen.
„Gibt es zu Ihrer Behauptung eine Quelle?“
Ich lebe hier und rede mit den Leuten.
Was wollten Sie beitragen?
„Weiterhin sind „Aussenbereiche“ die Straße (ich nehme an, Sie meinen Straßencafes),“
Nicht zwingend, es gibt auch private an den öffentlichen Raum grenzende Flächen. Die Betreiber kennen ihre Grundstücksgrenzen vermutlich.
„und dort kann nur unter engen Voraussetzungen Videoüberwachung stattfinden.“
Deswegen werden ja mehr Kameras im öffentlichen Raum und konsequenteres Vorgehen seitens der Behörden gefordert.
Ein weiteres Beispiel für abartige Auswüchse das dann in Zukunft annehmen wird – auch aufgrund der unersättlichen Überwachungsgier von Strafverfolgern und Politikern
https://www.msn.com/de-de/sport/fussball/polizei-fordert-gesichtserkennung-und-scanner-in-fu%C3%9Fballstadien/ar-AA1KVbX2?ocid=winp2fp&cvid=1f0e292fd07d4341cd1ecf61f8af503a&ei=37
Wahrscheinlich kann man sich in Zukunft nur noch im privaten ungestört treffen – wenn die Union nicht bis dahin bereits dafür gesorgt hat, dass die Chatkontrolle durchkommt. Wundern würde mich das nicht. Aber wer öffentliche Veranstaltungen oder Orte besucht, hat in Zukunft wohl über kurz oder lang zwangsläufig eine Zielscheibe auf dem Rücken.
Wenn man bedenkt, wie oft momentan Schwimmbäder in den Schlagzeilen sind, ist es bei denen wohl auch nicht mehr weit, bis dort überall Gesichtserkennung & Co ist.
So kann man den Leuten halt auch Lebensqualität wegnehmen…
„So kann man den Leuten halt auch Lebensqualität wegnehmen…“
Weite Teile der Bevoelkerung sehen gefuehlte Sicherheit als wesentlichen Teil ihrer Lebensqualitaet, denn gefuehlte Unsicherheit schraenkt sie signifikant ein.
Das zu ignorieren fuehrt leider zum Bild der „linken Chaoten“, was sich dann in den Wahlergebnissen niederschlaegt. Gerade die Berliner verstehen leider ueberhaupt nicht, wie abschreckend ihre Stadt auf den Grossteil der deutschen Buerger wirkt…
War lange nicht mehr hier, aber interessant, wie diverse Anonym-Trolle hier etliche, den Repräsentativitätskriterien nicht ansatzweise genügende Behauptungen („Ich lebe hier und rede mit den Leuten.“) aufstellen und die noch mit Vorurteilen („linke Chaoten“, „abschreckende Wirkung“, „failed state wie Berlin“) garnieren, von Arroganz ganz zu schweigen („Was wollten Sie beitragen?“), nur um von der eigentlichen Problematik abzulenken, um die es im Artikel geht.
„gefuehlte Unsicherheit“ ist interessant. In dem Bild wäre es imperativ, gefühlte Sicherheit zu vermeiden. Dadurch wird Sprallismus und Idiotie auf politischer Seite gefördert, sowie Demagogie und Manipulation mittels FUD.
Der Prototyp des dümmstmöglichen Bürgers.
Wer die Sicht der Wähler ignoriert, wird halt nicht gewählt.
No results found for „Sprallismus“
> „gefuehlte Unsicherheit“ ist interessant. In dem Bild wäre es imperativ, gefühlte Sicherheit zu vermeiden.
Zitat:
Zwischen gefühlter und reeller Bedrohung eines Menschen klafft oftmals eine große Lücke. Die Vermutung liegt deshalb nahe, dass unabhängig von vorliegenden Statistiken über Gewalt und Bedrohung – die etwa belegen, dass ein Großteil physischer Übergriffe in der Familie und im Freundeskreis stattfindet oder dass die meisten Todesopfer im Individualautoverkehr zu beklagen sind – die tatsächlichen Ängste der Menschen von anderen Eindrücken geprägt werden. Und hier kommen die Medien ins Spiel. Sie beeinflussen über das sogenannte Agenda-Setting wesentlich, was Menschen bewegt, wovor sie Angst haben und wann sie sich unsicher fühlen, auch unabhängig von den realen Gefahren.
Quelle: https://www.frankfurter-hefte.de/artikel/gefuehlte-unsicherheit-und-die-macht-der-medien-2619/
Und noch ein Beitrag zur Erwachsenenbildung:
https://de.wikipedia.org/wiki/Unsicherheit