Das EU-Forschungsprojekt INDECT hatte es vermocht, grosse Teile der Netzgemeinde in Aufruhr zu versetzen: Das Vorhaben entwirft eine Machbarkeitsstudie zur Synchronisation verschiedener Überwachungstechnologien. Die zehn Arbeitsgruppen in INDECT fussen vor allem auf bildgebenden und bildauswertenden Verfahren und gehen der Frage nach, inwieweit diese zunehmend automatisiert werden können. Von Interesse ist die sogenannte „Mustererkennung“, also die Detektion bestimmter Bewegungen oder auch Objekte, sofern diese zuvor definierte Merkmale aufweisen.
Am Donnerstag widmete sich die ZDF-Sendung „Elektrischer Reporter“ dem Thema „Mustererkennung“, Grundlage war die Antwort auf eine entsprechende Anfrage der Linksfraktion vom Frühjahr (hier ein früherer Bericht). Untermauert wurde damals, dass auch das Bundesministerium für Bildung und Forschung zahlreiche Projekte fördert, in denen Funktionalitäten wie bei INDECT beforscht werden:
http://www.youtube.com/watch?v=graZFDqwIoE&feature=youtu.be
Viele der Vorhaben zur computergestützen Auswertung von Audio- und Videoströmen werden längst im öffentlichen Raum getestet. Der Bundesinnenminister nahm die Anschläge in Boston zum Anlass, die baldige Einführung der Technik im Serienbetrieb zu fordern:
Sowohl die Erstbeschaffung der Kameras mit Aufzeichnungsmöglichkeit, eine gute Auswertung der Bilder und der permanente Betrieb ist teuer, und sowohl die Bahn als auch die Flughäfen oder ein Schnellrestaurant sollten ein Interesse an mehr Sicherheit haben […] Wir sprechen derzeit intensiv mit der Deutschen Bahn, um die Überwachung der Bahnhöfe zu verbessern. Ähnliche Gespräche gibt es mit den Flughäfen.
Es ist unklar, welche Systeme IM Friedrich hier androht. Das Projekt „Automatisierte Detektion interventionsbedürftiger Situationen durch Klassifizierung visueller Muster“ (ADIS) soll etwa für Akzeptanz unter den NutzerInnen sorgen, indem – zumindest vorläufig – nicht alle Bereiche des Bahnhofs überwacht werden. Reisende können also selbst entscheiden, ob sie von einer Kamera beobachtet werden wollen. Dies wird als Wahrung der Privatsphäre beworben.
Zu den Projektpartnern in Forschungen zur „Mustererkennung“ gehören neben der Leibniz Universität Hannover häufig Institute des Fraunhofer-Verbunds. Das Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) ist beispielsweise auf Verfahren zur „automatischen Objekterkennung und Objektverfolgung“ spezialisiert. Auf diese Weise können Personen in Videoströmen überwacht, aber auch „rückwärtsgerichtet“ zurückverfolgt werden:
Ein weiterer Schwerpunkt [des IOSB] liegt in der Datenauswertung von Kameranetzwerken. Kameranetzwerke finden sich vermehrt im öffentlichen Raum, beispielsweise an Bahnhöfen, Flughäfen oder auch innerstädtischen Bereichen. Insbesondere die effiziente Auswertung der Masse an Daten sowie die Erhöhung der Sicherheit durch automatische Situationsinterpretation sind die Schwerpunkte der hier anfallenden Forschungsthemen.
Die Abteilung „Videoauswertesysteme“ des IOSB forscht unter anderem zu Aufklärungs- und Überwachungsbereich in „bewegten Plattformen“. Gemeint ist nicht nur die Bundeswehr-Drohne LUNA, die in Afghanistan mit einem bildgebenden Sensor unterwegs ist den das Fraunhofer-Institut mitentwickelt hatte. Das IOSB will auch die „Detektion von Booten und Schiffen von marinen Plattformen“ optimieren. Derartige Syteme werden gegenwärtig unter anderem im neuen EU-Überwachungssystem EUROSUR errichtet bzw. synchronisiert.
Auch das Fraunhofer-Institut für Graphische Datenverarbeitung (IGD) ist mit entsprechenden Forschungen befasst. Im Themenfeld „Integrated Border Management“ werden unter anderem Anwendungen entwickelt, die mit biometrischen Verfahren einem „steigenden Migrationsdruck“ entgegenwirken sollen. Gemeint sind automatisierte Kontrollgates an Flughäfen, mit denen Reisende mit biometrischen Ausweisen bevorzugt abgefertigt werden. Mit dem Schwerpunkt „Visual Analytics“ werden Möglichkeiten beforscht, massenhaft anfallende Daten per Visualisierung handhabbar zu machen.
Für die Fraunhofer-Techniken interessiert sich auch das Bundeskriminalamt (BKA). Das BKA wendet bereits Verfahren zum “Lichtbildvergleich” an. Im Fraunhofer-IGD soll das Amt nun in den Genuss erweiterter Ermittlungsmethoden kommen: Das Projekt „Multi-Biometrische Gesichtserkennung“ (GES-3D) will ein Verfahren entwerfen, um „Personen auf Foto- bzw. Videoaufnahmen, die in unmittelbarem Zusammenhang mit dem Begehen einer Straftat stehen“ in polizeilichen Datenbanken zu suchen. Damit kommt das Projekt dem INDECT-Projekt bedenklich nahe.
Da will auch die Bundespolizei nicht zurückstehen: Bis Ende 2014 forscht das Bundespolizeipräsidium mit der Polizei Hamburg zur „Multi-Biometriebasierten Forensischen Personensuche in Lichtbild- und Videomassendaten“ (MisPel). Diese „Bildinhaltsanalyse“ soll eine „zeitnahe Erkennung von ermittlungstechnisch relevanten Personen“ bewerkstelligen und würde auf die öffentliche Videoüberwachung zugreifen. Wieder ist mit dem IOSB ein Fraunhofer-Institut mit von der Partie.
Danke für den Umfangreichen Artikel.
Zu Forschungen an Überwachungstechnologien gibt es umfangreiche Probleme und Fragen, die nicht gelöst worden sind. Als sich z.B. offene Fragen der Ethik, zum EU-Projekt INDECT auftaten, reagierte die EU zögerlich und dan lapidar mit einem sog. „Ethik-Board“, das mitunter als abstrus zu bezeichnen ist.
Grundsätzlich kann und muss man die Forschung und deren Ziele hinterfragen. Zum einen nach dem wissenschaftlichen Mehrwert, zum anderen nach ethischen und kulturellen Gesichtspunkten. Gerade INDECT ist ein Beispiel für völlig ein verpeiltes Forschungsprojekt. Ähnliche EU-Projekte haben häufig das Wort „präventiv“ in der Projektbeschreibung, dabei ist es u.a. aus soziologischer Sicht völlig unmöglich genau vorherzusagen was jemand in Zukunft tun wird. Viele derartige Forschungsprojekte gehen aber gerade aber genau von Axiom aus.
Ein einzelner Sexualstraftäter der entlassen werden soll, wird über Stunden, Tage gar Wochen von einem oder mehren Psychologen / Gutachter einzeln befragt, und am Ende gibt er eine Prognose ab ob derjenige oder diejenige eine Gefahr für die Allgemeinheit darstellt. Und selbst bei dieser Intensiven Einzelbegutachtung gibt der Gutachter nur eine Prognose ab.
Aber bei vielen Forschungsprojekten aus dem Bereich Sicherheit und Telekommunikation will man via Datensatz, mathematischen Algorithmen etc. nun Vorhersagen was ein Mensch als nächstes tut? Das ist doch lächerlich. Jeder der sich mit der menschlichen Natur und dem sozialen Verhalten auskennt, weiß das niemand mit Sicherheit sagen kann was jemand als nächstes tun wird.
Viele Ziele derartiger Forschung seitens der EU sind für mich reichlich schlecht. Weder möchte ich mich von vornherein beobachten und verfolgen lassen, das nennt man stalking, noch bin ich für die wirtschaftlichen Interessen der forschenden Firmen verantwortlich schon gar nicht mit meinen Steuergeldern. Von daher finde ich einen breiten diskurs, auf gesellschaftlicher und politischer Ebene sehr wichtig. Auf das wissenschaftliche Forschung nicht zur Einhegung der Gesellschaft missbraucht wird.
Hier gib es eine Initiative die sich explizit mit EU-Projekten aus den Bereichen „Sicherheit und Überwachung, Telekommunikation“ beschäftig.
http://stop-orwell2020.org/uber-uns/
Dem Dank für diesen Artikel, in dem Umfang und Detail, möchte ich mich unbedingt anschließen.
@Richard – ich bin mir nicht sicher, ob Ziel von verhaltensanalytischen Verfahren grundsätzlich die direkte Vorhersagbarkeit von Verhalten sein muss. Für viel naheliegender halte ich es, das sichtbare Verhaltensanalyse durch ihre Präsenz sozial ausreichend kontitioniernd wirkt, um Verhalten vorhersagbar zu machen. Eine bekannte, stetige Überwachung liefert eine wesentlichen, stabilen und verhaltensbestimmenden Faktor, den man nicht unterbewerten sollte.
Im weiteren halte ich es für ausreichend, wenn Analyse und Bestrafung unbilligen, oder vermeintlich unbilligen Verhaltens an Präzedenzfällen ausgestellt wird, also die Wirksamkeit des Überwachungssystems, um die gewünschte Konditionierung einer Gruppe im ausreichenden Maß zu erreichen. Niemand kann sicher sein, dass sein Verhalten nicht als unbillig erkannt wird.
Ferner halte ich es nicht für ausgemacht, das die Verhaltensanalyse von Gruppen, bei Kenntnis von Kontextfaktoren, grundsätzlich wirklich fehlschlägt. Es mag bei der prognostischen Analyse von Individualverhalten sicher größere Unwegbarkeiten geben. Letztere spielen aber sicher bei der Aufgabe der Steuerung und Überwachung von Gemeinschaftprozessen weniger eine Rolle.
Ich bin kein Freund von pawlowscher Konditionierung, und lehne die Idee ab, mit abschreckenden Präzedenzfällen zu arbeiten. Zudem finde ich es nicht gut, die Menschen im Vorfeld zu überwachen nur um eine möglichst genaue Prognose seiner bevorzugten Handlungsweise zu erstellen. Wenn ich deinen Kommentar richtig interpretiere wünschst du dir, die Umkehrung der Unschuldsvermutung. Damit bin ich nicht einverstanden.
Erstmal alles aufzeichnen was geht und dan nach kriterien Rastern? Schon im Jahr 2000 haben deutsche Datenschutzbeauftragte festgestellt, das das Rastern nach beliebigen Kriterien unzulässig ist.
Zum Schluss noch, ich glaube ich anders als du, das Überwachung sehr wohl negative Auswirkungen auf Gruppen und Gesellschaften hat.
@Richard: Ich find die ganngen Forschungsvorhaben genau so zweifelhaft wie du, aber mit der Nicht-Vorhersagbarkeit von menschlichem Verhalten liegst du weit daneben. Natürlich ist es sehr schwer für eine einzelne Person zu sagen, was diese als nächstes machen wird, besonders dann, wenn es sich um psychisch gestörte Straftäter handelt. Die verhalten sich wohl nahezu zufällig.
Die Handlungen der meisten Menschen sind aber sehr gut vorhersagbar. Natürlich ist es unmöglich zu sagen, was eine Person in einer Woche machen wird (außer die Veranstaltung findet tatsächlich Wöchentlich statt), aber aus der aktuellen Situation kann man recht gut sagen was als nächstes passiert. So erhöht sich mit Sicherheit die Wahrscheinlichkeit eines Treffen von zwei Personen, wenn diese vorher miteinander telefoniert haben. Und wenn du in eine U-Bahn steigst lässt sich aus den letzten Fahrten auch gut vorhersagen wo du am wahrscheinlichsten aussteigen wirst.
Natürlich sind das alles keine „konkreten“ Aussagen, aber mehr als Wahrscheinlichkeiten kann man hier nicht erwarten. Und am Ende reicht es dann eben, wenn nach auffälligen Ereignissen gefiltert wird.
Ich stimme mit überein, dass es möglich ist, Warscheinlichkeiten im bestimmten Maße anzunehmen. Was ich jedoch aufzeigen wollte ist; Wenn z.B. zwei Menschen im Dialog wild mit den Armen fuchteln, das es eben nicht heißt, dass der eine dem anderen gleich ins Gesicht schlägt, sondern es sich vielleicht um 2 Italiener handelt, bei den es normal ist beim reden wild mit den armen zu fuchteln.
Es graut mir davor von Kameras getrackt zu werden nur weil ich hinke, oder „szenetypische Kleidung“ trage. Die stigmatisierung ganzer Personengruppen ist mit der Anwendung solcher Technologien vorprogrammiert.
Jedenfalls gibt es genügend Gründe, sehr kritisch die Forschungsprojekte in Augenschein zu nehmen. Ich glaube erst mit INDECT im FP7 viel einer breiteren Öffentlichkeit auf, das es da Probleme gibt. Bei FP8 wäre es gut, von Anfang an dabei zu sei.
Man bekommt fast das Gefühl die Leute unterschätzen die Lernfähigkeit der Menschen.
Wenn ich ein Dieb wäre, müsste ich mich nur an eine Straße stellen, gucken wie sich die Masse verhält und dann kann ich normal meinem „Job“ nachgehen, ohne das die Kamera und das System anschlägt. Oder ich agiere im Team, dann klaut der eine und zwei andere verhalten sich vorher ne Minute lang komisch. Da Stellen bei der Polizei eh knapp sind, müssen sie sich dann entscheiden wohin sie die Streife schicken. Naja und bei den zwei Leuten werden sie nichts finden, die haben nur das System zum narren gehalten.
Freiheit stirbt mit Sicherheit. Ein rundum von Computern überwachtes Leben ist nicht meine Vorstellung von der Zukunft. Sicherheit wovor? Vor Naturkatastrophen? Danach können wir streben. Aber das ist nie gemeint. Gemeint ist letztlich die Bedrohung von Macht durch uns Menschen, den inneren Feind. Maskiert wird das dann mit dem nebulösen Versprechen, uns vor Terroristen zu schützen (wozu diese Mittel aber erwiesenermaßen untauglich sind, den Lügen von Geheimdienstlern und anderen Akteuren mit Eigeninteresse zum Trotz).
Der derzeitige gesellschaftliche Kontext, in dem ein extremes Machtungleichgewicht besteht zwischen Privatwirtschaft und scheindemokratischem Staat auf der einen Seite, und einer in hinreichendem Maße künstlich beruhigten, realitätsverweigernden Bevölkerung auf der anderen Seite, wird sicherstellen, dass oben beschriebene Technologie auch massiv zur Zementierung bestehender Verhältnisse eingesetzt wird. Willkommen im Orwell-Staat.
Forschung an derartigen Technologien zu fördern oder zu betreiben ist angesichts des oben von mir beklagten Kontextes derzeit auf kriminelle Weise naiv, auf naive Weise kriminell. Wissenschaftler, ihr könnt euch dem heute verweigern! Wenn ihr schon keine Solidarität mit dem Rest der Welt empfindet, es wird auch gegen euch eingesetzt werden! Ein totalitärer Staat, effizienter als je zuvor, wird entstehen, einfach weil es technisch machbar ist. Er kennt keine Gnade. Jede Form von kreativem Denken und Handeln wird zuerst bestraft werden, um ein Exempel zu statuieren und die Formation von Widerstand und alternativen Denkmodellen zu behindern. Ihr in den reichen Staaten werdet derweil mit erbeutetem Wohlstand ruhiggestellt, solange es nur geht, und gegen imaginäre Feinde aufgehetzt. Bis auf den Wohlstand ist es genau wie in 1984.
Dass eine Kameraüberwachung des öffentlichen Lebens inklusive Verhaltensprognose und Verfolgung abartig und totalitär ist, ist hoffentlich klar.
Dieser Kommentar entsprach der augenblicklichen inneren Überzeugung mindestens eines Erdenbürgers im Jahr 2013 und ist natürlich kein „geistiges Eigentum“, da er ja nun veröffentlicht ist. Einen Namen muß ich nicht angeben, die Stasi weiß eh Bescheid.
Hey, lehnt euch auf gegen den Überwachungsstaat in jeder nur denkbaren Weise! Wer und wo immer ihr seid, nehmt es nicht hin. Sprecht darüber! Rüttelt die Menschen wach! Handelt! Jetzt oder nie!
Wer kämpft, kann verlieren. Wer nicht kämpft, hat schon verloren.
es geht bei der staatlichen Überwachungsmaschinerie nie um Kriminalitätsbekämpfung. Denn der grösse Verbrecher ist der Staat selber. Man will sich nur die Konkurrenz vom Leibe halten, und evtl. kritische Bürger „aussortieren. Die Anfänge wurden schon im Nazireich gelegt. Heute wird technisch optimiert.