Überwachung

Erst Kinderpornografie, jetzt „Extremismus“: Unternehmen sollen Uploadfilter von Microsoft installieren

Ins Internet hochgeladenes Material könnte demnächst mit einem Uploadfilter von Microsoft auf „extremistische“ oder „radikalisierende“ Inhalte gescannt werden. Der Filter würde bei Internetunternehmen installiert, die nötigen Datenbanken könnten aber bei Polizeibehörden liegen.

Microsoft PhotoDNA.

Der Vorschlag erinnert stark an das umstrittene EU-Projekt „Clean IT“: Vergangenen Freitag hat das internationale „Counter Extremism Project” (CEP) in Washington eine Software vorgestellt, mit der extremistische Inhalte beim Upload entdeckt werden sollen.


netzpolitik.org - unabhängig & kritisch dank Euch.

Das Verfahren basiert auf PhotoDNA, einer Anwendung die von Microsoft ursprünglich für die Bekämpfung von Kinderpornografie entwickelt wurde. Möglich ist die Detektion von Video- und Audioinhalten. Die Erkennungsquote liegt angeblich bei 98%.

Ex-BND-Präsident als Berater

Die Software wurde von dem früheren Microsoft-Mitarbeiter Hany Farid entwickelt. Mittlerweile arbeitet der Professor für das „Counter Extremism Project”, dem Microsoft die Urheberrechte für PhotoDNA übertrug.

Das Projekt bezeichnet sich selbst als Nichtregierungsorganisation und unterhält Filialen in London und Brüssel. Über gezielte Lobbyarbeit sollen Abgeordnete bewogen werden, die Gesetze zur Bekämpfung „extremistischer Bedrohung“ zu lockern. Zu den Zielen gehört unter anderem die Entwicklung von „Gegendiskursen“.

Die Organisation verfolgt einen nicht klar umrissenen Extremismusbegriff. In einem umfangreichen Dossier zu extremistischen oder terroristischen Organisationen finden sich auch rechtsextreme Parteien aus Deutschland, Frankreich und Griechenland. Einer der Berater des „Counter Extremism Projects” ist August Hanning, der ehemalige Präsident des Bundesnachrichtendienstes und spätere Staatssekretär im Bundesinnenministerium.

PhotoDNA auch beim BKA

PhotoDNA funktioniert nach dem sogenannten Robust Hashing und erstellt einen digitalen Fingerabdruck der Datei. Mit der Prüfsumme kann die Software Bilder auch dann wiedererkennen, wenn diese verfremdet oder nachbearbeitet wurden. Der Abgleich erfolgt mit einer Hash-Datenbank, die entweder bei den Unternehmen oder auch Behörden geführt wird.

In den USA greift PhotoDNA beispielsweise auf eine Datenbank des National Center for Missing & Exploited Children zurück. Auch die weltweite Polizeiorganisation Interpol führt eine „Bilddatenbank Kinderpornographie“.

Außer Microsoft haben bereits mehrere Internetdienstleister, darunter Facebook, Google und Twitter, PhotoDNA auf ihren Servern installiert. Die Firmen scannen dabei auch Inhalte, die von den NutzerInnen in der privaten Cloud gespeichert werden. Werden dort kinderpornografische Inhalte entdeckt, können die zuständigen Strafverfolgungsbehörden eine Meldung erhalten. Die Fälle werden dann auch international verfolgt, mindestens einmal hat das Bundeskriminalamt (BKA) einen solchen Hinweis von US-Behörden erhalten.

2012 hat auch das deutsche BKA die Software zu „Testzwecken“ beschafft. Die Behörde in Wiesbaden führt eine „Bildvergleichssammlung zu Fällen des sexuellen Missbrauchs und der Verbreitung von Kinder-/Jugendpornografie”, auf die im Rahmen von BKA-Ermittlungen mit verschiedenen Programmen zugegriffen wird. Womöglich ist PhotoDNA dort mittlerweile im Wirkbetrieb.

Mehr Meldestellen für extremistisches Material gefordert

Wie bereits bei kinderpornografischen Inhalten drängt das „Counter Extremism Project” auf die Einrichtung von Meldestellen für extremistisches Material. In jedem teilnehmenden Land könnten demnach nationale Datenbanken mit bereits entfernten Inhalten geführt werden.

Vergangenen Sommer hatte die Europäische Union zunächst eine solche „Meldestelle für Internetinhalte“ bei der Polizeiagentur Europol eingerichtet. Strafverfolgungsbehörden und Geheimdienste aus den Mitgliedstaaten können dort Inhalte zur Entfernung melden, Europol reicht diese dann an die Internetunternehmen weiter.

Europol sucht auch selbst aktiv nach Inhalten, darunter auf Facebook, Twitter, Youtube, Vimeo und Archive.org. In einer vom BKA bei Europol eingerichteten Arbeitsdatei werden persönliche Daten zu den Vorgängen gespeichert, darunter Nutzernamen und IP-Adressen.

Allerdings haben die privaten Internetdienstleister keinen Zugriff auf die Polizeidaten. Deshalb hat die Europäische Kommission im Dezember ein „Forum der Internetdienstleister“ gestartet, um die Firmen selbst zur Kontrolle des Internet anzuhalten. An der neuen Gemeinschaft nehmen auch die EU-InnenministerInnen und der Koordinator für die Terrorismusbekämpfung Gilles de Kerchove teil.

PhotoDNA bei Europol und Unternehmen?

Das „Forum der Internetdienstleister“ soll „Instrumente“ zur Bekämpfung terroristischer Propaganda im Internet und in den sozialen Medien entwickeln. Ziel ist die Einrichtung einer öffentlich-privaten Datenbank mit bereits gefundenen bzw. entfernten Inhalten. Laut einer Mitteilung der Kommission arbeiten die Unternehmen „unter voller Einbeziehung von Europol“ an der gemeinsamen Meldeplattform.

Dabei kommt vermutlich ebenfalls die von Microsoft entwickelte Software PhotoDNA zur Anwendung. Am Freitag hat das Bundesinnenministerium bestätigt, „die technische Identifizierung gleicher bzw. ähnlicher Internetinhalte“ erfolge anhand von Hashwerten. Ein solcher Uploadfilter sei aus Sicht der Bundesregierung „bei den Unternehmen anzusiedeln“.

Damit wird ein weiteres Ergebnis des 2013 beendeten EU-Projekts „Clean IT“ umgesetzt. Unter Mitarbeit des Koordinators für die Terrorismusbekämpfung wurden damals Möglichkeiten zur Bekämpfung terroristischer, extremistischer oder „radikalisierender“ Onlineaktivitäten gesucht. Außer dem deutschen Innenministerium haben das Bundeskriminalamt und der Verfassungsschutz an „Clean IT“ teilgenommen.

Andre Meister verwies damals auf einen Text von Ben Hayes, der „Clean IT“ zwar nicht „Masterplan der EU“ bezeichnete, zumal es sich um keine offizielle EU-Arbeitsgruppe handelte. Letztlich ist er das aber geworden, denn viele der Schlussfolgerungen und Empfehlungen des Projekts wurden bereits umgesetzt. Der Abschlußbericht schlägt auch die Einrichtung von privaten und polizeilichen Meldestellen sowie weitere Verpflichtungen für Internetfirmen vor.

Klage gegen Twitter, YouTube und Facebook

Inzwischen geraten die Unternehmen auch gerichtlich unter Druck. Vergangene Woche hat der Vater der bei den Paris-Anschlägen vom November getöteten Nohemi Gonzalez vor einem Bundesgericht in Kalifornien Klage gegen Twitter eingereicht. Nohemi ist die einzige US-Staatsangehörige unter den Ermordeten.

Der Kurznachrichtendienst habe laut der Klageschrift ermöglicht, dass der „Islamische Staat“ Zehntausende Konten unterhalten habe, darunter mindestens 79 „offizielle“ Accounts. Auch YouTube und Facebook würden auf diese Weise genutzt. Die Konzerne sollen den Hinterbliebenen Schadenersatz leisten, denn sie hätten „wissentlich zugelassen“, dass der „Islamische Staat“ Mitglieder rekrutiert, Geld sammelt und extremistische Propaganda verbreitet.

Eine ähnliche Klage erhob bereits die Witwe eines in Jordanien getöteten Mannes gegen Twitter. Medienberichten zufolge seien zahlreiche Passagen und Screenshots in den Klageschriften identisch. Twitter hatte hingegen erklärt, konsequent gegen Propaganda des „Islamischen Staates“ vorzugehen. Im Februar hieß es, mehr als 120.000 Konten seien bereits gelöscht worden.

14 Kommentare
  1. Die Firmen scannen dabei auch Inhalte, die von den NutzerInnen in der privaten Cloud gespeichert werden.
    Ich glaube, das Adjektiv „privat“ sollte an dieser Stelle entfernt werden.

        1. Da lässt sich halt drüber streiten. Wenn ein Algorithmus Dateien scannt, aber kein Mensch Einsicht nimmt, ist dann wirklich Privatssphäre verletzt? Es weiß ja weiterhin niemand, was in ihrer Cloud zu finden ist. Menschen werden ja erst tätig, wenn etwas Verdächtiges gefunden wird. 99% aller Clouds werden also nie inspiziert und sind eigentlich immer noch privat. Wo hört für Sie Privatssphäre auf? Es werden immerhin auch Dateien auf Viren gescannt. Wenn Sie 100% Privatssphäre wollen, müssen Sie ihre Daten auf DVD brennen und diese wegschließen.

          1. Ja, ist verletzt, denn wenn ein Algo mitliest, dann weisst Du nicht, was er zum gelesenen so alles mitprotokolliert.

          2. Natürlich ist es nicht privat wenn der Vermieter einen Sensor ins Schlafzimmer einbaut und der, wenn was detektiert wird (was dem Vermieter nicht gefällt) hereinkommt, um sich die Sache mal näher anzuschaun, firmeneigene Cloud oder so wäre passender, ist sowieso etwas völlig anderes als ein Uploadfilter, /philosophierunde. „Ziel ist die Einrichtung einer öffentlich-privaten Datenbank mit bereits gefundenen bzw. entfernten Inhalten.“ ein sehr interessanter Ansatz, wenn dann noch Berechtige (z.B. entsprechende Journalisten, Organisationen) Zugang dazu haben, könnte gehn.

          3. Aktuell reicht es doch, die Türkei zu kritisieren und schon ist man Staatsfeind und die Beiträge werden inklusive Account sogar bei Facebook gelöscht. Morgen mag Merkel vielleicht keine Raucher mehr? Oder Christen? Oder wasweissich?

  2. Finde ich grundsätzlich gut, aber anstatt den Aufwand der Filterung zu betreiben ist das Killen solcher Angebote effektiver. Das funktioniert auch bei Propaganda und unseriösen Webangeboten hervorragend, den wo keine Werbeeinnahmen sind, gibt es auch nix zu verdienen für die Verbrecher. Die überlegen sich das dann dreimal. ;-)

  3. Die Klage ist ja lustig. Das gleiche Argumentationsmuster gilt doch eins zu eins für die Regierung. Allein mit dem Drohnenterror ermöglicht die es auch, dass der IS zulauf an Tausenden Leuten hat, die dann bereitwillig Selbstmordattentate verüben wollen.
    Ich wette so eine Klage traut sich keiner dieser Geldgeilen Vollpfosten einzureichen.

  4. Ganz toll. Immer einen kleinen Schritt (Rückschritt für uns) nach dem anderen.
    Dann fällt es nicht so schnell auf was damit bezweckt wird, nur eines, Zensur des gesunden Hausverstandes welcher der eigenen Propaganda und Desinformation widerspricht. Letztes wird in keiner Filterliste zu finden sein.

    Sollten solche Filter kommen, was wird dann als nächstes frech gefordert und erpresst werden? Es müsste jegliche Verschlüsselung verboten werden! Ein Filter kann nur unverschlüsselte Inhalte verarbeiten.

    Übrigens immer wieder besonders widerlich wie Kinder benutzt werden um solche Dinge aufzudrängen. Im gleichen Moment führen dieselben dunklen Mächte und deren willige Helfeshelfer Genderunterricht an Volksschulen ein, wo kleine Kinder mit wirklich sexuellen Abartigkeiten kaputt gemacht werden sollen.

    1. In den ersten beiden Absätzen stimme ich ihnen vollkommen zu, lediglich der letzte Absatz ist etwas widersprüchlich für jemanden der vorgibt gegen Zensur zu sein.

      Welche sexuellen Abartigkeiten sind denn hier gemeint?
      Gibt es in den Schulbüchern also Tier, Kinder oder Gewaltpornographie?
      Denn sonst fällt mir gerade nichts ein, was man als „Sexuelle Abartigkeit“ bezeichnen könnte.

      Keine Einvernehmlich Sexuelle Handlung zwischen Erwachsenen, egal welchen Geschlechts und egal welcher Spielweise sind Abartig, da sie nur von den Beteiligten Personen zu bewerten ist.

  5. Ich ahne Böses!!! Niemand wollte ein Mauer bauen, niemand will ein PKW-Maut einführen etc.

    Nachdem Zensursula nicht durchgekommen ist, versucht man es wohl so? Heute ist dies und jenes eine Straftat, morgen vllt. die Mitgliedschaft in der AfD, übermorgen in der SPD oder „Die Linke“.

    Ist die Zensurinfrastruktur erstmal da, wird sie mehr und mehr genutzt.

    Angesichts von bidirektionalen Fernsehern, Smartphones und Notebooks mit Kameras und Microphonen: Was würde uns dann noch von 1984 unterscheiden?
    Die Realität wäre eher noch schlimmer als die Fiktion. :-(((

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.