Uploadfilter und kurze Löschfristen für Online-Plattformen hätten den rechten Terroranschlag von Christchurch und die Radikalisierung des Täters verhindern können, sagte die EU-Justizkommissarin Věra Jourová letzte Woche in Brüssel gegenüber netzpolitik.org. In den vergangenen Jahren hätte man bei ISIS-Propaganda gesehen, wie schnell sich terroristische Inhalte verbreiten würden. Dies habe zur Radikalisierung beigetragen. Bei einer etwaigen Entfernung einschlägiger Inhalte sei deshalb „Geschwindigkeit essenziell“, sagte Jourová.
Ein nur einstündiges Zeitfenster sieht ein Gesetzesvorschlag der Kommission für Betreiber von Plattformen vor. Innerhalb dessen müssten sie von Behörden gemeldete, mutmaßlich terroristische Online-Inhalte sperren oder löschen. Neben der kurzen Löschfrist wünscht sich die Kommission „proaktive Maßnahmen“ von den Plattformen, also Uploadfilter, um ein erneutes Hochladen von einmal als terroristisch eingestuften Inhalten zu verhindern oder solche schon im Vorfeld automatisiert zu erkennen.
„Wollen 100-prozentige Sicherheit“
„Ich glaube, wir müssen eine 100-prozentige Sicherheit haben, dass diese Inhalte nicht im Netz stehen bleiben“, sagte Jourová. Das gelte auch für Instruktionen, etwa zum Bombenbau und dergleichen. Gelingt dies, werde das aus ihrer Sicht die Radikalisierung eindämmen. „Es wird die Fälle verringern, bei denen das Hochladen terroristischer Inhalte neue Anhänger und Follower [in sozialen Medien] schafft“, sagte Jourová.
Im Blick hat die Kommission dabei nicht nur die großen Betreiber wie Facebook & Co., sondern alle in Europa tätigen Anbieter von Diensten, auf denen Nutzer Kommentare, Bilder, Videos und dergleichen posten können – also etwa auch kleine Blogs, die eine Kommentarfunktion zur Verfügung stellen. Ihnen drohen saftige Strafen, sollten sie die Vorgaben nicht ausreichend umsetzen und sich terroristische Inhalte auf ihren Diensten wiederfinden.
Ob das vom Christchurch-Attentäter im Internet verbreitete Manifest als terroristischer Inhalt gilt, konnte die tschechische Kommissarin nicht beantworten. Gelesen habe sie es nicht. Aber wenn es online gepostet wurde, sollte „irgendein Mechanismus“ greifen und das Dokument „rasch sperren“.
Katz-und-Maus-Spiel
Nun hatte der Attentäter seinen Anschlag nicht nur in einem Forum angekündigt und sein PDF-Manifest auf weitere Plattformen hochgeladen, sondern die Tat auch live auf Facebook gestreamt. Solche Inhalte in Echtzeit zu erkennen und ihre Verbreitung sofort zu stoppen dürfte noch in weiter Ferne liegen. „Derzeit ist das noch Science Fiction“, sagte Jourová. Aber die IT-Giganten hätten ihr versichert, mit Hochdruck an solchen Technologien zu arbeiten.
Freilich gelingt es diesen Unternehmen selbst heute nicht, nur leicht veränderte Kopien, die einen anderen digitalen Fingerabdruck tragen und deshalb durch die bereits eingesetzten Uploadfilter rutschen, vollständig von ihren Plattformen zu tilgen. So mühte sich bei Youtube ein eigenes Team rund um die Uhr ab, um nach dem Anschlag zehntausende Varianten des Videos zu löschen. Von der Flut überfordert, drehte das Unternehmen schließlich die menschliche Überprüfung von verdächtigen Videos ab und überließ das Feld den Maschinen. Dabei seien jedoch viele unproblematische Videos entfernt worden, sagte Neal Mohan, Produkt-Chef von Youtube, der Washington Post.
Facebook wiederum verwies darauf, in nur kurzer Zeit Millionen von Kopien des Videos gelöscht oder deren erneutes Hochladen unterbunden zu haben. Die meisten Videos seien automatisch erkannt worden, aber das Unternehmen räumte ein, die Technik sei „nicht perfekt“. Bis auf Weiteres dürfte es ein Katz-und-Maus-Spiel bleiben, Kollateralschäden vorprogrammiert.
Rechtsstaat in privater Hand
Ungelöst bleibt bei all dem die Frage, wer denn letztlich darüber entscheidet, was ein illegaler terroristischer Inhalt ist und was nicht. Im Fall einer sogenannten Entfernungsanordnung, auf die Betreiber innerhalb einer Stunde reagieren müssten, scheint für Jourová die Verantwortlichkeit klar: „Fragt nicht weiter nach, löscht einfach“, richtete sie den Anbietern aus. Nur regelt der Verordnungsentwurf nicht verbindlich, dass hierbei ein rechtsstaatlicher Prozess greifen soll.
Die Kompetenz, solche Anordnungen zu verschicken, liegt bei nicht näher definierten „zuständigen Behörden“ – das könnten administrative Einrichtungen sein oder ein Justizsystem, dessen Unabhängigkeit in einigen europäischen Ländern zuletzt stark unter Beschuss geraten ist. Gegen Polen hat die EU-Kommission etwa ein Vertragsverletzungsverfahren eingeleitet, da sie dort „die eindeutige Gefahr einer schwerwiegenden Verletzung der Rechtsstaatlichkeit“ sieht. Politisch motivierte Akte könnten also dafür sorgen, dass zweifelsfrei legale Inhalte europaweit aus dem Internet verschwinden beziehungsweise der Zugang zu ihnen erschwert wird.
Verschärft wird dies durch eine unzureichende Aufsicht darüber, welche Inhalte in einschlägigen Datenbanken liegen und ob dies überhaupt gerechtfertigt ist. Auf Anfrage erklärten uns vergangenen Herbst sowohl die EU-Kommission als auch Europol, keinen Zugriff auf die von Facebook, Twitter & Co. betriebene Datenbank und die darin lagernden Daten zu haben. Wiederholte Presseanfragen an den Dachverband der Initiative, das Global Internet Forum to Counter Terrorism, blieben unbeantwortet.
Graubereich Terrorismus
Ob sich beispielsweise Aufrufe zu G20-Demonstrationen in einem Graubereich bewegen oder nicht, wollte Jourová nicht bewerten. In Hamburg war es 2017 teils zu gewalttätigen Ausschreitungen gekommen, was manche Politiker mit Terrorismus gleichsetzten. Einige Täter wurden tatsächlich verurteilt, andere wieder nicht. Ein Blick auf die Länge der jeweiligen Verfahren zeigt freilich, dass es sich um einen komplexen Abwägungsprozess handelt, der mitunter Jahre dauern kann.
Solche Entscheidungen sollen künftig innerhalb von Minuten oder gar in Echtzeit getroffen werden, geht es nach der EU-Kommission. Die Mitgliedstaaten haben sich dem Vorschlag bereits angeschlossen, im EU-Parlament steht die entscheidende Abstimmung Anfang April an.
„Kritiker werden natürlich immer sagen, dass wir uns auf private IT-Unternehmen verlassen, die über Legalität und Illegalität entscheiden“, sagte Jourová. Allerdings räumte sie ein, der Zustand sei „nicht perfekt“. „Am Ende des Tages muss es ein Gericht sein, das darüber entscheidet“. Betroffene, deren Inhalte aus ihrer Sicht ungerechtfertigt gelöscht wurden, könnten ja vor Gericht ziehen, um ihren Einzelfall auszufechten – ein schwacher Trost bei einer systemischen Schieflage, die privaten Unternehmen immer mehr Macht zuschanzt. Diese Gemengelage sei sehr schwierig für den IT-Sektor, sagte Jourová, aber dieser „muss damit zurechtkommen“.
Ich fand die Frage mit den Aufrufen zu G20-Demonstrationen als einem Graubereich schon nicht schlecht,
aber zu dieser Frage brauchen wir von Frau Jourová eine präzise, konstruktive Antwort:
wie stellt sie sicher, dass die EU „Terror-Abwehr“ nie so definieren wird wie die Türkei es bereits tut
( Stichwort: Deniz Yücel ! ) ?
Wie stellt sie sicher, dass Widerstand gegen Unrecht niemals in Uploadfiltern wegzensiert wird
( Stichwort: keine Definitionsfreiheit für PIS-Partei, Orban, Seehofer, …
oder aus historisch deutscher Sicht : keine Zensur gegen die Elser/Stauffenberg/Geschwister Scholl unserer Zeit ) ?
—
Ich fand schon in der letzten Meldung zu diesen jetzt offenbar umgetauften Uploadfiltern
( „proaktiven Maßnahmen“ )
Euren Satz extrem bedenklich:
„Welche Inhalte in dieser Datenbank liegen, bleibt weiterhin unbekannt. Weder die Kommission noch zuarbeitende Behörden wie Europol haben Zugang, während der Dachverband, das Globale Internetforum zur Terrorismusbekämpfung, Presseanfragen unbeantwortet lässt. => Demokratische Kontrolle dieser Zensurinfrastruktur ist somit kaum möglich. <= " !!!
Wenn eine oder mehrere Personen terroristische Vorhaben abstimmen wollen benutzen diese Verschlüsselte Kanäle oder geschlossene Chats. Der Terrorfilter bringt diesbezüglich rein gar nichts.
Viel mehr haben Seitenbetreiber (Blogbetreiber) wie zb ich das nachsehen. Wir haften für die Kommentare der einzelnen User.
Außerdem sind die meißten Islamistischen Seiten entweder im Ausland gehostet oder im Darknet.
60 min zum Löschen von Inhalten / Kommentare ist praktisch nicht umsetzbar. Um einige Beispiele zu nennen: 8h Arbeitszeit, Urlaub, im Flugzeug sein…
Wie auch schon bereits beschrieben schaut im Moment eines Livestreams unzählige Personen live zu außerdem wird der Livestream auf den jeweiligen Plattformen gespeichert, getendert und konvertiert und ist auch nach Beendigung online verfügbar.
Man kann sich ja auch im Ausland radikalisieren lassen oder über Freunde und Kontakte ganz ohne Internet
Gruß