Uploadfilter gegen Terror

EU-Parlament wehrt sich gegen automatisierte Allheilmittel

Seit gut einem Jahr verhandelt die EU über einen Gesetzentwurf, der mutmaßlich terroristische Propaganda aus dem Internet entfernen soll. Diese Woche starten in Brüssel die Verhandlungen zwischen Kommission, Mitgliedstaaten und Parlament. Knackpunkte werden die von der Kommission vorgeschlagenen Uploadfilter sein – und eine sehr kurze Löschfrist, die zu Öffnungszeiten im Internet führen könnte.

Fenster Zeitfenster
Ein Zeitfenster von nur einer Stunde könnte künftig Online-Diensten bleiben, um auf Entfernungsanordnungen zu reagieren. Gemeinfrei-ähnlich freigegeben durch unsplash.com Pierre Châtel-Innocenti

Während sich Deutschland nach dem rechtsextremen Mordanschlag in Halle die Frage stellt, wie sich solche Anschläge – die einem leidlich bekannten Muster folgen – künftig verhindern lassen, beginnen in Brüssel am Donnerstag die Verhandlungen über einen Gesetzesvorschlag, der europaweitweit die Verbreitung terroristischer Inhalte einschränken soll.

Vor rund einem Jahr hatte die EU-Kommission ihren Vorschlag auf den Tisch gelegt. Der Verordnungsentwurf sieht unter anderem Uploadfilter vor, deren Einsatz bindend angeordnet werden könnte sowie eine einstündige Löschfrist für einschlägige, den Betreibern gemeldete Inhalte. Innerhalb dieser Frist müssen dann Kommentare, Videos oder beliebige andere Dateien wie PDFs gelöscht werden.

Gelten soll dies für alle in Europa tätigen Diensteanbieter, die mit nutzergenerierten Inhalten arbeiten – also gleichermaßen für millardenschwere Unternehmen wie Facebook sowie für Blogs, die eine Kommentarfunktion bereitstellen. Bei Verstößen sieht der Entwurf empfindliche Bußgelder vor, die bis zu vier Prozent des weltweiten jährlichen Umsatzes ausmachen können.

Die Kommission begründet ihren Schritt mit der Gefahr der Radikalisierung, die von nur lax oder gar nicht moderierten Plattformen ausgehe. Mehrere hundert solcher Online-Dienste soll es in Europa geben, sagt die Kommission, auf denen unbehelligt Terrorpropaganda verbreitet werde.

Zielte die Behörde ursprünglich noch auf auf islamistische Inhalte ab, scheint mittlerweile eher rechtsextremer Terror ein Problem zu sein. Der Ansatz bleibt der selbe: Noch unter dem Eindruck des Attentats im neuseeländischen Christchurch sagte die damalige EU-Justizkommissarin Věra Jourová gegenüber netzpolitik.org, dass solche Inhalte zu Radikalisierung und letztlich zu Terroranschlägen führen würden. Beides ließe sich mit den technischen Maßnahmen verhindern, wie sie die Kommission vorschlägt, sagte Jourová.

EU-Parlament will keine Uploadfilter

Ob solche automatisierten Systeme ihre Versprechen einlösen können, bleibt fraglich. Das liegt schon daran, dass dem Gesetzesvorschlag eine schwammige Terror-Definitionen zugrunde liegt. So warnte etwa die UN-Sonderberichterstatterin Fionnuala Ní Aoláin vor möglichen Einschränkungen der Meinungsfreiheit, Internetpioniere wie Tim Berners-Lee vor einem in Europa beschädigten Internet, ohne dass dies bedeutsam zum Kampf gegen den Terror beitragen würde. Im schlimmsten Fall könnten von Behörden angeordnete Uploadfilter, sogenannte „proaktive Maßnahmen“, automatisiert völlig legale Inhalte aus dem Netz fegen, damit sich die Betreiber nicht der Gefahr einer Geldstrafe aussetzen.

Entsprechend umkämpft war und bleiben die automatisierten Filtersysteme: Während sich die EU-Mitgliedstaaten, auf deren Initiative der Ansatz zurückzuführen ist, weitgehend deckungsgleich der Kommission anschlossen, strich das EU-Parlament die Uploadfilter ersatzlos aus dem Entwurf. Es dürfe keinen verpflichtenden Einsatz geben, weder von Filtern noch von automatisierten Werkzeugen, da dies zu „Ungenauigkeiten führen könnte und unverfängliche Inhalte als ‚terroristisch‘ markiert werden könnten“, bekräftigten die neuen Abgeordneten jüngst die Position des letzten Parlaments.

Vom Tisch sind die gesetzlich verankerten Anti-Terror-Filter freilich nicht. Die für die Linken als Schattenberichterstatterin mitverhandelnde Cornelia Ernst schätzt die Wahrscheinlichkeit, dass in den Trilog-Verhandlungen zwischen Kommission, Rat und Parlament am Ende doch wieder Uploadfilter im fertigen Gesetz stehen, gegenüber netzpolitik.org als „höher als 50/50“ ein. Sicher sei dies allerdings noch nicht, betont Ernst.

Uploadfilter könnten Allheilmittel werden

Automatisierte Mittel, um unerwünschte Inhalte aus dem Netz zu bekommen, finden zunehmend Anklang. Große Anbieter wie Facebook und Twitter betreiben bereits jetzt unter dem Mantel des Global Internet Forum to Counter Terrorism (GIFTC) eine Datenbank mit über 200.000 digitalen Fingerabdrücken von Dateien, die sie als terroristisch erachten und auf der jeweiligen Plattform sperren. Ähnlich gehen die großen Plattformen auf freiwilliger Basis auch gegen Darstellungen von Kindesmissbrauch vor.

In Gesetzesform gegossen wurden Uploadfilter erstmals bei der EU-Urheberrechtsreform, künftig könnten sie nun beim Kampf gegen mutmaßliche Terrorinhalte zum Einsatz kommen. Und manche Mitgliedstaaten, darunter Deutschland, brachten schon in der Vergangenheit eine etwaige Ausweitung auf „sonstige rechtswidrige Inhalte“ ins Spiel.

Der Pirat Patrick Breyer, der die aus dem Parlament ausgeschiedene Eva Joly als Schattenberichterstatter der Grünen-Fraktion abgelöst hat, fürchtet eine solche Ausweitung: „Sollten Uploadfilter zur Verhinderung ‚terroristischer Inhalte‘ verpflichtend werden, könnten sie im Rahmen des ‚Digital Services Act‘ gegen sämtliche rechtswidrige oder auch ’schädliche‘ Inhalte eingeführt werden“, sagt Breyer.

Mit dem „Digital Services Act“ will die künftige EU-Kommission eine neue rechtliche Grundlage für die Regulierung von Online-Diensten schaffen. Im Blick hat die Behörde dabei unter anderem, wie mit rechtswidrigen Inhalten umgegangen werden soll, der Bogen der bislang durchgesickerten Vorschläge reicht von einer Ausweitung von Filterpflichten bis hin zur teilweisen Abschaffung des sogenannten Providerprivilegs. Derzeit stellt diese Regelung Online-Anbieter noch von einer unmittelbaren Haftung für die Inhalte ihrer Nutzer frei, ist zwischenzeitlich aber beträchtlich ins Wanken geraten.

Einstündige Reaktionsfrist

Bei der Anti-Terrorpropaganda-Verordnung hängt viel vom neuen Hauptverhandler des Parlaments ab, dem rechtspopulistischen Polen Patryk Jaki, der den bisherigen Berichterstatter Daniel Dalton aus Großbritannien abgelöst hat. Öffentlich hat sich Jaki bislang noch nicht geäußert, soll aber derzeit bilaterale Treffen mit den Schattenberichterstattern durchführen. In diesen Gesprächen verteidige er pflichtgemäß die Parlamentsposition, heißt es.

Ins Gesetz schaffen wird es mit Sicherheit die einstündige Frist, innerhalb der Anbieter auf Löschgesuche von nationalen Behörden reagieren müssten. Große und reiche Plattformen könnten die Vorgabe wohl umsetzen, rund um die Uhr einen Bereitschaftsdienst einzurichten. Kleinere Dienste dagegen müssten möglicherweise Öffnungszeiten einrichten oder gar ganz schließen, um potenziellen Geldstrafen auszuweichen.

Grundsätzlich hat dem das EU-Parlament bereits zugestimmt, besteht aber immerhin auf ein zwölfstündiges Zeitfenster beim Erhalt der ersten Entfernungsanordnung. „Kurze Löschfristen und Sanktionen dürfen nicht dazu führen, dass kleine und nichtkommerzielle Seitenbetreiber ihre Angebote schließen, weil sie nicht rund um die Uhr ständig erreichbar sein können“, sagt Breyer. „Wir wollen zumindest die Ausnahmen von der einstündigen Löschfrist klarstellen und erweitern“.

Ob diese Vorschläge tatsächlich wirksam gegen terroristische Propaganda und Radikalisierung wirken können, bleibt derweil offen: Wie beim Anschlag im neuseeländischen Christchurch reagierten die Anbieter auch in Halle schneller als es der Vorschlag der Kommission verlangt hätte – und entfernten umgehend die Videos der Täter, wenn auch mit gemischtem Erfolg.

Dies unterstützt grundsätzlich auch die Linke Ernst, sieht aber andere Methoden als geeigneter an: „Alles, was einen Staatsanwalt und einen Richter involviert, ist eher akzeptabel als automatisierte Lösungen“, sagt Ernst. „Wahrscheinlich brauchen wir allein in Deutschland wirklich 3.000 Richterinnen und Richter mehr, vielleicht müssen wir 24/7-Justizdienste bereitstellen“.

Update, 21.10.2019: Patrick Breyer hat nicht, wie ursprünglich behauptet, Julia Reda als grüne Schattenberichterstatterin im Innenausschuss abgelöst, sondern Eva Joly.

8 Ergänzungen
  1. Ich denke es ist ok wenn ein ISIS Propaganda Dokument auf Basis eines Hashwertes nicht mehr erneut hochgeladen werden kann. Die erste Löschung eines Inhaltes sollte aber jedoch immer nur auf Gerichtsbeschluss hin statt finden. Nicht weil irgendein Großkonzern zu schnell löscht um Kosten zu sparen.

    Für kleinere und nicht kommerzielle Anbieter braucht es Löschfristen die wesentlich länger sind als nur eine Stunde. Welcher Blogbetreiber kann schon so schnell darauf reagieren ?

    1. „Ich denke es ist ok wenn auf Basis eines Hashwertes nicht mehr erneut hochgeladen werden kann.“

      Ich denke nicht, dass das ok ist. Welcher kleine Anbieter mit Kommentarfunktion kann das denn umsetzen, wenn er/sie sich nicht google, facebook und co ausliefern möchte (Und dabei evtl. gegen die DSGVO verstößt)?
      Eine direkte Prüfung wäre zudem nur das eine. Wie sähe es mit einer Prüfung von Links mit mehreren Hops aus? Meinethalben auch nur bezogen auf URL Shortener und daraus resultierenden Ketten.

    2. Nach Test Test Test kommt Hash Hash Hash :).

      Was hasht denn der Hash?
      – Einzelne Buchstaben?
      – Einzelne Worte?
      – Etwas kompliziertes algorithmisches, was in x% der Fälle dem obigen ziemlichen nahe kommt?

      Also aus dem DLP-Feld „weiß man doch“, dass Dokumente wenn überhaupt derzeit mit irgendwelchen Fingerprinting Methoden (neuronal oder nicht) behandelt werden, wenn man nicht nur nach Achtstelligen Nummern suchen will. Also würde es eher „Fingerprint“ als „Hash“, und das kommt einem Inhaltsabgleich dann doch recht nahe, zuzüglich zum Zeitpunkt des Posts und der IP-Adresse. Ja man kann neue Forensoftware schreiben, die vor Veröffentlichung nicht nur einen Filter fragt, sondern immer erst um 0:00 Uhr veröffentlicht, während eingeloggte Benutzer alles schon direkt sehen könenn usw. Anpassung löst allerdings nicht die entstehenden Probleme.

      Erklären Sie den Beamten bei der Hausdurchsuchung, dass es sich um eine satirische Variante gehandelt hat… was ist also passiert?

      In der analogen Gesellschaft war die Idee, dass sich die Menschen untereinander austauschen, und z.B. am Stammtisch oder vor Freunden auch Sachen sagen konnten die A) Teils schlimmer oder ähnlich schlimm waren/sind, wie das was im Internet „zu finden“ ist, und B) theoretisch auf die Weise auch in Interaktion mit Mitmenschen herausfinden können, ob es eine Scheißidee ist das zu posten, bzw. bei der Meinung zu bleiben. So können auch Außenstehende sehen, wie die (lokale bis sehr lokale) Gemeinschaft tickt [Stichwort: Abfedern].

      Also soll das Internet, zunächst im öffentlich einsehbaren Teil, zu einer Art analoger „Presselandschaft“ umgeformt werden, indem der soziale oder besser kulturelle Aspekt, wie man ihn oft in öffentlichen Foren antrifft, herausoperiert und zensiert wird. Natürlich haben viele Foren eine Kultur entwickelt mit bestimmten „Problemen“ oder „Verhaltenstypen“ umzugehen, und die werden/würden es auch weiterhin anpassen und lernen (Modding community xy für Spiel abc z.B., Modellbauforum xy, …). Wenn man sich dort eine Zeit lang lesend und im Zweifel sogar interagierend aufhält, bekommt man dieses mit. Dank unendlicher Weitsicht, kommt die Politik nun zu Regelungen, die nicht nur die offensichtlich „kulturlosen“ Riesendienste „treffen“, sondern vor allem die Kultur der kleineren Diensts konkret kannibalisiert [vgl. EU-Urheberrechtsreform]. Dieses ist ein böses Spiel zu gunsten einiger Player im Verlags- und Verwertungsbereich, letztlich auch zugunsten der großen Riesendienste, zum Schaden der Gesellschaft und Kultur.

  2. Weiß jemand wie hoch der Anteil von Menschen mit paraphile Störung in der Bevölkerung ist ?
    Terror – Propaganda rechts, links, islamistisch usw. kann man ja eh nach selbstgemachter Definition einstufen.
    Wenn ein Beitrag gegen das hier geltende Gesetz verstößt konnte er schon immer gelöscht werden.
    Für mich sind das alles nur Buzz words um mehr Zensur und vorauseilenden Gehorsam zu ermöglichen .
    Siehe damals “ Stop“ Schild Aktion
    Dort ging es vermutlich nur um die Sondierung der technischen Möglichkeiten.

  3. Patrick Breyer hat Eva Joly (Grüne, FR) als Schattenberichterstatter im federführenden Innenausschuss ersetzt. Julia Reda war Berichterstatterin für die Stellungnahme des Binnenmarkt-Ausschusses und ist durch Marcel Kolaja (Piraten, CZ) ersetzt worden. Ja, es ist kompliziert. ;-)

  4. Man sollte nicht zu praktisch herangehen, da das ganze als Ganzes weg muss.

    Sollten Uploadfilter so oder so kommen, wäre es noch einmal interessant, wieviel Pseudoprivacy hier zugestanden werden wird:
    Kann der einzusendende Text vorgefiltert werden, so dass der Absender dadurch vor dem Google/Microsoft/…-Filter geschützt wird? Ich denke da an Entfernen und Hinzufügen von Füllwörtern, grammatikalische Korrekturen oder Fehlereinfügungen usw. Vielleicht ja auch Satzumstellung :).,, wieviel könnte da gehen?

    Es ist doch allen klar, dass eine der nächsten Forderungen Nutzerverfolgung durch die Filterbetreiber sein wird, da es ja zuvor anonyme Posts waren, und natürlich zur Wahrung des Nachglimmes einer Demokratieidee noch verbleiben sollen. Da bieten sich Google, Facebook et.al. ja geradezu schreiend an.

    1. Ein zusammenclickbarer Text mit Füllwortempfehlung… gesendet werden nur die Kernelemente, oder eine Zufallsvsariante, da auch nur eine Zufallsvariante veröffentlicht wird…

      Gilt die Filterung auch für obskure Sprachen? Inuit, Gebärdensprache, beliebige Symbolsprache, Universalsprache.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.