Der grüne Greenpeace-Schriftzug. Ein Stoppschild, das sich gegen gegen gentechnisch veränderte Nahrung richtet. Oder das Logo der Klimaschutzbewegung Extinction Rebellion. Mit diesen Symbolen tingelte jüngst die britische Anti-Terror-Polizei durchs Land, um Bewusstsein zu schaffen für „extremistische“ Gruppierungen und ihre Kennzeichen – darunter auch explizite rechtsextreme Symbole wie das Hakenkreuz oder die Schwarze Sonne.
Zwar musste die Polizei umgehend zurückrudern, aber der Schaden war schon angerichtet. Nur zu gut fügt sich ins Bild, dass regelmäßig legitimer und legaler Protest als „extremistisch“ oder gar „terroristisch“ abgestempelt wird. Als im Vorjahr Massenproteste gegen die Klimakrise die Londoner Innenstadt lahmlegten, drehte die Verwaltung kurzerhand das WLAN in der U-Bahn ab oder stellte Demonstrierende an einen Online-Pranger.
Nicht selten entzündet sich eine heiße Debatte darüber, was denn genau „Terrorismus“ ist, was „terroristische Straftaten“ sind und was genau „terroristische Inhalte“ ausmacht. Auf die Umweltbewegung beschränkt sich das nicht, die Unschärfe des Begriffs kann katalanische Separatisten treffen oder auch Menschenrechts-Aktivisten, die sich gegen den Demokratieabbau in EU-Ländern wie Ungarn oder Polen wehren.
Mit Uploadfiltern gegen Terror
In diesem Graubereich bewegt sich ein EU-Gesetzesvorschlag, der sich gegen mutmaßlich terroristische Online-Inhalte richtet. Im Herbst 2018 von der EU-Kommission vorgestellt, soll ein Maßnahmenbündel dafür sorgen, solche Inhalte aus dem Netz zu fegen.
Dazu zählen behördlich angeordnete Uploadfilter, eine Reaktionszeit von einer Stunde für Plattformbetreiber, um Löschersuchen nachzukommen sowie grenzüberschreitende Anordnungen ohne Richtervorbehalt. Das soll Radikalisierung im Internet verhindern und könnte, sagte die damalige Justizkommissarin Věra Jourová gegenüber netzpolitik.org, sogar Terroranschläge verhindern.
Nun nähern sich die Verhandlungen über den umstrittenen Vorschlag langsam ihrem Ende zu. Die Mitgliedstaaten hatten im EU-Rat dem Plan rasch grünes Licht gegeben und ihn weitgehend unverändert durchgewunken. Das Parlament hingegen einigte sich nach zähen Gesprächen, dem Entwurf zumindest einige seiner Giftzähne zu ziehen.
So strichen die Abgeordeten die mitunter verpflichtenden Uploadfilter aus dem Gesetz, die scheinbar unverbindlichen Aufforderungen zum Löschen unliebsamer Inhalte ebenso, und der unmittelbaren Durchsetzung grenzüberschreitender Löschanordnungen schoben ebenfalls sie einen Riegel vor.
Kompromiss des Parlaments wackelt
Was blieb war die aggressiv kurze Löschfrist von einer Stunde. Innerhalb dieser müssten Online-Dienste, die nutzergenerierte Inhalte wie Kommentare oder Videos zulassen, auf Anordnungen reagieren und beanstandete Inhalte von ihrer Plattform entfernen. Gelten würde dies für alle in Europa tätigen Dienste, selbst für kleine Blogs, über die mutmaßlich terroristische Propaganda verbreitet wird.
Doch selbst dieser nicht perfekte Kompromiss droht in den derzeit laufenden Gesprächen zwischen Kommission, EU-Ländern und dem Parlament, dem sogenannten Trilog, unter die Räder zu kommen. So soll etwa der neue Verhandlungsführer der Abgeordneten, der konservative Pole Patryk Jaki, signalisiert haben, offen für Uploadfilter zu sein – nur um dies umgehend zu dementieren. (Auf unsere Anfragen erhielten wir bislang keine Antwort.)
Mit den Verhandlungen Vertraute lassen jedenfalls durchblicken, die Lage sei „ernst und wackelig“. Zudem werde massiver Druck auf die Parlamentarier ausgeübt, das Gesetz rasch abzusegnen.
Wie sich einem kürzlich von Politico veröffentlichten Papier entnehmen lässt, ist das Parlament durchaus bereit, dem EU-Rat und der Kommission entgegenzukommen und Kompromisse einzugehen. So können sich die Abgeordneten beispielsweise vorstellen, auf eine unabhängige richterliche Überprüfung von Löschaufforderungen zu verzichten und diese auch grenzüberschreitend zuzulassen.
Ein EU-Land könnte diese Aufgabe dann administrativen Einrichtungen oder etwa der Polizei überlassen. Diese Stellen könnten dann selbst darüber entscheiden, was sofort aus dem Netz getilgt werden soll – selbst wenn es sich um völlig legale Inhalte handelt, die in einem anderen EU-Land aber politisch unerwünscht sind.
Um das plastischer zu machen: Es ist derzeit noch ungeklärt, ob beim finalen Kompromiss Orbans Sicherheitsapparat in Ungarn in der Lage wäre, Regime-kritische Proteste mit Sperrverordnungen EU-weit aus sozialen Netzwerken zu radieren. Oder ob ein Verfassungsschutzpräsident veranlassen könnte, dass Youtube und Facebook Videos sperren müssen, die Hetzjagden auf Menschen mit Migrationshintergrund zeigen, um diese einem öffentlichen Diskurs über Rechtsextreme Gewalt in Deutschland zu entziehen.
EU-Länder wollen Uploadfilter
Der größte Knackpunkt in den Verhandlungen dürften aber die Uploadfilter sein. Schon bei der EU-Urheberrechtsreform wurden automatisierte Filtersysteme als Wundermittel angesehen – schließlich sind ja Computer dazu erschaffen worden, Informationen zu verarbeiten, so die Vorstellung.
Doch in der Praxis sind solche Systeme notorisch fehleranfällig. Weder erkennen sie den Kontext von Inhalten, könnten also automatisiert wissenschaftliche oder journalistische Berichte über Terrorismus löschen. Zugleich lassen sie sich spielend leicht überlisten, indem als „terroristisch“ markierte Inhalte leicht verändert werden.
So gelangten nach dem rechtsextremen Terroranschlag von Christchurch unzählige Videoschnipsel der Tat auf Youtube, obwohl die Filtersysteme der Videoplattform auf Hochtouren liefen: Ein verändertes Bit, ein neu zurechtgeschnittenes Bild, eine unmerklich manipulierte Tonspur, und schon rutschen solche Inhalte durch und das Spiel beginnt von Neuem.
Dennoch scheint sich die Vorstellung zu verfestigen, dass dies der richtige Ansatz gegen unerwünschte Inhalte im Netz ist. Sowohl Kommission als auch der Rat bestehen bislang darauf und wollen sich unseren Informationen nach nicht auf die Parlamentarier zubewegen.
Gesetz könnte zum „Präzedenzfall“ werden
„Sollten sich Kommission und Rat mit verpflichtenden Uploadfiltern gegen ‚terroristische Inhalte‘ durchsetzen, werden diese im Rahmen des kommenden ‚Digital Services Act‘ als Standardmaßnahme gegen alle ‚illegalen Inhalte‘ vorgeschrieben werden“, befürchtet der Piraten-Abgeordnete Patrick Breyer, der für die Grünen-Fraktion mitverhandelt. Mit der noch in diesem Jahr erwarteten Neuregelung des Haftungsregimes könnten also umstrittene Maßnahmen, die noch im Vorjahr für Massenproteste auf Deutschlands Straßen sorgten, zur neuen Normalität werden.
Das Gesetz gegen Terrorpropaganda könnte zum „Präzedenzfall“ werden, warnt Breyer, der eine detaillierte Analyse des aktuellen Stands veröffentlicht hat. Von ungefähr kommt diese Befürchtung nicht: So wünschten sich etwa die Innenminister von Deutschland und Frankreich vor knapp zwei Jahren nicht nur ein energisches Einschreiten gegen mutmaßlichen Terror im Internet. Eine derartige Zensurinfrastruktur sollte dann gegebenenfalls erweitert werden, schrieben damals die Minister an die EU-Kommission, um Darstellungen von Kindesmissbrauch und „sonstiger rechtswidriger Inhalte“ zu bekämpfen.
„Wollen wir ein Internet mit intransparenten Zensurmaschinen, die im Zweifel gegen die Meinungsfreiheit entscheiden?“, fragt der Pirat Breyer – im Einklang mit UN-Sonderberichterstattern und Internetpionieren, die um das Recht auf freie Meinungsäußerung in Europa bangen. „Wollen wir, dass Algorithmen globaler Internetkonzerne darüber entscheiden, was wir im Netz sagen und lesen dürfen? Das zu verhindern ist eine neue Protestwelle wert.“
Du solltest nochmal lesen. Die Mitgliedsstaaten möchten diesen Quatsch. Wenn Deutschland entschieden dagegen wäre, stünde das wohl im Artikel. Wenn wir die EU nicht hätten, wäre all dieser Unsinn wohl schon Gesetz.