Uploadfilter gegen „terroristische“ Online-Inhalte: Wie das EU-Parlament um seine Position ringt

Welche Mittel sind legitim, um im Internet gegen mutmaßlich terroristische Inhalte vorzugehen? Die EU-Kommission und die Mitgliedstaaten setzen auf Uploadfilter und privatisierte Rechtsdurchsetzung, während das EU-Parlament um seine Position ringt. Auf dem Spiel steht die Informations- und Meinungsfreiheit im europäischen digitalen Raum.

Ein Beispiel von vielen: Online-Aufrufe zu manchen Demonstrationen könnten aus dem Netz verschwinden. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Chris Slupski

Der Vorschlag der EU-Kommission, mit Uploadfiltern, kurzen Löschfristen und hohen Geldstrafen für Diensteanbieter gegen mutmaßlich terroristische Inhalte im Internet vorzugehen, trifft auf ersten Widerstand im EU-Parlament. Dort klären derzeit mehrere Ausschüsse die Position des Parlaments, bevor es in die Verhandlungen mit der Kommission und den Mitgliedstaaten gehen kann.

Erste Berichtsentwürfe der Abgeordneten gehen vor allem mit den „proaktiven Maßnahmen“, mit denen solche Inhalte schon im Vorfeld erkannt und ausgefiltert werden sollen, teils hart ins Gericht.

Doch während der beratende Kulturausschuss (CULT) sowie der Binnenmarktausschuss (IMCO) ein ersatzloses Streichen des betreffenden Artikel 6 fordern, schwächt der Entwurf des Berichterstatters Daniel Dalton aus dem federführenden Innenausschuss (LIBE) die Formulierung der Kommission lediglich ab. Demnach sollen Online-Dienste, die nutzergenerierte Inhalte im Netz anbieten, freiwillig solche Maßnahmen erwägen, wenn ihre Plattform besonders solchen Inhalten ausgesetzt sind. Zudem sollen die Maßnahmen „zielgerichtet“ ausfallen, heißt es im letzte Woche veröffentlichten Papier.

„Aus meiner Sicht ist es eine Schlüsselkomponente des Gesetzentwurfs, Plattformen zum Einsatz gewisser proaktiver Maßnahmen zu ermuntern“, sagt Dalton gegenüber netzpolitik.org. Deshalb würde sich der konservative Brite unwohl dabei fühlen, den Passus komplett zu kippen. Jeder einzelne Experte, mit dem oder der er bislang geredet hätte, würde die Wichtigkeit von Instrumenten wie Uploadfiltern und Ähnlichem betonen, um die virale Verbreitung von terroristischen Inhalten im Internet zu verhindern.

Allerdings bezieht sich Dalton ausdrücklich auf Aussagen von Experten aus Ermittlungsbehörden sowie auf Vertreter der Kommission und Mitgliedstaaten. Zuletzt verwies er gegenüber netzpolitik.org auf ein recht dünnes Papier des US-Think-Tanks Wilson Center. Dem widersprechende Stimmen aus der Zivilgesellschaft, unter anderem Stellungnahmen der Digital-NGO European Digital Rights (EDRi), Mozilla oder La Quadrature du Net, fanden augenscheinlich weniger Gehör.

„Keine Überwachungspflichten durch die Hintertür“

Dennoch sieht Dalton die Gefahr einer weitreichenden Zensur und allgemeinen Überwachungspflichten für Diensteanbieter – was weder mit Gesetzen wie der E-Commerce-Richtlinie noch mit bestehender EuGH-Rechtsprechung vereinbar wäre. Bereits in der Debatte rund um die EU-Urheberrechtsreform habe er sich gegen solche Filter- und Überwachungspflichten ausgesprochen. „Ich bin entschlossen, dass der Vorschlag keine einschlägigen Verpflichtungen durch die Hintertür einführt“.

Zunächst hatte die EU-Kommission versucht, die Plattformbetreiber mit Zuckerbrot und Peitsche zu einer „freiwilligen“ Selbstregulierung zu zwingen, um terroristische Inhalte aus dem Netz zu fegen. Bislang sind dem eine ganze Reihe an Plattformbetreibern wie Google, Facebook oder Twitter gefolgt, die eine gemeinsam betriebene Datenbank mit digitalen Fingerabdrücken von mutmaßlich terroristischen Inhalten führen. Darin abgelegte Inhalte, etwa Bilder oder Videos, lassen sich nicht mehr auf die jeweiligen Plattformen hochladen.

Ob es sich aber um tatsächlich illegales Material handelt, bleibt derweil unbekannt: Auf die Datenbank haben weder zuarbeitende Behörden wie Europol Zugriff noch die EU-Kommission, die eigentlich für eine demokratische Kontrolle sorgen sollte, wie unsere früheren Recherchen ergeben haben. Detaillierte Presseanfragen wollen die Plattformen nicht offiziell beantworten, während der für die Datenbank zuständige Dachverband, das Global Internet Forum to Counter Terrorism, seit September auf ein halbes Dutzend einschlägiger Anfragen von uns gar nicht reagiert hat.

Trotzdem gingen der EU-Kommission die bisherigen Maßnahmen nicht weit genug. Auf Druck der Mitgliedstaaten, darunter CSU-Bundesinnenminister Horst Seehofer, hat schließlich die Brüsseler Behörde im Herbst einen Verordnungsentwurf vorgelegt. Mit diesem will sie nicht nur große Plattformen zu solchen Maßnahmen verpflichten, sondern sämtliche in Europa tätigen Diensteanbieter, die nutzergenerierte Inhalte zulassen. Dem haben die EU-Länder bereits grundsätzlich zugestimmt, jetzt ist das Parlament am Zug.

Privatisierte Rechtsdurchsetzung

Der aggressive Vorstoß steht seit seiner Vorstellung unter scharfer Kritik. Schwammig gefasste „Terrorismus“-Definitionen, kaum umsetzbare Löschfristen und die Komplettüberwachung aller Inhalte mit Uploadfiltern würden die Grundrechte aller Europäer unverhältnismäßig beschneiden sowie zu einer privatisierten Rechtsdurchsetzung führen, schrieben beispielsweise gleich drei UN-Sonderberichterstatter in einer gemeinsamen Stellungnahme.

Ziel terroristischer Handlungen sei es, durch die Verbreitung von Schrecken das Vertrauen in die offene Gesellschaft zu zerstören und so Meinungsfreiheit und Demokratie aufzuweichen, sagt Elisabeth Niekrenz von der Digital-NGO Digitale Gesellschaft: „Mit dem vorgelegten Entwurf spielt die Kommission auf unverantwortliche Weise in die Hände des Terrors“.

Betroffen wären jedoch nicht nur möglicherweise grenzwertige Meinungsäußerungen, sondern auch journalistische Aktivitäten oder solche von Menschenrechtsorganisationen, die sich mit dem Thema Terrorismus beschäftigen. Ins Visier könnten zudem Formen zivilen Ungehorsams geraten, zum Beispiel Blockadeaktionen. Denn als Grundlage für die Definition „terroristischer Inhalte“ dient die Anti-Terrorismus-Richtlinie und deren sehr unscharfe Vorgaben. „Als terroristisch gilt etwa das Kapern eines öffentlichen Verkehrsmittels, wenn diese Handlung mit dem Ziel ausgeführt wird, staatliche Stellen zu einem Tun oder Unterlassen zu zwingen“, sagt Niekrenz.

Dies hätten auch die UN-Experten deutlich gemacht, betont Niekrenz, indem sie die EU-Organe darauf hingewiesen hätten, „dass auch Inhalte, die den Staat schockieren, angreifen und stören, von der Meinungs- und Informationsfreiheit gedeckt sind und zum demokratischen Diskurs gehören“.

Platz für unbequeme Meinungen wird knapp

Diesen gefährdet der Gesetzentwurf nicht nur durch die Überwachungspflichten, sondern auch mit den Mechanismen, mit denen mutmaßlich illegale terroristische Inhalte von „zuständigen Behörden“ der Mitgliedstaaten an die Diensteanbieter gemeldet werden sollen. Zum einen ist dafür die neu eingeführte, verbindliche „Ermittlungsanordnung“ vorgesehen, auf die Anbieter innerhalb einer Stunde reagieren müssen – dem Kommissionsvorschlag zufolge selbst kleine Blogs, auf denen Nutzer Kommentare hinterlassen können. Zum anderen können Behörden auch unverbindliche „Meldungen“ verschicken und damit die Betreiber auffordern, den beanstandeten Inhalt auf einen möglichen Verstoß gegen die Nutzungsbedingungen der jeweiligen Plattform zu überprüfen.

Beide Weisungen bringen ihre eigenen Probleme mit: „Ermittlungsanordnungen“ mit einer Löschpflicht könnten womöglich nur von Polizeibehörden verschickt werden, ohne unabhängige richterliche Kontrolle. Zudem erlegt die nur einstündige Reaktionszeit kleinen wie großen Anbietern eine hohe und nur schwer umsetzbare Bürde auf. Eine naheliegende Folge wäre eine weitere Verlagerung von öffentlichen Debatten im digitalen Raum hin zu großen Plattformen, welche die Ressourcen besitzen, um die Auflagen zu erfüllen. Gleichzeitig steht zu erwarten, dass diese Firmen aus Furcht vor hohen Geldstrafen im Zweifel zu viel als zu wenig löschen und sich nur selten gegen solche Anordnungen wehren könnten.

„Meldungen“ wiederum dürften dafür sorgen, dass Anbieter auf Zuruf von Ermittlungsbehörden zwar legale, aber unwillkommene Inhalte entfernen würden. Das aber würde den beteiligten Behörden wie auch den IT-Firmen zu viel Macht in die Hand geben. „Private Hostinganbieter können im Rahmen ihres virtuellen Hausrechts durch Nutzungsbedingungen deutlich stärker als staatliche Akteure regeln, dass bestimmte Inhalte nicht gepostet werden dürfen“, erklärt Elisabeth Niekrenz von Digitale Gesellschaft.

Instrumentalisierte Plattformbetreiber

Auf diesem Weg könnten Behörden versuchen, Plattformbetreiber zu instrumentalisieren, um unliebsame Beträge verschwinden zu lassen, für deren Löschung auf Basis nationalen oder internationalen Rechts keine Grundlage bestünde, so Niekrenz. Besonders gefährlich sei dies, weil als Rechtsmittel gegen die Löschung eine Beschwerde beim Hoster vorgesehen ist. „Das ist skandalös und steht in eklatantem Widerspruch zum Erfordernis effektiven Rechtsschutzes nach der EU-Grundrechtecharta.“

Im Unterschied zu den Stellungnahmen der beratenden IMCO- und CULT-Ausschüsse, die sich beispielsweise einen Richtervorbehalt wünschen, fasst der LIBE-Berichtsentwurf die Bestimmungen jedoch gar nicht oder nur unwesentlich an. „Für eine Regelung, die der Polizei derart eigenmächtig erlauben würde, Seiten aus dem Netz zu nehmen, bin ich jedenfalls nicht zu haben“, sagt Cornelia Ernst gegenüber netzpolitik.org. Die deutsche Links-Abgeordnete verhandelt als sogenannte Schattenberichterstatterin für ihre Fraktion an der LIBE-Position des Parlaments mit. „Hier bräuchte es zumindest einen richterlichen Beschluss, aber dann ist klar, dass eine einstündige Frist nicht zu schaffen ist.“

Auch von den „Meldungen“ hält Ernst nichts. „Wirklich widerwärtige Terrorpropaganda soll schon weg, aber das kann doch nicht die Entscheidung von irgendwelchen Firmen sein“, sagt die Abgeordnete. Europol würde solche Referrals ja nun seit einiger Zeit verschicken, aber eine Überprüfung dieser Referrals habe bis heute niemand auf den Tisch gelegt. Zu beobachten ist jedoch, dass dieser Hebel immer mehr Anklang bei Polizeibehörden findet.

Sozialdemokraten und Konservative wollen Uploadfilter nicht streichen

Für die Piratin Julia Reda, die für den IMCO-Bericht verantwortlich zeichnet, wäre die vollständige Streichung der Uploadfilter und der Meldungen das beste Szenario. Allerdings hätten die Sozialdemokraten und konservativen EKR-Vertreter (dieser EU-skeptischen Fraktion gehört auch Dalton an) in Aussprachen signalisiert, die beiden Artikel nicht entfernen zu wollen, sich aber immerhin gegen eine Verpflichtung für „proaktive Maßnahmen“ ausgesprochen.

Von der größeren konservativen Fraktion EPP ist kaum Widerstand zu erwarten: Deren französische LIBE-Schattenberichterstatterin Rachida Dati ist als sicherheitspolitische Hardlinerin bekannt, die sich zudem technikgläubig zeigt: „Mit den Entwicklungen und technologischen Fortschritten der letzten Jahre ist es möglich, eine automatische Erkennung und systematische und dauerhafte Entfernung dieser Inhalte zu erreichen, insbesondere dank künstlicher Intelligenz“, sagte Dati der französischen Zeitung l’Opinion im Dezember.

Beim IMCO-Bericht gebe es jedenfalls noch Luft nach oben, sagt Reda: „Ich werde noch einige Änderungsanträge zur Verbesserung der Beschwerdemöglichkeiten bei ungerechtfertigten Löschungen von Inhalten und zur grenzübergreifenden Anordnung der Löschung von Inhalten stellen, um auch hier die Regeln der E-Commerce-Richtlinie zu respektieren und Webseitenbetreiber nicht mit nicht standardisierten Nachrichten von Dutzenden verschiedenen Behörden zu konfrontieren“, sagt Reda.

Offiziell präsentiert werden soll der LIBE-Bericht in der kommenden Woche, danach beginnt das Ringen um Änderungsanträge – und darum, welches Gewicht die Berichte der anderen beiden, beratenden Ausschüsse haben sollen. So oder so wird es knapp: Der vorläufige Zeitplan sieht derzeit eine Vorstellung am ersten April im Plenum vor, im Monat darauf finden die Wahlen zum EU-Parlament statt. „Völlig unrealistisch“, dass das Gesetz noch vor der Wahl durchkommt, sagt Cornelia Ernst. Denn bis zu den Wahlen eine Verhandlungsposition zu erzielen, auf deren Grundlage dann Verhandlungen mit Rat und Kommission stattfinden würden, sei schon ehrgeizig.

Allerdings zeigt die Erfahrung, dass es Kampf gegen den Terror bisweilen sehr schnell gehen kann: Die Anti-Terror-Richtlinie wurde im Schnellverfahren durch die Institutionen gebracht, und grundsätzlich steht das Parlament fragwürdigen Methoden offen gegenüber. Erst im Dezember haben die Abgeordneten mit überwältigender Mehrheit einem Bericht zugestimmt, der unter anderem Uploadfilter als probates Mittel im Anti-Terror-Kampf anerkennt.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Gibt es eigentlich eine auch von Gerichten akzeptierte Definition von Terrorismus?
    Das Bundesverfassungsgericht hat vor einer Weile mal entschieden, dass der Staat in seinen Grundfesten bedroht sein müsse, um schwere Eingriffe in Grundrechte zu rechtfertigen.
    Das im Artikel genannte Beispiel des Kapern eines öffentlichen Verkehrsmittels mag dazu gedacht sein, Druck auf eine staatliche Stelle aus zu üben. Eine Gefahr für die Demokratie bestünde jedoch nur, wenn regelmäßig systematisch und organisiert Verkehrsmittel gekapert würden. Mag sein, dass RAF, IRA oder die Roten Brigaden diese Kriterien erfüllten, vielleicht auch Al Qaida. Aktuell gibt es jedoch m.E. nach keine Organisation, die schlagkräftig genug wäre, um unsere Demokratie zu gefährden.
    Was die Frage aufwirft, weshalb wir die Gesetze überhaupt benötigen – selbst, wenn die Filter technisch machbar und politisch durchsetzbar wären.

    1. Zur von Gerichten akzeptierte Definition von Terrorismus:
      bei uns gibt es die Definition aus StGB 129a, die darauf hinausläuft, dass jemand
      – als Gewalttäter
      – nicht aus privat-persönlichen Motiven handelt,
      sondern mit dem Ziel, eine bestehende Ordnung zu zerbrechen.
      Link dazu: https://www.bundestag.de/blob/414600/88ba85eb1357681569fdea159edc1f3d/wd-3-417-09-pdf-data.pdf
      Ergänzend und wichtig: dazu steht bei uns im Artikel 20, Absatz 4 Grundgesetz, dass der Versuch, bestehende Ordnung zu brechen, legitimer Widerstand ist, – also nicht Terrorismus – , sobald die bestehende zu zerstörende Ordnung dem Grundgesetz entgegensteht.
      Will sagen: zum funktionierenden „Terrorismus“-Begriff musste man BEIDE Seiten definieren, um zunächst feststellen zu können, „auf welcher Seite die Guten sind“ (das ist ja gerade unsere Lektion aus Georg Elser, der Gruppe um Stauffenberg, … ).

      Das habe ich so langwierig ausgeführt, weil ich gar nicht die Demokratie gefährdet sehe, sondern Rechtsstaatlichkeit und Freiheit aus unseren Verfassungen.
      Dort, wo ich Uploadfilter am verheerendsten fände, sind die Regierungen alle demokratisch von der Mehrheit gewählt worden ( Erdogan in der Türkei, PIS-Partei in Polen, Orban in Ungarn, … Und das Ende der Weimarer Republik war ja auch „demokratisch“).

      Wir brauchten also wirksame Verfassungsverteidiger.
      Und die finde ich nicht mehr in Karlsruhe, seit Edward Snowdens Zeugenschutz dort verweigert und mit der Third-Party-Rule ein rechtsfreier Raum in unseren Geheimdiensten geöffnet wurde, und Verfassungsbeschwerden/Organklagen/Normenkontrollen über Jahre dauern ( BKA-Gesetz ), ohne dass die geprüften Regeln in der Prüfungszeit angehalten werden.

      Ich bin also für gute klare Definitionen, ja,
      suche aber noch verzweifelt nach den wirksamen Verfassungsverteidigern, die uns retten kommen, wenn die dumpfe Mehrheit, geschichtsvergessen, unsere Verfassungsrechte umzurennen beginnt.

      1. P.S. Als Verfassungsverteidiger bietet sich meiner Ansicht nach der EUGH an:

        „Today [16.02.2012], the Court of Justice of the European Union (CJEU) ruled that a social network “cannot be obliged to install a general filtering system, covering all its users, in order to prevent the unlawful use of musical and audio-visual work”.“

        aus dem Link oben im Artikel !

  2. „Terrorismus“ ist das was den EU-Strukturen nicht ins Konzept passt, neben eine paar Irren die tatsächlich einen „nachhaltig geführten Kampf.. für irgendetwas betreiben.
    Nichts weiter als ein neuer Versuch möglichst vollumfängliche Medienkontrolle auszuüben.
    Hat schon etwas, wie der absurd rechtswidrigen §219, denn es wird schon die Sachinformation als Bedrohung angesehen, warum sollte die EU anders denken und handeln?

  3. Also mit Artikel 13 hat Der Hr. Voss heftigen Widerstand gespührt und es ist semi-final gescheitert…
    Jetzt wird das selbe in Artikel 6 versucht umzusetzen…
    Was passiert hier?

  4. Es gibt noch einen ganz anderen Aspekt auf technischer Ebene:
    Bei den Urheberrechts-Uploadfiltern ging es darum, Inhalte WIEDERzuerkennen. Dafür hat man Muster. Ein Musikverlag kann zum Beispiel Google eine Musikdatei schicken, und das System versucht dann, diese Musik in Videos wiederzufinden.
    Bei den Terror-Uploadfiltern soll hingegen das System die Inhalte interpretieren und terroristische Inhalte erkennen. Das ist eine völlig andere Liga der Datenverarbeitung. Mal abgesehen davon, daß es sich hierbei auch wieder um leere Versprechungen der Filterhersteller handelt (schon Nacktheitsfilter funktionieren nicht, siehe den Fall Tumbler, und die ist viel einfacher objektiv zu erkennen als Inhalte und Botschaften), die sich durch Lobbyismus einen künstlichen Markt schaffen wollen, sind hier noch viel größere Kollateralschäden durch False Positives zu befürchten.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.