Nur selten schaffen es Paragraphen oder Artikel eines Gesetzes, zum weithin bekannten Schlagwort zu werden – zuletzt etwa der § 219a oder der Artikel 13 aus der EU-Urheberrechtsrichtlinie. Letzterer sorgt derzeit für Demonstrationen in ganz Deutschland, weil die darin enthaltenen Uploadfilter jeden einzelnen Inhalt auf seine Rechtmäßigkeit prüfen sollen, bevor er auf einer Online-Plattform erscheinen kann. „Man schießt mit der Schrotflinte Artikel 13 auf Youtube und Facebook und trifft aber leider noch das halbe Internet dazu“, warnte jüngst der netzpolitik.org-Chefredakteur Markus Beckedahl vor den brandgefährlichen Nebenwirkungen des Gesetzes.
Weniger bekannt ist hingegen der Artikel 6 aus dem gegenwärtig verhandelten Verordnungsentwurf der EU-Kommission, der die Verbreitung terroristischer Inhalte im Internet verhindern soll. Auch dieser sieht Uploadfilter vor – bloß dass diese nicht nur bestimmte Plattformen betreffen würden, sondern für alle in Europa tätigen Diensteanbieter verpflichtend angeordnet werden können. Darüber hinaus müssten sämtliche Online-Dienste, ob eine große Plattform wie Facebook oder ein kleines Blog wie netzpolitik.org, innerhalb einer Stunde auf Entfernungsanordnungen reagieren, um von Nutzern hinterlassene, mutmaßlich terroristische Inhalte zu löschen.
Flurschaden für die Meinungs- und Informationsfreiheit
Das würde nicht das halbe, sondern das ganze Internet unter die Räder kommen lassen und das Recht auf Meinungs- und Informationsfreiheit empfindlich einschränken. Denn zum einen ist „Terrorismus“ ein unscharfer Begriff, der etwa auf Aktionen zivilen Ungehorsams wie beispielsweise gegen die Rodung des Hambacher Forsts angewendet werden könnte. Zum anderen neigen automatisierte Filtersysteme zu Fehlern, weil sie den Kontext von Inhalten nicht einschätzen und beispielsweise bei wissenschaftlicher oder journalistischer Berichterstattung anschlagen. Und Anbieter könnten im Zweifel lieber zu viel als zu wenig löschen, um den drohenden Geldbußen von bis zu vier Prozent des weltweiten Jahresumsatzes zu entgehen.
Kein Wunder, dass der Vorschlag auf heftigen Widerstand stößt. Der kommt unter anderem aus der Zivilgesellschaft, aus der Agentur der Europäischen Union für Grundrechte, aus der Internet-Wirtschaft, von UN-Sonderberichterstattern – und jetzt auch aus dem EU-Parlament, das derzeit seine Position klärt, bevor es in die Verhandlungen mit der Kommission und dem Rat gehen kann. Am Montag hat der Ausschuss für Binnenmarkt und Verbraucherschutz des EU-Parlaments (IMCO) als erster beratender Ausschuss seinen Bericht beschlossen und sich mit überwältigender Mehrheit gegen die Vorab-Kontrolle aller Inhalte ausgesprochen.
Zielgerichtete statt automatisierte Maßnahmen
Anstatt im Kampf gegen mutmaßlich terroristische Inhalte im Internet auf sogenannte „proaktive Maßnahmen“ zu setzen – also von Künstlicher Intelligenz gestützte Uploadfilter, die solche Inhalte schon im Vorfeld selbstständig und automatisiert erkennen und ein Hochladen auf Online-Plattformen unterbinden –, schlägt der Bericht zielgerichtete und „spezifische Maßnahmen“ vor. Zudem stellt er klar, dass die Vorschriften „keine automatisierten Inhaltefilter oder andere Maßnahmen enthalten sollen, die ein systematisches Monitoring von Nutzerverhalten beinhalten“ (unsere eigene, nicht-juristische Übersetzung aus dem Englischen).
Neben dem neu gefassten Artikel 6 entschärft der unter der Federführung der Berichterstatterin Julia Reda (Piraten/Grüne Fraktion) erstellte Bericht auch die insbesondere für kleinere Anbieter kaum umsetzbare, kurze Löschfrist. Statt einer harten Grenze von einer Stunde gibt der IMCO-Vorschlag den Anbietern mindestens acht Stunden Zeit, um Löschgesuchen „unverzüglich“ nachzukommen.
Das schützt nicht nur kleinere Anbieter, sondern macht die Verordnung obendrein kompatibel mit der E-Commerce-Richtlinie. Diese verbietet es den Mitgliedstaaten, Anbietern allgemeine Überwachungspflichten aufzuerlegen und regelt zudem das „Notice & Takedown“-Verfahren. Dieses Regelwerk, das die Grundlage für den rechtssicheren Betrieb von Online-Diensten bildet, kommt zwar in letzter Zeit immer heftiger unter Beschuss und dürfte in der kommenden Legislaturperiode überarbeitet werden. Bis es aber soweit ist, verlagern immer mehr EU-Gesetze durch die Aushöhlung dieses Prinzips Haftungsfragen zunehmend auf die Plattformbetreiber. Und das wiederum führt zur sogenannten „privatisierten Rechtsdurchsetzung“, die sich jeglicher demokratischen Kontrolle entzieht.
Die Zeit wird knapp
Die Stellungnahme des IMCO-Ausschusses ist nun das erste offizielle Signal, dass das EU-Parlament die Verordnung nicht im Schnellverfahren durchwinken könnte – selbst wenn der Ausschuss lediglich beratend und nicht federführend für die Position der Abgeordneten verantwortlich ist. Der Hauptverhandler des Parlaments im Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE), der konservative Brite Daniel Dalton, gibt sich zwar zuversichtlich, den LIBE-Bericht noch in dieser Legislaturperiode festzurren zu können – die Abstimmung für den finalen LIBE-Bericht ist weiterhin für den 21. März angesetzt.
Doch das wäre erst der Startschuss für den Trilog, also die Verhandlungen zwischen Kommission, Rat und dem Parlament. Wie diese verlaufen werden, lässt sich derzeit noch nicht abschätzen, wird aber maßgeblich vom Inhalt des LIBE-Berichts abhängen. Und davon, ob sich die Abgeordneten dem Druck der Kommission beugen werden, der es nicht schnell genug gehen kann, sowohl bei der Verabschiedung des Gesetzes als auch bei der Entfernung möglicherweise illegaler Inhalte.
Denn neben Artikel 6 mit seinen Uploadfiltern sind auch die Artikel 4 und 5 problematisch, die den Prozess für eine mögliche Entfernung von Inhalten regeln. Beide Artikel sehen keine Kontrolle durch einen unabhängigen Richter vor, sondern verlassen sich auf die Einschätzung der Ermittlungsbehörden oder gar nur der privaten Plattformbetreiber selbst, ob nun ein bestimmter Inhalt illegal ist oder nicht. Auch an dieser Stelle bessert der IMCO-Bericht nach und schlägt zumindest eine nachträgliche, rechtsstaatliche Überprüfung von Entfernungsanordnungen vor. Das soll die Verschicker solcher Meldungen anregen, sorgfältig zu arbeiten, heißt es aus dem Parlament.
Die EU-Kommission hat solche Bedenken augenscheinlich nicht. So sagte etwa gestern der Kommissionsbeamte Hans Das vom Generaldirektorat für Migration und Inneres bei einer Veranstaltung zur geplanten Verordnung: „Online gibt es so viel Terrorpropaganda, die so schnell recycelt wird. Es wäre total irrational, die Beweisführung [ob es sich um einen tatsächlich illegalen Inhalt handelt] den Ermittlungsbehörden und den Gerichten aufzuhalsen“.
Liebes Team von Netzpolitik.org!
Ihr schreibt von einem Hans. Wer soll das sein? Wie kann man den anschreiben oder wo kann ich suchen?
Er heißt nicht Hans, sondern Hans Das. Zu finden ist er am besten im aktuellen Kommissions-Organigramm (bei D2).
https://ec.europa.eu/home-affairs/sites/homeaffairs/files/who-we-are/dg-home-affairs-chart/docs/organigramme_en.pdf
Der CULT-Ausschuss wird Montagabend (11.3.) in Straßburg abstimmen, auch dort sieht es gut aus. Auch im federführenden LIBE-Ausschuss gibt es in den Verhandlungen bisher und auch absehbar weiterhin eine klare Mehrheit gegen Uploadfilter. Das zeigt vor allem den Einfluss von Lobbying: Bei #Copyright gab es massiven Druck für die Filter von Teilen der Industrie, bei #TerrReg gibt es eigentlich nur Industrielobbying gegen die Filter, weil an Terror-Inhalten keiner was verdient.