Schnell, schnell: So geht es mit den Uploadfiltern gegen Propaganda weiter

Möglichst rasch will die Europäische Union ein Gesetz durchpeitschen, um mit Internetzensur gegen „terroristische Inhalte“ vorzugehen. Die Mitgliedstaaten und die Kommission sind sich weitgehend einig, nun ist das Parlament am Zug. Wir haben den federführenden EU-Abgeordneten Daniel Dalton zu dem folgenschweren Gesetz befragt.

Der britische EU-Abgeordnete Daniel Dalton spielt eine Schlüsselrolle im Anti-Terror-Kampf im Netz – und bei der möglichen Einschränkung des Grundrechts auf Meinungsfreiheit. CC-BY-SA 2.0 altogetherfool

Daniel Dalton hat viel zu tun. Wie jeden britischen Politiker lastet ihn der Brexit ganz gut aus, andere Themen finden sich auf dem Blog des 44-jährigen konservativen EU-Abgeordneten nur spärlich. Vor kurzem hat Dalton aber dennoch eine neue Aufgabe übernommen: Er ist der neu bestellte Verhandlungsführer des EU-Parlaments für ein wegweisendes Gesetz zur Internetzensur. Dieses wollen die Kommission und die Mitgliedstaaten so schnell wie möglich durchbringen, um gegen Terrorpropaganda im Netz vorzugehen.

„Es ist nur richtig, dass wir schauen, wie wir die Möglichkeiten zur Verbreitung extremistischer Inhalte im Internet einschränken können“, sagt der EU-Abgeordnete Dalton gegenüber netzpolitik.org. Er verweist auf ein Papier des US-Think-Tanks Wilson Center, das dem Internet und insbesondere sozialen Netzwerken eine entscheidende Rolle bei der Radikalisierung von sich „marginalisiert fühlenden Muslimen“ zuschreibt, die daraufhin in den „Cyberjihad“ ziehen würden.

Uploadfilter und Künstliche Intelligenz gegen Terror

Darauf zielt der brisante Gesetzentwurf der EU-Kommission ab: Alle in Europa tätigen Online-Dienste müssen dafür sorgen, dass keine „terroristischen Inhalte“ auf ihren Plattformen liegen. Hinterlässt ein Nutzer trotzdem einen mutmaßlich illegalen Kommentar oder lädt ein Bild hoch, das als Terrorpropaganda verstanden werden könnte, dann muss der jeweilige Anbieter diesen Inhalt binnen einer Stunde vom Netz nehmen, wenn ihn eine zuständige Behörde darauf aufmerksam macht.

Zudem sind insbesondere große Betreiber wie Facebook oder Twitter dazu angehalten, „proaktiv“ und automatisiert nach solchen Inhalten Ausschau zu halten. Mit der Hilfe von Uploadfiltern und Künstlicher Intelligenz sollen sie schon im Vorfeld eigenmächtig verhindern, dass womöglich terroristisches Gedankengut auf ihren Plattformen landet. Kommen die Online-Dienste diesen Auflagen nicht nach, drohen ihnen empfindliche Geldstrafen von bis zu vier Prozent des weltweiten jährlichen Umsatzes.

UN-Sonderberichterstatter sehen Meinungsfreiheit gefährdet

Dieser aggressive Verordnungsvorschlag hat unter anderem gleich drei UN-Sonderberichterstatter auf den Plan gerufen, die vor einer Einschränkung der Meinungsfreiheit in Europa warnen. Schwammig gefasste „Terrorismus“-Definitionen, kaum umsetzbare Löschfristen und die Komplettüberwachung aller Inhalte mit Uploadfiltern würden die Grundrechte aller Europäer unverhältnismäßig beschneiden sowie zu einer privatisierten Rechtsdurchsetzung führen, kritisieren die Experten.

„Ich glaube, wir müssen eine sehr feine Balance schaffen zwischen der Verbreitung von terroristischer Propaganda auf der einen und der Wahrung der Meinungs- und Pressefreiheit auf der anderen Seite“, sagt Dalton. Aber er sei skeptisch, ob automatisierte Filtersysteme der richtige Ansatz seien. „Algorithmen fällt es schwer, zwischen ernsthaft gefährlichem Material, Journalismus und Parodie zu unterscheiden“, sagt Dalton. Schon bei der EU-Urheberrechtsreform warnte der Brite vor den darin enthaltenen Uploadfiltern und damit verbundenen Überwachungspflichten für Diensteanbieter.

„Ich schaue mir den Artikel 6 [Anm.: Dieser regelt die „Proaktiven Maßnahmen“] sehr genau an“, sagt Dalton. „Dieser wirft Fragen auf wie einen möglichen Widerspruch zwischen freiwilligen und auferlegten proaktiven Maßnahmen, zwischen einer potenziellen Verlagerung der Verantwortung von zuständigen Behörden hin zu privaten Unternehmen“. Damit seien Risiken verbunden, etwa die Gefahr des „Overblockings“ und kaum bewältigbarer Aufwand für kleine Diensteanbieter. Dies hätte möglicherweise negative Auswirkungen auf das Recht auf Meinungsfreiheit, was zu prüfen wäre. „Ich werde sicherlich einige Änderungsanträge zu Artikel 6 vorschlagen, der aus meiner Sicht mehr Klarheit und unter Umständen Anpassungen benötigt“.

Konflikte mit geltendem EU-Recht

Im Blick hat Dalton zudem das Zusammenspiel zwischen der Verordnung und anderen Gesetzen wie der E-Commerce-Richtlinie. Diese schreibt fest, dass EU-Mitgliedstaaten Diensteanbietern keine allgemeinen Überwachungspflichten auferlegen dürfen. Auch stellt die Richtlinie Anbieter von der Haftung frei, wenn sie ohne ihr Wissen womöglich illegale Inhalte zur Verfügung stellen. „Unverzüglich“ reagieren müssen sie erst, wenn sie Kenntnis von einer rechtswidrigen Tätigkeit erhalten.

Die nun neue, einstündige Löschfrist nach Eingang einer „Entfernungsanordnung“ fällt deutlich härter aus und droht, diese Regelung de facto auszuhebeln. Dennoch gibt sich Dalton zuversichtlich, eine gesetzeskonforme Lösung finden zu können, schließlich handle es sich um „terroristische“ Inhalte: „Die EU-Mitgliedstaaten haben sehr deutlich gemacht, dass der Kampf gegen den Terror auch online gewonnen werden muss“.

Die Prozedur für solche Entfernungsanordnungen hält Dalton für relativ ausgereift, da sie aus seiner Sicht eine Reihe an Sicherungsmechanismen und abweichende Bestimmungen enthalte. Möglicherweise müsse sie aber noch verbessert werden, sagt Dalton. Details will er nicht nennen, dazu müsse er erst Gespräche mit seinen Kollegen im Parlament führen.

Private Gemeinschaftsstandards statt Rechtsstaat

So bleibt auch seine Position zu den „Meldungen“ nach Artikel 5 unklar. Im Unterschied zu einer Entfernungsanordnung verpflichten diese nicht zu einer umgehenden Löschung des inkriminierten Inhalts, sondern setzen auf „Freiwilligkeit“ und die AGBs der Betreiber. Das klingt zwar auf den ersten Blick weniger verfänglich als eine verbindliche, einstündige Löschfrist, öffnet aber die Tür zu einer privatisierten Rechtsdurchsetzung.

Bereits heute melden Behörden wie die Meldestelle für Internetinhalte (EU IRU) von Europol den Plattformbetreibern unliebsame Inhalte. Die müssen nicht notwendigerweise illegal sein, werden im Zweifel aber dennoch oft gelöscht. Private, sich ständig und scheinbar willkürlich wandelnde Gemeinschaftsstandards lösen, jedenfalls im digitalen Raum, zunehmend rechtsstaatliche Prinzipien ab.

„Dieser Ansatz schafft das Risiko, dass Regierungen ihre Möglichkeiten erweitern, um Inhalte zu blockieren, zu filtern oder zu löschen; in einem Ausmaß, das über nationale Gesetze hinausgeht und das unter internationalen Menschenrechtsnormen zulässig wäre“, schreiben die UN-Sonderberichterstatter in ihrer gemeinsamen Stellungnahme.

Schnell schnell soll es gehen

Viel Zeit bleibt nicht mehr, um all diese schwerwiegenden Fragen zu klären. Die Kommission sowie Mitgliedstaaten wie Frankreich, Deutschland und Großbritannien machen Druck, der am Parlament nicht spurlos vorbeigeht. Den Verhandlungen im federführenden Innenausschuss (LIBE) will Dalton nicht vorgreifen, kündigt jedoch netzpolitik.org gegenüber an, das Gesetz so schnell wie möglich unter Dach und Fach zu bringen. Schließlich verabschiedet sich Großbritannien Ende März aus der Union, und zwei Monate später stehen Wahlen zum EU-Parlament an. Das wird die Karten neu mischen.

„Schauen wir mal, wie die Verhandlungen verlaufen“, will sich Dalton nicht auf ein Datum festlegen. „Es ist einfach noch zu früh, um einen genauen Zeitplan aufzustellen“. Erst dann ließe sich die Position des Parlaments bewerten. Grundsätzlich aber scheint die Richtung klar: Das Gesetz soll möglichst rasch durchgewunken werden. Und generell lehnt Dalton die breiten Linien des Ansatzes nicht ab.

Erst kürzlich segnete das Plenum des Parlaments mit breiter Mehrheit einen Anti-Terror-Bericht ab. Darin fordern die Abgeordneten unter anderem Uploadfilter und Zugriff auf verschlüsselte Nachrichten – mittlerweile altbekannte Forderungen im Kampf gegen den Terror, wo jedes Mittel recht scheint. Dalton hat dem Bericht zugestimmt.

11 Ergänzungen

  1. Verstehe ich das richtig? Als Kollateralschaden können die Plattformen mir dann Filme und Bücher anderer nicht mehr frei jeder Haftung zum saugen und Befreien zur Verfügung stellen ? Echt übel, wie Urheberrechtsfanatiker nun sogar Terrorpropaganda vorschieben, nur um Ihr überholtes Geschäftsmodell zu schützen! Geht gar nicht. Zumal auch ein Terroraufruf eine schützendswerte Meinungsfreiheit ist ! Und die Netzgemeinde längst bewiesen hat, wie Sachliche Meinung, Emphatie und Fakten im Netz, gegenüber Desinformation, Hetzte und Propaganda die Meinungshoheit hat !

    1. Hier geht’s um „terroristische Inhalte“, nicht um Urheberrecht oder Desinformation.

      Wenn Witzchen, Artikel mit dem „falschen“ Beitragsbild oder wissenschaftliche Arbeiten aus dem Netz verschwinden, weil sie ein Uploadfilter oder irgendein unterbezahlter und überarbeiteter Content-Moderator für „terroristisch“ erachtet und du dich nicht dagegen wehren kannst, dann findest du das vielleicht nicht mehr ganz so unproblematisch.

      1. „Hier geht’s um „terroristische Inhalte“, nicht um Urheberrecht oder Desinformation.“

        Ich glaube nicht, daß die dafür getrennte Zensur-Systeme einführen werden.

  2. Die EU hat doch schon längst Zensurverträge mit den großen Plattformen abgeschlossen.

    Ab März ist ja Echtzeitzensur geplant. (Siehe EU Strategiepapier Seite 6ff)

    Wer ist eigentlich das „Netzwerk unabhängiger Fact-Checker“?
    Und wie unabhängig sind die von staatlichen Geldern und Einflussnahme?

    https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=54454
    https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation

    Strategiepapier:
    https://ec.europa.eu/commission/sites/beta-political/files/eu-communication-disinformation-euco-05122018_en.pdf

    1. Damit könnte auch die anstehende Verlagerung der europäischen Google Accounts auf Google Irland als „data controller responsible for your information and for complying with applicable privacy laws“ zusammenhängen.

      „We’ll soon publish changes to our Terms of Service that may affect the Google services you use. Starting January 22, 2019, services offered under these terms will be offered by Google Ireland Limited instead of Google LLC. We’re making similar changes to the Drive, Play, YouTube, and YouTube Paid Service Terms of Service. You can find our new terms here.
      At the same time, we’re also updating Google’s Privacy Policy to specify that Google Ireland Limited will be the data controller responsible for your information and for complying with applicable privacy laws.“

  3. Ich finde es hervorragend, dass es eine ein-eindeutige nicht zu hinterfragende und ausführlich detaillierte Beschreibung und Ausdeutung des Begriffs Terror und Terrorpropaganda gibt. Eine Beschreibung, der alle gesellschaftlich relevanten Gruppen im Rahmen der UN zu- und darin übereinstimmen, dass der Einfluss der beschriebenen Handlungen, ob performativ oder werbend, für den Erhalt freier und demokratischer Gesellschaften abzulehnen und zu bekämpfen ist.

    Es war mehr als an der Zeit, dass die europäischen Staaten sich bewusst wurden, dass die derzeitige Entwicklung unerträglich geworden war.

    1. Tja, Quax, eine SMS (oder Anruf) hat schon so manche Bombe gezündet!
      Ist es da nicht von Vorteil, das unser Innenministerium von Google benachrichtigt werden kann, sobald der (Verfassungsschutz) V-Mann Gefahr läuft enttarnt zu werden!

  4. Es is ooch hier uff NP.org ziemlisch schwierisch sehne Meinung su äusern, ohne ewisch uff sehne Posts zu wardn!
    Wenn man dialegdisch schreift, ist des scheinboar schon n Derrorakt, oda?
    Un wenn dann ne reguläre Blattform wie Gesichtsbuch (zu Deutsch Gesichtskartei) dialegdisch schreift, is man gleisch Derrorist!
    Des gann nisch sei!

  5. Ist es reiner Zufall, das für das groß angelegte Zensurprojekt der EU-Union ein Brite engagiert wird?
    In Großbritannien gehört Meinungssteuerung, Meinungseinschränkung und Maulkörbe für die Medien zum Alltag?

  6. moin, das klingt so, und sieht so aus, wie der „verwaschene“ anthonie blair.

    euer carlo

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.