Wissen

EU: Ein Filtersystem soll Urheberrechte schützen, gefährdet aber Meinungsfreiheit, Datenschutz und Vielfalt im Netz

Denn sie wissen nicht, was sie tun: Die EU-Kommission erwägt Filtersysteme für alle Plattformen zur Urheberrechtsdurchsetzung. Das könnte größere Auswirkungen auf ein offenes Netz haben als das ebenfalls geplante Leistungsschutzrecht.

Ansgar Koreng auf der Konferenz „Das ist Netzpolitik“ Foto: nblr/ https://www.flickr.com/photos/75613313@N00/30059037602/

Die im September präsentierten Pläne zur EU-Urheberrechtsreform stoßen nicht nur bei Nutzern und Providern auf breiten Widerstand. Nun bekommt EU-Digitalkommissar Günter Oettinger auch deutliche Kritik von seinen Kollegen aus dem Europäischen Parlament. In einem Video positionierte sich eine Koalition verschiedener Abgeordneter aus unterschiedlichen Fraktionen gegen das geplante Leistungsschutzrecht für Presseverleger. Nicht weniger weitreichend, aber weitaus weniger breit diskutiert, sind die Pläne der Kommission zu Filtersystemen für Plattformen, um sogenannte „Value Gaps“ zu schließen. Worum geht es?


netzpolitik.org - ermöglicht durch Dich.

Der Rechtsanwalt Ansgar Koreng von JBB sprach auf unserer „Das ist Netzpolitik!“-Konferenz über die Pläne der EU, wir haben hier die wichtigsten Punkte zusammengefasst:

Nach den Plänen der EU-Kommission sollen Plattformen, auf denen Nutzer Inhalte hochladen können, also zum Beispiel Video- oder Fotoplattformen, aber auch Wikipedia und andere Non-Profit Plattformen, verpflichtet werden, eine Art Monitoring-Software zu installieren, um Rechteinhaber besser zu schützen. Bislang können Rechteinhaber den Betreiber einer Plattform auf einen Verstoß gegen das Urheberrecht aufmerksam machen. Liegt ein Verstoß vor, ist der Betreiber verpflichtet den Inhalt händisch von der Plattform zu entfernen und dafür zu sorgen, dass er auch nicht wieder hochgeladen wird. Eine Software einzusetzen, die diesen Vorgang automatisiert, klingt zunächst einmal praktisch.

Bekannt ist eine solche Monitoring-Software bislang nur von YouTube mit dem Programm Content-ID. Bei Content-ID hinterlegen Rechteinhaber Referenzdateien, die das Programm dann automatisch mit den Inhalten von hochgeladenen Dateien abgleicht. Wurde das Urheberrecht verletzt, so können die Rechteinhaber selbstständig entweder den entsprechenden Inhalt entfernen oder eine Beteiligung an den Einnahmen durch das Video einfordern. Ein solches Filtersystem flächendeckend einzusetzen, kann weitreichende Folgen haben.

Die Kosten:

Das Entwickeln eines Filtersystems ist zunächst einmal mit erheblichen Kosten verbunden. Kosten, die gerade Non-Profit Plattformen wohl kaum stemmen können. Denkbar wäre auch, YouTubes Content-ID zu lizenzieren, so dass Betreiber das Programm von YouTube kaufen können. Das würde jedoch eine Art Monopolstellung von Content-ID bedeuten und auch hier wäre der Preis fragwürdig.

Die Haftung:

Durch die Filterpflicht muss der Betreiber für die Inhalte auf seiner Plattform haften. „Die Plattformbetreiber dürfen dem, was der Nutzer hochlädt, nicht mehr gleichgültig gegenüberstehen“, sagte der Anwalt Ansgar Koreng in einem Interview mit iRights am Rande der „Das ist Netzpolitik“ – Konferenz. Was auf große, kommerzielle Plattformen abzielen soll, würde genau so kleine Betreiber oder auch große Non-Profit-Plattformen wie beispielsweise Wikipedia oder das freie Medienarchiv Wikimedia Commons treffen. Deren Arbeit würde massiv erschwert, wenn nicht gar unmöglich gemacht.

Der Datenschutz:

Das bringt erhebliche Folgen für den Datenschutz mit sich. Denn die Datensätze vor dem Hochladen vollständig zu durchleuchten bedeutet einen massiven Verstoß gegen das Recht auf informationelle Selbstbestimmung. Auch die Meinungsfreiheit wäre durch ein Filtersystem gefährdet. Möchte man ein Filtersystem mit niedriger Fehlerquote, so wächst die Wahrscheinlichkeit des Overblocking. Das heißt, auch Inhalte, die zum Beispiel durch die Meinungsfreiheit geschützt sind und eigentlich zulässig wären, gelangen nicht mehr durch das engmaschige Netz des Filters.

Und dann?

Etabliert sich ein Filtersystem, besteht die Gefahr, dass es sich ausweitet. „Wenn Filtersysteme eingerichtet werden und einmal vorhanden sind, wird ihre Anwendung nicht lange auf Urheberrechtsverletzungen beschränkt bleiben“, sagt Ansgar Koreng.

Die geplante Einführung von Filtersystemen, die wir hier vorgestellt haben, ist nur eine von vielen Maßnahmen der EU-Urheberrechtsreform, die in der Debatte über ein absurdes Leistungsschutzrecht leider untergehen.

Weitersagen und Unterstützen. Danke!
17 Kommentare
  1. Ich muss das jetzt mal zusammenfassen:

    – Leistungsschutzrecht
    – Urheberechtliches Filtersystem für alle Onlineinhalte
    – Noch mehr Überwachung durch IP-Kameras
    – Echtdatenabgleich, Biometriedatenerfassung durch IP-Kameras
    – Gewünschtes Verbot von Adblockern, Aushebelung von Anonymisierungsmöglichkeiten
    – Datenschutz stört Bundesregierung
    – Bundesregierung ignoriert alle relevanten IT-Sicherheitsvorfälle der letzten Monate (DDOS, Hacks und Co)

    Dieses radikale Muster in kürzester Zeit. Also bei mir schrillen gerade alle Alarmglocken.
    Was haben die eigentlich vor, so breit gefächert wie der aktuelle Angriff auf jedwede Privatsphäre im Netz läuft?

    1. Klingt sehr vernünftig. Kosten-> kein Problem, gestern erst kam die Meldung d. MRD Gewinne v. Google über die Ticker, Geld haben die genug bevor die ALG 2 benatragen müssen. Haftung- > es wäre schön, wenn die für geplantes und vorsätzliches Versagen der Upload Kontrolle haften müssen, gerne auch persönlich mit Knast und nicht nur mit Strafzahlungen-. Technik – ist wie gesagt z.b von Google schon entwickelt. Die Frechheit an Googles content ID ist aber, dass man die AGB von Google zustimmen muss, um dann plötzlich recht genau die Titel erfasst zu bekommen, von denen Google sonst vorgibt, eine Erfassung unrtechtmäßiger Uploads wäre nichr möglich. Wer das glaubt, hat auch Gelbe Hände von zuviel Onanieren. Datenschutz- Yes men, das“zwangsangebot“ von google zur Nutzung des content ID sytems muss dringend so eingesetzt werden können, dass Google nicht per Zwangs AGB Daten beliebig abgreifen kann. Und dann -> Dann wird sich Google eher überlegen, ob das Lobbying und fehlende reflexionsfähigkeit der Netzjünger so weit getrieben werden kann, dass jede noch so absurde Zuspitzung auf „Zensur“ ( anstatt auf: kostet uns Geld und finden wir deshalb blöd) nachgeplappert wird.

  2. Warum schaffen wir nicht „Die Zwischenhändler“ ab und wählen gleich die Konzerne selbst, die unsere Interessen … ähm … uns (Bürger) ihre Interessen Mitteilen und in ihrem Sinne Umsetzen …

    1. Die „Zwischenhändler“ dienen dem Bürger-Entertainment, sind somit unverzichtbar.
      Sie haben auch eine Pufferfunktion für die DAX- und MDAX-Fürsten als vorzeigbare Sündenböcke.

      Abzuschaffen wären Gartenzäune über 100cm in bevorzugten Villen-Lagen. Das würde die Sozialisation vereinsamter Eliten fördern.

    1. Lieber Stefan, die Leermedienabgabe bezahlen Sie für Kopier Vorgänge welche Sie legal und privat tätigen. Für Privatkopien hat, initiiert zuerst von Propaganda chef der Nazis, der Gesetzgeber die Rechtinhaber enteignet, um somit die kostenschlange Volksbespassung voranzutreiben. Aus Ausgleich dafür werden Privat Kopier Vorgänge pauschal vergütet, Dazu zählt die Leermedienabgabe

      1. Naja, es war ja nicht alles Schlecht, was Adolf Damals gemacht hat, denken sich unsere Politiker … und führen seine damaligen „Errungenschaften“ wieder ein, bis die Reichsbürger sich wieder heimisch fühlen, damit auch diese CDU/CSU wählen dürfen!

        (Sarkasmus, Ironie, Ernst? Wer weis das schon in den heutigen Zeiten!)

  3. Re: „Das bringt erhebliche Folgen für den Datenschutz mit sich. Denn die Datensätze vor dem Hochladen vollständig zu durchleuchten bedeutet einen massiven Verstoß gegen das Recht auf informationelle Selbstbestimmung.“

    Bitteschön? Wenn ich etwas zur Veröffentlichung auf einer öffentlich zugänglichen Website hochlade, kann es doch *jeder* durchleuchten. Inwieweit verstößt das „massiv“ gegen mein Recht auf informationelle Selbstbestimmung. Ich *will* doch, dass es veröffentlicht wird.

  4. Ähnliche Hashwerte bedeuten gar nichts. Ähnliche Inhalte führen gerade nicht zu ähnlichen Hashcodes – zumindest nicht bei gängigen Hashverfahren. Exact gleiche Dateien führen zum gleichen Hashcode, in superseltenen Ausnahmen führen irgendwelche anderen Dateien aber zum gleichen Hashcode.

    Unverständlich fand ich das Argument mit dem Datenschutz. Wenn ich einen Inhalt bei Wikipedia hochlade, dann wird der Inhalt ja gespeichert. Ob er zusätzlich durch einen Filter gejagd wird ändert doch an der Datenerfassung nichts. Ein System das unzulässige Inhalte (etwa nach Hashcodeprüfung) löscht müsste ja die Löschung auch nicht protokollieren bzw. es könnte im Protokoll nur speichern, was zu speichern erlaubt ist.

    Dem Argument, dass mit Hashwerten leichte Abwandlungen, Beschneidungen, Formatänderungen nicht erfassbar sind könnte man damit begegnen, dass es dann eben kein zumutbarer Aufwand ist. Den häufigsten Fall der 1:1-Kopie würde man damit aber abdecken können.

    Teuer ist wohl auch nicht das Entwickeln und Aufsetzen eines Filtersystems, bei dem man in einer Datenbank einen Hashwert abgleicht aber vielleicht dessen Pflege, so dass die Rechteinhaber dort ihre Verletzungen melden können, ohne dass dem Missbrauch Tor und Tür geöffnet wird sowie die Behandlung strittiger Fälle.

  5. Puh, zum Glück haben wir keine anderen Probleme als das böse Internet zu regulieren. Alles geht den Bach hinunter, aber man bastelt lieber Dinge kaputt, die noch funktionieren. Die Entwicklung ist ziemlich traurig.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.