Dieser Beitrag erschien zuerst bei der Gesellschaft für Freiheitsrechte unter der Lizenz CC BY 4.0 und wurde redaktionell leicht angepasst.
Das Bundesjustizministerium hat seinen Referentenentwurf für die Umsetzung der EU-Urheberrechtsrichtlinie veröffentlicht. Bereits im Sommer stand ein erster Entwurf zur Diskussion, den die Gesellschaft für Freiheitsrechte (GFF) in einer ausführlichen Stellungnahme analysiert hat. Der neue Vorschlag verschärft die Pflichten zum Einsatz von Uploadfiltern – zulasten der Grundrechte. Nur noch in wenigen Ausnahmefällen sollen Nutzer*innen ihre Uploads vor fälschlichen Sperrungen schützen können.
Dass der Vorschlag viele unserer Anregungen aufgenommen hat, die es erleichtern sollen, im Nachhinein gerichtlich gegen die Sperrung legaler Inhalte vorzugehen, ist nur ein schwacher Trost. Die Online-Kommunikation lebt von Schnelligkeit. Auch wenn ein Inhalt nur für einige Stunden oder Tage gesperrt ist, entsteht dadurch ein Schaden für die Meinungs- und Informationsfreiheit.
Vom neuen Vorschlag profitieren ausgerechnet die großen Plattformen wie YouTube oder Facebook, gegen die die Befürworter*innen von Artikel 17 einst ins Feld gezogen sind. Kleinere Unternehmen werden dagegen vor unüberwindbare technische Hürden gestellt und der Datenschutz bei der Nutzung sozialer Netzwerke wird weiter geschwächt.
So will Deutschland Artikel 17 umsetzen
Profitorientierte Plattformen sollen für Urheberrechtsverletzungen ihrer Nutzer*innen haften. Der Ausweg: Die Plattformen bemühen sich um Lizenzen und sperren mutmaßliche Urheberrechtsverletzungen auf Wunsch der Rechteinhaber*innen, die ihre Werke zur Sperrung melden. Ob Plattformen zum Einsatz von Uploadfiltern verpflichtet sein sollen, hängt grundsätzlich davon ab, ob der Einsatz dieser Technologien für sie verhältnismäßig ist. Bei Unternehmen mit einem Umsatz von weniger als einer Million Euro wird deshalb davon ausgegangen, dass sie zur automatischen Sperrung nicht verpflichtet sind.
Der erste Entwurf ließ offen, welche Pflichten für Plattformen über dieser Umsatzschwelle im Einzelfall zumutbar sind. Doch der nun veröffentlichte Referentenentwurf macht klar: Für sie wird nicht nur der Einsatz von Uploadfiltern unumgänglich, sie müssen sogar alle Uploads noch während des Uploadvorgangs auf etwaige Urheberrechtsverletzungen durchleuchten. Mildere Maßnahmen wie etwa eine stichprobenartige Überprüfung von Inhalten, die beispielsweise besonders oft aufgerufen werden, kommen demnach nicht mehr infrage.
§ 8 des Referentenentwurfs legt fest: Versucht jemand, einen Upload zu starten, der ein urheberrechtlich geschütztes Werk enthält, das zur Sperrung gemeldet wurde, muss die Plattform noch während des Uploadprozesses die Möglichkeit einräumen, diesen Upload als legal zu kennzeichnen („Pre-Flagging“).
Das könnte zum Beispiel im Falle eines Zitates zutreffen oder weil der Inhalt unter einer freien Lizenz wie Creative Commons genutzt wird. Macht die Person, die den Inhalt hochlädt, von dieser Option Gebrauch, geht der Inhalt erstmal online, es sei denn, die Kennzeichnung ist „offensichtlich unzutreffend“ – auch das muss in der Praxis wohl wieder ein Filter überprüfen. Liegt aber zum Zeitpunkt des Uploads kein Sperrverlangen für den Inhalt vor, erhalten Nutzer*innen nicht die Möglichkeit zum Pre-Flagging.
Marktkonzentration und Datenschutzprobleme drohen
Diese Vorschrift stellt kleinere Plattformen vor unlösbare Probleme: Um ihre Pflichten nach § 8 zu erfüllen, müssen Plattformen noch während des Uploadvorgangs feststellen, ob dieser Upload geschützte Werke enthält, für die ein Sperrverlangen vorliegt.
Wenn diese Prüfung auch nur eine Minute dauert, vergraulen die Plattformen ihre Nutzer*innen, die es gewöhnt sind, dass Inhalte nahezu in Echtzeit veröffentlicht werden. Beim Upload eines längeren YouTube-Videos sind Wartezeiten vielleicht akzeptabel. Bei der Veröffentlichung von Text, Bildern oder Kurzvideos auf sozialen Netzwerken wie Twitter sieht es jedoch anders aus – ganz zu schweigen von Livestream-Plattformen wie Twitch.
Wenn Unternehmen zum Einsatz von solchen Echtzeit-Uploadfiltern gezwungen sind, stärkt das die größten Internetkonzerne wie Google oder Facebook, die es sich leisten können, diese Überwachungstechnologie zu entwickeln. Kleinere Dienste können den gesetzlichen Anforderungen nicht genügen und müssen entweder ihren Dienst einstellen, oder die Uploadfilter der größeren Konkurrenz einkaufen.
Das schwächt nicht nur den Wettbewerb, sondern ist auch ein Datenschutzproblem, das der Bundesdatenschutzbeauftragte Ulrich Kelber bereits letztes Jahr in einem Interview prophezeit hatte: „Dann laufen noch mehr Daten durch die Hände der großen amerikanischen Internetkonzerne, die dann noch mehr über alle Nutzer erfahren. Upload-Filter halten wir deshalb für falsch und gefährlich.“
Nutzungsrechte ausgehebelt
Für Nutzer*innen bietet der neue Vorschlag deutlich weniger Schutz als das bisher vorgesehene Pre-Flagging-Verfahren. Der Entwurf aus dem Sommer sah vor, dass Nutzer*innen immer beim Upload vom Pre-Flagging Gebrauch machen können, um ihre Inhalte vorsorglich als legal zu kennzeichnen. Das ist gerade für versierte Nutzer*innen von Plattformen wie YouTube äußerst wichtig, weil Uploadfilter immer wieder dieselben Arten von Fehlern begehen.
Wer regelmäßig Inhalte Dritter zitiert – zum Beispiel Videokanäle, die auf Filmkritiken oder Nachrichten spezialisiert sind – weiß genau, dass Filter auf diese legalen Zitate früher oder später anschlagen werden. Nach dem neuen Vorschlag haben Nutzer*innen die Möglichkeit zum Pre-Flagging nur dann, wenn zum Zeitpunkt des Uploads bereits ein Sperrverlangen vorliegt.
Entschließen sich die Rechteinhaber*innen hingegen erst später, ihre Werke zur Sperrung zu melden, sieht der Referentenentwurf vor, dass die legalen Inhalte zunächst gesperrt werden und Nutzer*innen sich dann aktiv beschweren müssen, um sie wieder freischalten zu lassen. Das kann bis zu einer Woche dauern. Das ist nicht nur ein massiver Eingriff in die Meinungsfreiheit, sondern kann Medienunternehmen, die soziale Netzwerke zur Verbreitung und Monetarisierung nutzen, auch wirtschaftlich schädigen.
Das vorgeschlagene System ist außerdem sehr anfällig für falsche Copyright-Claims. Das sind Situationen, in denen eine Person oder Firma Inhalte zur Sperrung meldet, an denen sie gar keine Exklusivrechte hat. Das passiert besonders oft bei frei nachnutzbaren Werken, die entweder überhaupt nicht urheberrechtlich geschützt sind oder die unter einer freien Lizenz stehen.
Problematisch kann es zum Beispiel bei Creative-Commons-lizenzierten Werken werden, die viele verschiedene Nutzer*innen verwenden. Wenn eine*r dieser Nutzer*innen ein eigenes Video, das dieses Lied enthält, zur Sperrung meldet, um illegale Kopien des eigenen Videos zu bekämpfen, wird der Uploadfilter das frei nutzbare Lied fälschlicherweise dieser Person zuordnen. Das resultiert darin, dass alle anderen Videos, die legal dasselbe Lied verwenden, blockiert werden.
Wer regelmäßig freie Inhalte benutzt, kennt dieses Problem und hätte sich mit dem Pre-Flagging-Mechanismus vor solchen Fehlern schützen können. Nach dem neuen Entwurf muss man dagegen warten, bis die Sperrung bereits erfolgt ist, und kann die eigenen Inhalte erst im Nachhinein wieder freischalten lassen.
Dem falschen Rat gefolgt
Dass der Referentenentwurf die Marktmacht großer Plattformen stärkt und der kleineren Konkurrenz schadet, ist womöglich kein Zufall. Der neue Vorschlag zum Pre-Flagging entspricht genau den Vorstellungen, die Google in seiner Stellungnahme aus dem Sommer geäußert hatte. Dort heißt es:
Das Gesetz könnte von den Online-Sharing-Diensten verlangen, die Nutzer unmittelbar über eine Sperrung zu informieren und den Upload sofort wieder freizuschalten, wenn die Nutzer Einwände erheben. Dieser Ansatz würde die Interessen der Nutzer ebenso schützen wie das Pre-Flagging, würde aber gleichzeitig zu weniger Aufwand führen, da er nur bei einer tatsächlichen Sperrung Eingriffe und nicht unabhängig von einer erfolgenden Sperrung von allen Nutzern verlangen würde, alle ihre Uploads bereits beim Einstellen entsprechend zu kennzeichnen.
Noch im März hatte Justizministerin Lambrecht versprochen, den Bundesdatenschutzbeauftragten frühzeitig am Gesetzgebungsverfahren zu beteiligen. Der Referentenentwurf erweckt aber den Eindruck, dass dies entweder nicht geschehen ist oder seine Bedenken ignoriert wurden.
Stattdessen hat das Ministerium auf genau die Unternehmen gehört, vor denen der Datenschutzbeauftragte gewarnt hatte. Um Datenschutz, Meinungsfreiheit und eine vielfältige Plattformlandschaft zu wahren, muss die Bundesregierung also unbedingt nochmal nachjustieren!
Bis 6. November steht der Referentenentwurf zur öffentlichen Diskussion. Das Justizministerium erklärt, wie man sich beteiligen kann. Die GFF wird den neuen Vorschlag wieder genau auf grundrechtliche Probleme prüfen und sich mit einer Stellungnahme an der Konsultation beteiligen.
Leider leider…
Die würden auch eher ein Beherbergungsverbot aussprechen, als eine wirklich durchdachte ausgeklügelte Maßnahme mit Expertenhilfe hervorzubringen. Also eine Anhörung eines Experten ja, aber dann 8 Stunden diskutieren, ob wir den anderen ein Ausreiseverbot aufdrücken können… usw.
Entsprechend haben wir auch beim Urheberrecht nicht die Möglichkeit, z.B. ein herstellerseitiges Fanforum für ein bestimmtes Computerspiel von Uploadfiltern zu befreien, wenn es z.B. das Posten externer Inhalte verbietet, durch Moderatoren Inhalte entfernen lässt, und ansonsten notice and takedown betreibt.[Schlechterzogeneralkoholisierterdreijährigesmodusein] Nein nein, es soll alles wie Facebook und Youtube sein. Alles wird Facebook und Youtube sein. Es wird nichts anderes sein als Facebook und Youtube. [modiaus]
Zukunftsfabrizierer on top of things.
Der einzig vorstellbare Weg, solche Ausnahmen zu implementieren, kann nur sein:
– Die Webseite muss die Inhalte vorher in den maschinenlesbaren AGB vorhalten (Google z.B. prüft das dann automatisiert i.A.).
– Webseiten auf denen zu viele von den AGB abweichende Inhalte stehen haften, doch wieder für Urheberrechtsverletzungen. Beworben wird das mit „etwas für die Einhaltung der Regeln durch Konzerne tun“.
Wir sind schon fast am Ziel.
Das ist eigentlich ein Beispiel für Föderalismus unter Fürsten.
Da fachlich und somit der Kern einzelner Maßnahmen nicht fundiert sind, sind diese speziell also auch keine demokratisch legetimierten Regeln, da die Exekutivkraft hier durch den fachlichen Rahmen begründet ist. So gesehen, hat das weder mit Föderalismus noch mit Demokratie zu tun, was da passiert: es ist ein für die Demokratie nicht hinnehmbarer Zustand.
In der Richtung urteilen ja auch Gerichte derzeit, ich wollte nur den Geruch der neuartigen Auffassung vom Sinn der Exekutive wahrnehmbar machen.
Die Verlagslobby hat halt ein grosses Problem: niemand braucht sie mehr. Ihre Torwaechter-Funktion als Kontrolleur der teuren wie knappen Resourcen zum Vervielfaeltigen und Verteilen von Inhalten ist ueberfluessig geworden. Damit buessen sie das bequeme und margentraechtige Geschaeftsmodell ebenso ein wie die Macht ueber Diskurs und Kultur. Das muss verhindert werden, aber leider schuetzt die FDGO keine ueberkommenen Geschaeftsmodelle. Also muss ein Grundrecht reklamiert werden: das als Urheber einer genuinen Leistung. Denn nur damit koennen die grundlegenden Rechte aller Buerger eingeschraenkt werden, und darauf muss es hinauslaufen: das Verhindern allgemeiner und einfacher Erzeugung von Inhalten. Letztlich also Arbeiten gegen eine freie Gesellschaft, einen freien Diskurs und grundlegende Buergerrechte. Das passt dann zur Angst der Politiker, ihre Kontrolle ueber den Diskurs zu verlieren, oder besser: ihre Faehigkeit den Diskurs zu Gunsten der eigenen Ziele und Klientel zu ignorieren. Zufaellig sind die reichen Verlegerfamilien dann noch wichtiger Teil dieser Klientel (die kleinen Verleger verlieren, aber stoert die grossen wirklich nicht).
Ironie der Geschichte, dass die SPD mal Verlage gruendete, um die Kontrolle der Konservativen ueber Diskurs und Inhalte zu brechen. Heute steht die SPD auch bei diesem Thema aufopferungsvoll auf der anderen Seite.