Edit PolicyDer Digital Services Act als dystopisches Regelwerk

Uploadfilter, Leistungsschutzrecht und eine Abkehr vom Haftungsprivileg: Wenn das Europaparlament keine Kehrtwende hinbekommt, droht der Digital Services Act die Probleme mit Online-Plattformen noch zu verschärfen, anstatt zu ihrer Lösung beizutragen. Eine Kolumne.

Große dystopische Waschmaschine mit Person drin
Digital Services Act. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Denys Nevozhai

Julia Reda saß von 2014 bis 2019 für die Piraten im Europäischen Parlament und verantwortet heute bei der Gesellschaft für Freiheitsrechte das Projekt „control c“ zu Urheberrecht und Kommunikationsfreiheit. Dieser Beitrag erschien zuerst in ihrer Kolumne auf heise.de und wurde dort unter der Lizenz CC BY 4.0 veröffentlicht.

Es ist ein bekanntes Muster der Netzpolitik – die EU-Kommission macht einen Vorschlag, der die digitalen Grundrechte bedroht. Die Zivilgesellschaft mobilisiert daraufhin Proteste und setzt auf das direkt gewählte Europaparlament, um das Schlimmste zu verhindern. Doch ausgerechnet beim Digital Services Act, dem wichtigsten Gesetzesvorhaben der EU zur Regulierung von Online-Plattformen, gehen die gefährlichsten Vorschläge nun vom Europaparlament selbst aus, nachdem der Gesetzesentwurf der EU-Kommission erstaunlich grundrechtsfreundlich ausgefallen war. Offenbar hat das Europaparlament aus dem Debakel um Artikel 17 der Urheberrechtsrichtlinie nichts gelernt. Es droht ein dystopisches Regelwerk, das den flächendeckenden Einsatz von fehleranfälligen Uploadfiltern befördert, der Unterhaltungsindustrie die Sperrung von Inhalten auf Knopfdruck erlaubt und der Desinformation durch Boulevardmedien auf Social Media Vorschub leistet.

Abstimmung zum Digital Services Act verschoben

Eigentlich hätte der federführende Binnenmarktausschuss an diesem Montag über seine Position zum Digital Services Act abstimmen sollen, um Verhandlungen mit Kommission und Rat aufnehmen zu können. Stattdessen steht eine Anhörung der Facebook-Whistleblowerin Frances Haugen auf der Tagesordnung. Der eigentliche Grund für die Verschiebung der Abstimmung ist aber Uneinigkeit unter den Abgeordneten über die Grundsätze der Plattformregulierung. Immer mehr Vorschläge finden im Europaparlament Unterstützung, die eine vollständige Abkehr vom bewährten System der begrenzten Haftung für Internetdienste bedeuten würden und unsere Kommunikationsfreiheiten im Netz bedrohen.

Der Digital Services Act ist Mutter aller Plattformgesetze. Der Gesetzesentwurf soll im Gegensatz zu Artikel 17 nicht nur die Haftung für Urheberrechtsverletzungen auf ausgewählten kommerziellen Plattformen regeln – sondern die Haftung für alle illegalen Aktivitäten von Nutzer:innen auf allen Arten von Hosting-Providern, von Facebook bis zum nicht kommerziellen Hobby-Diskussionsforum. Auch wenn Plattformen Inhalte auf Basis ihrer allgemeinen Geschäftsbedingungen sperren, soll der Digital Services Act dafür grundlegende Regeln definieren, um die Rechte der Nutzer:innen vor willkürlichen Entscheidungen zu stärken. Angesichts des ausgewogenen Entwurfs durch die EU-Kommission ist umso erstaunlicher, was für drastische Grundrechtseinschränkungen im Europaparlament nun salonfähig werden. Die folgenden drei Vorschläge gehören dabei zu den gefährlichsten.

Unterhaltungsindustrie will Sperrfristen von 30 Minuten

Bisher haften Plattformen nicht für illegale Uploads ihrer Nutzer:innen, solange sie diese unverzüglich entfernen, nachdem sie Kenntnis über eine Rechtsverletzung erlangt haben. Wie schnell eine Löschung vorgenommen werden muss, hängt vom Einzelfall ab – beispielsweise davon, ob eine Rechtsverletzung infolge eines Hinweises eindeutig feststellbar ist. Gerichte beraten oft jahrelang, ob eine bestimmte Äußerung beispielsweise eine rechtswidrige Beleidigung darstellt. In solchen Grenzfällen kann es keinem Unternehmen zugemutet werden, in kürzester Zeit über eine Sperrung zu entscheiden. Deshalb hat der europäische Gesetzgeber in der Vergangenheit auf strikte Löschfristen verzichtet.

Das soll sich nun ändern: Die Berichterstatterin des Europaparlaments für den Digital Services Act, die Dänin Christel Schaldemose, verlangt von Plattformen eine Sperrung illegaler Inhalte binnen 24 Stunden, sofern die Inhalte eine Gefahr für die öffentliche Ordnung darstellen. Ab wann genau ein Upload auf sozialen Netzwerken die öffentliche Ordnung bedroht, ist dabei so unklar, dass Plattformen kaum etwas anderes übrig bleiben wird, als Inhalte auf Zuruf nach 24 Stunden zu sperren.

Der mitberatende Rechtsausschuss, der seine Position zum Digital Services Act bereits verabschiedet hat, geht dabei noch weiter und will vor allem der Unterhaltungsindustrie einen Freifahrtschein ausstellen, die Sperrung von Uploads zu erwirken. Livestreams von Sportveranstaltungen oder Unterhaltungsevents sollen binnen 30 Minuten gesperrt werden, für ähnliche Sonderregelungen hatten Sportverbände auch bereits bei der Urheberrechtsreform lobbyiert. Derart kurze Löschfristen sind nur durch automatisierte Filter zu erreichen – eine Prüfung durch Menschen, ob eine Sperrforderung überhaupt berechtigt ist, kann binnen so kurzer Zeit kaum stattfinden.

Gefährlicher als das Netzwerkdurchsetzungsgesetz

Strikte Löschfristen für illegale Inhalte sind bereits aus dem deutschen Netzwerkdurchsetzungsgesetz (NetzDG) bekannt. Dennoch sind die auf EU-Ebene diskutierten Vorschläge in vielerlei Hinsicht gefährlicher. Erstens ist die Verpflichtung zur Sperrung von gemeldeten Inhalten binnen 24 Stunden nach dem Netzwerkdurchsetzungsgesetz auf offensichtlich rechtswidrige Inhalte und auf einige wenige große Plattformen beschränkt. In dem Vorschlag der Verhandlungsführerin des Europaparlaments sind solche Beschränkungen nicht vorgesehen.

Zweitens unterscheiden sich die Folgen bei einem Verstoß gegen die Löschfristen zwischen NetzDG und Digital Services Act erheblich. Das NetzDG sieht Geldstrafen vor, wenn eine Plattform systematisch gegen die Vorgaben des Gesetzes verstößt. Das bedeutet im Klartext, dass ein einmaliges Überschreiten der 24-Stunden-Frist nicht automatisch zu einer Bestrafung führt. Im geplanten Digital Services Act werden die Löschfristen dagegen zur Voraussetzung für die Haftungsbeschränkung von Plattformen: Für Inhalte, die die Plattform nicht binnen 24 Stunden nach einem Hinweis gesperrt hat, ist der Plattformbetreiber selbst haftbar, so als hätte er die illegale Handlung selbst begangen. Beim Urheberrecht bedeutet das beispielsweise, dass der Plattform horrende Schadensersatzforderungen drohen, und zwar für jeden einzelnen betroffenen Inhalt. Die Anreize, alle gemeldeten Inhalte einfach ungesehen zu sperren, sind hier viel größer als noch beim NetzDG.

Auch an anderer Stelle will die Berichterstatterin des Europaparlaments Plattformen für Fehlverhalten bestrafen, indem sie sie unmittelbar für Rechtsverletzungen ihrer Nutzer:innen haftbar macht – beispielsweise wenn die Plattformen gegen Transparenzpflichten verstoßen. So wichtig Transparenz auch ist, birgt diese Vorgehensweise große Gefahren. Zu Rechtsverletzungen durch Plattformen kann es immer kommen, eine angemessene Reaktion darauf ist eine strikte Marktüberwachung und die Verhängung von Geldstrafen, die durchaus auch hoch ausfallen dürfen. Doch wenn bei einer beliebigen Regelverletzung durch Plattformen gleich der Verlust des Haftungsausschlusses droht, schafft der Gesetzgeber dadurch einen Anreiz für Plattformen, das Verhalten ihrer Nutzer:innen durch den Einsatz von künstlicher Intelligenz möglichst feinmaschig zu kontrollieren. Dabei ist längst bekannt, dass solche Systeme hohe Fehlerquoten aufweisen und auch reihenweise völlig unverdächtige, legale Inhalte sperren – auch das haben die Enthüllungen der Facebook-Whistleblowerin Frances Haugen jüngst noch einmal unterstrichen.

Artikel 17 geht dem Rechtsausschuss noch nicht weit genug

Der Rechtsausschuss sieht vor, dass Organisationen der Unterhaltungsindustrie als sogenannte „Trusted Flagger“ anerkannt werden können, die eigenständig die sofortige Sperrung von Inhalten auf Plattformen erwirken können sollen und lediglich einmal im Jahr Rechenschaft darüber ablegen müssen, welche Inhalte davon betroffen waren. Diese Regelung öffnet dem Missbrauch Tür und Tor. Selbst Plattformen, die nach der Urheberrechtsreform noch nicht zum Einsatz von Uploadfiltern gezwungen sind, würden dann die Sperrforderungen der „Trusted Flagger“ automatisiert umsetzen, die wiederum mit hoher Sicherheit auf fehleranfällige Filtersysteme zurückgreifen würden, um angebliche Urheberrechtsverletzungen ausfindig zu machen.

Endgültig absurd wird die Position des Rechtsausschusses, wenn dieser sich an eine Neudefinition des Haftungsausschlusses macht. Von diesem sollen Hosting-Provider nur noch dann profitieren können, wenn sie sich gegenüber den hochgeladenen Inhalten völlig neutral verhalten, also noch nicht einmal durch den Einsatz von Suchfunktionen oder Empfehlungsalgorithmen in die Präsentation der Inhalte eingreifen. Wenn sich diese Position durchsetzt, wären nur noch reine Webhoster vom Haftungsausschluss umfasst. Alle modernen Plattformen wären direkt für Rechtsverletzungen ihrer Nutzer:innen haftbar – auch die Wikipedia, GitHub oder Dropbox, die bei der Urheberrechtsreform nach lauten Protesten aus der Internetcommunity von Artikel 17 ausgenommen wurden. Der Vorschlag des Rechtsausschusses würde den Betrieb von Online-Plattformen in der EU schlichtweg unmöglich machen.

Desinformation für das Leistungsschutzrecht

Und auch das Leistungsschutzrecht für Presseverlage, das Paradebeispiel für Klientelpolitik im Urheberrecht, spielt in der Debatte um den Digital Services Act erneut eine Rolle. Beim Rechtsausschuss haben die Presseverlage ein offenes Ohr für ihre Forderung nach einer Sonderbehandlung von Presseinhalten auf sozialen Medien gefunden. Der Ausschuss fordert, dass große Plattformen wie Facebook die Inhalte von Presseverlagen künftig nicht mehr sperren dürfen – selbst wenn diese offensichtliche Desinformation enthalten oder gegen Geschäftsbedingungen verstoßen.

Der Zweck dieser Regelung ist klar – auch wenn der Rechtsausschuss behauptet, sie diene dem Schutz von Meinungsfreiheit und Medienpluralismus, handelt es sich hier um einen weiteren Versuch, das Leistungsschutzrecht durchzusetzen. Wenn die Nutzung von Presseartikeln durch Plattformen nach dem Leistungsschutzrecht kostenpflichtig ist, den Plattformen aber gleichzeitig durch den Digital Services Act verboten wird, Presseartikel zu sperren, dann bleibt ihnen gar nichts anderes übrig, als die Artikel anzuzeigen und dafür auch noch zu zahlen. Für die Verlage ist das eine Lizenz zum Gelddrucken. In ihrem Kreuzzug für das Leistungsschutzrecht sorgen die Verlage aber dafür, dass Plattformen Desinformation nichts mehr entgegensetzen können, solange sie nur in einer Pressepublikation stattfindet. Dass eine solche Regelung gefährlich ist, verraten nicht erst die Enthüllungen um Fake-Nachrichtenangebote, die für Propaganda rund um autokratische Regime genutzt werden. Es reicht ein Blick in die Boulevardpresse, um zu verstehen, dass die Publikation eines Artikels durch einen Presseverlag kein Garant für Qualität, Wahrheit oder auch nur die Einhaltung grundlegender zwischenmenschlicher Verhaltensregeln ist.

Noch hat das Europaparlament Zeit, seinem Ruf als Garant der Grundrechte gerecht zu werden. Doch wenn die Verhandlungen um den Digital Services Act nicht noch eine Kehrtwende nehmen, droht dieses Gesetz die Probleme mit Online-Plattformen noch zu verschärfen, anstatt zu ihrer Lösung beizutragen.

2 Ergänzungen

  1. Netzpolitik ist wertvoll, sehr wertvoll sogar. Aber nicht so, wie Hobby-Netzpolitiker vielleicht denken.

    Der Wert von netzpolitischen Positionen besteht darin, vielseitig einsetzbare Verhandlungsmasse zu sein. Sie können je nach Interessenlage gegen fachfremde Vorgänge „verrechnet“ werden.

    Politik nennt das Pragmatismus, der Volksmund Kuhhandel.

  2. „Der Vorschlag des Rechtsausschusses würde den Betrieb von Online-Plattformen in der EU schlichtweg unmöglich machen. “

    Ja und dann kommt nicht nur die Communityfrage für kleine Entwickler gleich mit ins Gepäck.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.