Edit PolicyDer Digital Services Act steht für einen Sinneswandel in Brüssel

Mit netzpolitischen Initiativen hat die EU-Kommission in jüngster Zeit viele vor den Kopf gestoßen. Beim Digital Services Act sieht es nun anders aus.

Der Digital Services Act steht für einen Sinneswandel in Brüssel
Der Entwurf für den Digital-Services-Act ist ein Schritt in die richtige Richtung, meint die ehemalige EU-Abgeordnete Julia Reda. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Nick Fewings

Julia Reda saß von 2014 bis 2019 für die Piraten im Europäischen Parlament und verantwortet heute bei der Gesellschaft für Freiheitsrechte das Projekt „control c“ zu Urheberrecht und Kommunikationsfreiheit. Dieser Beitrag erschien zuerst in ihrer Kolumne auf heise.de und wurde dort unter der Lizenz CC BY 4.0 veröffentlicht.


Nach der katastrophalen netzpolitischen Bilanz der vorigen EU-Kommission befürchteten viele, dass der geplante Digital Services Act einfach die Fehler der Vergangenheit fortsetzen würde. Die Uploadfilter der Urheberrechtsreform und die unrealistisch kurzen Sperrfristen der Terrorverordnung drohten zur Blaupause für den Umgang mit allen illegalen Inhalten im Netz zu werden. Stattdessen hat die amtierende EU-Kommission unter Digitalkommissar Thierry Breton im Dezember zwei Gesetzesvorhaben zur Plattformregulierung präsentiert, die es sich auszubauen und zu verbessern statt zu bekämpfen lohnt. Nach Jahren der Proteste und Schadensbegrenzung ist das ein willkommener Paradigmenwechsel für die netzpolitische Zivilgesellschaft.

Nationale Alleingänge behindern Binnenmarkt

Notwendig geworden ist der Vorschlag für den Digital Services Act, also eine europaweit einheitliche Plattformregulierung, weil nationale Alleingänge wie das Netzwerkdurchsetzungsgesetz in Deutschland den europäischen Binnenmarkt immer weiter behindern, wenn sich Online-Plattformen an immer mehr unterschiedliche, teils widersprüchliche nationale Regelwerke halten müssen. Gleichzeitig haben Phänomene wie willkürliche Accountsperrungen, Hassrede im Netz, die Beförderung von Desinformation durch Empfehlungssysteme oder auch ausbeuterische Geschäftspraktiken von Online-Marktplätzen gezeigt, dass der Plattformmarkt nicht gänzlich ohne Regulierung auskommt.

Deshalb hat die EU-Kommission nun mit dem Digital Services Act, der alle Intermediäre betrifft, und dem Digital Markets Act, der zusätzliche wettbewerbsfördernde Maßnahmen für wenige große Gatekeeper-Plattformen enthält, zwei Verordnungen vorgelegt, die unmittelbar in der ganzen EU geltendes Recht werden, wenn Parlament und Rat sie verabschieden. Genau wie bereits die Datenschutzgrundverordnung sollen diese Gesetze auch für Plattformen gelten, die ihren Sitz außerhalb der EU haben, zumindest wenn sie sich mit ihren Dienstleistungen gezielt an Menschen innerhalb der EU richten.

Verbesserter Grundrechtsschutz auf Plattformen

Der Entwurf für den Digital Services Act zeigt, dass die Proteste gegen Uploadfilter zu einem echten Sinneswandel in Brüssel geführt haben. Erstmals werden die Nutzer:innen von Plattformen nicht in erster Linie als potentielle Kriminelle, oder bestenfalls als Wirtschaftssubjekte betrachtet, sondern als mündige Teilnehmer:innen an einem demokratischen Diskursraum. Erklärtes Ziel des Digital Services Act ist es, auf Plattformen nicht bloß für Sicherheit zu sorgen, sondern allen Menschen „die Ausübung der ihnen durch die Grundrechtecharta garantierten Rechte zu ermöglichen, insbesondere das Recht auf Meinungs- und Informationsfreiheit, unternehmerische Freiheit und Freiheit von Diskriminierung“.

Die Grundpfeiler der Plattform-Innovation der vergangenen zwanzig Jahre, nämlich der Grundsatz, dass Plattformen für die Inhalte ihrer Nutzer:innen nicht haftbar sind und nicht zum Einsatz von Uploadfiltern oder anderen allgemeinen Überwachungspflichten gezwungen werden dürfen, behält der Digital Services Act bei. Hinzu kommen zusätzliche europaweit einheitliche Vorschriften, die in der Summe eher Verbesserungen als Gefahren für die Grundrechte bedeuten.

Grundsätzlich gilt, dass die Grundrechte in erster Linie vor staatlichem Handeln schützen. Wenn ein privates Unternehmen bestimmte Postings löscht, ist das noch nicht automatisch eine Einschränkung der Meinungsfreiheit. Es wäre auch nicht im Sinne der Nutzer:innen, wenn fortan beispielsweise Rezepteplattformen verpflichtet wären, auch politische Diskussionen oder Filmrezensionen zuzulassen, oder Forenmoderator:innen Off-Topic-Diskussionen nicht mehr verschieben dürften, nur weil diese Inhalte gegen kein Gesetz verstoßen.

Dennoch besteht ein wachsendes Problem für die Meinungs- und Informationsfreiheit, wenn etwa soziale Netzwerke für die politische Beteiligung oder den wirtschaftlichen Erfolg immer wichtiger werden und völlig willkürlich bestimmte Inhalte löschen oder Accounts sperren dürfen. Der Digital Services Act sieht also vor, dass alle Intermediäre, die User-Inhalte moderieren, diese Moderationsregeln und die Maßnahmen zu ihrer Durchsetzung künftig in ihren allgemeinen Geschäftsbedingungen öffentlich machen müssen. Bei dieser Durchsetzung sind sie an die Grundrechte gebunden.

Das bedeutet, eine Rezepteplattform kann auch in Zukunft nur Uploads von Kochrezepten erlauben, aber sie muss öffentlich machen, welche Inhalte auf der Plattform erlaubt sind, und darf bei der Durchsetzung dieser Regeln nicht diskriminieren. Wenn eine Plattform etwa freiwillig automatische Filtersysteme einsetzt, um bestimmte Inhalte zu sperren, muss sie das öffentlich machen und darf dabei die Meinungsfreiheit nicht verletzen.

Regeln für Notice and Takedown mit Tücken

Auch wenn der Digital Services Act erfreulicherweise auf verpflichtende Uploadfilter verzichtet, enthält er bestimmte Regeln, die ihren Einsatz in der Praxis befördern könnten. Hier muss das Europaparlament unbedingt nachbessern. Erstmals enthält der Entwurf ein einheitliches System für das Notice-and-Takedown-Verfahren, also die Prozedur, über die Plattformen Informationen über etwaige illegale Inhalte auf ihren Diensten sammeln. Demnach müssen alle Hosting-Provider ein System vorhalten, mit dem Nutzer:innen mutmaßliche illegale Inhalte melden können. Online-Plattformen, die die Veröffentlichung von Inhalten durch Nutzer:innen erlauben und keine Kleinunternehmen sind, müssen darüber hinaus auch ein Beschwerdeverfahren gegen widerrechtliche Sperrungen anbieten.

Durch die Schaffung eines europäischen Regelwerks könnte sich die Praxis ändern, dass bisher das Notice-and-Takedown-System des US-amerikanischen Digital Millennium Copyright Act weltweit zur Sperrung von missliebigen Inhalten genutzt wird, was es insbesondere nicht-amerikanischen Nutzer:innen erschwert, gegen fälschliche Sperrungen ihrer Inhalte vorzugehen. Problematisch ist aber, dass der Digital Services Act nur unzureichend zwischen unterschiedlichen Arten von illegalen Inhalten unterscheidet. Der Vorschlag, dass grundsätzlich jede:r beliebige illegale Inhalte melden kann, mag für bestimmte Inhalte wie beispielsweise Aufrufe zu Straftaten sinnvoll sein. In anderen Bereichen, wie etwa dem Urheberrecht, ist es aber wichtig, dass nur Rechteinhaber:innen vermeintliche Rechtsverletzungen melden können, weil Dritte oft überhaupt nicht über die notwendigen Informationen verfügen, um beurteilen zu können, ob die Nutzung eines geschützten Werks tatsächlich eine Urheberrechtsverletzung darstellt.

Die einzige Unterscheidung zwischen verschiedenen illegalen Inhalten, die der Digital Services Act in Bezug auf das Notice-and-Takedown-Verfahren vornimmt, ist, dass Personen, die dokumentierten Kindesmissbrauch melden, sich selbst nicht identifizieren müssen. So wird die Hemmschwelle für die Meldung solch schwerer Straftaten gesenkt, weil meldende Personen ein geringeres Risiko eingehen, sich selbst strafrechtlich zu belasten. Weitere Differenzierungen dieser Art wären notwendig, um die Effektivität des Systems zu erhöhen und missbräuchliche Meldungen von vermeintlich illegalen Inhalten zu verhindern.

Am problematischsten am vorgeschlagenen Notice-and-Takedown-Verfahren ist aber, dass eine Meldung eines vermeintlich illegalen Inhalts, die hinreichend präzise begründet, warum der Inhalt illegal zu sein scheint, automatisch zu einer Haftung der Plattform führt, wenn diese den Inhalt nicht unverzüglich entfernt. Die vollautomatische Sperrung von Inhalten, für die die Plattform solche Meldungen erhält, ist ausdrücklich erlaubt, solange die Plattform den Einsatz solcher Filtersysteme transparent macht.

Die hohe Zahl von Meldungen, die gerade große Provider wie Google oder Facebook erhalten, verbunden mit dem hohen Haftungsrisiko, das durch eine zeitraubende menschliche Prüfung von Meldungen entstehen würde, lädt Plattformen natürlich dazu ein, automatisch alle Inhalte zu sperren, für die eine Meldung eingeht. Aus dem USA sind jedoch bereits umfassende Missbrauchsfälle bekannt, in denen das Notice-and-Takedown-Verfahren benutzt wurde, um beispielsweise kritische Berichterstattung oder andere missliebige Inhalte aus der Google-Suche zu entfernen. Diese Art von Missbrauch wird durch automatische Sperrsysteme befeuert. Zwar können Personen, die wiederholt fälschliche Meldungen schicken, vom Meldesystem ausgeschlossen werden. Da aber jede:r vermeintliche illegale Inhalte melden kann, wird diese Maßnahme kaum Wirkung entfalten, weil man einfach eine andere Person beauftragen kann, die Meldungen abzuschicken.

Gestärkte Transparenzpflichten für Plattformen

Erfreulich ist dagegen, dass der Digital Services Act vorschreibt, dass alle Hosting-Provider ihre Sperr-Entscheidungen gegenüber ihren Nutzer:innen begründen müssen. Diese Entscheidungen werden, gemeinsam mit Informationen über die Meldung, die zur Sperrung geführt hat, in einer zentralen Datenbank veröffentlicht, bereinigt um persönliche Daten. So können nicht nur Nutzer:innen, die über kein Konto bei dem Hosting-Provider verfügen, sich informieren, warum bestimmte Informationen nicht mehr verfügbar sind. Eine freiwillig durch einige Plattformunternehmen befütterte Notice-and-Takedown-Datenbank, die Lumen Database der Harvard-Universität, war auch verantwortlich dafür, die zahlreichen Missbrauchsfälle des amerikanischen DMCA-Systems überhaupt erst an die Öffentlichkeit zu bringen, da Journalist:innen und Forscher:innen so Muster in den Inhaltesperrungen erkennen konnten. Es ist sehr erfreulich, dass die EU-Kommission sich an der Lumen-Datenbank ein Beispiel genommen hat und diese Transparenz in der EU künftig verpflichtend machen will.

Die Transparenz wird auch in anderer Hinsicht durch den Digital Services Act gestärkt. Plattformen müssen Nutzer:innen darüber informieren, warum ihnen bestimmte Werbung angezeigt wird, wie oft Accounts suspendiert wurden und was die Ergebnisse von Beschwerden über Inhalte- oder Accountsperrungen waren. Online-Marktplätze müssen außerdem die Identität aller Händler:innen überprüfen und gegenüber Verbraucher:innen offenlegen, die auf dem Marktplatz etwas kaufen. Wenn Marktplätze nicht eindeutig kennzeichnen, wann Produkte auf der Plattform von Dritten vertrieben werden, dann können sie ihr Haftungsprivileg verlieren und für etwaige Produktschäden haften.

Sehr große Plattformen mit mehr als 45 Millionen monatlichen Nutzer:innen in der EU müssen darüber hinaus eine öffentliche Datenbank aller geschalteten Werbung inklusive deren Reichweite und Zielgruppen anbieten. Um Phänomenen wie Wahlmanipulation oder Gefahren für die öffentliche Gesundheit vorzubeugen, müssen diese Plattformen regelmäßige Risikoanalysen ihrer Systeme durchführen und öffentlich machen. Unter bestimmten Umständen müssen sie auch der Wissenschaft Zugang zu ihren Daten gewähren, um solche Risiken zu erforschen. Bei Empfehlungsalgorithmen müssen diese sehr großen Plattformen außerdem ihren Nutzer:innen die Möglichkeit geben, jegliches Profiling, also die Verwendung ihrer persönlichen Daten für maßgeschneiderte Empfehlungen, abzuschalten.

Der Teufel steckt im Detail

Trotz der vielen positiven Ansätze des Digital Services Act birgt er auch Gefahren für die Grundrechte. So droht er einen der größten Nachteile des amerikanischen DMCA zu importieren, nämlich verpflichtende Accountsperrungen. Genau wie im DMCA sollen auch nach dem Digital Services Act Plattformen verpflichtet werden, Accounts bei wiederholten Gesetzesverstößen nach einer Verwarnung zu sperren. Diese Regel aus dem DMCA ist auf Plattformen wie YouTube oder Twitch in Form einer 3-Strikes-Regel implementiert und führt in der Praxis immer wieder zu Problemen. Etwa wenn plötzlich viele Beschwerden über jahrealte Inhalte bei einer Plattform eingehen, oder wenn die Filtersysteme der Plattform Fehler machen, müssen sich Nutzer:innen um die dauerhafte Sperrung ihrer Accounts und die damit einhergehenden wirtschaftlichen oder politischen Nachteile sorgen.

Problematisch ist auch, dass der Digital Services Act, selbst wenn er in dieser Form verabschiedet wird, die Urheberrechtsreform oder die Terrorverordnung nicht ungeschehen macht. Wo solche Sektor-spezifischen Gesetze gelten, haben sie auch in Zukunft Vorrang vor dem Digital Services Act. Für die Plattformen, die etwa von Artikel 17 der Urheberrechtsrichtlinie betroffen sind, könnte es also dennoch verpflichtende Uploadfilter geben, auch wenn der Digital Services Act diese ausschließt. Da kann nur noch der Europäische Gerichtshof Abhilfe schaffen.

In einem Punkt droht der Digital Services Act außerdem einen Kardinalfehler der Urheberrechtsreform zu wiederholen. Der Verordnungsentwurf geht offensichtlich davon aus, dass Online-Plattformen von Unternehmen betrieben werden, die Regeln sind aber grundsätzlich auch auf nichtkommerzielle Projekte wie die Wikipedia anwendbar. Hier bedarf es einer genauen Prüfung, dass dabei keine unerwünschten Effekte entstehen. Mindestens sollte klargestellt werden, dass Ausnahmen, die für Kleinunternehmen vorgesehen sind, auch für Nichtunternehmen gelten. Beispielsweise könnte es für die Wikipedia unzumutbar sein, seine Geschäftsbedingungen konsequent selbst durchzusetzen, da Wikipedia in erster Linie auf freiwillige Community-Moderation setzt. Ohne eine entsprechende Klarstellung gilt Wikipedia potenziell auch als sehr große Online-Plattform im Sinne des Gesetzes, weil zu den 45 Millionen monatlichen Nutzer:innen auch solche zählen, die ohne Account einfach die Webseite besuchen. Für diese Plattformen gelten besonders strenge und kostspielige Vorschriften.

Hier sollten Europaparlament und Rat sehr genau hinschauen, um sicherzustellen, dass die Regeln nicht über das Ziel hinausschießen und gemeinnützigen Projekten Steine in den Weg legen. Im voraussichtlich noch Jahre andauernden Gesetzgebungsprozess werden beide Institutionen nun die Möglichkeit haben, umfassende Änderungen an dem Gesetzesvorschlag vorzunehmen. Es bleibt zu hoffen, dass die grundrechtsfreundlichen Ansätze des Digital Services Act in diesem Verfahren erhalten und gestärkt werden.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. Sinnneswandel nutzt mir erst, wenn das für kleinere Marktteilnehmer (und eigentlich-nicht-Marktteilnehmer) alles komplett geklärt ist.

    Ausschlusskriterien:
    – Übertrieben kurze Reaktionszeiten.
    – Externe Filter einsetzen müssen. Bzw. allgemeiner: Konzerne automatisch mitfüttern. Geld und Daten wäre ja nun wirklich obszön.
    – Automatische Haftungsrisiken.
    – Unprüfbare „Behördenanfragen“.
    – Direkte Auskunftspflicht an Behörden anderer Länder ohne durch Behörden des „Dienstlandes“ flankierte Widerspruchsmöglichkeit u.ä.
    – Keine oder zu späte Information bzw. manglende Transparenz bei Ausleitung von Verkehr und/oder Ausnutzen von Sicherheitslücken bzgl. meiner Softwaresysteme.
    – Keine Systematik bei Veröffentlichung von irgendwelchem sonstigen „lawful access“, z.B. bei Aushändigen von Nutzerdaten auf Gerichtsbeschluss hin.
    – (usw. usf.)

    Wenn ich für Menschen etwas mache, und es keine signifikanten Vorteile bei Sicherheit und Privatsphäre mehr gibt, bringt mir Europa auch nicht mehr so viel. Man könnte sogar weiter gehen und sagen, dass Länder mit Diensten denen ihre Schnüffelarbeit nicht abhanden kommt (aufgrund von Kompetenz) selbst dann vorzuziehen sein könnten, wenn die ansonsten eigentlich schlechtere Randbedingungen bieten. Wahrscheinlich ist aber eher, dass ich gar nicht erst anfange, etwas mit „Menschen im Internet“ anzufangen, es ergibt dann einfach keinen Sinn mehr, da der potentielle Schaden zu wahrscheinlich und den Menschen eher nicht bewusst ist.

  2. Gesamtpaket Europa: Genau der letzte Absatz ist der entscheidende Punkt. Was nützt ein ursprünglich „freies“ Internet, das sich selbst ad absurdum führt? Wenn die offene Kommunikation, für die es einst ersonnen wurde, keine mehr sein darf? Sei es aus geld- oder zensurpolitischen Gründen? Man kann nicht von einem „Freien Europa“ reden und gleichzeitig Regelwerke oder Gesetze schaffen, die durch völlig falsche Digitalisierungspolitik genau diese Freiheit in Unfreiheit verwandeln. Den Agierenden ist dies – das zeigt der obige Artikel – offensichtlich nicht bewusst. Dass sich das ändert, ist angesichts der halbherzigen Umsetzung konstruktiver Vorschläge diverser kritischer Denker eher nicht zu erwarten.

  3. „Problematisch ist auch […] die Urheberrechtsreform oder die Terrorverordnung nicht ungeschehen macht. … Sektor-spezifischen Gesetze gelten, […] Vorrang vor dem Digital Services Act. [..] könnte es also dennoch verpflichtende Uploadfilter geben, auch wenn der Digital Services Act diese ausschließt.“

    Neben all dem Anderen, ein wenig vom Negativen wird zurückgenommen und nun soll das wirklich besser sein?
    Etwas weniger Folter und wir sind zufrieden?
    Bitte, sind wir schon so weit?

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.