Digital Services ActEntfernung illegaler Inhalte entzweit EU-Länder

Das geplante EU-Gesetz für digitale Dienste soll den Umgang mit illegalen Inhalten im Netz vereinheitlichen. Doch der Vorschlag der EU-Kommission wirft viele Fragen auf, wie aus einem Dokument des EU-Rats hervorgeht. Zudem wollen Länder wie Spanien de facto Uploadfilter einführen, während Deutschland die eigenen Regeln erhalten will.

Eigentlich soll das geplante EU-Gesetz für digitale Dienste die Fragmentierung der Netz-Regeln eindämmen. Doch Deutschland will nationale Ausnahmen erhalten. Vereinfachte Pixabay Lizenz stokpic

Die Bundesregierung will sich ihre eigenen Ansätze zur Internet-Regulierung nicht wegnehmen lassen, etwa das Netzwerkdurchsetzungsgesetz oder die Aufsicht durch Landesmedienanstalten. Zudem drängt die Regierung „unmissverständlich“ darauf, dass Messengerdienste wie Telegram oder (Facebooks) Messenger, die sowohl „Möglichkeiten zur Transaktion und Interaktion“ bieten, vom geplanten EU-Gesetz über digitale Dienste (Digital Services Act, DSA) erfasst werden.

Der DSA müsse Spielraum lassen für „nationale Regelungen in Hinblick auf die Bekämpfung von Hassrede und den Schutz Minderjähriger“, kommentiert die Bundesregierung den Gesetzentwurf der EU-Kommission. In einem der Redaktion vorliegenden Ratspapier vom 8. März beziehen die EU-Länder auf 240 Seiten Stellung zu den ersten beiden von insgesamt fünf Kapiteln des Entwurfs. Über das Papier hatte zuerst der Tagesspiegel berichtet (€).

Neue Regeln, alter Flickenteppich

Vorgestellt im vergangenen Dezember soll der DSA die Spielregeln für den digitalen Raum auf einen aktuellen Stand bringen. Dazu zählt unter anderem der Umgang mit illegalen Inhalten im Netz, der derzeit EU-weit unterschiedlich geregelt ist. Die EU-Kommission fürchtet eine Fragmentierung durch nationale Alleingänge. Einheitliche Anordnungen sollen das Vorgehen gegen illegale Inhalte harmonisieren, Transparenzpflichten für Online-Dienste und bessere Beschwerdemöglichkeiten die Rechte von Nutzer:innen stärken.

Dessen ungeachtet wünscht sich die deutsche Regierung eine Klarstellung, dass Sektor-spezifische Ausnahmen erlaubt bleiben und im Einklang mit dem DSA zum Entfernen illegaler Inhalte eingesetzt werden können. Das soll bereits im Vorfeld etwaige juristische Bedenken ausräumen, wie es sie beim Netzwerkdurchsetzungsgesetz und beim Medienstaatsvertrag gegeben hatte.

Aus Sicht vieler EU-Länder ist hingegen nicht ausreichend geklärt, was überhaupt illegale Inhalte sind und wie die Regeln in der Praxis funktionieren sollen. Schließlich sind Rechtsverstöße in einem Land nicht notwendigerweise EU-weit illegal. Kopfzerbrechen bereiten hierbei vor allem grenzüberschreitende Löschanordnungen.

Vor Gericht ziehen – aber wo?

So stelle sich die Frage, schreibt etwa die rumänische Regierung, welche Gerichte im Falle einer Auseinandersetzung über unrechtmäßige Löschanordnungen zuständig seien: jene des Landes, aus dem die Anordnung stammt, oder jene, in dem der Online-Dienst seinen Sitz hat? Sollte die Wahl auf letztere Variante fallen, fragt Spanien, sei jedoch nicht klar, wie ein Gericht über die Legalität eines ausländischen administrativen Akts entscheiden könne.

Die von Luxemburg vorgeschlagene Lösung, Verstöße gegen EU-Recht unionsweit zu sperren und solche gegen nationales Recht nur national, greift offenkundig zu kurz. Es sei technisch praktisch unmöglich, territoriale Limitationen von Inhalten im Internet zu kontrollieren, gibt die deutsche Bundesregierung zu bedenken. Im besten Fall habe ein Online-Dienst nur statistische Indikatoren, um die Herkunft von Nutzer:innen zu bestimmen. Eine effektive geographische Limitierung von Zugriffen sei daher „keine valide Option“, stattdessen sollten andere Ansätze geprüft werden.

In die gleiche Richtung geht auch der Wunsch der Bundesregierung, im Detail zu untersuchen, wie die Bestimmungen des DSA gegenüber Anbietern aus Drittländern durchgesetzt werden können. Sollte sich ein Anbieter etwa dagegen sperren, Rechtsvertreter:innen zu benennen, würde dies möglicherweise „weitere Regulierung oder technische Tools“ notwendig machen.

Spanien will aggressive Lösch-Bestimmungen

Unklar bleibt weiterhin, wann genau die Uhr für Plattformen zu ticken beginnt, um gemeldete Inhalte zu entfernen. Spanien wünscht sich hierbei fixe Fristen, je nach Schwere des Verstoßes sollen diese zwischen 24 und 72 Stunden betragen. Zudem besteht die spanische Regierung auf noch weitergehende Sperr-Anordnungen, die das wiederholte Hochladen von zuvor als illegal deklarierten Inhalten unterbinden soll, sogenannte „Notice & Stay-Down“-Anordnungen.

Dabei beruft sie sich auf ein Urteil des Europäischen Gerichtshofs aus dem Jahr 2019. Damals ordnete das Gericht Facebook an, rechtswidrige Beleidigungen gegen die österreichische Ex-Politikerin Eva Glawischnig-Piesczek nicht nur weltweit zu löschen, sondern auch die Verbreitung wort- und sinngleicher Beleidigungen zu stoppen.

Nun verbietet EU-Recht die Anordnung von Komplettüberwachung sämtlicher Inhalte, das schreibt auch der DSA-Entwurf der Kommission erneut fest. Allerdings schließe das nicht aus, so die spanische Regierung, dass „automatisierte, verhältnismäßige und effektive Tools“ zum Einsatz kommen, die das Wiederauftauchen schon einmal entfernter illegaler Inhalte verhindern könnten. Wie bei der EU-Urheberrechtsreform, auf die Spanien verweist, würde das beinahe zwangsläufig auf den Einsatz von Uploadfiltern hinauslaufen. „Eine solche Bestimmung zu ‚Stay-down‘ muss enthalten sein“, fordert das EU-Land.

Automatisierte Moderation einhegen

Ob freiwillig oder nicht, der Einsatz automatisierter Prozesse würde ein „hohes Risikopotenzial mit sich bringen, das der Vorschlag der Kommission nicht ausreichend adressiert“, schreibt die deutsche Regierung an anderer Stelle. Sollten Anbieter diese – inzwischen weit verbreitete – Technik einsetzen, um auf eigene Faust potenziell illegale oder schädliche Inhalte aufzuspüren, müsste dies an Auflagen gebunden sein.

Unter anderem sollten diese laut Bundesregierung enthalten: „Verbindliche Anforderungen an die Trainingsdaten, inklusive Anforderungen zur Dokumentation; Zugang zu den automatisierten Systemen inklusive der Trainingsdaten für Aufsichts- und Forschungszwecke; Informationsrechte für jene, die von automatisierten Entscheidungssystemen betroffen sind“.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

7 Ergänzungen

  1. Regierungen aus Ländern mit Konflikten tendierren dazu, diese Sorte Gesetz in die Richtungen zu beugen, die in dem Konflikt einen Vorteil versprechen.

    Dass das nicht fair ist, bzw. weder Gesetzgebung, noch die Natur des Konfliktes damit kompatibel sind, interessiert offenbar nicht – und wo gibt es kein Konfliktpotential?

    Architekten war gestern, falls überhaupt.

  2. Nur eine kleine Korrektur:
    ich denke, es soll „Ratspapier“ heißen.
    „In einem der Redaktion vorliegenden Ratsapier vom 8. März beziehen die EU-Länder auf 240 Seiten Stellung zu den ersten beiden von insgesamt fünf Kapiteln des Entwurfs.“

  3. Ich muss zugeben, in einigen Punkten gefällt mir die Bundesregierung gar nicht so schlecht. Informationspflicht ist selbstverständlich. Manipulation von Trainingsdaten in eigenem Interesse ist no go, so dass ich die Forderung nach verbindlichen Anforderungen und Dokumentation nachvollziehen kann.

    Bleibt nur, die Frage ob man versuchen sollte, gesellschaftliche Probleme mit Technik zu lösen. Und es bleibt umgekehrt die Frage, der politisch motivierte Eingriff in das Netz nicht technisch fragwürdig ist. Bleibt die Frage, in welcher Gesellschaft wir (und übrigens auch die Urheber) leben wollen.

    Ich meine, welche Farbe soll die Datenbank denn haben? Mauve has the most ram? (Zitat Dilbert)
    Ich habe gerade intensive Überlegungen zu technischen Aspekten bei neuronalen Netzen zum Thema hier „gelöscht“. Das konnte ich euch wirklich nicht antun. Mein Fazit aus technischer Sicht:

    ES GEHT NICHT. DIE IDEEN SIND ABSURD.

    Warum? Ich kann als Politiker nicht einfach die Kirchoffschen Gesetze (äh sorry, die Gesetze der Informatik) ändern, auch wenn ich der Gesetzgeber bin. Nein, das geht auch nicht mit den Besten Absichten.

    Beispiel, weil ich das gerade oben erwähnte und ich das mal wenigstens andeuten will:

    Regulierung von der Lernregeln neuronaler Netzwerke …
    Verstehe ich das Modell einer KI, kann also den Lernvorgang komplett überwachen, so brauche ich keine selbstlernende KI mehr. Brauche ich aber eine KI, dann nur deshalb, weil ich das Modell gerade nicht verstanden habe. Ich will also etwas regulieren, dass ich gar nicht verstanden habe?

    Anders gefragt: was bewirkt der Freiheitsgrad, den ich lassen muss? Wieso gibt es den überhaupt? Und meint man, ich könnte den Lernvorgang nicht nach eigenem Ermessen beliebig „manipulieren“ und wenn das auffliegt nicht einfach Zufall nennen?

    1. „Ich muss zugeben, in einigen Punkten gefällt mir die Bundesregierung gar nicht so schlecht. “

      Leider hat mich die Erfahrung gelehrt, dass gerade die wichtigsten Punkte am Ende gerne als Verhandlungsmasse in die Waagschale geworfen werden, um irgendwelche Nebeninteressen für eine Lobby zu erfüllen. Warten wir also ab bis sich Innenminister Seehofer und Axel Voss in die Sache einmischen.

Ergänzung an Zeitalter des Schraubers Ergänzung abbrechen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.