Kommentar zum Digitale-Dienste-GesetzDas ist noch kein Plattformgrundgesetz

Die Europäische Union hat sich zum Digital Services Act geeinigt. Das bringt mehr Nutzer:innenrechte gegenüber Plattformen und eine bessere Durchsetzung der neuen Regeln. Aber es gibt auch einige Schwachstellen. Um zum Plattformgrundgesetz zu werden, bedarf es noch Verbesserungen. Ein Kommentar.

EU-Flagge, darüber mehrere App-Symbole
Die EU will Plattformen stärker in die Pflicht nehmen. (Symbolbild) Gemeinfrei-ähnlich freigegeben durch unsplash.com Apps: Rami Al-zayat / Flagge: Christian Lue

Die Europäische Union hat sich vergangene Nacht im Rahmen der Trilog-Verhandlungen auf einen gemeinsamen Gesetzestext beim Digitale-Dienste-Gesetz (Digital Services Act) geeinigt. Damit gehen lange Verhandlungen zu Ende. Die kleine Schwester im Gesetzespaket, das Digitale-Märkte-Gesetz, wurde Ende März final verhandelt. Die finalen Dokumente mit den technischen Details der politischen Einigung werden noch Wochen zur Veröffentlichung brauchen, die letzten Abstimmungen in Parlament und Rat könnten noch vor der Sommerpause passieren.

Es wurde viel geredet, erhofft und verhandelt. Immerhin war und ist das angestrebte Ziel, die Marktmacht der großen Plattformen zu begrenzen, einheitliche und klare EU-weite Regeln aufzustellen und die Netzgesetzgebung auf einen aktuellen Stand zu bringen. Und wieder mal auf globaler Ebene einen neuen Standard zu präsentieren.

Das ist, zumindest in Teilen, sicherlich gelungen. Es gibt in vielen Bereichen Verbesserungen gegenüber dem Status Quo. Aber das war auch nicht so schwierig, weil der bisher in vielen Dingen Plattformen eben keine Regeln vorgab. Die Zeit der Narrenfreiheit durch weitgehende Regulierungsferien im Rahmen der Selbstregulation ist zumindest vorbei.

Das zeigt sich beipielsweise beim Verbraucherschutz: Nutzer:innen sollen besser vor Produktfälschungen auf eBay und Amazon geschützt werden, zuvor hatten sich die Verkaufsplattformen zurückgelehnt und Verbraucher:innen mit den Folgen weitgehend alleine gelassen. Die Praxis wird zeigen, ob die Maßnahmen ausreichen.

Mehr Nutzer:innenrechte bei Inhalte-Moderationen

Nutzer:innen sollen durch mehr Transparenz besser verstehen können, wie algorithmische Entscheidungssysteme bei Newsfeeds und Co. funktionieren. Aber das ist eine sehr komplizierte Debatte und das kann auch nur zu mehr Transparenzsimulationen führen.

Plattformen müssen Risikobewertungen vorlegen und untersuchen, wie sich ihre Dienste auf die Gesellschaft auswirken. Auch, um das zu überprüfen, soll es bessere Daten-Zugangsrechte für Wissenschaftler:innen und Nichtregierungsorganisationen geben. Damit wir besser verstehen können, wie Plattformen hinter den Kulissen arbeiten. Das ist sicherlich eines der Highlights dieses Gesetzes und kann dazu führen, Plattformen besser zur Rechenschaft ziehen zu können und damit zu mehr demokratischer Kontrolle führen. Auch hier wird die Praxis zeigen, wie das konkret funktionieren wird und ob das ausreicht.

Endlich gibt es EU-weite Regeln zur Inhalte-Moderation mit verbesserten Nutzer:innenrechte gegenüber Plattformen. Große Plattformen müssen Nutzer:innen über gelöschte Inhalte, Shadowbans und Sperren direkt informieren und Beschwerdewege anbieten. Dazu soll es bessere Beschwerdemöglchkeiten bei falschen Accountsperrungen und Löschungen geben. Illegale Inhalte sollen mit klaren Regeln gelöscht werden. Was illegale Inhalte sind, ist in allen Mitgliedstaaten etwas unterschiedlich. Ob damit Hass und Hetze effektiver bekämpft werden kann? Wir werden es sehen.

Kommen wir zu den Enttäuschungen.

Kompliziert wird es beim Krisenmechanismus, der in Folge der russischen Kriegspropaganda noch kurz vor Schluss in den Text kam. Hier könnte es zu wenig Checks und Balances geben. Aber immerhin ist die Grundlage jetzt ein Gesetzestext und nicht mehr die Rufbereitschaft der Plattformen, die durch eigene Regeln in vorauseilendem Gehorsam auf solche Krisen reagieren.

Enttäuschend ist, dass es kein umfängliches Verbot personalisierter Werbung ins Gesetz geschafft hat. Zu groß waren und sind die Widerstände aus der Wirtschaft dagegen, obwohl diese Datensammelei und ihre Verarbeitung ein großer Bestandteil vieler Nebenwirkungen der digitalen Welt darstellen.

Jetzt soll ein Verbot personalisierter Werbung wenigstens für Kinder und Jugendliche kommen. Das sollte eigentlich eine Selbstverständlichkeit sein, ist hier aber schon ein Erfolg. Bei Erwachsenen wird verboten sein, sensible Daten zur Profilbildung zu nutzen. Das ist besser als nichts, gilt aber nur für Plattformen mit nutzergenerierten Inhalten. Webseiten mit eigenen Inhalten sind davon ausgenommen. Im Einzelfall muss entschieden werden, wer darunter zählt, wenn eine News-Webseite zuviele Kommentare und Foren hat.

Was fehlt

Dark Patterns zur Manipulierung von Nutzer:innenverhalten sollen ebenso verboten werden. Auch hier kommt es auf die Durchsetzung an, immerhin zeigen Cookie-Banner, dass das bisher eher ein Durchsetzungsproblem war. Und verwässerte Formulierungen gegenüber der starken Position des EU-Parlaments lassen auch in der aktuellen Form darauf schließen.

Es gibt kein Verbot von automatisierten Filtersystemen zur Inhaltekontrolle. Weiterhin bleiben durchgeknallte KIs ein Risiko für die Meinungsfreiheit, wenn große Plattformen an menschlichem Personal sparen wollen.

Das Digitale-Dienste-Gesetz hätte auch die Chance gehabt, ein klares Statement zum Schutz von Ende-zu-Ende-Verschlüsselung abzugeben. Das wurde von den üblichen Kräften verhindert.

Offene Fragen bleiben: Wer macht die Aufsicht?

Die EU-Komission soll im Verbund mit Regulierungsbehörden in den 27 Mitgliedstaaten federführend für die Durchsetzung gegenüber den globalen großen Plattformen sein. Damit geht man gegenüber der Datenschutzgrundverordnung einen anderen Weg und möchte das „Irland-Problem“ mit den dazugehörigen „Umsetzungsstaus“ vermeiden. Das ist spannend.

Bei uns laufen sich die Landesmedienanstalten als nationale Regulierer warm. Die haben zwar mehr Staatsferne auf dem Papier, in der Praxis verfügen sie aber nicht über ausreichend professionelle und technische Ressourcen, um als Regulierungsbehörden auf Augenhöhe die großen Plattformen zu beaufsichtigen. Die Bundesregiegierung wird hier aber letztlich eine Behörde mit der Durchsetzung beauftragen. Eine neue EU-Agentur mit der notwendigen Ausstattung könnte auf EU-Ebene der sinnvollere Weg werden. Das kann und sollte vielleicht noch kommen.

Interessant ist, dass die großen Plattformen ihre Aufsicht nach dem Verursacherprinzip mit bis zu 0,05 Prozent ihres weltweiten Jahresumsatzes selbst bezahlen sollen. In Praxis kann man davon ausgehen, dass es viel weniger sein wird. Aber besser als nichts.

Fazit: Es wäre viel mehr möglich gewesen

Kommen wir zum Fazit. Das ist derzeit noch etwas schwer, weil der komplette Text noch nicht vorliegt. Der Teufel liegt wie immer im Detail und das wird häufig noch von Gerichten ausdefiniert.

Aus der globalen Perpsektive ist es gut, dass die EU jetzt einen Regelsatz vorgibt. Das wäre aber auch schon vor Jahre notwendig gewesen.

Ich bin skeptisch, ob die heute vermittelte Rhetorik der Verhandler:innen auch dem gesteckten Ziel entsprechen wird, wirksame Regeln gegen die Macht der großen Plattformen durchzubringen. Wir müssen die Umsetzung und Durchsetzung genau verfolgen, auch um Fehler und Schwachstellen zu identifizieren und sie zu verbessern.

Das ist noch kein richtiges Plattformgrundgesetz. Aber ein wichtiger Schritt auf den Weg dahin.

No Tracking. No Paywall. No Bullshit.

Unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze jetzt unsere Arbeit mit einer Spende.

Jetzt spenden

10 Ergänzungen

  1. Kann man den Text denn schon einsehen? Ich konnte selbst nichts finden.
    (Ich frage weil ich eigentlich erwartet hätte das der erste Link im Artikel oben mich zum Text bringt, aber der verweist doch nur auf einen anderen Beitrag auf netzpolitik.org)

  2. Sind es 0,05 Prozent oder bis zu 6 Prozent (wie im anderen Beitrag von netzpolitik.org) des weltweiten Jahresumsatzes, die Unternehmen möglicherweise zahlen müssen? 0,05 Prozent wären ja ein Witz.

    1. Ich glaube du verwechselst(vermischt Strafzahlungen und die Finanzierung der Kontrollbehörden:
      0,05% vom weltweiten Umsatz sind dafür vorgesehen um die Aufsichtshörden in der EU zu finanzieren die das Gesetz überwachen sollen
      6% vom weltweiten Umsatz sind die mögliche Strafe „wenn sie systematisch die Bestimmungen des Digitale-Dienste-Gesetzes verletzten“

  3. Hallo Markus Beckedahl,
    „Das Digitale-Dienste-Gesetz schafft eine europaweit einheitliche Verpflichtung, auf Anordnung von Behörden illegale Inhalte zu entfernen oder darüber Informationen herauszugeben“
    => was ist die genaue Definition dieser „illegalen Inhalte“, wie wird Zensur verhindert? — Nicht einmal unsere neue Regierung schafft ein Whistleblowerschutzgesetz, das diesen Namen verdient – also bis Edward Snowden reicht, und Julian Assange sitzt nicht nur zu Unrecht in Belmarsh, sondern ARD und ZDF „vergessen“ in den Abendnachrichten über den britischen Justizskandal zu berichten : wie soll man denn da „Behörden“ bei uns vertrauen? Von den Zuständen in Polen und Ungarn noch gar nicht angefangen? *Wieso klingen Sie so entspannt*, wer verteidigt denn hier überhaupt noch erfolgreich das, was wir aus unserer gruseligen Geschichte mal gelernt hatten, also die konstitutionellen Werte, wenn uns jetzt dafür also auch noch das EU-Parlament wegbricht, weil dort wohl inzwischen auch die Bürgerrechtler, wie Patrick Breyer in die Minderheit geraten?

    1. Da es hier ja um VERTRAUEN geht, habe ich die Stellungnahme von Reporter ohne Grenzen gelesen, dort finde ich folgende Vorschläge:
      „⇒ Der DSA muss die dringende Anrufung eines Gerichts unmittelbar nach der
      Maßnahme einer Plattform ermöglichen, die eine schwerwiegende Verletzung des Rechts
      auf freie Meinungsäußerung oder eine schwerwiegende willkürliche Einschränkung dieses
      Rechts darstellt, oder zu jedem anderen Zeitpunkt im Einklang mit dem Recht auf wirksamen
      Rechtsbehelf bei einem unabhängigen Gericht.“
      und
      „⇒ Die Auswahlkriterien für vertrauenswürdige Hinweisgeber*innen müssen insbesondere im
      Hinblick auf deren notwendige Unabhängigkeit gegenüber Regierungen und Behörden
      definiert werden.
      Organisationen der Zivilgesellschaft sollten als vertrauenswürdige Hinweisgeber
      anerkannt werden und die Möglichkeit haben, eine Beschwerde über eine Meldung bezüglich
      journalistischer Inhalte oder eines Moderationsvorgangs einzureichen oder zu unterstützen.
      Diese Beschwerde sollte vorrangig behandelt werden. Diese Organisationen sollten die
      Möglichkeit haben, sich an die internen Beschwerdemanagementsysteme der Plattformen
      und außergerichtliche Streitbeilegungsstellen zu wenden und bei Streitigkeiten mit
      Plattformen ein Gericht anzurufen“
      Na ja, wenn ROG zum vertrauenswürdigen Hinweisgeber erklärt und das Gericht der EUGH wird, vor dem man dann klagt, … dann wäre ich da vielleicht bereit, mitzugehen, weil das gerade die beiden Institutionen sind, zu denen ich noch Vertrauen habe.
      Quelle:
      https://www.reporter-ohne-grenzen.de/fileadmin/Redaktion/Downloads/RSF_Positionspapier_DSA_DMA.pdf

    2. Der DSA selbst legt nicht fest, was illegale Inhalte sind, das bleibt (vorerst) Sache der EU-Mitgliedstaaten; es muss aber in Einklang mit dem Unionsrecht stehen . Die EU-Kommission plant aber, eine EU-weite Definition von Hate Speech einzuführen und in die Liste der in Art. 83 AEUV aufgeführten, typischerweise grenzüberschreitenden Kriminalitätsbereiche aufzunehmen. Damit würden EU-weite Mindestvorschriften zur Festlegung von Straftaten und Strafen einhergehen.
      Außerdem können Nutzer:innen 1) Löschungen oder Sperrungen von als illegal oder mit den AGB inkompatibel erachteten Inhalten, 2) die Aussetzung oder Kündigung des Dienstes und 3) die Deaktivierung oder Löschung des Accounts durch die Plattform künftig anfechten – hier ist der DSA wesentlich weiter als bspw. die erste Version des NetzDG, es verringert das Risiko unrechtmäßiger Löschungen. Darüber hinaus werden Nutzer:innen sich an außergerichtliche Streitbeilegungsstelle wenden können.

      1. Nee, da fehlt einfach umgekehrt

        die grundsätzliche wikileaks-Erlaubnis:

        wenn Journalisten die finstere Wahrheit über unsere Regierungen veröffentlichen, dann darf nicht Ursula von der Leyen, nicht Elon Musk, nein grundsätzlich überhaupt niemand das löschen lassen, und der Autor darf auch nicht gejagt, mit „Landesverrat“ bedroht, nach Moskau in’s Exil verbannt, mit Pegasus infiltriert, aus Rache mit ganz anderen Anklagen vor Gericht gezerrt, auf Heathrow festgehalten und verhört, zum Zerstören der eigenen Server genötigt oder sonst wie gemobbt werden.
        Warum gelingt verdammt noch mal immer das zum Schweigen bringen der mutigen Fehler-Meldenden,
        aber nie die Transparenz der Bürger über Machtmissbrauch ihrer Repräsentanten ?
        Ich bin soooo müde. Wir schaffen es einfach nicht. Hillary Clinton mag das DSA, stand irgendwo: klar! , die statuiert ja auch gerade ihr Exempel an Julian Assange, gegen investigativen Journalismus weltweit.

  4. Personalisierte Werbungsverbot für U18: Wie will man denn das Alter herausfinden? Diese Forderung hat doch einen bedenklichen Rattenschwanz, fürchte ich. Kommt mir wenig durchdacht vor und könnte den besorgniserregenden Vorhaben zu digitalen Identitäten Vorschub leisten :(

  5. Bitte dazu einen erklärenden Link in den Text einfügen, vielen Dank:
    „Weiterhin bleiben durchgeknallte KIs ein Risiko für die Meinungsfreiheit, wenn große Plattformen an menschlichem Personal sparen wollen. „

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.