DurchbruchEU einigt sich auf Digitale-Dienste-Gesetz

Nach eineinhalb Jahren Verhandlungsmarathon ist das wohl wichtigste digitalpolitische Vorhaben von Ursula von der Leyen in trockenen Tüchern. Es schafft umfassende Regeln für Giganten wie Amazon, Google und Facebook.

Macron und Von der Leyen
EU-Kommissionschefin Von der Leyen und Frankreichs Präsident Macron, der derzeit den EU-Ratsvorsitz führt. – Alle Rechte vorbehalten European Union

Die Europäische Union steht vor dem Beschluss einer Verordnung, die europaweit einheitliche Regeln für Online-Dienste wie Instagram, TikTok und eBay schaffen soll. Verhandler:innen der EU-Kommission, der Mitgliedstaaten und des Parlaments einigten sich nach einem 16-stündigen Verhandlungsendspurt in Brüssel auf einen fertigen Text für das Digitale-Dienste-Gesetz. Er soll noch vor dem Sommer endgültig beschlossen werden.

Das „Plattformgrundgesetz“ ist das digitale Leuchtturmprojekt der EU-Kommission unter Präsidentin Ursula von der Leyen. Der heute vereinbarte Gesetzestext sei „historisch, sowohl in der Geschwindigkeit [der Verhandlungen] als auch in seinem Inhalt“, sagte von der Leyen. Das Gesetz soll faire Bedingungen für europäische Nutzer:innen und Firmen gegenüber Plattformkonzernen wie Google, Amazon und Apple schaffen. Bereits vor einigen Wochen einigten sich Verhandler:innen auf das Digitale-Märkte-Gesetz, nun ist auch der zweite Teil des Zwillingsvorhabens fertig.

Im seinem Kern soll das Gesetz europaweit einheitliche Standards für den Umgang mit illegalen Inhalten im Netz schaffen. Besondere Auflagen macht es sogenannten „sehr großen Plattformen“ wie Google, Facebook oder Amazon. Sie müssen mit Strafen von bis zu sechs Prozent ihres globalen Umsatzes rechnen, wenn sie systematisch die Bestimmungen des Digitale-Dienste-Gesetzes verletzten – im Fall von Apple wären das nach Vorjahresumsatz rund 20 Milliarden Euro.

Auflagen für Plattformen

Das Digitale-Dienste-Gesetz macht Plattformen eine ganze Reihe von Auflagen:

  • Wer Dienste für Nutzer:innen anbietet, muss Prozesse für das Melden illegaler Inhalte (Notice & Action) schaffen. Solche Möglichkeiten gibt es auf großen Plattformen wie Instagram oder TikTok längst – künftig müssen diese aber unabhängige Beschwerdemöglichkeiten schaffen, wenn Nutzer:innen Einspruch gegen Entscheidungen zum Löschen oder Sperren von Inhalten einlegen.

  • Das Digitale-Dienste-Gesetz schafft eine europaweit einheitliche Verpflichtung, auf Anordnung von Behörden illegale Inhalte zu entfernen oder darüber Informationen herauszugeben. Auch müssen Plattformen den Behörden melden, wenn Inhalte den Verdacht auf kriminelle Aktivitäten wecken. Eine Überwachungspflicht ist jedoch nicht vorgesehen.

  • Um illegale Inhalte systematisch aufzuspüren, können Behörden den Status eines „Trusted Flaggers“ an Verbraucherorganisationen oder NGOs verleihen. Diese können Plattformen über deren Meldesystem Inhalte von Dritten melden, die diese dann unverzüglich behandeln sollen.

  • Wer auf Handelsplattformen wie eBay Waren verkauft, soll sich ihnen gegenüber identifizieren (Know-your-customer-Prinzip). Diese müssen bei den Plattformen künftig verpflichtend Informationen wie Namen, Adressen, Ausweiskopien und Bankdaten hinterlassen. Damit soll gegen Produktfälschungen und Betrug vorgegangen werden.

  • Plattformen erhalten Transparenzauflagen. Der Einsatz automatisierter Tools wie Uploadfiltern für die Moderation von Inhalten muss etwa offengelegt werden, auch müssen die Plattformen regelmäßig Berichte über die Zahl der ungerechtfertigt gelöschten oder gesperrten Inhalte und Konten veröffentlichen. Offenlegen sollen die Plattformen zudem, von wem eine bestimmte Werbung stammt, die Nutzer:innen angezeigt wird, sowie Angaben über das Targeting.

  • Sehr große Plattformen sollen regelmäßig öffentliche Risikoeinschätzungen über die Ausbreitung illegaler Inhalte, systematische Grundrechtsverletzungen oder gezielte Desinformation vorlegen sowie mögliche Gegenmaßnahmen. Zu diesen zählt die EU-Kommission etwa gestärkte Inhalte-Moderation, Algorithmenänderungen oder Werbeverbote für bestimmte Inhalte. Kommt eine unabhängige Prüfung zu dem Schluss, dass die Plattformen keine ausreichenden Gegenmaßnahmen wählen, dann kann die EU Korrekturen vorschlagen und bei Nicht-Erfüllung Strafen androhen. In Krisenfällen wie einem Kriegsausbruch oder einer Pandemie kann die EU-Kommission zudem eine außerordentliche Überprüfung bisheriger Risikoeinschätzungen einfordern.

  • Behörden können bei großen Plattformen einen Datenzugang für Forscher:innen anordnen. Damit will die EU bessere wissenschaftliche Erkenntnisse zu Problemen wie Hassrede und Desinformation ermöglichen. Auf die Bedeutung von solchen Daten für die Forschung hatte zuletzt etwa die Facebook-Whistleblowerin Frances Haugen hingewiesen.

  • Für die Durchsetzung der neuen Regeln liegt die Verantwortung sowohl bei der EU-Kommission wie bei den Mitgliedstaaten. Während bei der Datenschutzgrundverordnung die Verantwortung auch für Konzerne ausschließlich bei der Behörde im EU-Sitzland liegt, soll die EU-Kommission direkt für die Durchsetzung des neuen Gesetzes gegenüber sehr großen Plattformen verantwortlich sein. Auf nationaler Ebene sollen Koordinatoren für digitale Dienste den Anbietern auf die Finger schauen.

Zuletzt umstritten waren bei den Verhandlungen noch gewisse Detailfragen, etwa zu Beschränkungen für personalisierte Werbung. Das EU-Parlament hat außerdem ein gänzliches Verbot sogenannter Dark Patterns gefordert, also von Designelementen, die Nutzer:innen zu einer bestimmten Entscheidung verleiten sollen. Der Rat der EU-Staaten wollte ein solches Verbot jedoch nur beschränkt einführen – damit dürfte er sich nach Angaben von Teilnehmer:innen durchgesetzt haben. Offen war auch die Frage, inwiefern Kleine und Mittlere Unternehmen (KMUs) von manchen Bestimmungen ausgenommen sein sollen. Ein konsolidierter Text der Einigung soll erst in einigen Wochen vorliegen.

Pirat Breyer kritisiert „verwässerte“ Werbebeschränkungen

Nach dem Abschluss der Verhandlungen lobten Teilnehmende das Ergebnis. „Der heutige Kompromiss verbessert den Vorschlag der EU-Kommission deutlich“, sagte der Linken-Ko-Fraktionsvorsitzende Martin Schirdewan. „Personalisierte Werbung für Minderjährige und die Verwendung von sensiblen Daten werden verboten. Das ist ein großer Erfolg für den Schutz von Nutzer:innen, auch wenn ein komplettes Verbot von personalisierter Werbung wünschenswert wäre.“

Die Einigung kritisierte hingegen der Piraten-Abgeordnete Patrick Breyer. Das vom Parlament geforderte Verbot, sensible Persönlichkeitsmerkmale wie die politische Meinung, Krankheiten oder sexuelle Vorlieben eines Nutzers zur gezielten Manipulation und Ansprache zu nutzen, sei „stark verwässert“ worden. „Die Bezeichnung ‚Digitales Grundgesetz‘ verdient das neue Regelwerk insgesamt nicht, denn der enttäuschende Deal versagt vielfach beim Schutz unserer Grundrechte im Netz.“

Als nächster Schritt ist eine Abstimmung über die Endfassung des Digitale-Dienste-Gesetzes im EU-Parlament und im Rat der EU-Staaten fällig. Passiert dies noch vor der Brüsseler Sommerpause, könnte das Gesetz noch dieses Jahr in Kraft treten.

Mehr Zeit für kritische Berichterstattung

Ihr kennt es: Zum Jahresende stehen wir traditionell vor einer sehr großen Finanzierungslücke und auch wenn die Planung und Umsetzung unseres Spendenendspurts viel Spaß macht, bindet es doch sehr viele Ressourcen; Ressourcen, die an anderer Stelle für unsere wichtige Arbeit fehlen. Um Euch also weniger mit Spendenaufrufen auf die Nerven zu gehen und mehr Recherchen und Hintergründe bieten zu können, brauchen wir Eure regelmäßige Unterstützung.

Jährlich eine Stunde netzpolitik.org finanzieren

Das Jahr hat 8.760 Stunden. Das sind 8.760 Stunden freier Zugang zu kritischer Berichterstattung und wichtigen Fragestellungen rund um Internet, Gesellschaft und Politik bei netzpolitik.org.

Werde Teil unserer Unterstützungs-Community und finanziere jährlich eine von 8.760 Stunden netzpolitik.org oder eben fünf Minuten im Monat.

Jetzt spenden


Jetzt spenden

7 Ergänzungen

  1. >> Personalisierte Werbung für Minderjährige und die Verwendung von sensiblen Daten werden verboten. Das ist … <<

    eine Enttäuschung für alle volljährigen Nutzer:Innen.

    Dass es für alle möglich gewesen wäre zeigt, dass personalisierte Werbung Minderjährigen künftig erspart bleibt.

    Wie schaffe ich es nun, als minderjährig getarnt, die werbeverseuchten (Qualitäts)medien zu lesen? Lieber gelte ich als minderjährig, als durch die Werbebranche im Internet gestalkt zu werden.

    1. Das ist eine gute Frage.

      Mein erster Gedanke war, das das Problem sein wird, nicht als minderjährig zu gelten, da diese ja geschützt werden sollen. Also wird es einen Wildwuchs an Altersverifikation geben, sicherlich wird keine einzige Methode eines kommerziellen Anbieters datensparsam oder sogar anonym funktionieren. (Zudem kann man es nicht wissen, was mit einer Kameraaufnahme geschieht, es sei denn der E-Perso hat ein wirklich anonymes Feature, und die Schwelle das einzubinden bleibt niedrig.)

      Google nutzt Kreditkarte (ab 18) für Altersverifikation. Wie datensparsam das im schlechtesten Falle ist, weiß ich nicht ad-hoc.

      Kann schon sein, dass fast alles dann nach einer Altersverifikation verlangt, weil Europa das will, auch für Ü12, Ü16, usw. Vielleicht geht das dann nach hinten los, weil das „freie Netz“ dann bedeuten wird, dass sich viele Dienste hinter einer einzigen Altersprüfung verstecken, ähnlich single-sign-on, und dann das erwachsene Leben dann gewissermaßen in den Hinterhöfen des Internets stattfindet. Warum geht das nach hinten los? Weil jeder Idiot dann verstehen wird, was passiert, wenn Hinterhöfe plötzlich kein rechtsfreier Raum mehr sein dürfen, und allerlei Terror, Porno, Kinder und Urheberrechtsfilter hinter den nur mittels Verifikation oder Login erreichbaren Seiten zur Pflicht erklärt werden.

  2. Da brauchen wir hier doch wohl aber den GANZEN Text von Patrick Breyer, um zu erkennen, warum sich jemand wie von der Leyen leider darüber freut:
    „Unsere Privatsphäre im Netz wird weder durch ein Recht auf anonyme Internetnutzung noch durch ein Recht auf Verschlüsselung, ein Verbot von Vorratsdatenspeicherung oder ein Recht zur Ablehnung von Überwachungswerbung im Browser (Do not track) geschützt. Die freie Meinungsäußerung im Netz wird nicht vor fehleranfälligen Zensurmaschinen (Uploadfilter), willkürlicher Plattformzensur sowie grenzüberschreitenden Löschanordnungen aus illiberalen Mitgliedsstaaten ohne Richterbeschluss geschützt, so dass völlig legale Berichte und Informationen gelöscht werden können. Die Monopolmacht verbraucherfeindlicher sozialer Medien wie Facebook, Instagram und Twitter wird nicht durch Interoperabilitätspflichten gebrochen. Und die aufmerksamkeitsheischenden Konzernalgorithmen, die uns im Profitinteresse vorzugsweise Hass, Gewalt und Falschinformationen aussetzen, bleiben alternativlos. Industrie- und Regierungsinteressen haben sich leider gegen digitale Bürgerrechte durchgesetzt.“

  3. Anders als der Text suggeriert, es ginge um „illegale Inhalte“, geht es im Vorschlag [1,2,3,5] jedoch darum „die Nutzer vor schädlichen und illegalen Inhalten zu schützen.“ (Hervorhebung durch mich). Damit ist es ein Handwerkzeug gegen alles (politisch) Missliebige.

    Und obwohl es im Gesetzestext [5] in der Ex-Post-Auswertung heißt:

    „Unter den Interessenträgern besteht allgemeines Einvernehmen darüber, dass „schädliche“ (aber nicht oder zumindest nicht unbedingt illegale) Inhalte im Gesetz über digitale Dienste nicht definiert werden sollten und dass sie keiner Pflicht zur Entfernung unterliegen sollten, da es sich hierbei um einen heiklen Bereich handele, der schwerwiegende Auswirkungen auf den Schutz der Meinungsfreiheit habe.“

    findet sich im Abschnitt

    „Vorschlag für eine VERORDNUNG DES EUROPÄISCHEN PARLAMENTS UND DES RATES über einen Binnenmarkt für digitale Dienste (Gesetz über digitale Dienste) und zur Änderung der Richtlinie 2000/31/EG“

    unter Punkten 1-101

    – rechtswidriger oder anderweitig schädlicher Informationen und Tätigkeiten (5)
    – illegaler oder anderweitig schädlicher Online-Inhalte und ‑Tätigkeiten (52)
    – Ein weiteres relevantes Thema sind die möglichen negativen Auswirkungen systemischer Risiken auf Gesellschaft und Demokratie, etwa aufgrund von Desinformation oder manipulativen und missbräuchlichen Tätigkeiten. (68)

    Der Begriff „Desinformation“ kommt noch häufiger vor.

    Kwellen:

    [1] https://www.europarl.europa.eu/news/de/press-room/20220114IPR21017/gesetz-uber-digitale-dienste-mehr-sicherheit-dank-regeln-fur-online-plattformen

    [2] „Die neuen Regeln werden auch dazu beitragen, die Nutzer vor schädlichen und illegalen Inhalten zu schützen.“
    https://www.europarl.europa.eu/news/de/headlines/priorities/digitaler-wandel/20211209STO19124/das-gesetz-uber-digitale-markte-und-das-gesetz-uber-digitale-dienste

    [3] „Stopp illegalen und schädlichen Inhalten im Netz: Ideen des Parlaments“
    https://www.europarl.europa.eu/news/de/headlines/priorities/digitaler-wandel/20201022STO89919/stopp-illegalen-und-schadlichen-inhalten-im-netz-ideen-des-parlaments

    [4] Gesetz über digitale Dienste: mehr Sicherheit und Verantwortung im Online-Umfeld (mit Originaldokument am Ende [4]):
    https://ec.europa.eu/info/digital-services-act-ensuring-safe-and-accountable-online-environment_de

    [5] Proposal for a Regulation on a Single Market For Digital Services (Digital Services Act)
    15 Dezember 2020
    https://eur-lex.europa.eu/legal-content/de/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN

  4. „Das Digitale-Dienste-Gesetz schafft eine europaweit einheitliche Verpflichtung, auf Anordnung von Behörden illegale Inhalte zu entfernen oder darüber Informationen herauszugeben.“

    Gilt das dann auch für Behörden in Ungarn, die beispielsweise „homosexuelle Propaganda“ entfernen wollen, oder für polnische Behörden, wenn „Abtreibungspropaganda“ verboten wird oder für französische Behörden, wenn die dortige Regierung wieder auf die Idee kommt, Aufzeichnungen von Polizeigewalt verbieten zu lassen?

    Jedenfalls scheint dieses Gesetz doch deutlich mehr potenzielle autoritäre Willkür zu ermöglichen als zu verhindern. Zumal die Konzerne jetzt erst recht formal in ansonsten staatliche Aufgaben eingebunden werden, also eine Art Private-Public-Partnership stattfindet, in der Großkonzerne im Zusammenspiel mit Regierungen/Behörden den Informationsfluss koordiniert lenken sollen. Das Stichwort Postdemokratie kann ich mir somit auch nicht ersparen. Das ganze klingt in der Tendenz ziemlich rückschrittlich, abgesehen von den Transparenzregeln.

    Und wenn zukünftig Bertelsmann-Arvato oder ähnliche neoliberale Institutionen/NGOs/ThinkTanks zu „Trusted Flaggers“ ernannt werden und Inhalte politisch selektieren dürfen, wird es sicher nicht demokratischer. Man kann gespannt sein, ob Kritik am Hartz-4-System oder an der Privatisierung und Rationalisierung des Gesundheitswesens nicht auch noch zu „Hass und Hetze“ erklärt werden, weil dies den sozialen Frieden gefährden könnte.

  5. Re „Personalisierte Werbung für Minderjährige“. Leider ist dies ein Witz. Warum eigentlich?

    Google geht mit seinem Tracking gerade zu themenbasiertem Targeting über. Ergo wird man behaupten, dass es nicht auf Einzelpersonen abzielt und daher die rechtlichen Beschränkungen nicht gelten. Außerdem wird es um die Definition von „Minderjährigen“ gehen. Zum Beispiel könnte man je nach Definition einfach behaupten, dass man das Alter der Nutzer nicht kennt.

  6. Das Digitale-Dienste-Gesetz sollte ja ein „Grundgesetz fürs Internet“ sein. Als solches hätte ich mir gewünscht, dass dort tatsächlich Grundrechte für mich definiert sind, die der Staat bzw. die EU dann schützt, und die ich gegen Facebook/Google&Co auch als Normalbürger durchsetzen kann.
    Statt dessen ist es eine lange Liste von Verboten und Pflichten geworden.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.