EU-Gesetz für digitale DiensteWarum wir eine bessere Regulierung sozialer Medien brauchen

Die liberale Demokratie steckt in einer schweren Krise. Dazu beigetragen hat kaum gebremste Hassrede in sozialen Netzwerken. Ein geplantes EU-Gesetz stellt dem nur wenig entgegen – und könnte zum Spielball von Reaktionären werden.

Demonstration in Polen
Die Rechte von Frauen und Minderheiten werden in Polen seit Jahren beschnitten. Proteste dagegen sind bislang verpufft. – Vereinfachte Pixabay Lizenz Robert Pastryk

Die Reaktion kam prompt. Nur kurz nach dem Rauswurf von Donald Trump bei Twitter und anderen Online-Diensten kündigten die rechten Regierungen Polens und Ungarns Gesetze an, die eine „Zensur“ konservativer Stimmen im Internet durch private Unternehmen verhindern sollen.

Ihre Angst ist nicht ganz unbegründet. Noch hat etwa der polnische Bildungsminister Przemysław Czarnek einen Facebook-Account. Dort gibt sich der Ex-Abgeordnete der langjährigen Regierungspartei PiS zurückhaltend und offiziell, lässt sich bei Kranzniederlegungen und Kirchenbesuchen fotografieren oder zelebriert wichtige Jahrestage der polnischen Geschichte.

Was der Konservative aber offline von sich gibt, dürfte mit den Nutzungsbedingungen des sozialen Netzwerks nur schwer vereinbar sein. „Wir müssen uns gegen die LGBT-Ideologie verteidigen und aufhören, diesen Idiotien über gewisse Menschenrechte oder Gleichstellung zuzuhören“, sagte Czarnek im Vorjahr einem TV-Sender. „Diese Leute sind nicht gleichrangig mit normalen Menschen, lasst uns endlich diese Debatte beenden.“

In seinen Gemeinschaftsstandards weist Facebook darauf hin, dass „Hassreden, glaubwürdige Drohungen oder direkte Angriffe auf Einzelpersonen oder Personengruppen“ nicht erlaubt seien. Zwar habe die Verpflichtung zur Meinungsfreiheit höchste Priorität, schreibt das Unternehmen, „aber uns ist bewusst, dass das Internet neue und vermehrte Möglichkeiten für Missbrauch bietet“.

Reaktionäre Welle

Wer gegen LGBTQ-Menschen hetzt, bleibt selten dort stehen. Muslimen unterstellt Czarnek, Europa „dechristianisieren“ zu wollen. Frauen, die gegen das strikte Abtreibungsverbot protestierten, seien „linksradikale Revolutionärinnen“, für die es in Polen „keinen Platz geben kann“, so der nationalistische Katholik. Thesen, die sich auch auf reaktionären Boards wie 4chan, auf Telegram-Kanälen oder in Bekennerschreiben rechtsextremer Mörder wiederfinden.

In liberalen Demokratien sind solche Ansichten oft genug legal – bis es kracht. Jahrelang hatte der ehemalige US-Präsident Trump sein digitales Megaphon praktisch ungehindert dazu genutzt, um mit Lügen die tägliche Debatte zu formen, zu Gewalt aufzurufen und die Demokratie zu untergraben. Warnungen vor den erwartbaren Folgen solcher Rhetorik gab es genug. Verloren hat Trump seinen direkten Zugang zu sozialen Medien aber erst, nachdem seine Anhänger das US-Kapitol stürmten, um seine Abwahl gewaltsam zu verhindern.

Bislang zählen die Verluste seiner Accounts auf Twitter, Facebook und Youtube zu den wenigen Konsequenzen des letztlich gescheiterten Putschversuchs. Politisch wurde Trump von seinen republikanischen Parteifreunden im Impeachment-Verfahren freigesprochen und bereitet schon seine Rückkehr vor. Ob er rechtlich belangt werden kann, müssen erst langjährige Gerichtsverfahren zeigen.

Digitale Spaltung mal anders

„Nur die gesamte Gesellschaft kann Extremismus wirklich effektiv eindämmen“, schrieb die Psychologin und Ex-Piratin Marina Weisband vor zwei Jahren. „Durch das, was wir an Normen entwickeln. Durch das, was tabu ist. Dadurch, wie inklusiv unsere Gesellschaft ist.“

Diese Normen zeichnen sich immer klarer ab. Was vielleicht in direkten Gesprächen, Stammtischrunden oder politischen Brandreden durchgeht, kann im Internet, gegebenenfalls algorithmisch verstärkt, eine völlig neue Dimension und Dynamik erlangen. Seit Jahren nehmen etwa antisemitische Straftaten in Deutschland zu. Schuld daran ist nicht das Internet allein, dazu beigetragen hat es aber zweifellos.

Vor allem Facebook hat eine gut dokumentierte Angewohnheit, extremistische Entwicklungen auf seinen Diensten zu ignorieren, oft wider besseres Wissen. Während interne Forschungsabteilungen inzwischen darauf drängen, möglichst früh gegen gefährliche Bewegungen einzuschreiten, von der faschistoiden Verschwörungserzählung QAnon bis zu rechtsextremen Milizen wie Oath Keepers, empfehlen die Algorithmen der Plattform radikalisierende Inhalte munter weiter.

Das hält Nutzer:innen auf der Plattform – und nimmt Rücksicht auf die wiedererstarkte Rechte, ob in den USA oder in Europa. Dieser Mechanik sind alle Plattformen ausgesetzt, nicht nur Facebook: Selbst zurückhaltende Eingriffe wie ein Faktencheck offenkundiger Lügen werden zur Einschränkung der Meinungsfreiheit stilisiert. Hat eine Äußerung dann doch mal Folgen, etwa pauschalisierende Hetze gegen Muslime, dann sieht die AfD-Politikerin Beatrix von Storch „das Ende des Rechtsstaates“ gekommen.

Meinungsfreiheit ist keine Einbahnstraße

In netzpolitischen Debatten gebe es ganz schnell diesen Reflex, „wenn irgendetwas im Netz nicht gesagt werden darf, dann sei das eine Einschränkung für die Meinungsfreiheit“, sagte Ulf Buermeyer von der Gesellschaft für Freiheitsrechte auf einem Fachgespräch zum geplanten EU-Gesetz für digitale Dienste.

In vielen Fällen könne das natürlich so sein. „Man muss aber auf der anderen Seite betrachten, dass es auch viele Meinungsäußerungen gibt, die keinen wertvollen Beitrag zur Debatte leisten, sondern ganz im Gegenteil, sogar gegen nationales Strafrecht verstoßen“, sagt der Jurist.

Solche verbotenen, illegalen Äußerungen bleiben jedoch nicht ohne Folgen auf die Debatte: Unter anderem könnten sie dazu führen, dass sich angegriffene Menschen gar nicht mehr trauten, daran teilzuhaben. Im Kontext von Hassrede, sexualisierter Gewalt und verwandten Phänomenen handle es sich nicht nur um ein Abwehrrecht gegen Eingriffe durch Plattformen oder den Staat, sagt Buermeyer: „Meinungsfreiheit ist auch ein ganz zentrales Gut, das es zu schützen gilt, gerade durch geschickte, wohldosierte Eingriffe in die Äußerungsfreiheit anderer.“

Imaginierte „Christenverfolgung“

Jüngst beklagte die ungarische Justizministerin Judit Varga auf Facebook die „technologische Meinungsdiktatur“, welche die Sichtbarkeit christlicher, konservativer und rechter Ansichten limitiere. Auch ihr sei dies schon passiert, sagte sie an anderer Stelle, ohne Beleg. Religion, Nation und das traditionelle Familienmodell würden ersetzt durch „Gender-Ideologie“, Christenverfolgung und die Zerstörung des Nationalstaats. Man sei Opfer der „liberalen offenen Gesellschaft“, schrieb Varga.

Stück für Stück haben Ungarn und Polen im vergangenen Jahrzehnt den Rechtsstaat und die Demokratie abgebaut, gegen beide EU-Länder laufen inzwischen Vertragsverletzungsverfahren. Nun bereiten sie sich auf den nächsten Kampf vor – mit genau den Mitteln liberaler Demokratien, die zuweilen dafür gesorgt haben, dass Hassrede im Netz stehen bleibt.

„Wir wollen nicht mehr von großen Tech-Unternehmen als legales, transparentes und überprüfbares Vorgehen“, fordert die ungarische Justizministerin. Zwar werde man weiterhin auf EU-Ebene an Regeln für den Kontinent mitarbeiten, aber noch im Frühling soll ein ungarisches Gesetz kommen. Dieses soll Menschen vor willkürlichen Sperren schützen, ob Bäckerinnen, Friseure oder Regierungspolitiker, so Varga. Kaum jemand wird da widersprechen, ähnliche Forderungen kamen auch von Kanzlerin Angela Merkel oder Bundesjustizministerin Christine Lambrecht.

Private Regeln bleiben bestimmend

Seit Dezember liegt der Gesetzentwurf der EU-Kommission für die kommenden Regeln im digitalen Raum vor, letzte Woche hat das EU-Parlament seine Hauptverhandler benannt, darunter die deutsche Grüne Alexandra Geese. Doch so ambitioniert der Entwurf auch ausgefallen ist – die meisten dieser Konfliktfelder löst das geplante Gesetz nicht auf.

Das war auch durchaus so gewollt. „Wir wollen nicht der Internet-Wirtschaft aufoktroyieren, was richtige Inhalte sind“, sagte jüngst der EU-Kommissionsbeamte Werner Stengg in dem Fachgespräch zum Gesetzentwurf. Was legal und illegal ist, sei bereits durch europäisches oder nationales Recht geregelt. „Wir beschränken uns auf die prozeduralen Transparenzmaßnahmen“, sagte Stengg.

Um die Aufmerksamkeit eines internationalen Publikums heischende Tweets, die Corona-Maßnahmen mit dem Holocaust vergleichen, werden wohl weiterhin nur in Deutschland gesperrt sein. In EU-Ländern ohne Verbotsgesetz sind sie nicht notwendigerweise illegal.

Auf EU-Ebene tonangebend bleiben weiterhin die Gemeinschaftsstandards der Unternehmen. Eine auf Katzen spezialisierte Plattform wird, wie heute, das Recht haben, Hundefotos postende Trolle rauszuwerfen. Genauso wird es möglich sein, Hetze gegen LGBTQ-Personen oder andere marginalisierte Gruppen zu löschen, auch wenn das manchen Politikern nicht gefallen wird. Wenn die Plattformen aber ihre AGB durchsetzen, „dann möchten wir wissen, was ihr macht, warum ihr es macht, wie ihr es macht und mit welchem Ergebnis“, sagte Stengg.

Besser beschweren

Gegen ungerechtfertigte Sperren sollen erstmals gesetzlich verankerte Beschwerdemechanismen helfen. Im ersten Schritt soll die Überprüfung intern stattfinden, als weitere Instanz ist zudem eine außergerichtliche und von den großen Plattformen unabhängige Beilegung von Streitigkeiten vorgesehen.

Das sollte effektiveren Schutz vor willkürlichen Sperren bieten als es derzeit der Fall ist: Fehler werden immer passieren, zudem erkennt vor allem automatisierte Inhaltemoderation Kontext oder Ironie nicht und sorgt regelmäßig dafür, dass legitime Inhalte aus Teilen des Netzes verschwinden. Gegen Meldekriege, mit denen Trolle ihnen unliebsame Menschen von den großen Online-Diensten vertreiben, ist ebenfalls eine Bremse eingebaut.

Trotzdem habe der Gesetzentwurf ein „prozedurales Problem“, denn weiterhin sei nicht exakt geregelt, wann genau Plattformen für illegale Inhalte haftbar werden, sagte kürzlich der Politikwissenschaftler Murat Karaboga auf einer Tagung zu Hassrede. In ihrer Moderationspraxis hätten die Dienste also weiterhin „Narrenfreiheit“, insgesamt werde die „private governance“ im Internet ausgeweitet, sagte Karaboga.

Ohnmacht trotz verbesserter Beschwerdewege

Das spiegelt sich auch in den Details des Entwurfs wider. So verbessert sich die Situation Betroffener nicht, die einen fragwürdigen, aber letztlich stehen gelassenen Inhalt gemeldet haben, sagt Josephine Ballon von der NGO HateAid. Im Unterschied zu Löschentscheidungen besteht in solchen Fällen keine Begründungspflicht für die Plattformen, genausowenig erhalten sie Zugang zum Gegenvorstellungsverfahren oder zur außergerichtlichen Streitbeilegung. „Ihnen bleibt eigentlich nichts anderes, als zum Anwalt zu gehen“, sagt Ballon.

Auch gebe es bei Inhalten, welche die Nutzer:innen nicht persönlich betreffen, keine Option und auch keinen Ansprechpartner als Beschwerdestelle, so Ballon. Zugleich seien die Plattformen dadurch begünstigt, dass man zwar anonym etwas melden kann, aber eine potenzielle Haftung für Plattformen erst dann greift, wenn die Meldenden ihre Daten hinterlassen. „Aus der Beratung wissen wir, dass viele Leute aus Angst vor der Gegenseite davor zurückschrecken, bei einer Meldung ihren Namen anzugeben“, sagt Ballon.

Die aktuellen Debatten rund um Haftungsregeln und Inhaltemoderation seien ein Schlachtfeld für den globalen Aufstieg des Faschismus auf Kosten der liberalen Demokratie, schrieb die Journalistin Sarah Jeong auf Twitter. Vieles spricht dafür, dass diese These stimmt. Bei der weiteren Debatte rund um das Gesetz für digitale Dienste sollten wir diese Perspektive nicht aus den Augen verlieren.

In den kommenden Wochen werden wir weitere Artikel rund um einzelne Aspekte des Gesetzentwurfs für digitale Dienste veröffentlichen – mit möglichen Optionen, die das Internet zu einem besseren Ort machen könnten.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

7 Ergänzungen

  1. Eine grundsätzliche Aufgabe gehen die Staaten noch immer nicht an.

    Es gibt heute wesentlich mehr Inhalte und entsprechend auch wesentlich mehr Meinungsäußerungen als sagen wir vor 20 Jahren. Entsprechend gibt es auch mehr Verstöße gegen straf-, medien- und persönlichkeitsrechtliche Bestimmungen. Die Justiz hat aber gar nicht die Kapazitäten, sich mit diesen Verstößen zu befassen.

    Wir brauchen nach wie vor dringend einen adäquaten Ausbau unseres Justizapparats, der ja leider mit der Entwicklung des Internets in keiner Weise Schritt gehalten hat. Wir müssen endlich anerkennen, dass das Internet die zentrale Plattform der demokratischen Öffentlichkeit ist und justiziell entsprechend abgebildet werden muss.

    Was wir allgemein bei der Regulierung von Social Media und speziell z.B. bei der Privatisierung von Zensur beobachten, ist letztlich ein Hilfeschrei der überforderten Staaten. Es ist längst nicht die Antwort, die wir brauchen.

    1. Absolut. Wenn Regierungspolitiker sagen, „Nur Richter dürfen entscheiden, was legal und was illegal ist“, dann aber Gesetze vorlegen, die die logische Konsequenz nicht ziehen, dann kratze ich mich schon am Kopf.

      Ob jetzt Moderationszentren, in denen hunderttausende Richter:innen manuell Spam aussieben oder überprüfen, ob eine unverhohlene Morddrohung tatsächlich illegal ist, der richtige Ansatz ist, weiß ich auch nicht. Aber wir führen die Debatte ja nicht einmal.

  2. „Meinungsfreiheit ist auch ein ganz zentrales Gut, das es zu schützen gilt, gerade durch geschickte, wohldosierte Eingriffe in die Äußerungsfreiheit anderer.“
    So eine perfide Aussage koennte auch aus Russland oder China stammen.
    Ich finde den Artikel sehr blauäugig gegenüber Zensurbestrebungen , bzw. „wohldosierten Eingriffen in die Meinungsfreiheit“.

    1. Demokratische Gesellschaften schränken die „Meinungsfreiheit“ immer wieder ein, das ist auch völlig legitim. In manchen Fällen, etwa bei Volksverhetzung oder nationalsozialistischer Wiederbetätigung, ist das eben keine „Meinung“ mehr, sondern kann drastische Konsequenzen für ganze Menschengruppen haben.

      Klar ist das eine schwierige Debatte: Wer bestimmt, wo die Grenze beginnt; wer definiert sie; wie wird das umgesetzt usw. Aber ein reales Problem zu ignorieren, pauschal von „Zensurbestrebungen“ zu sprechen oder auf autoritäre Systeme zu verweisen, hilft dabei nicht weiter.

      1. die Aussage von Hr. Buermeyer hat mich trotzdem schockiert.
        Im Artikel wird dieses schwierige Thema eben gerade nicht diskutiert. Im Gegenteil, ich lese hier eher, dass momentan die Meinungsfreiheit viel zu weit geht und deshalb „wohldosierte Eingriffe“ nötig sind.
        Was mir fehlt ist die Diskussion folgender Thesen:
        – kann man Menschen nicht zutrauen, dass sie auch selber Dinge kritisch hinterfragen, ohne Hinweise und Faktenchecks (die auch teilweise problematisch sind, da hier die Illusion eines richtig und falsch erweckt wird. Das ist aber bei vielen Themen zu einfach)
        – führt denn der Hass wirklich zu einer Zunahme der Gewaltverbrechen? Die PKS bestätigt das nicht. Und ist der Begriff Hass nicht viel zu schwammig, wird damit nicht Willkür Tür und Tor geöffnet.
        – hat nicht gerade ein Horst Seehofer erkannt, dass er jetzt fast Alles durchkriegt, wenn er das Label gegen „Hass und Hetze“ verwendet?
        In diesem Zusammenhang

  3. Solange man sich mit ausländischen Privatunternehmen „streitet“ wird daraus sowieso nichts. Es fehlen schlicht EU Dienste bei denen man auch entsprechende Gesetze/Regeln umsetzen kann. Man merkt ja heute schon die Hilflosigkeit bei den großen wenn die Willkürlichkeit wieder durchschlägt und man genau gar keine Möglichkeit hat da an irgend etwas oder gar irgend wen ran zu kommen zur Klärung lol.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.