Inhaltemoderation auf Twitter„Wir bei HateAid erleben vor allem Willkür“

Auf Twitter floriert die Hassrede. Zum ersten Mal hat nun das Bundesamt für Justiz ein Bußgeldverfahren eingeleitet, das die Qualität der Moderation unter die Lupe nimmt. Wir haben bei Josephine Ballon von der Hilfsorganisation HateAid nachgefragt, was das bedeutet.

Wer Twitter öffnet, wird zuweilen mit mehr Hassrede als früher konfrontiert. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Fotos: Hasan Almasi und Joshua Hoehne. Montage: netzpolitik.org

Seit Dienstag läuft ein Bußgeldverfahren gegen Twitter. Es ist nicht das erste Verfahren wegen Verstößen gegen das Netzwerkdurchsetzungsgesetz (NetzDG), welches das Bundesamt für Justiz (BfJ) anstößt. Aber es ist ein außergewöhnliches: „Dieses Verfahren ist tatsächlich das erste, bei dem es um die mangelhafte Moderation als solche geht“, sagt Josephine Ballon von der Hilfsorganisation HateAid.

Seit gut fünf Jahren gilt das NetzDG inzwischen. Es soll Nutzer:innen großer sozialer Netze wie Twitter oder Facebook vor illegaler Hassrede schützen, aber auch die Betreiber zu mehr Transparenz verpflichten oder der Wissenschaft besseren Zugang zu den Datensilos der Online-Dienste bieten. Verstöße gegen die Auflagen gab es seitdem genug, mit Bußgeldern belegt wurden unter anderem Facebook oder Telegram. Beanstandet hatte die Aufsichtsbehörde BfJ aber bislang weitgehend formale Versäumnisse der Betreiber, etwa unvollständige Transparenzberichte oder versteckte Meldewege.

Einladung zu Hassrede

Dass Twitter seit seiner Übernahme durch den Milliardär Elon Musk die Zügel schleifen lässt, steht schon länger fest. Nicht nur hatte Musk einen Großteil der Belegschaft gefeuert, darunter viele Moderator:innen. Der sich in der reaktionären US-Blase allem Anschein nach wohlfühlende Unternehmer hatte auch viele Accounts entsperren lassen, die zuvor wegen Hassrede vom Dienst geflogen waren. Als würde man „das Tor zur Hölle aufstoßen“, warnte damals die Expertin Alejandra Caraballo.

Offenkundig haben sich die Befürchtungen bestätigt. „Dem BfJ wurden zahlreiche Inhalte gemeldet, die auf Twitter veröffentlicht wurden, nach Einschätzung der Behörde rechtswidrig sind und trotz Nutzerbeschwerden nicht innerhalb der gesetzlich vorgesehenen Fristen von der Anbieterin gelöscht oder gesperrt wurden“, führt das BfJ als Grundlage für das Bußgeldverfahren an. Bei offensichtlich strafbaren Inhalten haben Betreiber 24 Stunden nach Eingang der Beschwerde Zeit, um solche Inhalte zu löschen oder zu sperren. Für sonstige rechtswidrige Inhalte gilt eine Frist von sieben Tagen.

Zuletzt hatten Aktivist:innen mit einer Datensammlung nachgewiesen, dass Twitter bei der Moderation und das BfJ als zuständige Aufsichtsbehörde kläglich versagen. Ihrer Auswertung zufolge hat Twitter Erstmeldungen nicht ausreichend betrachtet oder mutmaßlich gewollt übergangen, zu viel automatisiert – und damit fehlerbehaftet – moderiert sowie klar illegale Inhalte selbst nach mehrmaligem Melden für unbedenklich befunden.

Die Vermutung steht im Raum, dass die Dokumentation der anonymen Aktivist:innen den entscheidenden Ausschlag für das nun eingeleitete Verfahren gegeben hat. Den Tenor der Auswertung kann Josephine Ballon grundsätzlich bestätigen, in der Beratungsarbeit lasse sich eine Zunahme von Vorfällen auf Twitter verzeichnen. „Wir registrieren aktuell von keiner Plattform mehr Vorfälle digitaler Gewalt“.

Kein Einblick in Qualität der Inhaltemoderation

Doch nach welchen Kriterien Twitter genau moderiert – oder eben nicht –, bleibt weiter verborgen. „Es ist meines Erachtens eine große Schwäche des NetzDG, dass es wenig Möglichkeiten bietet, sich mit der Qualität der Content-Moderation zu befassen“, sagt Ballon.

Aus den Transparenzberichten lasse sich lediglich ablesen, wie viele Meldungen eingegangen sind und auf welcher Grundlage. Bei Letzterer dürfte es sich jedoch überwiegend um die laienhafte Einschätzung der Nutzenden selbst handeln. Ihnen werde nur ein Katalog aus Straftatbeständen ohne jegliche inhaltliche Erläuterung zur Auswahl gegeben, so die Juristin. Die Aussagekraft bliebe also gering.

Zudem entfernen die Betreiber unliebsame Inhalte aufgrund ihrer AGB beziehungsweise Gemeinschaftsrichtlinien meist ohnehin. Damit fallen sie aus den vorgeschriebenen NetzDG-Transparenzberichten heraus. Um welche Art von Inhalten es sich letztlich gehandelt haben könnte, ist bestenfalls den Betreibern selbst bekannt.

Was mit den Rest geschieht, sei völlig unklar, so Ballon. So wollen manche Expert:innen herausgefunden haben, dass die teils kurzen Löschfristen zu sogenanntem Overblocking führten, also zu viele Inhalte im Zweifel ungerechtfertigt gelöscht würden. Andere wiederum sehen Hinweise auf Underblocking, sagt Ballon, weil nur wenige Meldungen überhaupt zu einer Löschung führen. Am Ende würden aber alle qualitative Daten über die Moderation selbst fehlen, Gesetzmäßigkeiten ließen sich von Außen nicht erkennen: „Wir bei HateAid erleben vor allem Willkür.“

Digital Services Act wird wohl nur wenig ändern

Ob das Bußgeldverfahren effektiv Abhilfe schaffen wird, bleibt vorerst offen. Dauern wird es auf jeden Fall. Zunächst kann Twitter Stellung zu den Vorwürfen nehmen. Darauf folgt gegebenenfalls ein Vorabentscheidungsverfahren beim Amtsgericht Bonn. Dort soll überdies festgestellt werden, ob die beanstandeten Inhalte überhaupt rechtswidrig waren. Am Ende würde eine Geldbuße von bis zu fünf Millionen Euro drohen – eine Summe, die selbst das finanziell strauchelnde Twitter einigermaßen schmerzfrei verdauen dürfte.

In den Digital Services Act (DSA), der als vorrangige Regelung das rechtlich ohnehin angeschlagene NetzDG bald zum Großteil ablösen soll, setzt Ballon nur geringe Hoffnungen. Zwar bringt das EU-Regelwerk in manchen Punkten Verbesserungen mit sich, etwa bei der Aufsicht und bei der Transparenz. „In Bezug auf die Moderation einzelner Inhalte, die beim DSA nicht im Fokus steht, wird es vermutlich schwieriger, den Nachweis eines Versagens zu erbringen“, sagt Ballon. Denn der DSA regle anders als nach NetzDG keine explizite Löschpflicht, sondern lediglich eine Prüfpflicht, zudem sehe es auch keine starren Fristen für eine Löschung vor. „Das macht es juristisch gesehen nicht leichter.“

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. NetzDG gehört abgeschafft. Absolut lächerlich was für Maßnahmen und Pflichten hier greifen sollen. Der Gesetzgeber ist an die Verhältnismäßigkeit gebunden und die ist meiner Meinung nach klar gebrochen, wenn man private Unternehmen zur Polizei und Justiz hochstuft mit der Bitte mal alle deutschen Gesetze zu kennen. Wie sollen ausländische Benutzer das wissen? Man stelle sich vor jedes Land hätte solch ein Gesetz. Da muss man die Gesetze von über 100 Ländern dann auswendig kennen ohne sein Account zu riskieren? Die wirklich schlimmen Dinge, wie Drohung, Missbrauch (wohlgemerkt bei Twitter nur echter Missbrauch denn gegen die japanischen Accounts mit Millionen Follower geht Twitter wohl nur ungern vor?).

    Es steht sowieso gerade ein Verfahren aus, welches im Zusammenhang von den Pornoanbietern un. Jugendmedienschutz steht und ob sich diese an deutsche Gesetze halten müssen. Es wäre im Interesse des Internets, wenn nicht die gesamte Welt sich an deutsche Gesetze halten muss (am deutschen Wesen, soll die Welt genesen?)

    1. „Gesetzgeber ist an die Verhältnismäßigkeit gebunden“. Ja, klar, aber die ist hier nicht in Gefahr, also ist Ihre Aussage eine maßlose Übertreibung. Fake News, Hass und Hetze zersetzen die Gesellschaft. Kanäle wie Twitter, Facebook, Telegram werden dafür genutzt und verdienen an diesem Schmutz kräftig mit. Eine Sorgfaltspflicht zum Schutz der Gesellschaft kennen sie nicht. Man sollte ihnen kräftige Strafzahlungen überhelfen – nur sind unsere Gesetze in Wirklichkeit viel zu schwach. Meinungsfreiheit hört da auf, wo sie die Freiheiten und Rechte anderer verletzt – viele Menschen kapieren das anscheinend nicht, oder betreiben schlicht nur Propaganda.

  2. Weil HateAid prominent erwähnt wird. Die kommen bei Fefe nicht gut weg. Er befürchtet wie so oft schon geschehen in der Vergangenheit eine Zensur durch die Hintertür („Polizeigesetz mit Präventivhaft nur für Terroristen und Schwerverbrecher“ – aktuell für Letzte Generation), wenn die gerade diskutierten Accountsperren in Social Media kommen sollten. Hier ist HateAid Fürsprecher.
    https://blog.fefe.de/?ts=9acb4ed5

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.