Moderationsberichte

Unter dem Netzwerkdurchsetzungsgesetz sind nicht alle gleich

Die Transparenzberichte der Social-Media-Betreiber zum ersten Halbjahr 2020 zeigen: Die Unternehmen löschen Inhalte lieber nach eigenen Richtlinien, statt sich an Gesetze zu halten. Im Interview ordnet Anna-Lena von Hodenberg von HateAid die Zahlen ein und spricht über die Schwachstellen des NetzDG.

Lexikoneintrag zu Blocking/Deleting
Nach dem Netzwerkdurchsetzungsgesetz müssen soziale Netzwerke Inhalte, die Nutzer:innen gemeldet haben, löschen – wenn diese Hasskriminalität und andere Straftaten verbreiten. Gemeinfrei-ähnlich freigegeben durch unsplash.com Mika Baumeister

Die Social-Media-Plattformen Facebook, Twitter, TikTok und Youtube haben ihre Transparenzberichte gemäß dem Netzwerkdurchsetzungsgesetz (NetzDG) für das erste Halbjahr 2020 vorgelegt. Vergleichbar sind die Zahlen nur schwer, da die Betreiber noch immer keine einheitlichen Meldewege vorweisen können:

TikTok verzeichnet von Januar bis Juni 2020 insgesamt 141.830 gemeldete Straftaten. Rund 28.000 Fälle von Beleidigung wurden von Einzelpersonen oder Beschwerdestellen als häufigste Straftat gemeldet. Bei Facebook gingen laut Transparenzbericht hingegen nur 4.292 Meldungen nach dem NetzDG ein. Auch hier war Beleidigung mit 2330 Beschwerden der häufigste Grund, gefolgt von Volksverhetzung (1697) und Übler Nachrede (1677). Bei Twitter gingen in der ersten Jahreshälfte 765.715 Meldungen nach dem NetzDG ein, in 122.302 Fällen wurden Maßnahmen ergriffen, also Nutzer:innen blockiert oder Tweets gelöscht. Und Youtube meldet 388.824 Beschwerden über Straftaten, in deren Folge 90.814 Inhalte entfernt wurden.

Der Bundestag hat das Netzwerkdurchsetzungsgesetz 2018 verabschiedet, um gegen die Verbreitung von Hasskriminalität und anderen strafbaren Inhalten auf sozialen Netzwerken vorzugehen. Das Gesetz ist umstritten: Zwar soll es die Rechte von Nutzer:innen stärken, die in den sozialen Medien verbal angefeindet und bedroht werden. Allerdings kritisieren Jurist:innen und zivilgesellschaftliche Organsisationen, dass es zur unabsichtlichen Zensur von Inhalten im Netz einlade. Auch leistet das Gesetz bislang noch nicht in ausreichendem Maße das, was es verspricht: Nutzer:innen können zwar Inhalte melden, durch die sie sich oder andere angegriffen sehen, jedoch werden die Täter:innen bislang nicht strafrechtlich verfolgt.

Wir haben mit Anna-Lena von Hodenberg von der gemeinnützigen Organisation HateAid gesprochen, die Opfer von Hassrede und Kriminalität im Netz berät und juristisch unterstützt. Sie ordnet die Zahlen vor dem Hintergrund ihrer Arbeit und der geplanten Erweiterung des NetzDG ein

Meldezahlen unterscheiden sich auffällig

netzpolitik.org: Wie beurteilen Sie vor dem Hintergrund Ihrer Arbeit die Zahlen in den Transparenzberichten der sozialen Netzwerke?

Anna-Lena von Hodenberg, Geschäftsführerin von HateAid Alle Rechte vorbehalten HateAid gGmbH

Anna-Lena von Hodenberg: Das ist schwierig zu sagen. Einige waren erwartbar, zum Beispiel die Zahlen von Facebook. Bei Facebook ist das NetzDG-Meldeformular total versteckt. Deswegen meldet ein Großteil der Leute über die Community Standards. Und Facebook selbst prüft Beschwerden auch zuerst nach den eigenen Standards – wenn dann etwas übrig bleibt, prüfen sie nach dem NetzDG. Das alles beweisen die niedrigen Zahlen.

Eigentlich ist ein gut zu findender Meldeweg im Gesetz festgeschrieben, Facebook und Youtube kommen dem aber nicht nach. Wenn Sie bei Youtube ein Video melden wollen, ist das sehr einfach – aber auch dann geht es über die Community Standards. Will man nach dem NetzDG melden, muss man das Menü oben aufrufen und das Meldeformular ist auch hier versteckt. Bei Youtube sind die Beschwerden zwar angestiegen, aber die Gründe kann ich schwer beurteilen – vielleicht ist das Meldeformular inzwischen bekannter geworden. Bei TikTok ist das ein anderes Thema.

netzpolitik.org: Warum sind die Zahlen bei TikTok so stark gestiegen?

von Hodenberg: Als der letzte Transparenzbericht erschien gab es ein geleaktes Paper, in dem es hieß, dass TikTok schon mehr als 4 Millionen Nutzer:innen in Deutschland hatte – man weiß nicht, ob das stimmt. Es liegt wohl an den gestiegenen Nutzer:innenzahlen, aber es liegt auch daran, dass der Meldeweg über die App implementiert wurde.

Melden ist schwierig, Kontrolle noch schwieriger

netzpolitik.org: Wie erklären Sie sich, dass Beleidigungen bei TikTok mit Abstand am häufigsten gemeldet wurden? (28.000 Meldungen)

von Hodenberg: Es gibt viel Videocontent auf TikTok. Und es gibt eine Kultur, sich über Leute lustig zu machen, Leute lächerlich zu machen und zu shamen. Das ist mit ein Grund, wofür die Zahl der gemeldeten Beleidigungen steht.

Aber Beleidigung ist als Straftatbestand auch leichter zu erkennen als zum Beispiel Volksverhetzung. Wenn eine Person einen Inhalt meldet, entscheidet sie sich vielleicht häufiger dafür, es einfach als Beleidigung zu bezeichnen.

Was bei TikTok interessant ist: Es gibt auch mehr als 12.000 Beschwerden in Verbindung mit dem Verbreiten, Erwerb und Besitz kinderpornografischer Schriften. Bei der App musical.ly, deren Nachfolger TikTok ist, war das früher ähnlich: Sie hatte den Ruf ein Paradies für Menschen zu sein, die im Bereich Kinderpornografie und Cyber-Grooming aktiv sind. Das ist auch ein großes Problem bei TikTok. Ich gehe davon aus, dass die Dunkelziffer hier höher ist.

netzpolitik.org: Würden Sie sagen, dass das NetzDG auf TikTok wirksam ist?

von Hodenberg: In der Theorie gibt es beim NetzDG einen bestimmten Straftatenkatalog und eigentlich ist TikTok verpflichtet, nach dem NetzDG alles zu überprüfen und zu löschen, was den Straftatbeständen entspricht.

Aber da liegt auch ein Schwachpunkt des NetzDG, nämlich die Frage nach der Compliance und wer diese misst. Der nächste Schritt wäre, bei den Unternehmen zu prüfen, wie viele Beschwerden sie bekommen haben und wie viele Inhalte davon nicht gelöscht wurden. Nutzer:innen können sich zwar beim Bundesamt für Justiz beschweren, wenn etwas nicht gelöscht wurde – aber das ist nochmal eine riesige Hürde.

Das ist eine der großen Schwächen der Transparenzberichte: Es ist fast unmöglich zu kontrollieren, ob wirksam überprüft und gelöscht wurde. Das hat man in dem Reformansatz versucht zu korrigieren. Die Rechte der Nutzer:innen, deren Inhalte nach NetzDG gelöscht werden, müssen geschützt werden. Aber wenn die Plattformen ihrem Auftrag nicht nachkommen, müssen auch die Rechte der Melder:innen geschützt werden. Die Plattformen sind verpflichtet, deutsches Recht umzusetzen. Facebook wurde schon zu 2 Millionen Euro Bußgeld verurteilt. Ob denen das wehtut, ist eine andere Frage. Aber für Twitter wäre so eine Summe schon ein Problem.

Facebook folgt lieber eigenen Gesetzen

netzpolitik.org: Was halten Sie davon, dass Facebook immer noch den gesonderten Meldeweg benutzt? Das Unternehmen sagt ja, dass es das ändern will.

von Hodenberg: Das sagt Facebook schon seit langer Zeit. Es ist erstaunlich, dass es für so ein Unternehmen, das beinahe jeden Tag neue Features bringt, so schwierig ist, einen neuen Meldeweg einzuführen. Da ist die Frage, welche Priorität sie dem beimessen. Man muss annehmen, dass es nicht priorisiert wird, diesen Meldeweg zu ändern. Wenn das so ist, muss man annehmen, dass im Transparenzbericht immer die niedrigsten Beschwerdezahlen erscheinen sollen im Vergleich zu den anderen sozialen Netzwerken. Dass man verhindern möchte, dass Menschen nach dem NetzDG Inhalte melden. Und so möchte man verhindern, dass man nach deutschem Recht etwas prüfen und darüber Rechenschaft ablegen muss.

Da liegt ein Schlupfloch: Im NetzDG ist nicht festgelegt, dass Unternehmen die Meldungen zuerst nach dem NetzDG prüfen müssen. Das nutzt Facebook aus, indem es auch die Inhalte, die nach dem NetzDG gemeldet sind, zuerst nach seinen Community Standards prüft. Sobald sie das tun, haben sie die Hoheit über die Zahlen und sie bestimmen die Regeln, nach denen Content in ihrem Netzwerk gepostet oder gelöscht wird. Das heißt aber auch, dass sie kein Bußgeld zahlen müssen und niemandem gegenüber verantwortlich sind, wenn etwas nach ihren Community Standards nicht gelöscht wird. Aber diese Standards erlauben alles und nichts. Ich als Nutzerin habe mehr Rechte, wenn ich nach dem NetzDG melde.

netzpolitik.org: Auf Twitter ist Volksverhetzung der häufigste Beschwerdegrund. Wie beurteilen Sie das?

von Hodenberg: Die schlimmsten Hate Storms haben wir mittlerweile auf Twitter. Eine Studie von Amnesty International zur Twitter-Nutzung von Frauen zeigt, dass Frauen sich gerade dort nicht mehr äußern, weil sie auf Twitter aufs Heftigste angegriffen werden.

Wir wissen auch – aus Studien des Instituts für Demokratie und Zivilgesellschaft (ISD) und aus unserer Beratung – dass auf Twitter rechte Gruppen unterwegs sind. Das hat man zuletzt wieder im Fall Natascha Strobl versus Don Alphonso gesehen. Diese rechten Gruppen haben das seit Jahren perfektioniert, Menschen organisiert anzugreifen, zu shamen, herauszudrängen. Die haben Angstkultur als Teil ihrer politischen Arbeit perfektioniert, das muss man leider so sagen. Und die arbeiten viel mit Fake-Profilen, um als größere Masse aufzutreten.

Auf Twitter agieren insgesamt mehr bekannte Persönlichkeiten wie Politiker:innen oder Journalist:innen, deswegen ist Twitter politisch so wichtig, aber in absoluten Zahlen sind es wenige Menschen, die twittern. Für Rechtsextreme bietet das die Möglichkeit, mit Fake-Profilen Trending Topics zu schaffen. Und wir gehen davon aus, dass sie auch oftmals für die Volksverhetzungen verantwortlich sind.

Gesetz gefährdet marginalisierte Menschen

netzpolitik.org: Für wie wirksam halten Sie das NetzDG vor dem Hintergrund ihrer Arbeit? Wenden sich seitdem weniger Menschen an Sie?

von Hodenberg: Nein, das hat überhaupt nichts bewirkt. Ich glaube, dass das NetzDG immer noch nicht bekannt genug ist. Viele Menschen wissen gar nicht, dass die Möglichkeit besteht, Inhalte nach deutschem Recht prüfen zu lassen.

Ich glaube schon, dass mehr Inhalte gelöscht wurden. Aber die Menschen kommen zu uns, weil sie angegriffen werden. Sie wollen aufgefangen werden und rechtlich gegen die Täter:innen vorgehen. Daran hat das NetzDG nichts geändert, weil die Täter:innen im Zweifel nichts davon mitbekommen, wenn ihre Beiträge gelöscht werden. Sie können sie einfach nochmal posten. Betroffene, die gegen Täter:innen vorgehen wollen, tangiert das Gesetz also nicht. Mit dem Gesetzentwurf zu Rechtsextremismus und Hasskriminalität will man jetzt auch diese Schwachstelle beheben, damit Strafverfolgung stattfindet. Das ist erstmal gut, aber die jetzige Lösung ist leider datenschutzrechtlich ziemlich bedenklich.

Ich war keine Verfechterin des NetzDG, als es beschlossen wurde – meiner Ansicht nach hatte es erhebliche Geburtsfehler. Aber jetzt ist es da, und da muss man überlegen, was es eigentlich bringt.

netzpolitik.org: Besteht durch das NetzDG in Ihren Augen die Gefahr der Zensur durch die Konzerne?

von Hodenberg: Die Gefahr besteht immer. Diese Bedenken wurden von Anfang an geäußert. Die jetzigen Zahlen deuten nicht darauf hin, aber das bedeutet nicht, dass die Gefahr nicht weiter besteht. Man versucht jetzt, die Nutzer:innenrechte zu stärken, sodass sie schnell und unkompliziert dagegen vorgehen können, wenn ihre Beiträge oder Profile gelöscht werden. Das braucht es auf jeden Fall: Es würde dem Gesetz gut zu Gesicht stehen, wenn man alles versucht, um Overblocking zu verhindern.

Bei Twitter werden oft Personen „massengemeldet“, um Menschen aus Twitter herauszubringen und Twitter sperrt dann oft die Accounts. Twitter sagt, dass sie jeden Einzelfall prüfen. Aber wir haben da andere Erfahrungen gemacht. Es gibt kein rechtliches Verfahren, in dem Menschen das garantierte Recht haben, dass ihr Fall noch einmal überprüft wird und sie ihren Account vielleicht wiederbekommen. Das ist gerade für Menschen ein Problem, die marginalisiert werden. Die verlieren so ihre Stimme und ihre Reichweite in sozialen Netzwerken. Da braucht es mehr Rechte für die Nutzer:innen.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

Eine Ergänzung
  1. Sorry, aber gerade auch HateAid trug wesentlich zum NetzDG bei, dass von immer mehr Autokraten als Vorbild gemutzt wird. Auch die Argumentation, dass solche Gesetze gerade zur Stärkung von Meinungsfreiheit beitragen, wird begeistert von diesen Regimen adaptiert.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.