Regulierung sozialer MedienEin NetzDG für Großbritannien?

Die neue Regierung Großbritanniens hält an einem Gesetzentwurf fest, der Inhalte auf Internetplattformen regulieren soll. Es geht jedoch nicht nur um illegale Inhalte, sondern auch um solche, die „schädlich“ für Nutzer:innen sein könnten.

Liest die britische Medienaufsichtsbehörde bald auch private online Kommunikation mit? CC-BY-NC-SA 2.0 Bastian Greshake Tzovaras

Nicht nur in Deutschland gibt es Streit um die Regulierung sozialer Netzwerke. In Großbritannien steht ein Gesetzentwurf in der Kritik, der eine rechtlich bindende „Fürsorgepflicht“ für Plattformen wie Facebook und TikTok vorsieht. Es geht um mehr als nur strafbare Inhalte: Auch solche, die als potenziell „gefährlich“ oder „verletzend“ gelten, sollen reguliert werden können.

Soziale Medien, Suizid und Selbstverletzung

Anders als in Deutschland, geht es in der Debatte um Meinungsfreiheit in sozialen Medien in Großbritannien nicht primär um Hate-Speech. Im Jahr 2017 hatte die Selbsttötung einer Teenagerin im Vereinigten Königreich Wellen geschlagen. Zuvor soll die 14-Jährige explizite Inhalte zu den Themen Suizid und Selbstverletzung auf Instagram konsumiert haben.

Im April 2019 legte die amtierende konservative Regierung einen ersten Gesetzentwurf vor, der soziale Medien zu einer Fürsorgepflicht (duty of care) verpflichten sollte, Nutzer:innen vor bestimmten Gefahren oder Schäden zu „schützen“. Plattformen sollen angewiesen werden, „angemessene Maßnahmen“ (reasonable steps) gegen eine breite Palette an Inhalten im Netz einzuführen: Selbstverletzung, Suizid und Mobbing ebenso wie Desinformation, Terrorismus, Gewalt und Hate-Speech. Die Gesetzesnovelle hatte – ähnlich wie das deutsche NetzDG – breite Kritik ausgelöst, wonach sie die Rechtsprechung über freie Meinungsäußerung im Netz in die Hände von Privatunternehmen verlagere.

Wer kontrolliert?

In der vergangenen Woche haben das Ministerium für Inneres und das Ministerium für Digitales, Kultur, Medien und Sport weitere Details über das Gesetzesvorhaben bekanntgegeben und auf Kritik reagiert. Nach eigenen Angaben sind sie dazu geneigt, die britische Medienaufsichtsbehörde Ofcom auch mit der Überwachung sozialer Medien zu betrauen. Zu den Kompetenzen der Behörde soll gehören, verpflichtende Transparenzberichte einzufordern, Unternehmen Strafen aufzuerlegen und in Extremfällen den Zugang zu Websites zu blockieren oder Mitgliedern der Geschäftsführung Haftung aufzuerlegen.

Legal? Illegal? Egal?

Mit den Ergänzungen der vergangenen Woche reagiert die Regierung auch auf datenschutzrechtliche Bedenken. Kritiker:innen hatten vor einer möglichen Privatisierung von Rechtsprechung, drohenden Upload-Filtern und der Überwachung privater Kommunikation gewarnt. Die Regierung unterscheidet deshalb fortan zwischen illegalen und potenziell „schädlichen“ oder „gefährlichen“ Inhalten, für die jeweils unterschiedliche rechtliche Rahmen gelten sollen.

Bei illegalen Inhalten – insbesondere Terrorismus und Darstellungen von Kindesmissbrauch – sind die Plattformen verpflichtet, diese schnellstmöglich zu löschen oder bereits ihren Upload zu verhindern. Bei nicht illegalen, aber schädlichen Inhalten, soll Ofcom nicht die Aufgabe haben, diese Inhalte zu löschen oder sperren. Vielmehr solle die Behörde Plattformen dazu verpflichten, in ihren Nutzungsbedingungen zu spezifizieren, welche Inhalte gewünscht, beziehungsweise unerwünscht sind (wie beispielsweise die Glorifizierung von Selbstverletzungen). Aufgabe von Ofcom sei es dann, zu überprüfen, ob Plattformen diese Richtlinien im Management von Beiträgen konsistent und transparent einhielten.

Wie sich diese Grenze zwischen legalen und illegalen sowie schädlichen und nicht schädlichen Inhalten in der Praxis ziehen lassen soll, ist jedoch fragwürdig. Erfahrungen mit dem NetzDG in Deutschland zeigen, wie anfällig soziale Medien für konzertierte Meldeaktionen sind und wie oft sie Inhalte entfernen, die eigentlich vom Recht auf freie Meinungsäußerung gedeckt sind. Zudem könnte die vage gehaltene Definition ‚illegaler‘ Inhalte nach wie vor das Tor für Upload-Filter öffnen.

Als ebenso problematisch erachtet die Initiative Big Brother Watch den unklaren Rechtsbegriff der im Netz erfahrenen psychologischen Schäden, vor denen Nutzer:innen – vor allem Kinder – geschützt werden sollen. Auf Twitter warnt die Initiative, dass der Gesetzentwurf ohne weitere Konkretisierung die weitreichende Überwachung von Privatunterhaltungen in sozialen Medien nach sich ziehen könnte.

Been there, done that, oder: die Fehler des NetzDG

In einem Kommentar für den britischen Independent schreibt Dr. Amy Orben, dass die Regierung „das Internet verstehe sollte, wenn sie Kinder vor Gefahren im Netz schützen will“. Der Regierung, so ihr Fazit, fehlten solide wissenschaftliche Untersuchungen, die das empirische Fundament politischer Maßnahmen bilden könnten.

Hier drängt sich der englische Ausspruch ‚been there, done that‘ förmlich auf. Zu deutsch etwa: ‚Wir haben das auch schon ausprobiert‘ – meist in Bezug auf unangenehme oder erfolglose Unternehmungen. Denn einen Tag bevor die Ministerien in Großbritannien Stellung zur Kritik an ihrem Weißbuch nahmen, erhielt die Justizministerin in Deutschland einen offenen Brief aus Zivilgesellschaft, Wirtschaft und Politik.

Die Autor:innen bemängeln unter anderem, dass es nach wie vor keine ausreichenden wissenschaftlichen Untersuchungen zur Regulierung von Inhalten auf Social Media Plattformen gebe. Die Suche nach einer angemessenen Form staatlichen Handelns im Netz geht also weiter – auf dem Festland wie auf der Insel.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.