Renate KünastFacebook muss mehr als gemeldete Inhalte löschen

Renate Künast hat in einer Klage gegen Facebook gewonnen. Die Plattform muss auch Dubletten und sinngleiche Varianten eines entfernten Inhaltes löschen, so das Landgericht Frankfurt. Das könnte große Auswirkungen auf die Inhaltemoderation haben.

Renate Künast im Bundestag
Ab wann ist ein Inhalt sinngleich? – Alle Rechte vorbehalten IMAGO / Future Image

Eine Abbildung der Grünen-Politikerin Renate Künast, daneben ein Zitat, wie sie angeblich zur Integration durch Türkischlernen aufruft. Künast hat das ihr untergeschobene Zitat nie gesagt, doch das Bild verbreitet sich seit 2015 bei Facebook und wird zum Meme. Künast will, dass das Unternehmen Verantwortung dafür übernimmt, diese und ähnliche Zitatkacheln von der Plattform zu entfernen und klagte im vergangenen Jahr gemeinsam mit Hate Aid vor dem Landgericht Frankfurt. Nun gibt ihr das Gericht Recht: Der mittlerweile in Meta umbenannte Konzern muss die entsprechenden Inhalte löschen. Darüber hinaus soll Meta Künast 10.000 Euro Entschädigung zahlen.

Bei der Klage ging es nicht darum, dass eine bestimmte Zitatkachel entfernt wird, sondern um alle Inhalte, die wort- und sinngleich sind. Meta muss sie selbst suchen und löschen und darf die Verantwortung dafür nicht den Nutzer:innen überlassen. „Das Urteil ist eine Sensation. Das Gericht hat klargestellt, dass soziale Medien durchaus Verantwortung für den Schutz der Nutzenden tragen“, kommentiert Josephine Ballon von Hate Aid.

In der Urteilsbegründung führt das Gericht aus: „Das deutsche Recht mutet jedem Verpflichteten eines Unterlassungsgebots zu, selbst festzustellen, ob in einer Abwandlung das Charakteristische der konkreten Verletzungsform zum Ausdruck kommt und damit kerngleich ist.“ Also muss Meta auch entsprechende Inhalte löschen, die etwa durch Tippfehler, Kürzungen oder ein anderes Layout abgewandelt sind.

Künast freut sich über „Grundsatzentscheidung“

„Diese Grundsatzentscheidung mit der Pflicht alle vorhandenen Falschzitate zu löschen, nimmt die Plattformen endlich in die Pflicht“, sagt Klägerin Künast. Sie hoffe, dass es bei den abschließenden Verhandlungen zum Digitale-Dienste-Gesetz in der EU wahrgenommen werde. Bei dem Gesetzesvorhaben geht es auch darum, welche Pflichten große Plattformen bei der Moderation von Inhalten haben.

Auch wenn das Urteil zunächst direkt den konkreten Fall von Künast betrifft, hofft Hate Aid, dass Meta nun die Löschpraxis auf seinen Plattformen ändert und auch in anderen Fälle Dubletten von entfernten Inhalten aktiv löscht. „Sollten sie das nicht tun, müssten sie vor dem Hintergrund dieses Grundsatzurteils damit rechnen, immer wieder vor Gericht zu verlieren“, so Hate Aid gegenüber Spiegel.

Bereits im Jahr 2019 urteilte der Europäische Gerichtshof zu einem ähnlichen Fall der österreichischen Ex-Grünen-Chefin Eva Glawischnig, die in einem Facebook-Post beschimpft worden war. Damals sagte der EuGH ebenfalls, dass österreichische Gerichte dem Unternehmen auch die Entfernung sinngleicher Äußerungen anordnen dürften. Die große Frage blieb: Wie? Und wie ähnlich müssen Inhalte sein, um mitentfernt zu werden?

Wie soll Facebook die Inhalte finden?

Dass die Plattform Uploadfilter einsetzt, um Hassrede aufzuspüren, wollen sie nicht, so Künast und ihr Anwalt im Vorfeld. Daher beziehe man sich auch nur auf die Entfernung bereits geposteter Inhalte. Der frühere EU-Abgeordnete Felix Reda zeigte sich damals gegenüber Legal Tribune Online besorgt. Es sei „unklar, wie Facebook sicherstellen soll, dass Postings online bleiben, die das Meme als Falschzitat identifizieren, etwa journalistische Berichte oder Fact-Checking-Beiträge, die für die Ausübung der Meinungs- und Pressefreiheit besonders wichtig sind“.

Meta könne Content-Moderator:innen einsetzen und am Ende sollten Menschen die Entscheidung treffen, zitiert der Spiegel die Hate Aid-Anwältin Anna Wegscheider. Das Gericht teilte mit, dass Meta nicht darlegen konnte, dass es dem Unternehmen „technisch und wirtschaftlich nicht zumutbar ist, ohne konkrete Bezeichnung der URL identische und ähnliche Memes zu erkennen und zwar auch, wenn für die Beurteilung eines abgewandelten Textes in einem Eintrag eine menschliche Moderationsentscheidung notwendig wird“.

Eine Meta-Sprecherin kündigte gegenüber dem Spiegel an, mit Blick auf die Urteilsbegründung weitere mögliche rechtliche Schritte zu prüfen. Das Urteil ist noch nicht rechtskräftig, Meta kann dagegen in Berufung gehen.

Mehr Zeit für kritische Berichterstattung

Ihr kennt es: Zum Jahresende stehen wir traditionell vor einer sehr großen Finanzierungslücke und auch wenn die Planung und Umsetzung unseres Spendenendspurts viel Spaß macht, bindet es doch sehr viele Ressourcen; Ressourcen, die an anderer Stelle für unsere wichtige Arbeit fehlen. Um Euch also weniger mit Spendenaufrufen auf die Nerven zu gehen und mehr Recherchen und Hintergründe bieten zu können, brauchen wir Eure regelmäßige Unterstützung.

Jährlich eine Stunde netzpolitik.org finanzieren

Das Jahr hat 8.760 Stunden. Das sind 8.760 Stunden freier Zugang zu kritischer Berichterstattung und wichtigen Fragestellungen rund um Internet, Gesellschaft und Politik bei netzpolitik.org.

Werde Teil unserer Unterstützungs-Community und finanziere jährlich eine von 8.760 Stunden netzpolitik.org oder eben fünf Minuten im Monat.

Jetzt spenden


Jetzt spenden

3 Ergänzungen

  1. Ich kann den Standpunkt von Frau Künast ohne Probleme verstehen.
    SOwas darf man einfach nicht automatisieren! Eine vollautomatische, lernfähige KI-Lösung ist fehleranfällig, kaum kontrollierbar, dazu manipulierbar, und die Entscheidungsgründe für Menschen oft kaum oder nur schwer nachvollziehbar. Ich würde unserer aktuellen politischen Klasse auch kein bisschen vertrauen sowas moralisch vertretbar umzusetzen oder dauerhaft durchzuführen! Kurz: es wäre ein Albtraum, den man verhindert muss.
    Was ich aber auch sehe ist: wenn man immer alles durch menschliche Löscharbeiter*innen prüfen lässt, dann muss man dabei bedenken, dass wir heute erst am Anfang einer Entwicklung stehen würden, und bereits in 10 oder 20 Jahren zig tausende (hunderttausende, millionen, oder noch mehr!) Dinge verboten wurden, und alles soll von Menschen einzeln geprüft werden (sogar auf Sinngleichheit!), damit keine Rechte wie Pressefreiheit und Meinungsfreiheit verletzt werden. Das wird nicht funktionieren. Am Ende werden auch so die Befürworter der KI aus ganz pragmatischen Überlegungen gewinnen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.