Facebook FilesFacebook wusste, was alles schiefläuft

Geleakte Dokumente setzen Facebook unter Druck. Die internationalen Berichte über die „Facebook Files“ zeigen, wie viel der Konzern über die Schädlichkeit der eigenen Produkte wusste. Immer wieder haben Facebook-Mitarbeiter:innen intern gewarnt.

Facebook-Chef Mark Zuckerberg, im Hintergrund ein Smartphone mit dem Facebook-Logo
Die Plattform von Facebook-Chef Mark Zuckerberg steht international in der Kritik. (Symbolbild) – Alle Rechte vorbehalten Hintergrund: IMAGO / NurPhoto, Zuckerberg: IMAGO / photothek, Bearbeitung: netzpolitik.org

Die Enthüllungen der Whistleblowerin Frances Haugen beweisen, dass Facebook intern schon länger über die Probleme Bescheid weiß, die dem Konzern immer wieder vorgeworfen werden. Nun konnten Journalist:innen mehrerer Nachrichtenmedien die als „Facebook Files“ bezeichneten Dokumente sichten und auswerten. Zu den Dokumenten gehören etwa interne Untersuchungen und Chats von Facebook.

Die Whistleblowerin Haugen hatte die Dokumente zuerst dem Wall Sreet Journal und dem US-Senat übergeben. Ein Mitarbeiter des US-Senats übergab die Facebook Files dann teilweise geschwärzt einem großen internationalen Konsortium von Medien, unter ihnen SZ, NDR, WDR, Le Monde und der Schweizer Verlag Tamedia. Heute präsentieren die Nachrichtenmedien ihre Auswertungen.

Aus den Veröffentlichungen geht hervor, dass Facebook schon vor Jahren wusste, wie Nutzer:innen der Plattform innerhalb kürzester Zeit abdriften können. Der Konzern hatte 2019 in einer internen Untersuchung Probenutzer:innen erstellt. „Eine Handvoll Likes reichten aus, bis ihnen nach wenigen Tagen extrem hasserfüllte, misogyne und abwertende Inhalte auf der Plattform angezeigt werden“, schreibt Tagesschau.de.

„Schmerzliche Realität“

Tagesschau.de zitiert eindringliche Warnungen der Facebook-Forscher:innen. Demnach hätten die Inhalte, die „in erster Linie unseren eigenen Empfehlungssystemen“ folgten, in „extrem kurzer Zeit ziemlich besorgniserregende, polarisierende Züge“ angenommen. Facebook hat den Versuch offenbar mit indischen Probenutzer:innen wiederholt und kam zu ähnlichen Ergebnissen. Ein Facebook-Sprecher teilt über Tagesschau.de mit, die Anzahl von Hassreden sei in den letzten drei Quartalen in Folge zurückgegangen.

Ein Motor für Desinformation sind hochaktive Nutzer:innen, die gleich über mehrere Accounts Inhalte verbreiten. Wie eine Recherche von Politico zeigt, wusste Facebook davon. Demnach wurde in einer internen Nachricht ausdrücklich davor gewarnt, dass politische Akteur:innen mehrere, parallel gesteuerte Accounts einsetzen, um die Plattform zu „missbrauchen“.

Auch scheint Facebook große Probleme mit der durch künstliche Intelligenz unterstützte Inhalte-Moderation zu haben. Laut Recherchen von netzpolitik.org trainiert das Unternehmen mindestens schon seit 2019 Systeme, um die Moderation zu unterstützen. Im Jahr 2019 hatten die Systeme nach Einschätzung interner Studien Erkennungsraten von lediglich zwei bis fünf Prozent. Laut der geleakten Dokumente soll die Erkennung von missbräuchlichen Inhalten vor allem in arabischer Sprache schlecht funktionieren.

Ein weiterer Teil der Enthüllungen legt den Fokus auf Indien. Dort soll Facebook trotz interner Warnungen nicht genug gegen Hass und Desinformation unternommen haben, wie die Washington Post berichtet. Solche Inhalte würden jedoch eine wichtige Rolle bei gewaltsamen, teils tödlichen Unruhen im Land spielen. Die Zeitung zitiert aus einer internen Nachricht eines Facebook-Managers: „Die schmerzliche Realität ist, dass wir einfach nicht die ganze Welt mit demselben Maß an Unterstützung abdecken können.“

Keine gleichen Regeln für alle

Die Dokumente zeigen außerdem, dass Facebook für sechs Millionen meist prominente Menschen andere Regeln aufgestellt hat als für sonstige Nutzer:innen, wie die Süddeutsche schreibt. Das geheime Programm habe den Namen „XCheck“. Die dort gelisteten Accounts werden laut SZ anders oder weniger sanktioniert, wenn sie gegen die Facebook-Richtlinien verstoßen. Das würde bedeuten, dass vor Facebook nicht alle gleich sind.

Die internen Dokumente liefern auch Belege für Dinge, die schon länger bekannt waren: Jüngere Nutzer:innen verlieren demnach das Interesse an Facebook; auch Instagram kommt in der jüngeren Zielgruppe offenbar außer Mode. Interne Studien von Facebook kommen sogar zu dem Schluss, dass Instagram der psychischen Gesundheit mancher Nutzer:innen schaden könne.

Die Whistleblowerin Haugen wirft Facebook generell vor, dass sich der Konzern bei Entscheidungen über die Zukunft nicht für die Sicherheit der Nutzer:innen entscheide, sondern für Profit. Facebook-Sprecher:innen weisen diesen Vorwurf in vielen Nachrichtenmedien zurück.

1 Ergänzungen

  1. Es wird Zeit wirklich dezentrale Alternativen zu Facebook aufzubauen. Dafür sind aber Gesetze und eine Finanzierung notwendig. Es gibt ja genug Vorschläge, wie z.B. Secushare.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.