Neun Dinge, die du noch nicht über Facebooks Löschteams in Deutschland wusstest

Facebooks Content-Moderatoren trainieren nebenbei eine Künstliche Intelligenz und Promi-Posts gehen direkt nach Dublin. Wir fassen zusammen, was wir über Facebooks Moderationszentren herausgefunden haben.

Ein Finger tippt auf eine Tastatur
15.000 Menschen arbeiten weltweit in den Löschzentren von Facebook. (Symbolbild) CC-BY-NC 2.0 Thomas Hawk

In einer längeren Reportage haben wir erklärt, wie Facebooks Löschzentren in Deutschland funktionieren. Hier fassen wir noch einmal zusammen, was unsere Quellen über die Arbeit mit der Content-Moderation offenbart haben:

  • Privat heißt nicht privat
    Auch unverschlüsselte Direktnachrichten im Messenger können gemeldet werden – und werden dann von den Moderationsteams gesichtet und bearbeitet. Wirklich private Kommunikation können nur Messenger bieten, die eine Ende-zu-Ende-Verschlüsselung bieten, so wie beispielsweise die App Signal.
  • Promi-Bonus
    Wenn in Deutschland Inhalte von Politikern, Promis und Accounts mit mehr als 100.000 Followern gemeldet werden, entscheiden nicht nur die einfachen Content-Moderator:innen der Dienstleister wie Arvato oder CCC, sondern geben den Fall zur Entscheidung an Facebook nach Dublin weiter. Intern wird das „PR-Fire-Risk“ genannt, weil die Löschung von Promi-Aussagen zu Öffentlichkeit oder einem medialen Aufschrei führen könnte.
  • Digitale Müllabfuhr – auch in Deutschland
    Auch die Content-Moderator:innen in Deutschland bearbeiten belastende und schockierende Inhalte wie Enthauptungen, Selbstmorde und Vergewaltigungen von Kindern. Es ist nicht so, dass solche Inhalte nur in den Löschzentren auf den Philippinen und in anderen Billiglohnländern gemacht werden.
  • Training für die Künstliche IntelligenzNeben den von Nutzer:innen gemeldeten Inhalten bekommen die Moderator:innen immer wieder auch Inhalte vorgelegt, die ein Facebook-Algorithmus ihnen proaktiv vorlegt. Mit jeder Entscheidung über diese Inhalte wird das System weiter trainiert, bis eine Künstliche Intelligenz die menschlichen Mods vielleicht einmal ersetzen kann.
  • Facebook-Jura
    Das Regelwerk zur Löschung von Inhalten ist so komplex, dass Angestellte es „Facebook-Jura“ oder „Facebook-Gesetz“ nennen. Für jeden gemeldeten Inhalt müssen die Regeln korrekt ausgelegt werden.
  • Moderator:innen werden permanent bewertet
    Qualität, Quantität und Geschwindigkeit der Moderationsentscheidungen fließen in ein Scoring ein, nach dem die Moderator:innen bewertet weden. Wer nach einigen Monaten immer noch zu niedrige Werte hat, wird nachgeschult oder gefeuert.
  • Regelmäßige Updates der Moderation
    Facebook reagiert mit regelmäßigen „Clarifications“ auf aktuelle Ereignisse und politische Debatten.
  • Bezahlung nur knapp über Mindestlohn
    Content-Moderator:innen erhalten für ihre harte und psychisch aufreibende Arbeit weniger als elf Euro pro Stunde.
  • Show für die Presse
    Wenn es einen Pressetermin gibt, werden die Mitarbeiter:innen vorab gebrieft und klicken lediglich auf den öffentlich einsehbaren Community-Richtlinien herum.

4 Ergänzungen
  1. Gibt es eine Verjährungsfrist für die Inhalte? Wenn die internen Richtlinien immer wieder angepasst werden, dann kann es sein, dass man von heute auf morgen sehr viele Hasskommentare gepostet hat, weil es früher anders bewertet wurde.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.