Dieser Artikel ist mehr als 7 Jahre alt.

Neun Dinge, die du noch nicht über Facebooks Löschteams in Deutschland wusstest

Facebooks Content-Moderatoren trainieren nebenbei eine Künstliche Intelligenz und Promi-Posts gehen direkt nach Dublin. Wir fassen zusammen, was wir über Facebooks Moderationszentren herausgefunden haben.

  • Ingo Dachwitz
  • Markus Reuter
Ein Finger tippt auf eine Tastatur
15.000 Menschen arbeiten weltweit in den Löschzentren von Facebook. (Symbolbild) CC-BY-NC 2.0: Thomas Hawk

In einer längeren Reportage haben wir erklärt, wie Facebooks Löschzentren in Deutschland funktionieren. Hier fassen wir noch einmal zusammen, was unsere Quellen über die Arbeit mit der Content-Moderation offenbart haben:

  • Privat heißt nicht privat
    Auch unverschlüsselte Direktnachrichten im Messenger können gemeldet werden – und werden dann von den Moderationsteams gesichtet und bearbeitet. Wirklich private Kommunikation können nur Messenger bieten, die eine Ende-zu-Ende-Verschlüsselung bieten, so wie beispielsweise die App Signal.
  • Promi-Bonus
    Wenn in Deutschland Inhalte von Politikern, Promis und Accounts mit mehr als 100.000 Followern gemeldet werden, entscheiden nicht nur die einfachen Content-Moderator:innen der Dienstleister wie Arvato oder CCC, sondern geben den Fall zur Entscheidung an Facebook nach Dublin weiter. Intern wird das „PR-Fire-Risk“ genannt, weil die Löschung von Promi-Aussagen zu Öffentlichkeit oder einem medialen Aufschrei führen könnte.
  • Digitale Müllabfuhr – auch in Deutschland
    Auch die Content-Moderator:innen in Deutschland bearbeiten belastende und schockierende Inhalte wie Enthauptungen, Selbstmorde und Vergewaltigungen von Kindern. Es ist nicht so, dass solche Inhalte nur in den Löschzentren auf den Philippinen und in anderen Billiglohnländern gemacht werden.
  • Training für die Künstliche IntelligenzNeben den von Nutzer:innen gemeldeten Inhalten bekommen die Moderator:innen immer wieder auch Inhalte vorgelegt, die ein Facebook-Algorithmus ihnen proaktiv vorlegt. Mit jeder Entscheidung über diese Inhalte wird das System weiter trainiert, bis eine Künstliche Intelligenz die menschlichen Mods vielleicht einmal ersetzen kann.
  • Facebook-Jura
    Das Regelwerk zur Löschung von Inhalten ist so komplex, dass Angestellte es „Facebook-Jura“ oder „Facebook-Gesetz“ nennen. Für jeden gemeldeten Inhalt müssen die Regeln korrekt ausgelegt werden.
  • Moderator:innen werden permanent bewertet
    Qualität, Quantität und Geschwindigkeit der Moderationsentscheidungen fließen in ein Scoring ein, nach dem die Moderator:innen bewertet weden. Wer nach einigen Monaten immer noch zu niedrige Werte hat, wird nachgeschult oder gefeuert.
  • Regelmäßige Updates der Moderation
    Facebook reagiert mit regelmäßigen „Clarifications“ auf aktuelle Ereignisse und politische Debatten.
  • Bezahlung nur knapp über Mindestlohn
    Content-Moderator:innen erhalten für ihre harte und psychisch aufreibende Arbeit weniger als elf Euro pro Stunde.
  • Show für die Presse
    Wenn es einen Pressetermin gibt, werden die Mitarbeiter:innen vorab gebrieft und klicken lediglich auf den öffentlich einsehbaren Community-Richtlinien herum.

Über die Autor:innen

  • Ingo Dachwitz
    Darja Preuss

    Ingo ist Journalist und Kommunikationswissenschaftler. Seit 2016 ist er Redakteur bei netzpolitik.org und u.a. Ko-Host des Podcasts Off/On. Seine Themen sind Daten, Macht und die digitale Öffentlichkeit. Ingos Veröffentlichungen wurden mehrfach ausgezeichnet, unter anderem mit dem European Press Prize, dem Alternativen Medienpreis, dem Datenschutz-Medienpreis und zwei Grimme-Online-Awards. Sein Buch "Digitaler Kolonialismus: Wie Tech-Konzerne und Großmächte die Welt unter sich aufteilen" war für den Deutschen Sachbuchpreis nominiert und wurde als eines der Wissensbücher des Jahres 2025 geehrt. Ingo ist Mitglied des Vereins Digitale Gesellschaft, der Evangelischen Kirche und des Netzwerk Recherche.

    Kontakt: E-Mail (OpenPGP), Mastodon, Bluesky, FragDenStaat

  • Markus Reuter

    Markus Reuter recherchiert und schreibt zu Digitalpolitik, Desinformation, Zensur und Moderation sowie Überwachungstechnologien. Darüber hinaus beschäftigt er sich mit der Polizei, Grund- und Bürgerrechten sowie Protesten und sozialen Bewegungen. Für eine Recherchereihe zur Polizei auf Twitter erhielt er 2018 den Preis des Bayerischen Journalistenverbandes, für eine TikTok-Recherche 2020 den Journalismuspreis Informatik. Bei netzpolitik.org seit März 2016 als Redakteur dabei. Er ist erreichbar unter markus.reuter | ett | netzpolitik.org, sowie auf Mastodon und Bluesky.

    Kontakt: E-Mail (OpenPGP)


Veröffentlicht

Kategorie

Schlagwörter

Ergänzungen

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.

4 Kommentare zu „Neun Dinge, die du noch nicht über Facebooks Löschteams in Deutschland wusstest“


  1. Rückfrage: Hebelt die Beschwerde tatsächlich die optionale End2End-Verschlüsselung in der Messenger-App aus?


    1. Markus Reuter

      ,

      Dazu liegen uns derzeit keine Informationen vor.


    2. Markus Reuter

      ,

      Das können wir nicht bestätigen. Ich habe das im Text jetzt klarer definiert.


  2. Gibt es eine Verjährungsfrist für die Inhalte? Wenn die internen Richtlinien immer wieder angepasst werden, dann kann es sein, dass man von heute auf morgen sehr viele Hasskommentare gepostet hat, weil es früher anders bewertet wurde.

Dieser Artikel ist älter als 7 Jahre, daher sind die Ergänzungen geschlossen.