Ohne Millionen Datenarbeiter:innen würden weder sogenannte Künstliche Intelligenz noch Content-Moderation funktionieren. In einem neuen Projekt erzählen sie ihre Geschichten: von Plattformarbeiter:innen in Venezuela und Syrien über Angestellte von Outsourcing-Firmen in Kenia bis zu Content-Moderator:innen in Deutschland.
Eine NGO hat 200 klar rassistische und antisemitische Posts beim Twitter-Nachfolger „X“ gemeldet – doch nach einer Woche waren nur vier davon offline. Das „Center for Countering Digital Hate“ sieht in der Stichprobe eine direkte Folge der Übernahme durch Elon Musk. Der Milliardär hatte große Teile der Moderationsteams entlassen.
Wie funktioniert eigentlich Inhaltsmoderation auf einer großen Social-Media-Plattform und warum entstehen dabei immer wieder Skandale? Ein kurzweiliges Spiel gibt einen Einblick in die harten Entscheidungen hinter den Kulissen – und macht dabei auch noch Spaß.
Moderator:innen für Facebook in Kenia klagen gegen den Mutterkonzern Meta und zwei weitere Subunternehmen. Sie glauben zu Unrecht entlassen worden zu sein. Die Versuche, eine Einigung zu erzielen, sind nun gescheitert. Der Fall geht jetzt erneut vor Gericht.
Mit deutlichen Worten verlässt die Antidiskriminierungsstelle des Bundes die Plattform X, die früher Twitter hieß. Als Gründe nennt sie den Anstieg von Desinformation, Hass und Antisemitismus seit der Übernahme durch Elon Musk – und dass dieser solche Inhalte selbst verbreitet.
Cengiz Haksöz ist ein engagierter Content-Moderator: Er ist im Bundestag aufgetreten, sollte die Wahl eines Betriebsrats organisieren. Jetzt sagt sein Arbeitgeber: Er darf die Firma nicht mehr betreten. Der Fall ist ein Frontalangriff auf die Demokratie. Ein Kommentar.
Deutschland hätte Instagram und Facebook nicht einfach vorschreiben dürfen, dass sie ein Gegenvorstellungsverfahren bei Löschentscheidungen anbieten müssen. Auch wenn Meta vor Gericht Erfolg hatte: Dank des Digital Services Act kommt die Widerspruchsmöglichkeit gegen Löschungen bald für die gesamte EU.
Das Nippel-Verbot auf Facebook und Instagram basiert auf einem binären Verständnis von Geschlecht und ist in der Praxis unbrauchbar. Zu diesem Urteil kommt ein Aufsichtsgremium, das der Mutterkonzern Meta selbst eingerichtet hat. Jetzt soll Meta die Regeln ändern.
Die prominente Videoplattform setzt Wortfilter ein, die eine Diskussion über bestimmte Themen erschweren. Derartige Einschränkungen bei der Meinungsfreiheit stehen bei TikTok offenbar auf der Tagesordnung.
Ein Bericht von Amnesty International zeichnet im Detail nach, welche Verantwortung Facebook an den Gräueltaten gegen die Rohingya in Myanmar trifft. Die Menschenrechtsorganisation erhöht den Druck auf den Konzern, den Betroffenen Entschädigungen zu zahlen.
Wieder gibt ein Leak Einblicke hinter die Kulissen von TikTok. Offenbar sollten Pressestellen vorformulierte Statements verbreiten – und die Verbindung zum chinesischen Mutterkonzern Bytedance kleinreden.
OnlyFans will unerwünschte Inhalte mit Blocklisten bekämpfen. Mindestens 149 Begriffe sind auf der Bezahlseite für teils erotische Inhalte tabu. Es ist ein drastisches Beispiel für Overblocking – sogar die Zahl „zwölf“ ist verboten.
Wer fordert, dass Desinformation einfach gelöscht werden muss, begibt sich auf einen Pfad, der zu immer neuen Formen von Informationskontrolle und Zensur führt. Deswegen müssen wir andere Lösungen finden. Eine Replik.
Sklaven, LGBTQ oder der Name der verschwundenen chinesischen Tennisspielerin Peng Shuai: Manche Wörter sind in TikTok-Kommentaren wohl unerwünscht. Eine Tagesschau-Recherche zeigt, dass TikTok einige Kommentare nicht veröffentlicht – still und heimlich. Die Videoplattform gesteht nun „Fehler“ ein.
Laut einer Studie nutzt Russland den koordinierten Einsatz seiner Botschaftsaccounts auf Twitter, um Falschinformationen zu verbreiten. Die Regierungsaccounts genießen im Regelwerk des sozialen Netzwerks eine Sonderrolle.
Human Rights Watch untersucht Reaktionen und Maßnahmen von großen Social-Media-Plattformen und Messenger-Diensten seit dem russischen Angriff auf die Ukraine. Die Organisation macht auf Versäumnisse bei der Achtung der Menschenrechte aufmerksam und kritisiert, dass die Entscheidungen intransparent seien.
„Knocked out and fucked“: On XVideos clips dealing with rape are automatically recommended. Anonymous uploads raise doubts about whether recordings are consensual. Our research reveals how sexualized violence can spread on the platform.
Vor den Moderationsregeln von Meta sind nicht alle gleich: Nach der russischen Invasion der Ukraine lockern Facebook und Instagram ihre Regeln zu Gewaltaufrufen. In einigen osteuropäischen Ländern dürfen Nutzer:innen nun russischen Soldat:innen und Präsident Putin den Tod wünschen.
Während die chinesische Regierung Angehörige der uigurischen Minderheit in Lagern interniert, hat TikTok Worte wie „Arbeitslager“ und „Umerziehungslager“ in Deutschland eingeschränkt: In automatischen Untertiteln wurden sie mit Sternchen ersetzt. TikTok erklärt das mit „veralteten englischen Sprach-Schutzmaßnahmen“.
Telegram reagiert offenbar auf politischen Druck. Nach einem Gespräch mit der Bundesregierung sperrt der Messenger einige Kanäle des Verschwörungsideologen Attila Hildmann in Deutschland.