Exaggerated corporate sensitivities? We publish excerpts from the moderation rules of TikTok which show that not only political content made the video platform nervous. The naming of competitors and criticism of the company were also punished.
Wer über die Videoplattform schimpfte, bekam weniger Reichweite. Wir veröffentlichen Ausschnitte aus den Moderationsregeln von TikTok. Sie zeigen, dass nicht nur politische Inhalte die Videoplattform nervös machten. Auch die Nennung der Konkurrenz und Kritik am Unternehmen wurden bestraft.
Never before has a platform grown as fast as TikTok. We have gained exclusive insight into its content moderation and are publishing excerpts from its moderation rules: TikTok operates a sophisticated system to identify, control, suppress and direct content. The platform can throttle videos of protests and demonstrations according to its rules.
Unsere Recherchen zur Content Moderation bei TikTok zeigen, wie wenig politische Meinungsfreiheit auf der Plattform respektiert wird. Das chinesische Unternehmen kontrolliert und manipuliert intransparent wie bisher kein anderer marktdominanter Konkurrent diese neue Öffentlichkeit. Selbst Facebook wirkt dagegen fast wie ein demokratisches Forum. Ein Kommentar.
Noch nie ist eine Plattform so schnell gewachsen wie TikTok. Wir haben exklusiven Einblick in die Moderation bekommen und veröffentlichen Ausschnitte aus den Moderationsregeln: TikTok betreibt ein ausgeklügeltes System um Inhalte zu identifizieren, zu kontrollieren, zu unterdrücken und zu lenken. Die Plattform kann nach ihren Regeln Videos von Protesten und Demonstrationen drosseln.
Seit letztem Jahr läuft bei Facebook eine Untersuchung zu Bürgerrechten. Diese fordert nun in einem Bericht, jedes Lob zu rassistischen Ideologien zu löschen. Außerdem soll Werbung zu Wohnungen, Jobs oder Krediten nicht mehr nach potentiell diskriminierenden Kriterien geschaltet werden.
Der Datenkonzern Facebook setzt bei der Moderation von Inhalten zunehmend auf Automatisierung. Eine Quelle erklärt uns erstmals, wie sich die Maschinen auf die Moderationsarbeit auswirken. Auch wenn am Ende heute immer noch Menschen entscheiden: Die automatisierte Inhaltserkennung verändert die digitale Öffentlichkeit grundlegend.
Wie Facebook Inhalte moderiert, behandeln der Weltkonzern und seine Dienstleister wie ein Staatsgeheimnis. Durch Gespräche mit Insidern können wir erstmals rekonstruieren, wie die Arbeit in den Moderationszentren organisiert ist.
Welche Inhalte auf Social-Media-Plattformen erlaubt sind und welche gelöscht werden, hängt heute oft von den Entscheidungen kommerzieller Moderationsteams ab. Die Dokumentation „The Cleaners“ ist ein außergewöhnliches Porträt dieser Schattenindustrie. Im netzpolitik.org-Podcast spricht Regisseur Hans Block über Meinungsfreiheit, Moral und Verantwortung in Zeiten der digitalen Öffentlichkeit.
Ob Hassrede, terroristische Inhalte oder urheberrechtlich geschützte Werke: Weltweit rufen Staaten nach mehr Verantwortung der Internetplattformen für die Inhalte ihrer Nutzer. Eins von vielen Themen auf unser Konferenz am 21. September in Berlin.
Der Alltag von menschlichen Content-Moderatoren in sozialen Netzwerken ist wirklich schockierend. Zu diesem Schluss kam Youtube und löschte einen Arte-Trailer über seine Zensoren kurzerhand von seiner Plattform. Das kommt leider häufiger vor, klagt der deutsch-französische Kultursender.
Die sehenswerte Dokumentation „Im Schatten der Netzwelt – The Cleaners“ über Content-Moderatoren auf den Philippinen findet sich die kommenden Tage in der ARTE-Mediathek.
„The Cleaners“ ist ein sehenswerter Dokumentarfilm über Content-Moderatoren auf den Philippinen, der ab dem 17. Mai in ausgewählten Kinos läuft. Auf der re:publica’18 kann man den Film vorab sehen und mit dem Autoren diskutieren.
Im Berliner Hackerspace c-base läuft morgen Abend der Dokumentarfilm „The Cleaners“. Er handelt von den Menschen, die im Auftrag der großen Tech-Konzerne soziale Netzwerke von unerwünschten Inhalten „säubern“ und von den Schattenseiten dieser geheimen Industrie. Der Film hat beim Sundance Festival Premiere gefeiert und kommt im Mai in die deutschen Kinos. Im Anschluss an die […]
Youtube verkündet, dass Algorithmen immer mehr Einfluss auf Moderationsentscheidungen haben. Die automatische Kontrolle der Inhalte auf der Videoplattform geht aber bislang nicht mit mehr Transparenz einher. Schon in der Vergangenheit waren zahlreiche Inhalte fälschlicherweise gelöscht worden.
Irgendwo auf den Philippinen sitzt jemand und muss sich den ganzen digitalen Müll anschauen, den wir gar nicht mehr zu sehen bekommen. Moritz Riesewick hat ein Buch über die Menschen und Methoden hinter der Moderation auf kommerziellen Plattformen geschrieben. Es ist gut geworden.
Die Google-Tochterfirma Youtube hat den Account der US-Journalistin Alexa O’Brien gesperrt, welcher unter anderen ein Archiv mit Videos zum Verfahren gegen die Whistleblowerin Chelsea Manning enthielt. Das teilte die Betroffene heute via Twitter mit. Demzufolge wirft Youtube ihr Verstöße gegen die Community Guidelines der Plattform vor. Grund für die Löschung sind laut O’Brien drei Videos […]
Das Regelwerk, nach dem Facebook Inhalte löscht, ist in den letzten Jahren von einer einfachen Seite auf mehr als 15.000 Wörter angewachsen. Die investigative Plattform ProPublica geht nun der Geschichte der Privatzensur bei Facebook – auch mit neuen Leaks aus dem Moderationshandbuch – auf den Grund.
Das unternehmenseigene Regelwerk, welche Inhalte warum gelöscht werden und welche nicht, ist auf mehr als 1000 Seiten angewachsen. Das geht aus einem Leak hervor, den der Guardian in Teilen veröffentlicht hat.
Clickworker bieten auf Plattformen ihre Arbeitsleistung an, meist zu geringem Lohn und schlechten Arbeitsbedingungen. Forscher untersuchten diesen neuen Markt und fordern ein Zertifizierung für faire Arbeit.