TikTokGute Laune und Zensur

Noch nie ist eine Plattform so schnell gewachsen wie TikTok. Wir haben exklusiven Einblick in die Moderation bekommen und veröffentlichen Ausschnitte aus den Moderationsregeln: TikTok betreibt ein ausgeklügeltes System um Inhalte zu identifizieren, zu kontrollieren, zu unterdrücken und zu lenken. Die Plattform kann nach ihren Regeln Videos von Protesten und Demonstrationen drosseln.

Tiktok Screenshot mit Chinaflagge und Logo
TikTok steht für Spaß und Kreativität. Um die Meinungsfreiheit auf der Plattform ist es aber schlecht bestellt. – Alle Rechte vorbehalten Screenshot TikTok.com / Montage netzpolitik.org

Keine App wurde im vergangenen Jahr so oft herunter geladen wie TikTok. Die Videosharing-Plattform wächst rasant. Im November 2019 durchbrach TikTok die 1 Milliarde-Nutzer:innen-Schallmauer – so schnell wie kein anderes soziales Netzwerk je zuvor. Die Video-App und ihre Kultur ist bei Kindern und Jugendlichen derzeit so angesagt, dass selbst die Tagesschau inzwischen einen eigenen Account dort betreibt.

Recherchen von netzpolitik.org zeigen jedoch: TikTok kann bis heute Videos von politischen Protesten und Demonstrationen unterdrücken und darüber hinaus auf vielfältige Weise bestimmen, welche Inhalte sichtbar und welche unsichtbar sind.

Exklusiver Einblick in die Moderation

Für diese Recherche hat netzpolitik.org mit einer Quelle bei TikTok gesprochen, Moderationskriterien und Kommunikationen eingesehen sowie mit eigens dafür erstellten Accounts Versuche gemacht, wie gut Videos mit chinakritischen Inhalten auf der Plattform sichtbar sind.

TikToks Moderationsregeln, von denen netzpolitik.org unterschiedliche Versionen einsehen konnte, sind bemerkenswert dünn und weit interpretierbar – auch für die Moderator:innen selbst. Die Strategie ist jedoch klar: Bestimmte Inhalte bekommen eine möglichst große Reichweite, während andere systematisch unterdrückt werden.

Die Erfolgsplattform gehört dem chinesischen Technologieunternehmen ByteDance. Bereits im September hatte der Guardian aus geleakten Dokumenten berichtet, wie TikTok politische Äußerungen zum Tiananmen-Massaker oder der Unabhängigkeit Tibets zensiert. Auch die Proteste in Hongkong, die derzeit weltweit mediale Aufmerksamkeit erregen, sind auf TikTok zwischen Selfies und Duetten so gut wie unsichtbar. Dabei ist die App auch in Hongkong verfügbar.

Nachts moderiert Peking

Die deutschsprachigen Videos auf TikTok werden von drei Standorten aus moderiert, berichtet die Quelle: Berlin, Barcelona und Peking. Am deutschen Standort sei die Führung chinesisch. Gearbeitet wird in 8-Stunden-Schichten, während denen um die 1.000 Tickets abgearbeitet werden sollen. Das ist knapp eine halbe Minute pro Ticket, für Videoinhalte ist das sehr wenig Zeit. Die Löhne sind sehr unterschiedlich, der Druck auf einzelnen Moderator:innen hoch, die Stimmung im Team sei „toxisch“, berichtet die Quelle.

Screenshots aus TikTok-Videos
Gute Laune, kaum Politik. Doch das liegt nicht nur an den Nutzer:innen. - Alle Rechte vorbehalten Screenshots TikTok.com

Moderiert wird laut der Quelle in drei Review-Stufen. Der erste Review findet schon nach 50 bis 150 Videoansichten in Barcelona statt. Berlin ist für den zweiten Review bei 8.000 bis 15.000 Ansichten und den dritte Review bei etwa 20.000 Ansichten zuständig. Nachts moderieren deutschsprachige Chines:innen von Peking aus Inhalte. Das bestätigt auch TikTok gegenüber netzpolitik.org.

Im Gegensatz zu Facebook sind die Moderationsregeln sehr knapp gehalten: Sie passen nach Auskunft der Quelle in eine wenige Seiten lange Tabelle. Die Anweisungen, die netzpolitik.org einsehen konnte, sind verwirrend vage. Das lässt viel Spielraum für Interpretationen, die Einschränkung von Inhalten kann sehr weit ausgelegt werden, weil das Regelwerk nicht den in vielen Fällen deutlich klareren Charakter von Facebooks-Moderationskriterien hat.

Löschen, Bremsen, Pushen

Die Regeln unterteilen unliebsame Inhalte in vier Kategorien. Das berichtet die Quelle und zeigen die Moderationsregeln, die netzpolitik.org einsehen konnte. Videos, die komplett gegen die Auflagen der Plattform verstoßen, werden gelöscht („Deletion“). Andere Inhalte werden als „visible to self“ markiert. Dadurch kann eine Nutzerin das Video selbst noch sehen, andere aber nicht mehr.

Eine Markierung als „not for feed“ oder „not recommend“ bedeutet, dass das Video nicht mehr im algorithmisch kuratierten Newsfeed auftaucht, den die Nutzer:innen beim Öffnen der App sehen. Die Markierung kann auch zu einer Benachteiligung bei der Suche und Auffindbarkeit in Hashtags führen, sagt die Quelle. Solche Beiträge werden also streng genommen nicht gelöscht – sie haben aber faktisch kein Publikum mehr.

Die Videos erhalten unterschiedliche Sichtbarkeitsstufen, die über die Reichweite entscheiden. - CC-BY 4.0 netzpolitik.org

Für die nicht eingeschränkten Videos gibt es hingegen zwei Stufen. Die meisten werden als „General“ bezeichnet, hier können allerdings über die Markierung von „Risks“ die Inhalte regional gesperrt oder heruntergedrosselt werden.

Videos, deren Verbreitung die Marketingabteilung extra verstärken will, kann sie mit der Markierung „Featured“ pushen. TikTok bestätigte netzpolitik.org gegenüber nur die Existenz von „Deletion“, „visible to self“ und „Risks“. Die „Risks“ seien notwendig, damit die Videos nicht gegen lokale Gesetze in bestimmten Ländern verstoßen.

Nicht nur Inhalte können ausgebremst werden, auch ganze Hashtags, erzählt uns die Quelle. Überhaupt scheint TikTok ein System des Promotens und Ausbremsens zu fahren, bei dem bestimmte Inhalte sichtbar und viral sind, andere hingegen nie durchstarten und keine Sichtbarkeit erhalten. Die Kontrolle über das, was Menschen auf TikTok sehen, liegt vor allem in der Hand des Unternehmens.

Gelenkte Inhaltspolitik

Proteste seien generell nicht gerne gesehen auf der Plattform, sagt die Quelle. Grundsätzlich gäbe es aufgrund der Ausrichtung von TikTok weniger Protest-Inhalte als auf anderen Plattformen, aber oftmals schafften es solche Videos gar nicht erst bis ins Marketing, sondern würden vorher schon beim ersten Sichten in der Moderation an anderen Standorten wie Barcelona gelöscht. Dabei sehen die „Löschteams“ gar nicht die Videos, sondern nur einzelne Frames an, der Ton wird nur auf Verdacht angehört. Tiktok bestreitet, dass es Inhalte aufgrund ihrer politischen Ausrichtung moderiere.

Kommt ein Inhalt zum Marketing-Team durch, bestimmt dieses über die Zusammenstellung des kuratierten For-You-Feeds, der den Nutzer:innen algorithmisch zugeschnitten ausgespielt wird.

Während der Moderation markieren die Moderator:innen Inhalte nicht nur für Löschung oder Bremsung, sie klassifizieren auch, was sie sehen. „Das soll beim Aufbau einer maschinellen Moderation helfen“, erzählt uns die Quelle, die Einblick in die Moderation hat. Tiktok dementierte gegenüber netzpolitik.org eine Verschlagwortung zum Anlernen von Künstlicher Intelligenz, algorithmische Systeme würden aber „zur Überprüfung beim Einstellen von Inhalten“ eingesetzt.

Kritik an Politik war früher aus Feed ausgeschlossen

Laut der Quelle habe TikTok nach der der Berichterstattung des Guardian im September und der darauf folgenden Kritik seine Moderationsregeln geändert. Dabei habe das Unternehmen gegenüber Mitarbeiter:innen explizit auf die schlechte Presse verwiesen, erzählt die Quelle. Das Ausmaß der Änderungen im September sei bis heute einzigartig gewesen, kleinere Modifikationen gebe es hingegen häufiger.

Tiktok hatte dem Guardian gegenüber von Mai gesprochen, gegenüber netzpolitik.org sagt das Unternehmen nun die signifikanten Änderungen seien „deutlich früher“ vorgenommen worden.

Bis zu dieser großen Änderung haben die Moderationsregeln Kritik an Politik und politischen Systemen quasi komplett ausgeschlossen. Ausgebremst wurde etwa, wer die konstitutionelle Monarchie, parlamentarische Systeme, Gewaltenteilung oder sozialistische Systeme kritisierte. Erst mit der großen Änderung wurde dieses „Politikverbot“ aus den Moderationsregeln getilgt.

Einen Ausschnitt aus der Moderationspolicy von TikTok (PDF), in dem mehrere Regeln vor und nach der Änderung festgehalten sind, veröffentlichen wir an dieser Stelle. Es handelt sich aus Quellenschutzgründen nicht um das Originaldokument, sondern um eine Abschrift.

Demonstrationen weiterhin einfach zensierbar

Geändert wurde auch das Ausbremsen der Darstellung so genannter „kontroverser Ereignisse“. Bis dahin zählten dazu generell Proteste, Ausschreitungen und Demonstrationen. Eine Liste zählte zusätzlich Beispiele auf wie die kurdische, tibetische oder taiwanesische Unabhängigkeitsbewegung. Nach der Änderung ist die Darstellung von Demonstrationen und Protesten nicht mehr per se eingeschränkt.

Allerdings können Demonstrationen mit dem Hinweis auf „mögliche gewalttätige Konflikte“ nach den aktuellen Regeln nach wie vor mit „not for feed“ markiert und heruntergeregelt werden. TikTok sagt, dass es keine solchen Inhalte enferne. Das allerdings war keine Antwort auf die gestellte Frage. Netzpolitik.org hatte nach der drosselnden Klassifizierung „not for feed“ gefragt, eine komplette Entfernung sahen die uns vorliegenden Versionen der Moderationspolicy sowieso nicht vor.

Screenshot Moderationskriterien
Im September hat TikTok die Moderationsregeln stark überarbeitet. Inhalte, die Demonstrationen zeigen, sind als „kontroverse Ereignisse“ weiterhin ausbremsbar – dank eines Gummiparagrafen.

Aus dem Feed verbannt waren früher auch Kritik an öffentlichen politischen Figuren, der Polizei und am Militär. Diese Regeln hat TikTok in Deutschland mittlerweile gestrichen, was das Unternehmen auch bestätigt.

LGTBQI-Inhalte werden in vielen Ländern nicht ausgespielt

Zudem wurden früher bestimmte Dinge als „Islam Offence“ markiert. Inhalte, die mit diesem Schlagwort markiert wurden, beispielsweise zwei küssende Männer, lösten einen Geoblock für bestimmte Regionen aus. Betroffen gewesen seien vor allem LGTBQI-Inhalte. Diese Regelung wurde nach Berichterstattung des Guardian abgeschafft. Oder besser gesagt: umbenannt.

Inhalte, die sich mit der sexuellen Orientierung beschäftigen, erhalten heute das Schlagwort „Risk 3.4“ – die Folge ist, wie auch beim „Islam Offence“ zuvor, dass diese Inhalte in islamischen Ländern ausgebremst werden. Die Markierung mit einem Risk, es gibt viele weitere, führten zu Geoblocking, sagt die Quelle. TikTok argumentiert, dass man sich an lokale Gesetze halten müsse.

Proteste in Hongkong sind kaum sichtbar

Da TikTok einem chinesischen Unternehmen gehört, ist besonders der Umgang mit den Demokratie-Protesten in Hongkong ein guter Gradmesser für Zensurversuche.

Schon im September hatten wir in der App und in der Webversion nach bestimmten auf anderen Netzwerken prominenten Hashtags wie #hongkongprotest, #freehongkong oder #antielab gesucht und keine oder nur sehr wenige Ergebnisse gefunden. Stattdessen wurden unter den Hashtags in der App Videos gezeigt, die nichts mit den Protesten zu tun hatten. Erst nach einer Presseanfrage bei TikTok in Deutschland wurden einige Videos sichtbar, auch solche, deren Upload wir mit einem eigens dafür erstellten Account versuchten.

Bei unserer Recherche im September waren die Proteste in Hongkong weitflächig ausgeblendet. Hashtags wie #joshuawong wurden nicht angezeigt (ganz links), angezeigte Videos hatten keinen Themenbezug (siehe andere drei Screenshots). - Alle Rechte vorbehalten Screenshots App TikTok

Gegenüber netzpolitik.org sagte die Sprecherin des Unternehmens damals:

In diesem Fenster soll der Inhalt eines Drittanbieters wiedergegeben werden. Hierbei fließen personenbezogene Daten von Dir an diesen Anbieter. Aus technischen Gründen muss zum Beispiel Deine IP-Adresse übermittelt werden. Viele Unternehmen nutzen die Möglichkeit jedoch auch, um Dein Nutzungsverhalten mithilfe von Cookies oder anderen Tracking-Technologien zu Marktforschungs- und Marketingzwecken zu analysieren.

Wir verhindern mit dem WordPress-Plugin „Embed Privacy“ einen Abfluss deiner Daten an den Drittanbieter so lange, bis Du aktiv auf diesen Hinweis klickst. Technisch gesehen wird der Inhalt erst nach dem Klick eingebunden. Der Drittanbieter betrachtet Deinen Klick möglicherweise als Einwilligung die Nutzung deiner Daten. Weitere Informationen stellt der Drittanbieter hoffentlich in der Datenschutzerklärung bereit.

Zur Datenschutzerklärung von TikTok

Zur Datenschutzerklärung von netzpolitik.org

Dieses überspezifische Statement kann heißen: Unsere Nutzer:innen laden gar nichts politisches hoch, es gibt kaum Videos zu den Protesten in Hongkong und wir löschen die auch nicht. Das Statement lässt aber komplett offen, ob TikTok Videos zu Hongkong mittels der unterschiedlichen Sichtbarkeitsstufen systematisch benachteiligt und so für die Öffentlichkeit unsichtbar macht oder gemacht hat. Die Suche nach dem Hashtag #JoshuaWong führte im September in der TikTok-App beispielsweise zu keinem Ergebnis. Es gab den Hashtag überhaupt nicht.

TikTok sagt gegenüber netzpolitik.org, dass es heute keine Inhalte zu den Protesten in Hongkong und auch zu Joshua Wong einschränke.

Die Welt am Sonntag hatte kürzlich bei einem Test festgestellt, dass die Suche nach aus Sicht der chinesischen Regierung brisanten Stichworten wie „falungong“, „tiananmenmassacre“ und „Tiananmensquare“ keine oder nur sehr wenige passende Beiträge liefere. Zahlreiche Suchen von netzpolitik.org in der App kommen zu einem ähnlichen Ergebnis.

„Handzahm und gelenkt“

Für Christian Mihr von Reporter ohne Grenzen bestätigen die Recherchen von netzpolitik.org die Befürchtungen, dass TikTok unter dem Einfluss des chinesischen Staates steht – obwohl es ein privates Unternehmen sei. Es sei Teil der Medienstrategie Pekings, seine totalitäre Vision handzahmer, gelenkter Medien auch international durchzusetzen.

„Wenn auf TikTok die Reichweite von Inhalten etwa über Proteste gedrosselt werden, passt das genau ins Bild, da Proteste in Hongkong oder Xinjiang, genauso wie im Ausland ein Tabuthema für Medien in China sind“, sagt Mihr. Er kritisiert das Vorgehen von TikTok als ein „Zeichen von großer Intransparenz“.

Update, 25.11.2019:

Nach Veröffentlichung des Artikels beharrt TikTok darauf, folgendes Statement zu ergänzen:

TikTok moderiert keine Inhalte basierend auf politischen Ausrichtungen oder Sensitivitäten. Unsere Moderationsentscheidungen sind durch keine fremde Regierung beeinflußt,was die chinesischen Regierung einschließt. TikTok entfernt weder Videos rund um die Proteste in Hongkong noch werden Videos rund um die Proteste in Hongkong in ihrer Reichweite unterdrückt. Das umschließt Inhalte zu Aktivisten.

Über diese Recherche und die Quellen:

Unser Wissen über die Moderation bei TikTok in Deutschland beruht auf einem mehrstündigen Gespräch von netzpolitik.org mit einer Quelle, die Einblick in die Moderationsstrukturen und die Policy hat. Wir haben die Identität der Quelle und ihren Arbeitsvertrag überprüft. Wir können und wollen die Quelle aus Gründen des Informantenschutzes nicht näher beschreiben.

Sollten Sie Informationen oder Hinweise zu diesem oder anderen Themen haben, freuen wir uns über eine Kontaktaufnahme – gerne verschlüsselt. Nutzen Sie dafür keine beruflichen Mailadressen, Telefonnummern, Netzwerke und Geräte.

17 Ergänzungen

    1. Mit Verlaub, ich kann weder hier im Artikel, noch bei den referenzierten Artikeln bei Welt und Reporter-ohne-Grenzen die Forderung nach mehr oder vollständiger Meinungsfreiheit finden. Oder habe ich etwas übersehen? Kritik ist auf jeden Fall angebracht bei Systemen, die unliebige Meinungen unterbinden und whitewashing betreiben. Egal wer der Betreiber ist. Aufklärung ist Trumpf.

    2. Könnte man nicht Testkonten erstellen mit verschiedenen Videos um das mal zu überprüfen? Mir fällt auf das es tatsächlich zu 95% nur happy schlanke gesunde Menschen auf den Videos sind. Randale oder Demos habe zumindest ich dort nich garnicht gefunden.

  1. Coole Sache, Danke.

    Ehrlichgesagt aber leider nicht wirklich überraschend. Wer auf privaten Internetdiensten unterwegs ist (egal von wem!), muss damit rechnen, dass alles nach belieben zusammenzensiert ist. Alles andere ist reine Träumerei.

    > TikTok kann bis heute Videos von politischen Protesten und Demonstrationen unterdrücken und darüber hinaus auf vielfältige Weise bestimmen, welche Inhalte sichtbar und welche unsichtbar sind.

    Auch das ist nun absolut keine Überraschung. Bei *jedem* privatem Internetdienst kann alles nach Belieben zensiert und manipuliert werden. Wer den Server kontrolliert, kontrolliert alles.

    > TikTox kann

    Solche Sätze in Zukunft bitte unterlassen, sie sind irreführend. Grundsätzlich gilt: Wenn der Inhalt auf TikTok ist, kann TikTok technisch gesehen damit machen, was sie wollen. Ist das nicht offensichtlich? Naja, zumindest für mich als IT-Nerd. :P
    Der Satz ist irreführend, weil es von n00bs so gelesen werden kann, dass es eine Besonderheit von TikTok ist, dass sie Dinge zensieren können. Was natürlich nicht stimmt, denn *alle* privaten Webseiten können nach Lust und Laune zensieren.

    Trotzdem ist der Artikel informativ, weil er aufdeckt, welche politischen Zwecke hinter TikTok stecken. Bitte mehr davon.

    Ich würde euch heftigst feiern, wenn ihr irgendwie Kontakt zu einem YouTube-Whistleblower kriegen könntet. Mich würde brennend interessieren, wie YouTube intern so aussieht. Es gab schon viele Indizien, dass bei YouTube auch übelst manipuliert wird, zum Beispiel hat jemand das Trending-Tab analysiert und gemerkt, dass meistens der Mainstream überproportional vertreten ist: http://humansarefree.com/2019/05/youtubes-trending-tab-is-rigged-in.html
    Aber ich glaube, einen direkten *Beweis* von Whistleblowern gab es noch nicht.

    1. Klar, jedes Unternehmen kann die Sachen zensieren die dem Unternehmen nicht gefallen. Ich denke im Fall von TikTok ist jedoch der Einfluss des Staates das problematische. Eine andere Sache ist noch die Transparenz bzw die unwissenheit der User. Die meissten lesen ja keine AGB. Es müsste also Aufklärung auf anderem Wege geben (wie zB Artikel wie dieser hier :) ) Oder AGB in Form von Video Tutorials. Ich vermute zwar das sich das trotzdem nur wenige User antun würden aber es wäre dann eben kein Problem des Unternehmen sondern der User. Man kann die Leute eben nicht zwingen sich nicht manipulieren zu lassen.

  2. Und die Tagesschau ist stolz darauf jetzt auf Tiktok zu sein, während sie Plattformen wie da Fediversum weiterhin ignoriert.

  3. Danke für den Artikel und die Recherche. Es zeigt sich, dass wurde ja auch schon mehrfach hier erwähnt, dass privatwirtschafltiche Konzerne eben immer irgendwie zensieren- eben nach Ihren Interessen. Richtig ist, dass wir nicht wegschauen sollten, wenn willkürlich zensiert wird.
    Und noch eines: Dann freue ich mich ja, dass netzpolitik dann doch nicht bei TikTok streamen wird. Denn ketzerisch gesagt, die Reichweite (1 Mrd. Accounts) wäre ja ein Argument, die jungen Menschen zu erreichen. Bei Twitter und Facebook wird das Reichweitenargument dann gerne mal genommen und die Nutzung gerechtfertigt…

  4. Wie werden Accounts mit Themen wie „White Supremacy“, „(Daten-)Kapitalismus“, „Neoliberalismus“, „Femizide“, Antisemitismus und Sexismus behandelt? Welche Seite wird (wo) gepusht oder gedämpft? In „westlichen“ Social Media gibt’s da ja nach-wie-vor strukturelle und systemimmanente „Probleme“ ..

  5. „Wer in sozialen Netzwerken erfolgreich sein will, muss Inhalte liefern, die zu den Mechanismen der jeweiligen Plattform passen.“ Schreibt Andreas Lützkendorf, Leiter Strategie & Innovation bei ARD-aktuell in der Pressemitteilung (NDR) vom 20.11.2019. Diese Strategie, Inhalte an die Plattform anzupassen, so schreibt er, kam erstmals bei den vom Tagesschauteam initiierten Instagram-Account zum tragen, und wird nun auch für TikTok angewendet.

    Ich frage mich, sattelt man nicht das Pferd von hinten auf und wo ist die Grenze? Youporn und Pornhub sind auch große und beliebte Soziale Netzwerke. Würde die Tagesschau ihrer eigenen Argumentation streng folgen, wäre es nur eine Frage der Zeit bis es einen Tagesschauaccount auf z.B. Pornhub gibt. Wie da die angepassten Inhalte aussehen, möchte ich mir nicht vorstellen.

    Ich finde die Öffentlich-Rechtlichen Medien können mit Selbstvertrauen, eigene gute Mediatheken aufbauen und sollten ihre Energie lieber in das pflegen von offenen Formaten und offene Schnittstellen investieren, statt neuen Social-Media-Plattform hinterher zu hechten.

  6. Was mich an diesem; und den zugehörigen; Artikeln am meisten irritierte ist die ausgiebige Verwendung der Begriffe „ausgebremst“ und „gedrosselt“. Als Technikaffiner verstehe ich darunter primär eine Bandbreiten-limitierung vom Server oder mittels QoS. Evtl. mit dem Zweck das ein Video so langsam lädt/streamt das der Nutzer entnervt aufgibt. Das scheint hier aber gerade NICHT der Fall zu sein. Wenn eine „Reichweiten“Drosselung gemeint ist dann könnte/sollte man das vielleicht klarer formulieren.

    Oder ist es ein Journalistischer Trick etwas so vage zu beschreiben damit man es nur aus dem Kontext des Inhaltes erschließen kann? :-)

    1. Gemeint ist eine drastische Reichweitenreduzierung und keine Drosselung im Sinne von Bandbreitenbeschränkung. Das ist kein journalistischer Trick, wir versuchen ja das Phänomen so einfach wie möglich verständlich zu machen.

  7. Das ganze erinnert ein wenig daran wie Kommentare in „Ergänzungen“ umbenannt wurden. Damit wurde ja auch nur die Qualität verbessert und der User kann nicht mehr das posten was er möchte.

    Wer sagt denn eigentlich das eine Videoplattform für junge Leute, Inhalte von Dingen – die wir als politisch relevant erachten – ohne Einschränkungen abieten muss? Von Twitter wird im gegensatz dazu erwartet, das sie Inhalte löschen wenn es Fakenews sind.

    Seit wann wurden den soziale Plattformen als völlig unkontrollierte Vervielfältigungsplattform deklariert? Die Zeiten sind doch lange vorbei.

    Ich erwarte aber auch nicht, dass auf meiner Schach-App über jede FFF Demo berichtet wird und auf der anderen Seite ist Instagram doch genau wie TikTok einfach eine Oberfläche für lifestyle. Insofern sehe ich nicht worin hier das verwerfliche liegen soll. Für die Leute, die die App nutzen dürfte das aber auch keine Rolle spielen.

    Interessant wäre es zu Wissen welche Regeln sich Netzpolitik.org vorstellt nach denen eine solche Plattform ihre Inhalte bewertet müsste, sollte oder dürfte?
    Kann man diese irgendwo nachlesen?

  8. Ich frage mich nur, warum immer mit zweierlei Maß gemessen wird.
    Trump verfolgt wirtschaftliche Interessen, was sonst ?
    Warum interessiert sich eigentlich Facebook und Microsoft auf einmal für Tiktok ?

    https://rp-online.de/wirtschaft/unternehmen/tiktok-microsoft-will-app-kaufen-trotz-angedrohten-verbots-der-videoplattform_aid-52551107

    Ach ja, da ist doch noch Facebook …
    https://winfuture.de/news,117811.html

    Von wegen Freiheit, Zensur, Demokratie usd so ….

  9. Danke für den Beitag.
    Hat wirklich klarheit geschaffen.
    Es ist natürlich klar, dass Tiktok Content über China blockiert.
    Vorallem, wenn gegen die Chinesische Regierung ist.
    Aber meiner Meinung, geht das garnicht.
    Auf Tiktok sind viele andere Sachen vertreten, die eigentlich nicht sichtbar gemacht werden sollten.
    Stattdessen erscheinen sie auf dr Foryou page von Minderjährigen bzw. bringt Kinder auf falsche gedanken.
    Meiner Meinung nach ist das eine Frage der Menschlichkeit…

  10. Ich bin weder politisch aktiv noch gehöre ich einer der bisher bekannten Randgruppen an, von denen bekannt wurde das sie innerhalb der app Tiktok benachteiligt wurden. Ich habe mich lediglich damals mit einem Twitter Account verifiziert der auf Twitter schon mal wegen verstoße gegen die Richtlinien gesperrt war und ausserdem die Eigenschaft“ automatisiert “ besaß. – Da ich ursprünglich mit dem Account einen Bot auf Twitter integrieren wollte. Nachdem ich nach einem Jahr im Vergleich zu anderen gleich wertigen Accounts festgestellt habe, dass ich eigentlich nie einen Kommentar bekam , so gut wie keine Interaktionen stattfanden und auffaellig wenig bis gar keine likes bekam,
    was mir anfangs erst aufgrund wenig Erfahrung nicht auffiel , wurde allmählich immer deutlicher erkennbar. Mir ist auch aufgefallen, dass meine Videos nicht bei denen zu sehen war die den gleichen sound benutzen – dementsprechend auch ueber die suche schlechter zu finden waren.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.