Content-Moderation bei TikTokEine neue Dimension der Informationskontrolle

Unsere Recherchen zur Content Moderation bei TikTok zeigen, wie wenig politische Meinungsfreiheit auf der Plattform respektiert wird. Das chinesische Unternehmen kontrolliert und manipuliert intransparent wie bisher kein anderer marktdominanter Konkurrent diese neue Öffentlichkeit. Selbst Facebook wirkt dagegen fast wie ein demokratisches Forum. Ein Kommentar.

tiktok logo tiananmenplatz
Politische Inhalte können auf TikTok unterdrückt werden, vor allem auch wenn sie chinesischen Interessen entgegen stehen.

Was wir in unseren Recherchen über die Moderationsregeln beim Social-Media-Dienst TikTok herausgefunden haben, stellt alles in den Schatten, was über die Moderation bei Facebook oder Youtube bekannt ist. Die chinesische Plattform hat vage, intransparente Regeln, bietet Moderator:innen technisch weitgehende Eingriffsmöglichkeiten, um Inhalte zu verschleiern und ihre Verbreitung gezielt zu unterdrücken. Damit schränkt das Unternehmen die politische Meinungsäußerung massiv und bewusst ein. Dagegen wirken Facebook und Youtube geradezu wie demokratische und offene Räume.

TikTok ist eine relativ neue Plattform und wird von vielen jungen und teils sehr jungen Menschen genutzt. Zugleich ist TikTok das am stärksten wachsende soziale Netzwerk der heutigen Zeit. Es besteht eine gewisse Wahrscheinlichkeit, dass diese Plattform auch künftig von vielen jungen, wohl bald auch von älteren Nutzer:innen dazu verwendet wird, sich kreativ auszudrücken und zu vernetzen. Einfach zu kommunizieren. Ihr Anteil am Aufmerksamkeitsmix vieler Nutzer:innen wird wohl steigen.

Längst finden auf TikTok nicht mehr nur Tanz-, Playback- und Katzenvideos statt. Wenn sich dort die Redaktion der Tagesschau wiederfindet, wenn sich dort Politiker:innen inszenieren und sich mit ihren Wähler:innen vernetzen wollen, dann ist das ein Zeichen für die Relevanz dieser neuen Öffentlichkeit. Allerdings handelt es sich um einen privatisierten Raum, in dem politische Debatten nur sehr eingeschränkt geführt werden können. Und sollen. Wollen wir eine Öffentlichkeit, in dem wir als Gesellschaft und als Netzbürger:innen davon abhängig sind, ob das dahinterstehende Unternehmen eine gesellschaftliche Debatte für wünschenswert hält – oder einfach unterdrückt?

Öffentlichkeit ohne demokratische Regeln

Wir müssen darüber diskutieren, ob wir es als Gesellschaft akzeptieren wollen, dass eine marktdominante Plattform auf für seine Nutzer:innen nicht nachvollziehbare Art Meinungsäußerungen verbergen, gezielt manipulieren und zensieren darf. Und das möglicherweise auch tut, um eine Öffentlichkeit nach ihren Maßstäben zu formen.

Seit längerem beobachten wir, dass Plattformen wie Facebook, Instagram oder Youtube zu Foren einer globalen Öffentlichkeit werden. Die Plattformen geben dabei über ihre Technik, ihr Design, ihre Geschäftsbedingungen und ihre internen Richtlinien einseitig die Regeln für den öffentlichen Diskurs vor. Die Plattformen ändern die Regeln ständig und setzen diese gegenüber Nutzer:innen durch. Inhalte werden gelöscht und von Nutzer:innen manchmal einfach rausgeschmissen, ohne dass man sich dagegen wehren kann. Das sind reale Probleme neuer Öffentlichkeiten, für die wir demokratische Lösungen finden müssen.

Es gibt seit Jahren eine engagierte und notwendige Debatte rund um Moderationsregeln und die Arbeit von Content-Moderatoren. Das hat zu sehenswerten Dokumentationen wie „The Cleaners“ geführt, in Deutschland aber auch zum umstrittenen Netzwerkdurchsetzungsgesetz. Aber die Möglichkeiten und Anwendungen der Informationskontrolle bei TikTok sind eine Stufe weiter.

Bei den Protesten in HongKong können wir gerade sehen, wie der chinesische Weg funktioniert: Auf TikTok können Protest und Demonstrationen unterdrückt und zum Schweigen gebracht werden. Er findet in der vermeintlichen Heile-Welt-Community von TikTok dann einfach nicht statt. Das ist eine gefährliche Entwicklung, die uns vor Augen führt, wozu der Mangel an demokratischer Gestaltung der digitalen Öffentlichkeit führen kann. Wir brauchen bessere demokratische und rechtsstaatliche Instanzen, um kontrollieren zu können, ob diese marktdominanten Plattformen ihre Macht missbrauchen.

7 Ergänzungen

  1. „Wir brauchen bessere demokratische und rechtsstaatliche Instanzen, um kontrollieren zu können, ob diese marktdominanten Plattformen ihre Macht missbrauchen.“

    Im Ernst jetzt, du rufst nach mehr staatlicher Aufsicht, um private Unternehmen dazu zu bringen irgendwie demokratischer zu werden? Warum muss ich da an diverse Innenminister denken?

    1. Im Ernst: Wir haben in vielen Bereichen eine (in der Regel) funktionierende Marktaufsicht (Bundeskartellamt, Bundesnetzagentur, etc), warum sollten wir bei privaten, marktdominanten Unternehmen, die massiv Öffentlichkeit konstituieren und damit auch manipulieren können, darauf verzichten?

      1. Warum verzichten? Nun, meiner Meinung nach liegt das auf der Hand:

        – Weil wir bei Presseorganen auch keine Inhaltskontrolle haben.
        – Weil staatlich initiierte Inhaltskontrollen immer schlecht sind.

        Zu letzterem zähle ich auch das NetzDG. Statt auf Inhaltskontrolle sollte man lieber auf die Förderung resilienter Dienste des Fediverse setzen, die eine Zensur von Inhalten durch Staaten oder Anbieter gänzlich verunmöglichen.

          1. Das ist tatsächlich ein interessanter Punkt. Die Anbieter sozialer Medien-Infrastrukturen als das zu sehen was sie wohl am meisten sind. Infrastrukturanbieter, die mit einer enorm großen Macht Kontrolle auf alle Inhalte und deren Sichtbarkeit ausüben. Die demokratischen Grundbedigungen für Medien-Infrastrukturen sind in den sozialen Medien ausgehebelt und müssen von den Gesellschaften geregelt werden.

  2. „What took you so long?“.

    Ich kommentiere hier seit gefühlten 10 Jahren oft zum Thema Netzneutralität, was ein relativ trockenes Thema nahe am Betrieb der Netzwerke und der Technik selber ist (… und übrigens außer mit viel Geld nicht zu lösen …), aber von NP.org ab und an zum allesentscheidenden Thema erhoben wurde, weil damit ja jemand kontrollieren kann, wer wann was lesen kann.

    Manchmal hab‘ ich dann einfließen lassen, das a) Infrastruktur der Regulation bedarf, b) kritische Infrastruktur nicht mehr so gut privatisiert betrieben werden sollte und c) man nicht die Contentverteiler selber vergessen sollte, sonst gibt’s zwar technisch, neutralen Zugriff, aber der Artikel ist einfach verschwunden.

    Und jetzt hat man Twitter/FB und Co. mal 10 Jahre lang machen lassen und fängt die Diskussion jetzt an, als das mal zufällig nicht von USA ausgeht.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.