TikTokInsider berichtet über Zensurtechniken bei ByteDance

Ein Softwareentwickler aus der Technikabteilung von TikToks Mutterkonzern ByteDance berichtet über effiziente Informationskontrolle in Echtzeit und eine Armee von 20.000 Moderator:innen, welche die chinesische Version von TikTok so gut kontrollieren, dass es noch nie Ärger mit dem Staat gab.

Bis mindestens Anfang 2020 wurde die Moderationstechnik auf TikTok von ByteDance in China entwickelt. Gemeinfrei-ähnlich freigegeben durch unsplash.comSolen Feyissa

„Ich kann nicht anders, als mich jeden Tag wie ein winziges Rädchen in einer riesigen, bösen Maschine zu fühlen“, sagt Li An über seine Tätigkeit beim chinesischen Konzern ByteDance. Li An, der eigentlich anders heißt, baute als Entwickler die Zensurinfrastruktur und Informationskontrolle mit auf. Mit einer Reporterin von Protocol sprach er über seine Tätigkeit für die Firma, die mit TikTok die erste erfolgreiche chinesische Social-Media-Plattform außerhalb Chinas aufbaute. Es ist das erste Mal, dass ein Insider über die Technologien spricht, die die App im Hintergrund steuern.

Zensur und Moderation für China und das Ausland

In Europa und den USA präsentiert sich TikTok als kreatives und unterhaltsames Medium, das mit Zensur nichts am Hut habe. In der chinesischen Konzernzentrale sieht es laut Li An ganz anders aus. Er berichtet, er sei im zentralen Technologieteam von ByteDance tätig gewesen. Anfang 2020 war das Team aus 100 bis 150 Softwareentwickler:innen nach seiner Auskunft für alle Moderations- und Zensurtechnologien des Konzerns zuständig – in China für Douyin, wie die App dort heißt, und im Ausland für TikTok. Alleine 20.000 Moderator:innen arbeiteten zusätzlich nur um die Inhalte in China zu überwachen.

Li Ans Job war es, die Arbeit dieser Moderator:innen effizienter zu machen. So habe seine Abteilung beispielsweise eine Rückwärtssuche für Videos gebaut, mit der man in der Datenbank von ByteDance nach bestimmten Videos und Ausschnitten suchen konnte. Eine andere Anforderung sei gewesen, eine automatische Erkennung für die uigurische Sprache zu implementieren. Sie sollte Livestreams in dieser Sprache erkennen und den Moderator:innen melden, damit diese aktiv werden können. Die User würden dann aufgefordert, Mandarin zu sprechen oder der Livestream werde abgebrochen. Dieses Projekt sei allerdings nicht umgesetzt worden, da es zu wenige Daten für eine funktionierende Erkennung gab und die wenigen uigurischen Accounts sowieso schon stark überwacht worden seien.

Politische Rede sei nur ein kleiner Teil von dem, was in China gelöscht werde, sagt Li An. Der Großteil beziehe sich auf Nacktheit und alles andere, was die Regierung für moralisch verwerflich halte. Generell seien Unternehmen wie ByteDance ständig in Angst, bei der Zensur zu versagen und dann harte Konsequenzen durch den Staat fürchten zu müssen.

Schnelle Moderation durch leistungsstarke Algorithmen

„Die leistungsstarken Algorithmen von ByteDance können nicht nur präzise Vorhersagen treffen und Nutzern Inhalte empfehlen, sondern können auch Moderatoren bei der schnellen Zensur unterstützen“, erzählt Li An gegenüber Protocol. So kann das, was TikTok so erfolgreich mache, auch gegen die Meinungsfreiheit gedreht werden.

In der täglichen Zensurpraxis in China schicke die „Cyberspace Administration of China“ Direktiven an das „Content Quality Center“ von ByteDance, das den inländischen Moderationsbetrieb des Unternehmens überwacht. Manchmal seien es mehr als 100 Direktiven pro Tag, die dann umgesetzt werden müssten, berichtet Li An. Die Anweisungen werden auf neue und alte Inhalte angewendet.

Bislang sprachen Vertreter von TikTok öffentlich lediglich davon, dass bei der Moderation auch „Künstliche Intelligenz“ eingesetzt werde. Weitere Details behielt sich das Unternehmen aber vor. Li An berichtet nun aus der Praxis im Maschinenraum der Apps: Livestreams würden dort automatisiert transkribiert und der Text mit einer ständig aktualisierten Liste sensibler Begriffe abgeglichen. Algorithmen entscheiden, ob ein menschlicher Moderator eingreifen soll. Der Moderator könne dann den Livestream abbrechen oder sogar die Nutzer:in sperren. Influencer:innen mit großer Reichweite würden jedoch gesondert behandelt, damit sie nicht fälschlicherweise gesperrt würden. Auch Regierungsmedien seien auf einer so genannten Whitelist zu schonender Accounts, da man annehme, dass sie die Vorgaben der Regierung selbst umsetzen würden.

Gegenüber Protocol sagt Li An, dass diese Zensur und der Versuch eines gesteuerten Narratives durch die Unterdrückung von Information zu Beginn der Covid19-Pandemie in China vielen Menschen das Leben gekostet haben könnte. Er wünscht sich deswegen eine Welt, in der sich Menschen und Unternehmen gegen die Direktiven des Staates wehren.

Der Konzern bemüht sich nach Aufdeckung seiner Moderationsmethoden, viel schlechter Presse und politischem Druck um eine Trennung seiner internationalen Geschäfte und jener in China. Die Verbindung über den Mutterkonzern bleibt.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

2 Ergänzungen

  1. Mehr als 100 tägliche Direktiven von der Zensurbehörde: es wäre interessant zu wissen, was das so für Direktiven waren. Was wurde da zum Beispiel verboten/geboten?

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.