TikTok

Gute Laune und Zensur

Noch nie ist eine Plattform so schnell gewachsen wie TikTok. Wir haben exklusiven Einblick in die Moderation bekommen und veröffentlichen Ausschnitte aus den Moderationsregeln: TikTok betreibt ein ausgeklügeltes System um Inhalte zu identifizieren, zu kontrollieren, zu unterdrücken und zu lenken. Die Plattform kann nach ihren Regeln Videos von Protesten und Demonstrationen drosseln.

Tiktok Screenshot mit Chinaflagge und Logo
TikTok steht für Spaß und Kreativität. Um die Meinungsfreiheit auf der Plattform ist es aber schlecht bestellt. Alle Rechte vorbehalten Screenshot TikTok.com / Montage netzpolitik.org

Keine App wurde im vergangenen Jahr so oft herunter geladen wie TikTok. Die Videosharing-Plattform wächst rasant. Im November 2019 durchbrach TikTok die 1 Milliarde-Nutzer:innen-Schallmauer – so schnell wie kein anderes soziales Netzwerk je zuvor. Die Video-App und ihre Kultur ist bei Kindern und Jugendlichen derzeit so angesagt, dass selbst die Tagesschau inzwischen einen eigenen Account dort betreibt.

Recherchen von netzpolitik.org zeigen jedoch: TikTok kann bis heute Videos von politischen Protesten und Demonstrationen unterdrücken und darüber hinaus auf vielfältige Weise bestimmen, welche Inhalte sichtbar und welche unsichtbar sind.

Exklusiver Einblick in die Moderation

Für diese Recherche hat netzpolitik.org mit einer Quelle bei TikTok gesprochen, Moderationskriterien und Kommunikationen eingesehen sowie mit eigens dafür erstellten Accounts Versuche gemacht, wie gut Videos mit chinakritischen Inhalten auf der Plattform sichtbar sind.

TikToks Moderationsregeln, von denen netzpolitik.org unterschiedliche Versionen einsehen konnte, sind bemerkenswert dünn und weit interpretierbar – auch für die Moderator:innen selbst. Die Strategie ist jedoch klar: Bestimmte Inhalte bekommen eine möglichst große Reichweite, während andere systematisch unterdrückt werden.

Die Erfolgsplattform gehört dem chinesischen Technologieunternehmen ByteDance. Bereits im September hatte der Guardian aus geleakten Dokumenten berichtet, wie TikTok politische Äußerungen zum Tiananmen-Massaker oder der Unabhängigkeit Tibets zensiert. Auch die Proteste in Hongkong, die derzeit weltweit mediale Aufmerksamkeit erregen, sind auf TikTok zwischen Selfies und Duetten so gut wie unsichtbar. Dabei ist die App auch in Hongkong verfügbar.

Nachts moderiert Peking

Die deutschsprachigen Videos auf TikTok werden von drei Standorten aus moderiert, berichtet die Quelle: Berlin, Barcelona und Peking. Am deutschen Standort sei die Führung chinesisch. Gearbeitet wird in 8-Stunden-Schichten, während denen um die 1.000 Tickets abgearbeitet werden sollen. Das ist knapp eine halbe Minute pro Ticket, für Videoinhalte ist das sehr wenig Zeit. Die Löhne sind sehr unterschiedlich, der Druck auf einzelnen Moderator:innen hoch, die Stimmung im Team sei „toxisch“, berichtet die Quelle.

Screenshots aus TikTok-Videos
Gute Laune, kaum Politik. Doch das liegt nicht nur an den Nutzer:innen. Alle Rechte vorbehalten Screenshots TikTok.com

Moderiert wird laut der Quelle in drei Review-Stufen. Der erste Review findet schon nach 50 bis 150 Videoansichten in Barcelona statt. Berlin ist für den zweiten Review bei 8.000 bis 15.000 Ansichten und den dritte Review bei etwa 20.000 Ansichten zuständig. Nachts moderieren deutschsprachige Chines:innen von Peking aus Inhalte. Das bestätigt auch TikTok gegenüber netzpolitik.org.

Im Gegensatz zu Facebook sind die Moderationsregeln sehr knapp gehalten: Sie passen nach Auskunft der Quelle in eine wenige Seiten lange Tabelle. Die Anweisungen, die netzpolitik.org einsehen konnte, sind verwirrend vage. Das lässt viel Spielraum für Interpretationen, die Einschränkung von Inhalten kann sehr weit ausgelegt werden, weil das Regelwerk nicht den in vielen Fällen deutlich klareren Charakter von Facebooks-Moderationskriterien hat.

Löschen, Bremsen, Pushen

Die Regeln unterteilen unliebsame Inhalte in vier Kategorien. Das berichtet die Quelle und zeigen die Moderationsregeln, die netzpolitik.org einsehen konnte. Videos, die komplett gegen die Auflagen der Plattform verstoßen, werden gelöscht („Deletion“). Andere Inhalte werden als „visible to self“ markiert. Dadurch kann eine Nutzerin das Video selbst noch sehen, andere aber nicht mehr.

Eine Markierung als „not for feed“ oder „not recommend“ bedeutet, dass das Video nicht mehr im algorithmisch kuratierten Newsfeed auftaucht, den die Nutzer:innen beim Öffnen der App sehen. Die Markierung kann auch zu einer Benachteiligung bei der Suche und Auffindbarkeit in Hashtags führen, sagt die Quelle. Solche Beiträge werden also streng genommen nicht gelöscht – sie haben aber faktisch kein Publikum mehr.

Die Videos erhalten unterschiedliche Sichtbarkeitsstufen, die über die Reichweite entscheiden. CC-BY 4.0 netzpolitik.org

Für die nicht eingeschränkten Videos gibt es hingegen zwei Stufen. Die meisten werden als „General“ bezeichnet, hier können allerdings über die Markierung von „Risks“ die Inhalte regional gesperrt oder heruntergedrosselt werden.

Videos, deren Verbreitung die Marketingabteilung extra verstärken will, kann sie mit der Markierung „Featured“ pushen. TikTok bestätigte netzpolitik.org gegenüber nur die Existenz von „Deletion“, „visible to self“ und „Risks“. Die „Risks“ seien notwendig, damit die Videos nicht gegen lokale Gesetze in bestimmten Ländern verstoßen.

Nicht nur Inhalte können ausgebremst werden, auch ganze Hashtags, erzählt uns die Quelle. Überhaupt scheint TikTok ein System des Promotens und Ausbremsens zu fahren, bei dem bestimmte Inhalte sichtbar und viral sind, andere hingegen nie durchstarten und keine Sichtbarkeit erhalten. Die Kontrolle über das, was Menschen auf TikTok sehen, liegt vor allem in der Hand des Unternehmens.

Gelenkte Inhaltspolitik

Proteste seien generell nicht gerne gesehen auf der Plattform, sagt die Quelle. Grundsätzlich gäbe es aufgrund der Ausrichtung von TikTok weniger Protest-Inhalte als auf anderen Plattformen, aber oftmals schafften es solche Videos gar nicht erst bis ins Marketing, sondern würden vorher schon beim ersten Sichten in der Moderation an anderen Standorten wie Barcelona gelöscht. Dabei sehen die „Löschteams“ gar nicht die Videos, sondern nur einzelne Frames an, der Ton wird nur auf Verdacht angehört. Tiktok bestreitet, dass es Inhalte aufgrund ihrer politischen Ausrichtung moderiere.

Kommt ein Inhalt zum Marketing-Team durch, bestimmt dieses über die Zusammenstellung des kuratierten For-You-Feeds, der den Nutzer:innen algorithmisch zugeschnitten ausgespielt wird.

Während der Moderation markieren die Moderator:innen Inhalte nicht nur für Löschung oder Bremsung, sie klassifizieren auch, was sie sehen. „Das soll beim Aufbau einer maschinellen Moderation helfen“, erzählt uns die Quelle, die Einblick in die Moderation hat. Tiktok dementierte gegenüber netzpolitik.org eine Verschlagwortung zum Anlernen von Künstlicher Intelligenz, algorithmische Systeme würden aber „zur Überprüfung beim Einstellen von Inhalten“ eingesetzt.

Kritik an Politik war früher aus Feed ausgeschlossen

Laut der Quelle habe TikTok nach der der Berichterstattung des Guardian im September und der darauf folgenden Kritik seine Moderationsregeln geändert. Dabei habe das Unternehmen gegenüber Mitarbeiter:innen explizit auf die schlechte Presse verwiesen, erzählt die Quelle. Das Ausmaß der Änderungen im September sei bis heute einzigartig gewesen, kleinere Modifikationen gebe es hingegen häufiger.

Tiktok hatte dem Guardian gegenüber von Mai gesprochen, gegenüber netzpolitik.org sagt das Unternehmen nun die signifikanten Änderungen seien „deutlich früher“ vorgenommen worden.

Bis zu dieser großen Änderung haben die Moderationsregeln Kritik an Politik und politischen Systemen quasi komplett ausgeschlossen. Ausgebremst wurde etwa, wer die konstitutionelle Monarchie, parlamentarische Systeme, Gewaltenteilung oder sozialistische Systeme kritisierte. Erst mit der großen Änderung wurde dieses „Politikverbot“ aus den Moderationsregeln getilgt.

Einen Ausschnitt aus der Moderationspolicy von TikTok (PDF), in dem mehrere Regeln vor und nach der Änderung festgehalten sind, veröffentlichen wir an dieser Stelle. Es handelt sich aus Quellenschutzgründen nicht um das Originaldokument, sondern um eine Abschrift.

Demonstrationen weiterhin einfach zensierbar

Geändert wurde auch das Ausbremsen der Darstellung so genannter „kontroverser Ereignisse“. Bis dahin zählten dazu generell Proteste, Ausschreitungen und Demonstrationen. Eine Liste zählte zusätzlich Beispiele auf wie die kurdische, tibetische oder taiwanesische Unabhängigkeitsbewegung. Nach der Änderung ist die Darstellung von Demonstrationen und Protesten nicht mehr per se eingeschränkt.

Allerdings können Demonstrationen mit dem Hinweis auf „mögliche gewalttätige Konflikte“ nach den aktuellen Regeln nach wie vor mit „not for feed“ markiert und heruntergeregelt werden. TikTok sagt, dass es keine solchen Inhalte enferne. Das allerdings war keine Antwort auf die gestellte Frage. Netzpolitik.org hatte nach der drosselnden Klassifizierung „not for feed“ gefragt, eine komplette Entfernung sahen die uns vorliegenden Versionen der Moderationspolicy sowieso nicht vor.

Screenshot Moderationskriterien
Im September hat TikTok die Moderationsregeln stark überarbeitet. Inhalte, die Demonstrationen zeigen, sind als „kontroverse Ereignisse“ weiterhin ausbremsbar – dank eines Gummiparagrafen.

Aus dem Feed verbannt waren früher auch Kritik an öffentlichen politischen Figuren, der Polizei und am Militär. Diese Regeln hat TikTok in Deutschland mittlerweile gestrichen, was das Unternehmen auch bestätigt.

LGTBQI-Inhalte werden in vielen Ländern nicht ausgespielt

Zudem wurden früher bestimmte Dinge als „Islam Offence“ markiert. Inhalte, die mit diesem Schlagwort markiert wurden, beispielsweise zwei küssende Männer, lösten einen Geoblock für bestimmte Regionen aus. Betroffen gewesen seien vor allem LGTBQI-Inhalte. Diese Regelung wurde nach Berichterstattung des Guardian abgeschafft. Oder besser gesagt: umbenannt.

Inhalte, die sich mit der sexuellen Orientierung beschäftigen, erhalten heute das Schlagwort „Risk 3.4“ – die Folge ist, wie auch beim „Islam Offence“ zuvor, dass diese Inhalte in islamischen Ländern ausgebremst werden. Die Markierung mit einem Risk, es gibt viele weitere, führten zu Geoblocking, sagt die Quelle. TikTok argumentiert, dass man sich an lokale Gesetze halten müsse.

Proteste in Hongkong sind kaum sichtbar

Da TikTok einem chinesischen Unternehmen gehört, ist besonders der Umgang mit den Demokratie-Protesten in Hongkong ein guter Gradmesser für Zensurversuche.

Schon im September hatten wir in der App und in der Webversion nach bestimmten auf anderen Netzwerken prominenten Hashtags wie #hongkongprotest, #freehongkong oder #antielab gesucht und keine oder nur sehr wenige Ergebnisse gefunden. Stattdessen wurden unter den Hashtags in der App Videos gezeigt, die nichts mit den Protesten zu tun hatten. Erst nach einer Presseanfrage bei TikTok in Deutschland wurden einige Videos sichtbar, auch solche, deren Upload wir mit einem eigens dafür erstellten Account versuchten.

Bei unserer Recherche im September waren die Proteste in Hongkong weitflächig ausgeblendet. Hashtags wie #joshuawong wurden nicht angezeigt (ganz links), angezeigte Videos hatten keinen Themenbezug (siehe andere drei Screenshots). Alle Rechte vorbehalten Screenshots App TikTok

Gegenüber netzpolitik.org sagte die Sprecherin des Unternehmens damals:

Nutzer sind auf TikTok, da die App ihnen eine positive, lustige Erfahrung bietet, bei der sie ihre Kreativität einbringen können. Kurzformatige, unterhaltsame Videos sind, was unsere Nutzer überwiegend auf TikTok hochladen und ansehen. TikToks Moderation folgt unseren Community Richtlinien und Nutzungsbedingungen und entfernt keine Videos rund um die Proteste in Hongkong.

Dieses überspezifische Statement kann heißen: Unsere Nutzer:innen laden gar nichts politisches hoch, es gibt kaum Videos zu den Protesten in Hongkong und wir löschen die auch nicht. Das Statement lässt aber komplett offen, ob TikTok Videos zu Hongkong mittels der unterschiedlichen Sichtbarkeitsstufen systematisch benachteiligt und so für die Öffentlichkeit unsichtbar macht oder gemacht hat. Die Suche nach dem Hashtag #JoshuaWong führte im September in der TikTok-App beispielsweise zu keinem Ergebnis. Es gab den Hashtag überhaupt nicht.

TikTok sagt gegenüber netzpolitik.org, dass es heute keine Inhalte zu den Protesten in Hongkong und auch zu Joshua Wong einschränke.

Die Welt am Sonntag hatte kürzlich bei einem Test festgestellt, dass die Suche nach aus Sicht der chinesischen Regierung brisanten Stichworten wie „falungong“, „tiananmenmassacre“ und „Tiananmensquare“ keine oder nur sehr wenige passende Beiträge liefere. Zahlreiche Suchen von netzpolitik.org in der App kommen zu einem ähnlichen Ergebnis.

„Handzahm und gelenkt“

Für Christian Mihr von Reporter ohne Grenzen bestätigen die Recherchen von netzpolitik.org die Befürchtungen, dass TikTok unter dem Einfluss des chinesischen Staates steht – obwohl es ein privates Unternehmen sei. Es sei Teil der Medienstrategie Pekings, seine totalitäre Vision handzahmer, gelenkter Medien auch international durchzusetzen.

„Wenn auf TikTok die Reichweite von Inhalten etwa über Proteste gedrosselt werden, passt das genau ins Bild, da Proteste in Hongkong oder Xinjiang, genauso wie im Ausland ein Tabuthema für Medien in China sind“, sagt Mihr. Er kritisiert das Vorgehen von TikTok als ein „Zeichen von großer Intransparenz“.

Update, 25.11.2019:

Nach Veröffentlichung des Artikels beharrt TikTok darauf, folgendes Statement zu ergänzen:

TikTok moderiert keine Inhalte basierend auf politischen Ausrichtungen oder Sensitivitäten. Unsere Moderationsentscheidungen sind durch keine fremde Regierung beeinflußt,was die chinesischen Regierung einschließt. TikTok entfernt weder Videos rund um die Proteste in Hongkong noch werden Videos rund um die Proteste in Hongkong in ihrer Reichweite unterdrückt. Das umschließt Inhalte zu Aktivisten.

Über diese Recherche und die Quellen:

Unser Wissen über die Moderation bei TikTok in Deutschland beruht auf einem mehrstündigen Gespräch von netzpolitik.org mit einer Quelle, die Einblick in die Moderationsstrukturen und die Policy hat. Wir haben die Identität der Quelle und ihren Arbeitsvertrag überprüft. Wir können und wollen die Quelle aus Gründen des Informantenschutzes nicht näher beschreiben.

Sollten Sie Informationen oder Hinweise zu diesem oder anderen Themen haben, freuen wir uns über eine Kontaktaufnahme – gerne verschlüsselt. Nutzen Sie dafür keine beruflichen Mailadressen, Telefonnummern, Netzwerke und Geräte.

no tracking, no paywall

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Uns fehlen in diesem Jahr noch rund 106.000 Euro zum Erreichen unseres Spendenziels und zur Ausfinanzierung unserer Arbeit in 2019.

Mit Deiner [ Spende ] können wir das schaffen und noch bessere Arbeit machen.

12 Ergänzungen
    1. Mit Verlaub, ich kann weder hier im Artikel, noch bei den referenzierten Artikeln bei Welt und Reporter-ohne-Grenzen die Forderung nach mehr oder vollständiger Meinungsfreiheit finden. Oder habe ich etwas übersehen? Kritik ist auf jeden Fall angebracht bei Systemen, die unliebige Meinungen unterbinden und whitewashing betreiben. Egal wer der Betreiber ist. Aufklärung ist Trumpf.

  1. Coole Sache, Danke.

    Ehrlichgesagt aber leider nicht wirklich überraschend. Wer auf privaten Internetdiensten unterwegs ist (egal von wem!), muss damit rechnen, dass alles nach belieben zusammenzensiert ist. Alles andere ist reine Träumerei.

    > TikTok kann bis heute Videos von politischen Protesten und Demonstrationen unterdrücken und darüber hinaus auf vielfältige Weise bestimmen, welche Inhalte sichtbar und welche unsichtbar sind.

    Auch das ist nun absolut keine Überraschung. Bei *jedem* privatem Internetdienst kann alles nach Belieben zensiert und manipuliert werden. Wer den Server kontrolliert, kontrolliert alles.

    > TikTox kann

    Solche Sätze in Zukunft bitte unterlassen, sie sind irreführend. Grundsätzlich gilt: Wenn der Inhalt auf TikTok ist, kann TikTok technisch gesehen damit machen, was sie wollen. Ist das nicht offensichtlich? Naja, zumindest für mich als IT-Nerd. :P
    Der Satz ist irreführend, weil es von n00bs so gelesen werden kann, dass es eine Besonderheit von TikTok ist, dass sie Dinge zensieren können. Was natürlich nicht stimmt, denn *alle* privaten Webseiten können nach Lust und Laune zensieren.

    Trotzdem ist der Artikel informativ, weil er aufdeckt, welche politischen Zwecke hinter TikTok stecken. Bitte mehr davon.

    Ich würde euch heftigst feiern, wenn ihr irgendwie Kontakt zu einem YouTube-Whistleblower kriegen könntet. Mich würde brennend interessieren, wie YouTube intern so aussieht. Es gab schon viele Indizien, dass bei YouTube auch übelst manipuliert wird, zum Beispiel hat jemand das Trending-Tab analysiert und gemerkt, dass meistens der Mainstream überproportional vertreten ist: http://humansarefree.com/2019/05/youtubes-trending-tab-is-rigged-in.html
    Aber ich glaube, einen direkten *Beweis* von Whistleblowern gab es noch nicht.

    1. Klar, jedes Unternehmen kann die Sachen zensieren die dem Unternehmen nicht gefallen. Ich denke im Fall von TikTok ist jedoch der Einfluss des Staates das problematische. Eine andere Sache ist noch die Transparenz bzw die unwissenheit der User. Die meissten lesen ja keine AGB. Es müsste also Aufklärung auf anderem Wege geben (wie zB Artikel wie dieser hier :) ) Oder AGB in Form von Video Tutorials. Ich vermute zwar das sich das trotzdem nur wenige User antun würden aber es wäre dann eben kein Problem des Unternehmen sondern der User. Man kann die Leute eben nicht zwingen sich nicht manipulieren zu lassen.

  2. Danke für den Artikel und die Recherche. Es zeigt sich, dass wurde ja auch schon mehrfach hier erwähnt, dass privatwirtschafltiche Konzerne eben immer irgendwie zensieren- eben nach Ihren Interessen. Richtig ist, dass wir nicht wegschauen sollten, wenn willkürlich zensiert wird.
    Und noch eines: Dann freue ich mich ja, dass netzpolitik dann doch nicht bei TikTok streamen wird. Denn ketzerisch gesagt, die Reichweite (1 Mrd. Accounts) wäre ja ein Argument, die jungen Menschen zu erreichen. Bei Twitter und Facebook wird das Reichweitenargument dann gerne mal genommen und die Nutzung gerechtfertigt…

  3. Wie werden Accounts mit Themen wie „White Supremacy“, „(Daten-)Kapitalismus“, „Neoliberalismus“, „Femizide“, Antisemitismus und Sexismus behandelt? Welche Seite wird (wo) gepusht oder gedämpft? In „westlichen“ Social Media gibt’s da ja nach-wie-vor strukturelle und systemimmanente „Probleme“ ..

  4. „Wer in sozialen Netzwerken erfolgreich sein will, muss Inhalte liefern, die zu den Mechanismen der jeweiligen Plattform passen.“ Schreibt Andreas Lützkendorf, Leiter Strategie & Innovation bei ARD-aktuell in der Pressemitteilung (NDR) vom 20.11.2019. Diese Strategie, Inhalte an die Plattform anzupassen, so schreibt er, kam erstmals bei den vom Tagesschauteam initiierten Instagram-Account zum tragen, und wird nun auch für TikTok angewendet.

    Ich frage mich, sattelt man nicht das Pferd von hinten auf und wo ist die Grenze? Youporn und Pornhub sind auch große und beliebte Soziale Netzwerke. Würde die Tagesschau ihrer eigenen Argumentation streng folgen, wäre es nur eine Frage der Zeit bis es einen Tagesschauaccount auf z.B. Pornhub gibt. Wie da die angepassten Inhalte aussehen, möchte ich mir nicht vorstellen.

    Ich finde die Öffentlich-Rechtlichen Medien können mit Selbstvertrauen, eigene gute Mediatheken aufbauen und sollten ihre Energie lieber in das pflegen von offenen Formaten und offene Schnittstellen investieren, statt neuen Social-Media-Plattform hinterher zu hechten.

  5. Was mich an diesem; und den zugehörigen; Artikeln am meisten irritierte ist die ausgiebige Verwendung der Begriffe „ausgebremst“ und „gedrosselt“. Als Technikaffiner verstehe ich darunter primär eine Bandbreiten-limitierung vom Server oder mittels QoS. Evtl. mit dem Zweck das ein Video so langsam lädt/streamt das der Nutzer entnervt aufgibt. Das scheint hier aber gerade NICHT der Fall zu sein. Wenn eine „Reichweiten“Drosselung gemeint ist dann könnte/sollte man das vielleicht klarer formulieren.

    Oder ist es ein Journalistischer Trick etwas so vage zu beschreiben damit man es nur aus dem Kontext des Inhaltes erschließen kann? :-)

    1. Gemeint ist eine drastische Reichweitenreduzierung und keine Drosselung im Sinne von Bandbreitenbeschränkung. Das ist kein journalistischer Trick, wir versuchen ja das Phänomen so einfach wie möglich verständlich zu machen.

  6. Das ganze erinnert ein wenig daran wie Kommentare in „Ergänzungen“ umbenannt wurden. Damit wurde ja auch nur die Qualität verbessert und der User kann nicht mehr das posten was er möchte.

    Wer sagt denn eigentlich das eine Videoplattform für junge Leute, Inhalte von Dingen – die wir als politisch relevant erachten – ohne Einschränkungen abieten muss? Von Twitter wird im gegensatz dazu erwartet, das sie Inhalte löschen wenn es Fakenews sind.

    Seit wann wurden den soziale Plattformen als völlig unkontrollierte Vervielfältigungsplattform deklariert? Die Zeiten sind doch lange vorbei.

    Ich erwarte aber auch nicht, dass auf meiner Schach-App über jede FFF Demo berichtet wird und auf der anderen Seite ist Instagram doch genau wie TikTok einfach eine Oberfläche für lifestyle. Insofern sehe ich nicht worin hier das verwerfliche liegen soll. Für die Leute, die die App nutzen dürfte das aber auch keine Rolle spielen.

    Interessant wäre es zu Wissen welche Regeln sich Netzpolitik.org vorstellt nach denen eine solche Plattform ihre Inhalte bewertet müsste, sollte oder dürfte?
    Kann man diese irgendwo nachlesen?

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.