Reaktion auf politischen DruckTikTok verschärft Datenschutz-Einstellungen für Jugendliche

Kinder lieben die App TikTok, doch der Druck auf das Start-up wächst, mehr für den Schutz seiner jungen Nutzer*innen zu tun. Jetzt hat TikTok weitere Maßnahmen angekündigt, um die Konten von Jugendlichen besser zu schützen.

Jugendliche filmt sich mit Smartphone
Jugendliche weltweit nutzen TikTok besonders gerne. Gemeinfrei-ähnlich freigegeben durch unsplash.com Good Faces

Bereits im Januar hatte TikTok die Bedingungen für minderjährige Nutzer*innen angepasst, jetzt legt die Plattform mit weiteren Regeln nach. Wie TikTok vergangene Woche bekannt gab, werden weitere Änderungen für Jugendliche im Alter von 13 bis 17 Jahren folgen. Sie betreffen die Möglichkeiten, in der App Nachrichten auszutauschen, die Sichtbarkeit von veröffentlichten Videos und das Herunterladen von Videos. TikTok sagt, die Änderungen sollen in den kommenden Monaten nach und nach weltweit greifen.

Zuletzt hatte TikTok im Januar die Datenschutzeinstellungen für Minderjährige in der App geändert. So wurden die Konten von 13- bis 15-Jährigen automatisch auf „privat“ gestellt, bestimmte Funktionen zur Interaktion mit anderen Nutzer*innen wie Duett oder Stitch sind für sie ebenfalls gesperrt.

Mit den jetzt vorgestellten Änderungen kommen weitere Regeln dazu. So wird für 16 bis 17-Jährige, die sich neu auf der Plattform anmelden, in Zukunft automatisch verhindert, dass sie in der App Direktnachrichten empfangen können. Wer dies dennoch tun möchte, muss die Einstellungen gezielt ändern. Für Nutzer*innen unter 16 gilt bereits jetzt, dass sie keine Nachrichten in der App senden oder empfangen können.

Wer jünger ist als 16, soll zudem in Zukunft vor der Veröffentlichung eines Videos gefragt werden, für wen der Inhalt sichtbar sein soll – zur Auswahl stehen Follower, Freunde (das sind in der App alle Accounts, die sich gegenseitig folgen) oder nur sie selbst. Die Option „für alle“ steht nicht mehr zur Verfügung.

Schon im Januar hatte TikTok an den Sichtbarkeits-Einstellungen für diese Altersgruppe geschraubt: Ihre Accounts wurden automatisch auf „privat“ gestellt, das heißt, dass nur noch jene „Freunde“ die Videos sehen können, die explizit freigeschaltet sind. Mit der neuen Regelung will TikTok laut eigener Aussage dafür sorgen, dass die Jugendlichen selbst eine bewusste Entscheidung treffen.

Gleiches gilt für die Frage, wer die Videos von 16- bis 17-Jährigen in Zukunft nicht nur sehen, sondern auch herunterladen darf. Auch hier gilt: TikTok verhindert nicht, dass diese Nutzer*innen ihre Videos zum Download freigeben, fragt aber mit einer Nachricht nach, ob sie dem Download tatsächlich zustimmen und erinnert daran, dass ihre Videos dann auch auf anderen Plattformen geteilt werden könnten.

Altersverifizierung für Kinder leicht zu umgehen

Alle genannten Maßnahmen setzen voraus, dass Nutzer*innen bei der ersten Anmeldung in der App ihr echtes Geburtsdatum angeben. Streng kontrolliert wird dies jedoch nicht, entsprechend leicht lässt sich die Altersbeschränkung umgehen. TikTok setzt inzwischen zwar bestimmte Technologien ein, um das Alter zu überprüfen, und soll laut Recherchen der New York Times unter anderem auch auf Gesichtserkennung und „Alters-Modellierung“ setzen, um zu junge Nutzer*innen ausfindig zu machen. Es ist aber davon auszugehen, dass die Altersbeschränkung nach wie vor von vielen der meist sehr jungen Nutzer*innen bewusst umgangen wird.

Wie viele Kinder auf TikTok aktiv sind, zeigte etwa eine Umfrage des Dänischen Rundfunks aus dem Jahr 2020: In Dänemark sollen 4 von 10 Kindern zwischen 9 und 14 Jahren die App täglich nutzen. In den USA waren laut Angaben von TikTok 60 Prozent der Nutzer*innen im Jahr 2020 zwischen 16 und 24 Jahre alt. Interne Dokumente, die die New York Times sah, gehen noch weiter: Mit Stand Juli 2020 ging das Unternehmen demnach davon aus, dass mehr als ein Drittel seiner Nutzer:innen in den USA 14 Jahre alt oder jünger ist. In Großbritannien schätzte TikTok 43 Prozent der täglichen Nutzer:innen auf unter 14, in Deutschland waren es mehr als 35 Prozent, in Frankreich 45 Prozent. 

Änderungen nach Millionenstrafe der FTC

TikTok hat für den sorglosen Umgang mit den Daten von Kindern schon Millionen an Bußgeld gezahlt. Im Jahr 2019 verhängten die US-Behörde FTC eine Rekordstrafe von 5,7 Millionen Dollar gegen TikTok, weil das Vorgänger-Unternehmen musical.ly Daten von Kindern unter 13 Jahren ohne Zustimmung der Eltern gesammelt hatte.

TikTok hat daraufhin mehrere Maßnahmen umgesetzt, um Kinder und Jugendliche in der App vorgeblich besser zu schützen, unter anderem eine „Parental Control“-Funktion, mit der Eltern die Einstellungen in den Accounts ihre Kinder verwalten können.

Die erneuten Änderungen gibt TikTok bekannt, während in der USA und in der EU der Druck aus der Politik wächst, mehr für den Schutz von Kindern und Jugendlichen zu tun. In den USA gibt es derzeit Bestrebungen, das jahrzehntealte „Children’s Online Privacy Protection Rule“ (COPPA) zu erweitern, das den Datenschutz von Kindern unter 13 Jahren reguliert. Im Mai hatten US-Senatoren den „Children and Teens‘ Online Privacy Protection Act“ vorgelegt. Dieser soll COPPA erweitern und auch den Schutz von Kindern zwischen 13 und 15 Jahren im Netz einschließen.

In Europa muss jetzt die EU-Kommission beurteilen, ob TikTok genug für den Jugendschutz tut, nachdem der europäische Verbraucherverband BEUC Beschwerde gegen die Firma eingereicht hat. Die Plattform mache Minderjährigen gegenüber nicht deutlich genug, wie viele Rechte sie an TikTok abtreten, betreibe schwer erkennbare Schleichwerbung und verleite Kinder dazu, über virtuelle Geschenke Geld in der App auszugeben.

Auch steht TikTok wegen dem Umgang mit den Daten von Kindern schon länger im Visier der EU-Datenschützer*innen. Die Aufsichtsbehörden mehrerer Mitgliedsstaaten hatten unabhängig voneinander Verfahren gegen die Firma eingeleitet, darunter Dänemark, Frankreich und die Niederlande. Inzwischen hat die irische Datenschutzbehörde alle Verfahren an sich gezogen, nachdem TikTok seinen EU-Hauptsitz nach Dublin verlegte. Damit fällt das Unternehmen nun unter die Aufsicht einer Behörde, die als chronisch langsam und ineffizient gilt.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten. Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

 

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

Eine Ergänzung

  1. TikTok unterwandre durch die Homophobie das europäische kulturelle und künstlerische Selbstverständnis.

    Solange sich dahingehend nichts ändert stellt die vermittelte Homophobie somit eine ernst zu nehmende gesellschaftlich Gefahr da, die darauf abzielt die Gesellschaft zu spalten zu polarisieren und Hass zu schüren.

    TikTok ist somit zu einer ernsthafte Gefahr für die nationale Sicherheit geworden. Dieses Gefährdungslage rechtfertigt eine generelles Verbot in Deutschland.

    Peter

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.