Facebook möchte eine neue Instagram-Version für Kinder unter 13 Jahren einführen. Damit folgt der Konzern dem 2017 veröffentlichten Vorgänger-Produkt „Messenger Kids“ und „YouTube Kids“ von Google. Nachdem die bei Kinder und Jugendlichen beliebte Video-App TikTok viel Kritik wegen Daten-Tracking von Kindern, Schleichwerbung und fehlender Altersbeschränkungen einstecken musste, wirft Facebooks Idee allerdings Fragen auf. Insbesondere der Schutz von persönlichen Daten und die Ankündigung, keine Werbung auf der neuen Plattform zu schalten, sorgen aufgrund gebrochener Versprechen des Konzerns für Misstrauen.
netzpolitik.org hat mit der Pädagogin, Autorin und Mutter Susanne Mierau über die Idee Facebooks gesprochen. Im Gespräch ging es nicht nur um Bedenken an der Plattform, sondern auch darum, welche Maßnahmen diverse Akteur*innen ergreifen müssen, wenn „Instagram for Kids“ tatsächlich das Licht der digitalen Welt erblickt.
Jugendarbeit als „Priorität für Instagram“
Nach aktuellen Richtlinien ist die Nutzung von Instagram erst ab 13 Jahren möglich. Die Einführung des neuen Produkts verantwortet Instagram-Chef Adam Mosseri, die Leitung übernimmt Pavni Diwanji, Leiterin von Facebook und ehemalige Chefin der Plattform „YouTube Kids“. Einen detaillierten Plan, wie Instagram seine Plattform für Kinder unter 13 Jahren gestalten möchte, gibt es laut Adam Mosseri noch nicht. „Wir müssen hier viel tun“, betont er im Gespräch mit BuzzFeed News – mit welchen spezifischen Maßnahmen, steht jedoch nicht fest. Auch ist unklar, wann die Plattform verfügbar sein soll.
Facebook verkündete bereits im März, eine neue Instagram-Version für Kinder unter 13 Jahren einzuführen. Einer der Gründe sei, dass Kinder bereits jetzt online sind und sich mit Freund*innen und Familie vernetzen, Spaß haben und lernen wollen, so der Konzern. Die Verkündung der geplanten Instagram-Plattform folgte einem Versprechen Facebooks, Instagram sicherer für jüngere Nutzer*innen zu machen. Zunächst war allerdings nicht von einer separaten Plattform für unter 13-Jährige die Rede.
Vishal Shah, Produkt-Ressortleiter bei Instagram, schrieb in das Mitarbeitenden-Forum: „Ich freue mich, ankündigen zu können, dass wir die Jugendarbeit als Priorität für Instagram identifiziert und in unsere H1-Prioritätenliste aufgenommen haben“. Facebook werde sich auf zwei Dinge fokussieren: „(a) die Beschleunigung unserer Integritäts- und Datenschutzarbeit, um die sicherste Erfahrung für Jugendliche zu gewährleisten, und (b) die Entwicklung einer Version von Instagram, die es Menschen unter 13 Jahren zum ersten Mal erlaubt, Instagram sicher zu nutzen.“
Werbekonzern will keine Werbung anzeigen
Eine der Ankündigungen zur neuen Instagram-Plattform lautete, Facebook werde in der Instagram-Version für Kinder unter 13 Jahren keine Werbung anzeigen. Facebooks Geschäftsmodell beruht allerdings auf Werbeeinnahmen. In 2020 generierte das Unternehmen rund 98 Prozent seiner Einnahmen mit Werbung. Außerdem wächst der Markt für digitale Kinderwerbung stetig und könnte nach Schätzungen in diesem Jahr bis zu 1,7 Milliarden Dollar einbringen.
„Welche Daten sammelt Instagram über Nutzer auf der Version der Plattform für Kinder?“, „Wird Instagram die über einen Nutzer auf der Kinderplattform gesammelten Daten verwenden, um gezielte Werbung an verknüpfte Nutzende auf der Hauptplattform zu richten?“ lauten zwei der Fragen, die auch US-Kongressabgeordnete Facebook in einem offenen Brief stellten – und die bisher unbeantwortet blieben. Auch auf die Anfrage von netzpolitik.org, wie Facebook Einnahmen aus einer Instagram-Version für Kinder generiert, ohne auf dieser Werbung anzuzeigen, äußerte sich der Konzern nicht.
YouTube- und TikTok-Klagen als abschreckende Beispiele
Facebook ist mit dem Plan, eine werbefreie Plattform für Kinder einzurichten, nicht allein. Der Konkurrent Google ermöglicht mit YouTube für Kinder Werbung nur mit strengen Begrenzungen. Auch TikTok spielt jungen Nutzer*innen keine Werbung aus.
Dass diese Vorkehrungen lückenhaft sind, wurde aber wiederholt deutlich. YouTube hatte Werbe-Anzeigen für Kinder vergangenes Jahr verboten, nachdem eine US-Bundesbehörde den Mutter-Konzern Google 2019 auf 170 Millionen US Dollar verklagte, weil diese mit Werbung für Kinder mutmaßlich gegen die Children’s Online Privacy Protection Rule (COPPA) verstoßen hatten. Die Klage dürfte abschreckend auf Facebook gewirkt haben.
Auch Facebooks Mitbewerber TikTok fiel mehrfach mit Verstößen und Missständen auf. Die Plattform spielt nach eigenen Angaben zwar keine Werbung für junge Nutzer*innen aus, geriet jedoch aufgrund versteckter Werbung und intransparenter Nutzungsweisen in die Kritik. Der EU-Verbraucherverband (BEUC) legte deswegen Beschwerde gegen TikTok ein.
Ärger hat der Konzern auch wegen der laxen Durchsetzung seiner eigenen Altersbeschränkung: Eigentlich darf die App erst ab 13 Jahren genutzt werden. Doch eine Überprüfung der Altersgrenze fand oft nicht statt. Moderator*innen wurden teilweise sogar angewiesen, die Konten der unter 13-Jährigen nicht zu sperren. In einer britischen Klage wird TikTok vorgeworfen, die App habe unerlaubt Daten von Kindern gesammelt.
Gefährdung der Kindergesundheit
Aufkeimende Kritik an „Instagram for Kids“ beschränkt sich nicht auf den noch unklaren Umgang mit persönlichen Daten und Werbung. Facebooks Verkündung weckte vor allem in den USA Misstrauen bei Forscher*innen, Aktivist*innen und Fachleuten. Massive Kritik äußerte im April die Kinderschutzorganisation „Campaign for a Commercial-Free Childhood“ mit der Unterstützung von rund 99 Organisationen und Privatleuten, die sich für Kindergesundheit einsetzen, in einem offenen Brief an Facebook-Chef Mark Zuckerberg.
Die Aktivist*innen plädieren in dem Brief nicht nur für die Niederlegung des Plans, sondern führen mit diversen Studien auch Gründe an, warum negative Auswirkungen sozialer Medien auf Heranwachsende gegen eine Instagram-Version für unter 13-Jährige sprechen. Darunter fällt ein höheres Risiko für psychische Probleme wie Depressionen, suizidale Gefährdung und die Gefahr, durch die verstärkte Nutzung sozialer Medien Opfer von Cybermobbing zu werden.
Außerdem steige der Druck, sexualisierte Selfies zu posten, um Aufmerksamkeit und Akzeptanz von Gleichaltrigen zu erhalten. Dazu werden Kinder am häufigsten auf der Plattform Instagram Opfer von Cybergrooming. Auch die Fülle an Inhalten über sexuellen Kindesmissbrauch und die digitale Ausbeutung junger Nutzer*innen auf Plattformen wie Instagram legen die Aktivist*innen als Gründe gegen die Einführung der Instagram-Plattform dar.
Ebenfalls in einem offenen Brief schlossen sich im Mai über 40 US-Generalstaatsanwält*innen zusammen, die Zuckerberg aufgrund ähnlicher Argumente dazu aufforderten, die Pläne fallen zu lassen. Die Nutzung sozialer Medien könne sich nachteilig auf die Gesundheit und das Wohlbefinden von Kindern auswirken, die nicht in der Lage sind, mit den Herausforderungen eines Accounts in den sozialen Medien umzugehen.
„Außerdem hat Facebook in der Vergangenheit versagt, das Wohlergehen von Kindern auf seinen Plattformen zu schützen“, so heißt es in dem Brief. Dabei beziehen sich die Behörden auf unzureichende Sicherheitsvorkehrungen in der ebenfalls von Facebook betriebenen „Messenger Kids“-App. Die seit 2017 existierende Plattform sieht unter anderem die elterliche Kontrolle für die Kommunikation ihrer Kinder mit anderen Nutzer*innen vor. Eine 2019 entdeckte Sicherheitslücke führte jedoch dazu, dass Kinder unbeaufsichtigt mit Fremden in Kontakt treten konnten – ein Verstoß gegen das Kernversprechen der Plattform.
„Scheinbare Sicherheit, die es so nicht gibt“
Facebooks „Messenger Kids“ ist nicht die einzige Plattform, die in der Vergangenheit zu Diskussionen aufgrund mangelnden Kinderschutzes auf Online-Plattformen und sozialen Netzwerken führte. Pädagogin Susanne Mierau berichtet von den Sicherheitslücken in schulischen Zoom-Konferenzen aus dem vergangenen Jahr, die es Fremden möglich machten, unter anderem pornografische Inhalte zu zeigen. Auch andere spezielle Apps für Kinder und Jugendliche seien nicht vollumfänglich sicher für die Zielgruppe, so die Pädagogin.
Außerdem bestehe bei einer Plattform wie Instagram die Gefahr, dass die Maßnahme der elterlichen Kontrolle, die viele soziale Netzwerke für Heranwachsende einführen, nicht immer zulänglich sei. Manche der Eltern verlassen sich zu sehr auf die vermeintliche Kinderfreundlichkeit und „haben ein Vertrauen in die Plattform, wo keines ist“, so Mierau. „Das ist eine scheinbare Sicherheit, die es so nicht gibt.“
Die elterliche Kontrolle begreift Facebook bei „Instagram for Kids“ als wichtig. Eltern zu involvieren, um die Instagram-Version ihrer Kinder einsehen und kontrollieren können, sei nach Adam Mosseri zumindest ein Teil der Lösung für die neue Plattform. Zusätzlich will Facebook nach eigenen Angaben Expert*innen für Kindesentwicklung, Kindersicherheit, psychische Gesundheit sowie Datenschutzbeauftragte heranziehen.
Kinder unter 13 Jahren sind bereits auf Instagram
Bei der Ankündigung einer neuen Plattform für unter 13-Jährige stellt sich auch die Frage, ob Kinder überhaupt Bedarf an dieser haben. Adam Mosseri sagte in einem Interview, dass „mehr und mehr Kinder“ Apps wie Instagram nutzen möchten. Dabei sei es schwierig, ihr Alter zu verifizieren, da viele der Kinder und Jugendlichen bis zum späten Teenageralter keine Ausweisdokumente haben. Jedoch nutzen trotzdem viele von ihnen die Plattform unter falscher Altersangabe. Bereits 2018 waren laut einer Studie in Deutschland rund 26 Prozent aller sechs- bis 13-Jährigen auf Instagram. Mittlerweile dürften es sogar noch mehr Kinder sein.
Den Bedarf von unter 13-Jährigen, soziale Netzwerke wie Instagram nutzen zu wollen, bestätigt auch Susanne Mierau, deren Kinder selbst im Grundschulalter sind. „Tatsächlich war ich überrascht von meinen eigenen Kindern zu erfahren, wie viele andere Kinder Instagram-Accounts haben“, erzählt sie im Gespräch mit netzpolitik.org. Einige von ihnen führen einen von Eltern begleiteten Kanal, ein paar hätten sich jedoch auch mit falscher Altersangabe auf Instagram angemeldet.
Fraglich bleibt, ob Jüngere überhaupt das Angebot eines Instagram für Kinder wahrnehmen, wenn sie sich auch auf der „normalen“ Plattform vernetzen können. So glaubt die Wissenschaftlerin Priya Kumar, die zu den Effekten sozialer Medien auf Familien forscht, dass viele der Kinder, die „YouTube Kids“ verwenden, zur „normalen“ Plattform wechseln. „Nur weil es eine Plattform für Kinder gibt, heißt das noch lange nicht, dass die Kinder dort auch bleiben“, äußerte Kumar im Gespräch mit BuzzFeed News.
Gesetzliche Schranken durch COPPA und DSGVO
Um die digitalen Rechte für Kinder zu schützen, gibt es bereits Gesetze. In den USA reguliert die „Children’s Online Privacy Protection Rule“ (COPPA) den digitalen Schutz von Kindern unter 13 Jahren. Werden diese missachtet, kann das rechtliche Konsequenzen zur Folge haben. Im Mai hatten US-Senatoren außerdem den „Children and Teens‘ Online Privacy Protection Act“ vorgelegt. Dieser würde im Falle einer Gesetzesregelung COPPA erweitern und auch den Schutz von Kindern zwischen 13 und 15 Jahren im Netz regulieren.
In der EU sind in der Datenschutzgrundverordnung (DSGVO) die digitalen Rechte von Kindern formuliert. Laut Artikel 8 der DSGVO ist die Verarbeitung personenbezogener Daten eines Kindes nur rechtmäßig, wenn das Kind mindestens 16 Jahre alt ist. Die Mitgliedsstaaten können durch eigene Rechtsvorschriften auch die Altersbegrenzung herabsenken, jedoch darf diese nie unter 13 Jahren sein. „Hat das Kind noch nicht das sechzehnte Lebensjahr vollendet, so ist diese Verarbeitung nur rechtmäßig, sofern und soweit diese Einwilligung durch den Träger der elterlichen Verantwortung für das Kind oder mit dessen Zustimmung erteilt wird“, steht es in der Verordnung.
Letztes Jahr hatte die EU-Kommission außerdem das Digitale-Dienste-Gesetz vorgeschlagen, mit dem Plattformen mehr Angaben über die Wirkungsweisen von Algorithmen machen müssen. In Artikel 24 formulierte die Kommission zudem Richtlinien für die „Transparenz der Online-Werbung“. Deutschland hatte sich auf EU-Ebene für ein Verbot personalisierter Werbung bei Minderjährigen und dem Einsatz von Empfehlungsalgorithmen ausgesprochen. Aus einem Dokument geht hervor, dass die deutsche Regierung die Transparenz-Regeln von Artikel 24 des Digitale-Dienste-Gesetzes für unzureichend hält. Sie forderten außerdem:
Wir sollten personalisierte Werbung insbesondere gegenüber Minderjährigen (d.h. unter 18 Jahren) verbieten. Eine zusätzliche Identifikationspflicht für alle Nutzer sollte jedoch nicht eingeführt werden. Minderjährige sind sich noch weniger bewusst über die Existenz von personalisierter Werbung und wie Unternehmen sie nutzen, um Einnahmen zu generieren.
Vermittlung von Medienkompetenz
Gesetzliche Regulierungen sind nicht das einzige Mittel, um Kinder vor den Gefahren des Internets und damit auch vor Risiken einer möglichen Instagram-Plattform für unter 13-Jährige zu schützen. Es gehe um gesetzliche Regelungen aber auch um Kompetenzerwerb, so Susanne Mierau. „Ich finde es sehr wichtig, dass Kinder lernen, gut mit Medien umzugehen. Die Verantwortung liegt bei den Eltern, sie daran zu führen. Ihnen eine solche App zu überlassen, finde ich schwierig“, so Mierau.
Es gehe um Aufklärung, Offenheit und begleitende Prozesse. Dabei müsse kommuniziert werden, dass es keine Tabus gebe und Kinder mit Eltern auch über belastende Inhalte sprechen könnten. Ebenso sei der Medienkompetenz-Erwerb seitens der Eltern wichtig, beispielsweise durch Elternabende und Expert*innen, die das Thema aufgreifen. Aber auch für Kinder müsste es abseits des Elternhauses Angebote geben, um Medienkompetenz zu erlernen.
Gelernte Medienkompetenz kann dabei jedoch nur ein Mittel sein, wie sich der Umgang mit Medien gestaltet, wenn die Gefahren sozialer Netzwerke schon bestehen. Wie Risiken sozialer Medien auf Kinder präventiv gemindert werden können, bleibt offen – auch im Falle Facebooks. Neue Ansätze wie die Europäische Strategie für ein besseres Internet für Kinder könnten dabei helfen, doch sie stehen in ihrer Umsetzung noch am Anfang. Außerdem greifen Ansätze auf europäischer Ebene meist erst dann, wenn Kinder mindestens 13 Jahre alt sind.
Auch Susanne Mierau ist gespannt auf die Versprechen Facebooks, wie der Konzern ein „Instagram for Kids“ sicher gestalten will. Sie halte konkrete Altersbeschränkungen zwar grundsätzlich für schwierig – der Grund, warum Kinder die Plattform in sehr jungem Alter nutzen sollen, erschließe sich ihr jedoch nicht. Sie ergänzt: „Was sollte ein fünfjähriges Kind darüber aufnehmen? Was sollte es für einen Nutzen haben? Da sehe ich persönlich keinen.“
Das nächste Schädliche Etwas von einem schädlichen Konzern mit schädlichem Geschäftsmodell…
Glaubt wer, Zivilisation könne beliebig geformt werden?