Mehr Alterskontrollen, weniger SogwirkungSo stellt sich die EU ein kindgerechtes Internet vor

Das Gesetz über digitale Dienste soll auch Minderjährige im Netz schützen. Wie das konkret aussehen soll, beschreibt die EU-Kommission in neuen Leitlinien. Anbieter von Online-Diensten sollen demnach mehr Ausweise überprüfen und die Sogwirkung ihrer Angebote zurückdrehen.

Illustration im Bauhaus-Stil eine junge Person mit Smartphone
Die Kommission gibt Linien vor (Symbolbild) – Public Domain DALL-E-3 („teenager with smartphone, bauhaus style reduced minimalist geometric shape“)

Geht es nach der EU-Kommission, sollen Menschen in der EU künftig ihren Ausweis zücken, bevor sie im Netz Pornos abrufen oder Alkohol kaufen können. Jugendliche sollen keine Likes von fremden Leuten einsammeln können und keine Feeds mehr serviert bekommen, in denen man unendlich lange scrollen kann.

Diese und weitere Empfehlungen gehen aus den neuen Leitlinien („Guidelines“) zum Schutz von Minderjährigen hervor, die auf dem Gesetz über digitale Dienste (DSA) basieren. Aktuell sind die Leitlinien nur ein Entwurf. Bis zum 10. Juni kann die interessierte Öffentlichkeit dazu Feedback geben. Wir haben uns die 39 Seiten angeschaut und beantworten die wichtigsten Fragen.

Für wen gelten die Leitlinien?

Die Leitlinien gelten für Online-Dienste, die unter das Gesetz für digitale Dienste (DSA) fallen, für Minderjährige zugänglich sind und nicht als „sehr groß“ eingestuft werden. Dazu gehören etwa Online-Marktplätze, soziale Netzwerke und Content-Sharing-Plattformen mit weniger als 45 Millionen monatlichen EU-Nutzer*innen. Plattformen mit noch mehr Nutzer*innen gelten als „sehr groß“, darunter fallen etwa TikTok, Instagram und YouTube. Für sie sieht der DSA noch mehr Verpflichtungen vor.

Die Formulierung „für Minderjährige zugänglich“ schließt den Leitlinien zufolge ausdrücklich Pornoseiten mit ein. Demnach genüge es nicht, wenn die Seiten etwa in den Nutzungsbedingungen minderjährige Nutzer*innen ausschließen. Viele fragen zudem per Pop-up, ob man erwachsen ist; auch das überzeugt die EU-Kommission offenkundig nicht.

Pornoseiten hatte die EU-Kommission bereits vorher im Visier, und zwar auf Basis der DSA-Regelungen für sehr große Plattformen. Unter anderem Pornhub und XVideos haben diesen Status.

Sind die Leitlinien verpflichtend?

Nein, die Leitlinien sind nur Empfehlungen. Anbieter können sie berücksichtigen, um die gesetzlichen Anforderungen zu erfüllen. Sie können aber auch andere Wege wählen. Ob ein Anbieter das Gesetz über digitale Dienste letztlich einhält oder nicht, müssten Gerichte von Fall zu Fall entscheiden. Dennoch bezeichnet die Kommission die Leitlinien als „bedeutsame Orientierungshilfe“. Aus dem Text geht klar hervor: Wer kein Risiko eingehen und Ärger vermeiden will, sollte sich diese Leitlinien genau anschauen.

Die Leitlinien verfolgen dabei einen individuellen Ansatz: Jeder Dienst muss sich demnach fragen, welche spezifischen Risiken das eigene Angebot für Minderjährige bergen kann. Auf dieser Grundlage sollen die ergriffenen Maßnahmen verhältnismäßig sein und sich unter anderem an Kinderrechte, Privatsphäre und Datenschutz halten.

Welche Form von Alterskontrollen will die Kommission?

Alterskontrollen sind ein zentraler Baustein in den Leitlinien. Wer das Alter von Menschen im Netz prüfen möchte, kann milde oder strenge Methoden wählen. Die Leitlinien empfehlen jedoch vor allem strenge Methoden, etwa per Ausweiskontrolle („age verification“).

Solche strengen Methoden sehen die Leitlinien etwa für Pornoseiten, Glücksspiel und Shoppingseiten für Alkohol vor, also für Angebote ab 18 Jahren. Strenge Alterskontrollen soll es außerdem dann geben, wenn mildere Mittel nicht funktionieren, um Risiken wie etwa schädliche Inhalte oder Grooming zu vermeiden. Grooming nennt man es, wenn Erwachsene im Netz sexuelle Kontakte zu Kindern anbahnen.

Für solche strengen Alterskontrollen will die EU-Kommission eine eigene Lösung entwickeln und hat dafür bereits ein App-Konzept vorgelegt. Die App soll eine Übergangslösung sein, bis ab voraussichtlich Ende 2026 die geplante digitale Brieftasche der EU auch Altersnachweise erbringen kann. Für die Alterskontroll-App der EU gilt ähnlich wie für die DSA-Leitlinien: Sie ist ein Maßstab, aber keine Pflicht.

Für Inhalte mit niedrigeren Altersschranken, etwa ab 16 Jahren, sehen die Leitlinien Methoden der Alterskontrolle vor, bei denen das Alter einer Person geschätzt wird („age estimation“). So etwas ist möglich, indem man etwa sein Gesicht vor der Webcam präsentiert, und ein KI-Modell anhand biometrischer Merkmale schätzt, ob eine Person erwachsen aussieht. Auch wenn es für manche vielleicht besonders unangenehm ist, ihr Gesicht biometrisch scannen zu lassen, betrachtet die Kommission diese Methode als weniger invasiv als Ausweiskontrollen.

Was ist das Problem bei diesen Alterskontrollen?

Fachleute für digitale Grundrechte sehen beide von der EU-Kommission beschriebenen Ansätze zur Alterskontrolle kritisch, also „age verification“ und „age estimation“. Je nach Ausgestaltung können diese Methoden Menschen ausschließen, die diese Hürden nicht überwinden können, etwa mangels Dokumenten oder mangels Webcam. Auch Eingriffe in Privatsphäre und Datenschutz sind denkbar, etwa wenn die erfassten Daten nicht anonymisiert werden. So sieht der aktuelle Kommissions-Entwurf der Alterskontroll-App nur Pseudonymisierung vor, keine Anonymisierung.

Weniger Bedenken gibt es aus Sicht von digitalen Grund- und Freiheitsrechten bei Methoden, in denen Menschen schlicht ihr eigenes Alter angeben („age declaration“). Der Dachverband von Organisationen für digitale Freiheitsrechte, EDRi, bringt das in einem Papier aus dem Jahr 2023 so auf den Punkt: „Außer bei Methoden zur Altersangabe („age declaration“) gefährdet Alterskontrolle die Privatsphäre, den Datenschutz und das Recht auf freie Meinungsäußerung – sowohl von Kindern als auch von Erwachsenen.“

Die EU-Kommission vertritt einen gegensätzlichen Standpunkt. In den Leitlinien heißt es ausdrücklich: Die Kommission betrachtet Altersangaben („age declaration“) eben „nicht als angemessene Methode der Alterskontrolle“. Das heißt, die Kommission empfiehlt ausdrücklich das, wovon EDRi abrät. Dahinter stehen auch verschiedene Auffassungen davon, wie wirksam Alterskontrollen überhaupt sein können und welche Grundrechte Vorrang haben. Hier berichten wir mehr über die Abwägungen hinter verschiedenen Formen von Altersschranken im Netz.

Kritik an den geplanten Alterskontrollen kommt auch von Hannah Lichtenthäler, die für die gemeinnützige, digitalpolitische Organisation Superrr arbeitet. „Derzeit existierende Maßnahmen zur Altersfeststellung können wir aktuell aus technischer Sicht nicht empfehlen“, schreibt sie auf Anfrage von netzpolitik.org. „Klar ist, wenn Altersfeststellungsverfahren umgesetzt werden sollten, müssen sie die Grundprinzipien von Privacy by design, Safety by design, transparency by design sowie access(ibility) by design mindestens erfüllen.“

In Deutschland zuständig für die Durchsetzung des Jugendmedienschutz nach dem DSA ist die sogenannte KidD, die Abkürzung steht für „Stelle zur Durchsetzung von Kinderrechten in digitalen Diensten“. Deren Leiter Michael Terhörst begrüßt die Leitlinien; sie seien „Ergebnis eines intensiven Erarbeitungsprozesses“, schreibt er auf Anfrage. Gerade bei Alterskontrollen wären Terhörst zufolge jedoch konkretere Vorgaben zur Umsetzung wünschenswert, „damit Anbieter mehr Orientierung zu verhältnismäßigen Maßnahmen erhalten“.

Was verlangen die Leitlinien noch?

Neben Alterskontrollen beschreiben die Leitlinien eine Reihe von teils weitreichenden Maßnahmen, die Minderjährige im Netz besser schützen sollen. Je nach betroffener Plattform könnte das auf einen besonders eingeschränkten Kinder-Modus hinauslaufen.

Ein Bündel der Maßnahmen handelt davon, die verführerische Sogwirkung einzudämmen, die etwa Social-Media-Apps erzeugen können. Demnach sollen Dienste für Minderjährige nicht per Voreinstellung so gestaltet sein, dass man sich nur noch schwerlich davon lösen möchte. Also kein unendliches Scrollen in einem Feed; keine Likes, Kommentare oder Reposts von fremden Kontakten; keine Push-Benachrichtungen. Die oft auf maximale Verweildauer optimierten Empfehlungssysteme sollen entschärft werden, indem sie sich auf dem Alter angemessene Inhalte beschränken.

Bei jedem einzelnen Inhalt sollen Nutzer*innen außerdem einsehen können, aufgrund welcher Parameter er ihnen empfohlen wurde. Werkzeuge zur Beschränkung der Nutzungszeit sollen anpassbar und kinderfreundlich sein; auch Eltern oder Aufsichtspersonen sollen sie nutzen können.

Ein anderes Bündel von Maßnahmen dreht sich darum, minderjährige Nutzer*innen durch sichere Voreinstellungen gegen potenziell riskante Kontaktaufnahmen von Außen zu schützen. So sollen Inhalte von Minderjährigen nur für aktiv akzeptierte Kontakte sichtbar sein; und selbst diese Kontakte sollen keine Screenshots der Inhalte erstellen können. Meldemechanismen sollen zugänglich und kinderfreundlich sein; Anbieter sollen Meldungen von Minderjährigen mit Priorität bearbeiten und ihnen unverzüglich eine begründete Entscheidung vorlegen. Michael Terhörst von der Dienststelle KidD schreibt hierzu: „Wir begrüßen insbesondere auch den Ansatz, dass Minderjährige nicht leicht gefunden oder kontaktiert werden können.“

Anbieter „sehr großer Plattformen“ müssen übrigens nicht weniger tun, sondern mehr. Zum Beispiel sieht der DSA unter „Risikobewertung“ und „Risikominderung“ vor, dass sehr große Plattformen systemische Risiken für alle Nutzer*innen erfassen und wirksam angehen müssen, also auch für Erwachsene. Das betrifft etwa Inhaltsmoderation, Empfehlungssysteme oder Kennzeichnung von Falschinformationen.

Zementieren die Leitlinien Verbote oder schützen sie Freiheiten?

Es gibt Hinweise für beides. Die Leitlinien gehen durchaus darauf ein, wie wichtig digitale Freiheiten gerade für Minderjährige sind. In der Einleitung heben die Leitlinien hervor, dass Online-Plattformen für Minderjährige einen Reichtum von Bildungsinhalten bieten. Weiter heißt es: „Online-Plattformen können Minderjährigen auch die Möglichkeit bieten, mit anderen in Kontakt zu treten, die ähnliche Interessen haben. Dies kann Minderjährigen dabei helfen, soziale Kompetenzen, Selbstvertrauen und ein Gemeinschaftsgefühl zu entwickeln.“

Aus den Leitlinien geht klar hervor, dass es ein Spannungsfeld aus mehreren Grundrechten gibt. Die Formulierung „Privatsphäre, Sicherheit und Schutz für Minderjährige“ („privacy, safety, and security of minors“) wird beharrlich wiederholt – insgesamt 49 Mal. Auch das Recht auf Teilhabe wird berücksichtigt, immerhin bergen viele Maßnahmen das Risiko, Menschen unrechtmäßig von Inhalten auszuschließen.

Wie Alterskontrollen das Internet umkrempeln sollen

Konkret sollen Anbieter etwa sicherstellen, dass Methoden der Alterskontrolle für alle zugänglich sind, „unabhängig von Behinderung, Sprache, ethnischer Zugehörigkeit oder Zugehörigkeit zu einer Minderheit.“ Verarbeitet werden sollten alleine Datenpunkte, die sich auf das Alter beziehen und keine weiteren Daten, mit denen man Personen tracken könnte. Hinter die Altersschranke sollen nur Bereiche eines Angebots kommen, die für Minderjährige riskant sein können. Außerdem verweisen die Leitlinien darauf, dass Anbieter laut DSA keine Pflicht haben, allein zum Zweck der Alterskontrolle mehr Daten zu erheben, als sie es ohnehin tun würden.

Stellenweise richten die Leitlinien also durchaus den Blick auf Datenschutz und Teilhabe – und thematisieren damit die Bedenken der Kritiker*innen strenger Alterskontrollen.

Einen ernüchternden Realitätscheck erfahren diese Ziele jedoch, wenn man sich das von der EU-Kommission selbst vorgelegte Konzept für eine Alterskontroll-App anschaut. Wie wir im April berichtet haben, ist die geplante App eben nicht anonym, sondern pseudonym, und sie basiert auf Ausweispapieren, die nicht alle Menschen haben.

Das gibt einen Vorgeschmack darauf, in welche Richtung die Anwendung der Leitlinien verweist: Grundrechte wie Datenschutz und Teilhabe könnten zwar im Vorfeld ausführlich benannt werden; in der Praxis aber eine untergeordnete Rolle spielen.

Was passiert als nächstes?

Diese Leitlinien werden das Internet nicht sofort umkrempeln. Betroffene Anbieter müssen individuelle Lösungen entwickeln, um den Anforderungen gerecht zu werden. Gerade bei Maßnahmen, die viel Geld kosten oder gar strukturell Geschäftsmodelle angreifen, ist mit Widerstand zu rechnen. Welche Social-Media-Plattform wird schon bereitwillig auf Anreizsysteme verzichten, die Nutzer*innen immer wieder zurück in die App locken?

Viele Konflikte dürften sich erst vor Gericht klären lassen. Das zeigt schon die jüngste Geschichte des DSA. So sind selbst die in der EU meist besuchten Pornoseiten weit davon entfernt, Ausweiskontrollen für alle Nutzer*innen einzuführen – obwohl sie seit Jahren besonders im Fokus stehen. Vielmehr sind die Pornoanbieter noch damit beschäftigt, sich gegen ihre Einstufung als „sehr große Plattformen“ zu wehren.

Die Kommission möchte ihre fertigen Leitlinien direkt nach der noch laufenden öffentlichen Konsultation präsentieren, also schon im Sommer 2025. In Stein gemeißelt sind sie dann aber nicht. Sobald es erforderlich ist, will die Kommission die Leitlinien überprüfen – je nachdem, wie sie sich in der Praxis schlagen und welche technologischen, politischen und gesellschaftlichen Entwicklungen es gebe.

An zumindest einer Stelle weisen die Leitlinien über den Jugendmedienschutz hinaus. So schreibt die EU-Kommission, dass sie Anbieter von Online-Plattformen dazu „ermutigt“, die Maßnahmen zum Schutz aller Nutzer*innen anzuwenden, nicht nur für Minderjährige. Gerade beim Blick auf Datenschutz und Privatsphäre findet das Anklang bei Hannah Lichtenthäler von Superrr: „Profile von allen Menschen sollten auf privat eingestellt sein“, schreibt sie.

6 Ergänzungen

  1. ich finde der Staat sollte für Kinder ein VPN/Proxy und DNS Anbieten bei dem Porn halt ausgefiltert wird. Das können die Eltern dann installieren und gut ist. Wäre technisch einfach und der Rest dann Eigenverantwortung der Familien. Der Staat muss ja schließlich auch nicht alles regeln !

    1. Der Staat hat sich aus dem Internet rauszuhalten. Das ist exterritorialer Raum. Den Staat geht höchstens das etwas an, was innerhalb der eigenen Grenzen gehostet wird. – Was wir brauchen, ist eine gemeinnützige Organisation, meinetwegen auch mit staatlicher Förderung, die kindgerechte statische Seiten sammelt, prüft, mit einer Altersfreigabe versieht und hasht. Diese Whitelist können Eltern dann als Basis nehmen um Filter auf den Geräten ihrer Kinder zu installieren.

      1. @Karl

        Naja, Tendenz Jugenschutzkonzept: ja, exterritorialer Raum: nein.

        Kommerzielle Akteure müssen eingehegt werden. Auf welchem Terrirorium und wie oder was… neue Fragen, neue Fragen!

  2. „Verarbeitet werden sollten alleine Datenpunkte, die sich auf das Alter beziehen und keine weiteren Daten, mit denen man Personen tracken könnte.“
    Jaaaa, klar. Und das sollen wir allen Ernstes glauben, wenn die gleiche Kommission ständig irgendwelche anderen Überwachungsträume formuliert und mit solchen Sachen, wie der Going-Dark-Initiative oder der Chatkontrolle die Grundpfeiler digitaler Sicherheit untergraben und alle unter Generalverdacht stellen will?
    Wenn die Kommission nur Pseudonymisierung und keine Anonymisierung vorsieht, ist diese Aussage absolut nichts wert.

    Zudem: „Also kein unendliches Scrollen in einem Feed; keine Likes, Kommentare oder Reposts von fremden Kontakten; “
    Am Anfang ist auf einer Social Media Plattform doch jeder ein „fremder Kontakt“. Die „Beziehung“ zu anderen (wie z.B. bei Meta die Freundschaftsanfragen mit anschließender Bestätigung) stellt doch der Nutzer selber her.
    Was also soll das bringen? Weil, ich nehme mal an, von selbst jemanden in die Freundesliste aufnehmen sollen sie dann wohl auch nicht können (sonst könnte man zumindest die Reposts von fremden Kontakten relativ einfach umgehen)

    Klingt insgesamt wie ein ähnlich undurchdachter Plan, wie die immer wieder aufkeimende Idee der Pornofiltern in Betriebssystemen.

  3. Man kann nur immer wieder vor den Vorhaben der EU warnen. Die Erfahrungen der letzten Jahre lehren, dass Methoden, Infrastrukturen und Praktiken, die sich zur Überwachung eignen, in den allermeisten Fällen auch genau dafür genutzt und vielleicht zu Anfang eingeführte Begrenzungen mit der Zeit aufgeweicht bis gänzlich abgeschafft werden. Gesetze können geändert/angepasst werden (auch die DSGVO etc.) und Versprechungen/Bekundungen von Regierungsseiten ist ohnehin nicht zu trauen, wie z.B. der Fall der Steuernummer und jetzt Personenkennziffer in Deutschland zeigt.

    Da die EU und ihre Mitgliedsstaaten in vielen Bereichen den großen überwachungskapitalistischen Umbau planen, bei dem die Daten der Menschen aus Wirtschaftsinteressen maximal ausgebeutet werden sollen und zu autoritären Kontrollzwecken eingesetzt werden können, während Grundrechte für sie dabei sekundär bis „gestrig“ sind, sind aus freiheitsrechtlicher und demokratiepolitischer Sicht, Alterskontrollen, eIDAS und viele weitere digitalpolitische Vorhaben und Infrastrukturen der EU als „Dystopie auf Abruf“ kompromisslos abzulehnen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.