CSAM-VerordnungChatkontrolle verletzt sexuelle Selbstbestimmung von Jugendlichen

Die geplante CSAM-Verordnung soll sexualisierte Gewalt gegen Minderjährige im Netz bekämpfen. Doch die EU-Kommission hat sich unzureichend mit der sexuellen Selbstbestimmung von Jugendlichen befasst. Sie sollte einvernehmliches Sexting von Jugendlichen besser schützen, fordert Sabine K. Witting von der Universität Leiden in ihrem Gastbeitrag.

Abstraktes Gemälde, Teenager*innen am Smartphone
Smartphones von Jugendlichen im Visier von Ermittlungsbehörden (Symbolbild) – Linke Hälfte: DALL-E-2; rechte Hälfte: StableDiffusion („teeangers using smartphone, abstract painting“)

Dieser Text verwendet neben dem Begriff „sexualisierte Gewalt“ auch die Begriffe „Darstellung von sexuellem Kindesmissbrauch“ und „kinderpornografisch/jugendpornografisch“. Letztere werden dann verwendet, wenn sie so in den relevanten juristischen Texten vorkommen.

Die CSAM-Verordnung, vereinfacht auch als „Chatkontrolle“ bezeichnet, soll sexualisierte Gewalt gegen Kinder und Jugendliche im Netz bekämpfen. Alle Interessenvertreter:innen sind sich grundsätzlich einig, dass Plattformen gegenwärtig zu wenig tun, um sexualisierte Gewalt gegen Kinder und Jugendliche im digitalen Bereich zu verhindern. Allerdings gehen die Meinungen stark auseinander, ob die CSAM-Verordnung dieses komplexe Problem grundrechtskonform löst.

Dr. Sabine K. Witting ist Assistenzprofessorin für Recht und Digitale Technologien an der Universität Leiden und forscht zu Kinder- und Menschenrechten im digitalen Raum. In ihrem kürzlich erschienenen Buch beschäftigt sie sich unter anderem mit der Frage, wie Kinder effektiv vor sexualisierter Gewalt im Online-Bereich geschützt werden können, ohne dass andere Kinder- und Menschenrechte, vor allem die Privatsphäre, verletzt werden.

Zur Erinnerung, die CSAM-Verordnung sieht vor, dass Online-Anbieter, genauer gesagt Anbieter von Hostingdiensten und Anbieter interpersoneller Kommunikationsdienste, auf Anordnung verpflichtet werden können, Inhalte auf möglichen sexuellen Kindesmissbrauch zu scannen, an Ermittlungsbehörden weiterzuleiten und illegale Inhalte zu entfernen oder blockieren.

Während seit Monaten die Auswirkungen der CSAM-Verordnung auf das Recht auf Privatsphäre, das Recht auf Datenschutz und die Meinungsfreiheit diskutiert werden, wird ein wichtiger Aspekt der CSAM-Verordnung außer Acht gelassen: ihre Auswirkungen auf die sexuelle Selbstbestimmung von Jugendlichen.

Einvernehmliches Sexting schadet Jugendlichen grundsätzlich nicht

Sexualität, Identität, Intimität und zwischenmenschliche Beziehungen sind von großem Interesse für Kinder und Jugendliche. Während diese Themen traditionell im Offline-Bereich erkundet wurden, hat das Internet einen zunehmend wichtigen Raum für diese Erfahrungen geschaffen. Das sexuelle Ausprobieren im digitalen Bereich wird oft mit dem Schirmbegriff „Sexting“ beschrieben, ein Schachtelwort der englischen Begriffe „sex“ und „texting“. Der Begriff umfasst allgemein das Verfassen, Verschicken und Speichern von Fotos, Videos oder Nachrichten mit sexuellem Inhalt.

Jugendliche tun dies aus verschiedenen Gründen. Beispielsweise versuchen sie, mehr über ihre Identität oder sexuelle Orientierung herauszufinden und nehmen daher einvernehmlich, oft mit der momentanen Beziehungsperson, am Sexting teil. Es ist wichtig klarzustellen, dass solch einvernehmliches Sexting an sich nicht schädlich ist, sondern – wie auch der UN-Ausschuss für die Rechte des Kindes und der Europarat anerkennen – für viele Jugendliche ein natürlicher Ausdruck ihrer Sexualität ist.

Wörtlich schreibt der UN-Ausschusses für die Rechte des Kindes in seiner 25. Bemerkung: „Von Kindern selbst erstelltes Material mit sexuellem Inhalt, das sie besitzen oder freiwillig teilen und das ausschließlich für ihren eigenen privaten Gebrauch bestimmt ist, soll nicht kriminalisiert werden.“

Von Zwang und Einvernehmlichkeit

Dennoch birgt das zunächst einvernehmliche Sexting das Risiko, dass das Material gegen den Willen eines der Teilnehmenden verbreitet wird. Zudem fühlen sich Jugendliche möglicherweise von Gleichaltrigen oder der momentanen Beziehungsperson unter Druck gesetzt, beim Sexting mitzumachen. In einigen Fällen kann Sexting auch das Resultat von Cybergrooming sein, also das Anbahnen von Kontakten zu Kindern über das Internet zur Vorbereitung von sexuellem Missbrauch. Sexting kann somit einerseits das Resultat einer altersüblichen Beziehung sein – oder auf der anderen Seite das Ergebnis von Gruppenzwang oder einer Straftat wie Cybergrooming.

Juristisch gesehen ist es äußerst schwierig, dass Sexting sowohl einvernehmlich als auch unter Zwang stattfindet. Denn in den meisten Rechtsverordnungen wird Sexting, egal ob es einvernehmlich stattfindet oder nicht, als Verbreitung von kinder- oder jugendpornografischen Inhalten eingestuft, sofern die abgebildete Person unter 18 Jahren alt ist.

Das wirft die Frage auf, ob diese Regelung rechtspolitisch sinnvoll ist, schließlich dürfen Jugendliche unter 18 Jahren ab einem gewissen Alter grundsätzlich auch legal Sex miteinander haben. Der Grund für die unterschiedliche rechtliche Bewertung liegt darin, dass es in den meisten Rechtsverordnungen nicht auf die Umstände ankommt, unter denen das Material hergestellt wurde. Es kommt stattdessen allein darauf an, was objektiv dargestellt wird: nämlich sexuelle Aktivität oder Nacktbilder von Jugendlichen unter 18 Jahren. Das bedeutet, dass sich Jugendliche in vielen Rechtsverordnungen strafbar machen können, selbst wenn sie das Material einvernehmlich herstellen und besitzen.

Technologie kann einvernehmliches Sexting nicht erkennen

Wie netzpolitik.org bereits berichtet hat, sollen Online-Anbieter laut CSAM-Verordnung auf Anordnung aktiv nach illegalen Inhalten wie bekannten oder unbekannten Darstellungen sexuellen Kindesmissbrauchs suchen. Die Online-Anbieter müssen dafür verschiedene Technologien einsetzen, die mit unterschiedlicher Wirksamkeit und Eingriffsintensität (potenziell) illegale Inhalte erkennen sollen.

Im Zusammenhang mit Sexting sind vor allem Technologien relevant, die unbekannte Darstellungen sexuellen Kindesmissbrauchs identifizieren. Das ist Material, das bisher nicht bei Strafverfolgungsbehörden als illegales Material bekannt ist und daher nicht dementsprechend kategorisiert wurde. Denn damit einvernehmliches Sexting als bekannte Darstellung sexuellen Kindesmissbrauchs qualifiziert würde, müsste das einvernehmliche Sexting-Material zunächst (fälschlicherweise) in eine Hash-Datenbank aufgenommen worden sein. Das ist unwahrscheinlich, denn normalerweise wird Material, das in eine Hash-Datenbank aufgenommen wird, entweder von Nutzer:innen gemeldet (was bei einvernehmlichem Sexting nicht der Fall wäre), bei Polizei-Einsätzen auf Hardware oder in der Cloud entdeckt, oder im Open Web oder Dark Web gesichtet.

Das Raunen vom millionenfachen Missbrauch

Die Technologien zum Erkennen von unbekannten Darstellungen sexuellen Kindesmissbrauchs basieren auf automatischer Bilderkennung. Sie werden mit großen Mengen an bekannten Darstellungen sexuellen Kindesmissbrauchs konfrontiert und darauf trainiert, bestimmte visuelle Gemeinsamkeiten und Charakteristiken in dem Trainingsmaterial zu erkennen. Nach einiger Zeit sollen diese Technologien dann bei neuen Inhalten erkennen können, ob es typische Kriterien des Trainingsmaterials aufweist.

Genau hier liegt aber das Problem: Wir erinnern uns, dass einvernehmliches Sexting und Darstellungen sexuellen Kindesmissbrauchs objektiv gesehen die gleichen Charakteristiken aufweisen. Beide stellen sexuelle Aktivitäten oder Nacktbilder von Jugendlichen dar. Der einzige Unterschied ist, dass das eine Material einvernehmlich, das andere ohne wirksames Einvernehmen (zum Beispiel durch Druck oder Zwang) hergestellt wurde. Allerdings können die eingesetzten Technologien Einvernehmlichkeit nicht erkennen. Die Technologie kann Material nur visuell beurteilen, nicht nach den Umständen, unter denen es hergestellt wurde.

Dies hat zur Folge, dass die Technologien einvernehmliches Sexting zwischen Jugendlichen mit hoher Wahrscheinlichkeit als potenziell illegale Darstellungen sexuellen Kindesmissbrauchs bewerten und diese zur weiteren Überprüfung an die Content Moderator:innen des Online-Anbieters weitergeleitet werden.

Der Weg zu nationalen Strafverfolgungsbehörden

Sofern man mit der Auffassung übereinstimmt, dass einvernehmliches Sexting-Material nichts bei den Strafverfolgungsbehörden verloren hat, könnte man jetzt argumentieren, dass doch schließlich die Plattformen selbst, oder spätestens das neu zu erschaffende EU-Zentrum zur Bekämpfung des sexuellen Missbrauchs von Kindern, solches einvernehmliches Material frühestmöglich herausfiltern sollten, damit es erst gar nicht an die nationalen Strafverfolgungsbehörden gelangt.

Zur Erinnerung, die CSAM-Verordnung sieht vor, dass die Online-Anbieter zunächst potenziell illegales Material aufdecken und bewerten, und dann einen entsprechenden Bericht an das EU-Zentrum weiterleiten. Falls der Bericht der Plattform nach Ansicht des EU-Zentrums nicht offensichtlich unbegründet ist, wird der Bericht an die nationalen Strafverfolgungsbehörden zur weiteren Untersuchung weitergeleitet.

Beginnen wir mit der Plattform, die das verdächtige Material als Erstes sichtet. Wie oben beschrieben, kann die Technologie nicht erkennen, ob das Material einvernehmlich hergestellt wurde. Selbst Content Moderator:innen, die zur Bewertung potenziell illegalen Materials herangezogen werden, können solch eine Unterscheidung nicht treffen. Denn dafür bräuchten sie Informationen über den Kontext des Materials, die sie nicht haben, wie zum Beispiel Informationen über die Beziehung der involvierten Jugendlichen.

Denn die CSAM-Verordnung sieht vor, dass die Technologien so gestaltet werden müssen, dass aus der einschlägigen Kommunikation nur die Informationen extrahiert werden, die unbedingt notwendig sind, um Muster zu erkennen, die auf die Verbreitung von unbekannten Darstellungen sexuellen Kindesmissbrauchs hindeuten. Dies bedeutet, dass die Technologie nur das Bild an sich extrahieren darf. Für das Sammeln und Analysieren jeglicher weiterer Kommunikationsdaten fehlt die Rechtsgrundlage.

Studie zerlegt Pläne der EU-Kommission

Zudem würden selbst weitere Kommunikationsdaten nicht zwangsläufig ausreichen, um Einvernehmlichkeit eindeutig zu erkennen. Denn oftmals fehlt schlichtweg der notwendige Kontext im Chatlog, weshalb ein Gespräch mit den betroffenen Personen unabdingbar ist. Zudem ist die Beurteilung von Einvernehmlichkeit keine einfache Aufgabe. Denn nur weil die Kommunikation, in die das Bild eingebettet ist, nach Einvernehmen klingt, heißt es noch lange nicht, dass das Bild auch einvernehmlich und nicht aufgrund einer Zwangslage entstanden ist. Überdies ist natürlich völlig klar, dass solch ein endloses Sammeln und Analysieren von weiteren Kommunikationsdaten unverhältnismäßig in die Privatsphäre von Jugendlichen eingreifen würde.

Das einvernehmliche Sexting-Material wird also von dem Online-Anbieter als potenziell illegales Material an das neu zu erschaffende EU-Zentrum weitergeleitet. Nun läge das Argument nahe, dass doch das EU-Zentrum dafür sorgen könnte, dieses Material auszusortieren, quasi als Torhüterin zwischen Online-Anbietern und Strafverfolgungsbehörden. Dazu muss man zunächst sagen, dass das EU-Zentrum genauso wie die Online-Anbieter keinerlei Hinweise auf die Umstände hat, unter denen das Material entstanden ist und daher einvernehmliches Material nicht erkennen kann.

Zusätzlich zu diesem praktischen Gesichtspunkt fehlt es dem EU-Zentrum auch an einer juristischen Grundlage, einvernehmliches Sexting-Material auszusortieren. Denn die rechtliche Grundlage, nach der das EU-Zentrum bewertet, welches Material illegal ist, ist die Richtlinie 2011/93/EU zur „Bekämpfung des sexuellen Missbrauchs“ . Und diese wiederum sieht keine Ausnahmeregelung für einvernehmliches Sexting vor, sondern bewertet jegliches Material, das Nacktbilder oder sexuelle Aktivität mit Jugendlichen abbildet, als kinderpornografisch und daher illegal. Selbst wenn also das EU-Zentrum einvernehmliches Sexting erkennen könnte, wäre es rechtlich verpflichtet, das Material als kinderpornografisch zu werten und an nationale Strafverfolgungsbehörden weiterzuleiten.

Gravierende Folgen für Jugendliche

Wenn das EU-Zentrum das einvernehmliche Sexting-Material an nationale Strafverfolgungsbehörden weiterleitet, kommt es für deren rechtliche Bewertung auf das nationale Strafrecht des jeweiligen EU-Mitgliedstaates an. Hierzu gibt es leider keine genauen Daten. Nur wenige EU-Mitgliedstaaten – Dänemark, Österreich, Zypern, Deutschland, Finnland und Kroatien  – haben bestimmte einvernehmliche sexuelle Online-Aktivitäten unter Jugendlichen entkriminalisiert.

Weitere Untersuchungen zeigen jedoch, dass einige EU-Mitgliedstaaten entschieden haben, solche Aktivitäten nicht zu entkriminalisieren, sie jedoch einfach strafrechtlich nicht zu verfolgen. Gleichzeitig stellt eine beträchtliche Anzahl von EU-Mitgliedstaaten einvernehmliches Sexting entweder offen unter Strafe oder hat keine klare rechtliche Position dazu. Es besteht daher ein hohes Risiko, dass Jugendliche für ein solches Verhalten strafrechtlich belangt werden können.

Selbst wenn die nationalen Strafverfolgungsbehörden nach anfänglichen Ermittlungen zu dem Ergebnis kommen, den Fall nicht strafrechtlich zu verfolgen, da es sich um einvernehmliches Sexting handelt, können die Folgen für die betroffenen Jugendlichen gravierend sein.

Im Zuge der Ermittlungen würden die Erziehungsberechtigten notgedrungen von der sexuellen Aktivität der Jugendlichen erfahren. Dies kann in einigen Familien zu Konflikten und Bestrafungen führen, vor allem wenn Sexualität in der Familie ein Tabuthema ist. Besonders schwerwiegend wiegt das in Fällen von LGBTIQ-Jugendlichen. Denn für sie kann ein solches Ermittlungsverfahren ein erzwungenes Outing darstellen, das zu Stigmatisierung, Diskriminierung, Gewalt und – in manchen EU-Mitgliedstaaten – zur politischen Verfolgung führen kann. Die CSAM-Verordnung, deren Ziel der Schutz von Opfern sexualisierter Gewalt ist, könnte also an anderer Stelle einschneidende Folgen für Jugendliche und deren Rechte haben.

EU-Kommission scheint Problem zu ignorieren

Wie kann man nun diesen unerwünschten Nebeneffekt in der CSAM-Verordnung beseitigen? Betrachtet man die Haltung der EU-Kommission zu diesem Thema, entsteht der Eindruck, dass sie einfach so tut, als gäbe es das Problem gar nicht. In dem Bericht der EU-Kommission zur Folgenabschätzung der CSAM-Verordnung  geht diese nämlich davon aus, dass selbst Material, das anfangs einvernehmlich geteilt wurde, am Ende sowieso irgendwann ohne Einvernehmen der oder des abgebildeten Jugendlichen weitergeleitet werde. Damit umschifft die EU-Kommission die Frage, was denn mit Material passieren soll, dass ausschließlich einvernehmlich hergestellt und geteilt wird. Dieser Punkt wird auch in der kürzlich veröffentlichten Studie des Wissenschaftlichen Dienstes im EU-Parlament zur CSAM-Verordnung kritisch beleuchtet.

Zudem muss ein weiterer Aspekt aus einer Kinder- und Jugendrechtsperspektive dringend beachtet werden. Es ist klar, dass die CSAM-Verordnung stark in das Recht auf die Vertraulichkeit der Kommunikation, und damit in das Recht auf Privatsphäre, eingreift. Besonders schwerwiegend sind allerdings Jugendliche in ihrem Recht auf Privatsphäre betroffen: Denn für sie bedeutet die CSAM-Verordnung überdies einen Eingriff in die Intimsphäre, da wie oben dargestellt Erkennungstechnologien mit hoher Wahrscheinlichkeit die sexuelle Aktivität der Jugendlichen als mögliche Straftat einstufen und an das EU-Zentrum und nationale Strafverfolgungsbehörden melden werden.
Dies hat in sich noch einmal einen zusätzlichen Eingriffsgehalt in das Recht auf Privatsphäre, der von der EU-Kommission in ihrer Verhältnismäßigkeitsprüfung völlig außer Acht gelassen wird.

Einzige Lösung: Keine Suche nach unbekanntem Material

Man kann also festhalten, dass die CSAM-Verordnung die Rechte von betroffenen Jugendlichen gravierend verletzt, insbesondere im Bereich der Intimsphäre und damit in einem der am stärksten geschützten Bereiche des Rechts auf Privatsphäre. Der einzige Weg, dies zu verhindern, würde eine einschneidende Änderung der CSAM-Verordnung bedeuten: nämlich Anordnungen zur Aufdeckung von unbekanntem Missbrauchsmaterial gänzlich aus dem Verordnungsentwurf zu streichen. Nur dann könnte man einvernehmliches Sexting sicher aus dem Wirkungsbereich der CSAM-Verordnung herausnehmen.

Stattdessen könnte die CSAM-Verordnung rechtliche Standards für Plattformen zur Vorbeugung und Bekämpfung von Missbrauch schaffen. Dies könnte beispielsweise Standards für die Aufklärung von Jugendlichen über die Risiken von Sexting beinhalten oder Standards für die Gestaltung von Meldemechanismen, sodass sie für Jugendliche zugänglich und vertrauenswürdig sind. Und wie bei allen Themen rund um Sexualität und Risiken im digitalen Bereich gilt: Umfassende Bildung und Aufklärung von und durch Erziehungsberechtigte, Schulen und staatliche Stellen zu Sexualität und Digitales muss eine Priorität für alle EU-Mitgliedstaaten werden.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

6 Ergänzungen

  1. Ich frage mich, warum hier keine Opt-In oder Opt-Out-Lösung für die Jugendlichen angeboten werden kann. Ein Schalter „ich möchte nicht geschützt werden und verzichte auf jegliche Scans auf eigenes Risiko“ sollte ja jetzt nicht zu schwer implementierbar sein…
    Aber hey, mit Freiwilligkeit haben es unsere Sittenwächter offenbar nicht so.

    1. Weil die Jugendlichen damit dem Provider quasi direkt mitteilen würden, dass sie Sexting betreiben.
      Etwas ähnliches gab (oder gibt es noch?) in UK. Da waren von seitens des Accessproviders grundsätzlich die Pornfilter scharfgestellt. Wer ohne VPNs/Tor sich die Speckseiten ankucken wollte, musste unter ID-Vorlage den Opt-Out wählen. Damit entstand de facto eine Pornonutzer-Datenbank bei den Behörden.

  2. Dann sollte man das auch mal gezielt an die Jugendlichen Kommunizieren damit die mal Widerstand dagegen leisten das man ihnen Freiheit und Datenschutz nehmen will !

  3. Warum hat keiner die Möglichkeit ins Spiel gebracht, zu prüfende Besipiele durch die Eltern sichten zu lassen??

    Ach ja:
    1. Kinder müssten als solche von ihren Eltern registriert sein. Fast so wie wenn man Jugendschutzsoftware installiert hätte. Dafür brauchen die Eltern einen Personalausweis, und wir einen Prozess.
    2. Das wäre eine grobe Verletzung der Privatsphäre der Kinder, die Eltern die pikantesten Beispiele sichten zu lassen.

    Ach nee.
    1. Nur total anonymisiert geht das mit der Privatsphäre, deswegen übernehmen Algorithmen und anonyme Beispielprüfer die Sichtung, während die Strafverfolgung sicherlich ohne Ansehen der Sache durchgeführt würde.
    2. Kriminalisiert, äh, geht das auch nur total so anonymisiert.

    Oh und es ist toll für Big Tech. So viele Bilder zum Testen und Einstellen der Systeme. am Besten noch mit Verbesserung der Servicequalität durch Vertrag mit den staatlich beazhlten Beispielprüfern, wer weiß. Und es ist ja auch nicht freiwillig, wie der Algorithmus funktioniert, denn freiwillig parallel zu verbindlich ginge ja gar nicht, oder? Also bis auf den Quellcode, der ist natürlich, also eigentlich auch die Funktion, freiwillig von den Unternehmen gestellt, denn das können wir ja gar nicht.

    Nee. Das geht gar nicht. Von Anfang an nicht, und jetzt immer noch nicht. Beides ist unsägliche Resourcenverschwendung für einen Schönheitswettbewerb mit Kannibalismustouch.

  4. Es besteht eine Aufsichtspflicht (Rechtsbegriff §832BGB). Eines der vielen Probleme bei gegenseitig stattfindender Sexualität ist: Konsens (gegenseitiges Einverständnis) ist, wie Daten volatil (flüchtig). D.h. eine Gential- oder Intimabbildung, -handlung oder -nachricht (keine Rechtsbegriffe) kann über einen beliebigen Zeitraum ein Ausdruck von Zuneigung, sexuellem Interesse, Handlung, verbale oder sexuelle Gewalt, Hass, eine Verletzung des Rechts auf informationelle Selbstbestimmung, des eigenen Bildes, eine Urheberrechtsverletzung o.ä. Lizenzvereibarung und/oder die Verbreitung pornografischen Materials sein (unvollständig, StPO, Datenschutz und Telemedien fehlen). Menschen die sich als LBGTQI+ identifzieren zu differenzieren halte ich für verfehlt. Adoleszenz und Sexualität (inkl. Abwesenheit von Sexualität bei asexuellen Menschen) und Missbrauch betreffen alle Menschen. Dazu kommt, sog. „Messenger“ sind mittlerweile komplexe „Soziale Plattformen“ und nicht mehr nur private Kommunikationswerkzeuge. D.h. je nach Betrachtung gelten Brief- und Fernmeldegheimnis (Rechtsbegriff Artikel 10 GG uvam.) nicht oder nur eingeschränkt. D.h. Ende-zu-Ende (E2E) Verschlüsselung bietet wesentlich zuverlässige Merkmale was Korrespondenz (Rechtsbegriff) und schutzbedürftig (Rechtsbegriff) ist als bisherige Definitionen et al. D.h. E2E ist die Vorraussetzung für, und Kennzeichen schutzbedürftiger Kommunikation und die sog. Chatkontrolle eine anlasslose Vorratsdatenspeicherung und -auswertung auf dem Endgerät oder wie die Kollegen es 2022 formulierten: »(…) justification has swung from child protection in the 1990s to terrorism after 9/11 and back to child protection.« Vieles was Sabine beschreibt fällt unter „Prävention“ (durch Aufsichtspflicht, Schulpflicht usw.) und Missbrauch lässt sich nicht „bekämpfen“ nur verhindern, schutzbedürftige Menschen als Vorwand für Eingriffe in Bürger- und Menschenrechte sind Missbrauch – qed.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.