Erhitzte DebatteKinderschützer*innen wollen Streit um Chatkontrolle beilegen

Nein, Datenschutz und Kinderschutz sind kein Gegensatz. Das zeigt das Internationale Netzwerk für Kinderrechte auf gut 100 Seiten voller Argumente. Die Analyse kann die Debatte um Europas härtestes Überwachungsvorhaben auf ein neues Niveau bringen.

Farbenfrohe, abstrakte Zeichnung einer jungen Person mit Smartphone
Auch Kinder haben ein Recht auf Privatsphäre (Symbolbild) – Linke Hälfte: StableDiffusion (happy teenager using smartphone); rechte Hälfte: DALL-E-2 (art)

Mehr Überwachung für mehr Kinderschutz, das ist der Kern von gleich drei Gesetzesvorhaben in der EU, Großbritannien und den USA. Die unterschiedlichen Regulierungen haben eine Gemeinsamkeit: Nutzer*innen sollen auf Privatsphäre im Netz verzichten, damit Hinweise auf sexualisierte Gewalt gegen Minderjährige besser auffindbar sind. Expert*innen für Datenschutz und Menschenrechte lehnen das vehement ab.

Nun hat das in London ansässige Internationale Netzwerk für Kinderrechte (Child Rights International Network, kurz: CRIN) eine ausführliche Analyse vorgelegt, gemeinsam mit der britischen Kinderschutz-Organisation Defend Digital Me. Aus dem gut 100 Seiten starken Bericht der Kinderschützer*innen geht hervor: Die Streitparteien haben einen Tunnelblick – und für das vielschichtige Problem braucht es vielschichtige Lösungen.

„Hinter der Polarisierung verbirgt sich eine komplexere Wahrheit“, heißt es in dem englischsprachigen Bericht. „Wir müssen das Framing von Privatsphäre versus Kinderschutz hinter uns lassen, um die Rechte aller Kinder zu schützen“.

Für die Analyse haben die Kinderschützer*innen Literatur gewälzt und Interviews geführt, sowohl mit Betroffenen sexualisierter Gewalt gegen Kinder als auch mit Expert*innen aus den Bereichen Kinderschutz, Datenschutz, Technologie und Grundrechte. Zu den Interviewten gehören etwa Vertreter*innen der britischen Kinderschutz-Organisation Internet Watch Foundation, des Facebook-Mutterkonzerns Meta oder der EFF (Eletronic Frontier Foundation), einer US-amerikanischen Organisation für digitale Grundrechte.

Wenn Fachleute nicht mehr miteinander sprechen

Während in den USA und Großbritannien ähnliche Gesetze in Planung sind, dominiert im deutschsprachigen Raum die Debatte um die sogenannte Chatkontrolle. Das ist eine von der EU-Kommission vorgeschlagene Verordnung zur „Bekämpfung des sexuellen Missbrauchs von Kindern“. Zu diesem Zweck sollen Online-Anbieter auf Anordnung sogar private Chat-Nachrichten durchleuchten dürfen. Die Kritik daran könnte kaum schärfer sein und kommt nicht nur aus der Zivilgesellschaft, sondern auch von der EU-eigenen Datenschutz-Aufsicht.

Im Interview mit CRIN beschreiben Fachleute die Debatte als „feindselig“ und „toxisch“. Aus dem Bericht von CRIN geht hervor: Die aufgeheizte und polarisierte Debatte berge die Gefahr, dass Menschen aus den einschlägigen Fachbereichen nicht mehr miteinander sprechen – aber genau das sei notwendig, um sexualisierte Gewalt gegen Kinder sinnvoll zu bekämpfen.

Wie die EU-Kommission beim Kinderschutz versagt

Ausführlich diskutiert der Bericht die möglichen Werkzeuge, um sexualisierte Gewalt gegen Kinder auf technischem Weg einzudämmen. Dabei dröseln die Kinder*schützerinnen auf, welche Vor- und Nachteile Maßnahmen für Minderjährige hätten. Das Ergebnis ist eine außerordentlich lesenswerte und umfassende Sammlung von Argumenten. Aus der Analyse geht hervor: Die Chatkontrolle, wie sie etwa die EU-Kommission vorschlägt, ist eher etwas für den Papierkorb. Vielmehr empfehlen die Kinderschützer*innen einen Mix aus anderen Maßnahmen.

Wie Verschlüsselung Kinder schützt

Zuerst räumt die Analyse mit dem Mythos auf, dass Kinder ohne sichere Verschlüsselung besser dran wären – etwa, weil Anbieter dann automatisch Chats nach Hinweisen auf sexualisierte Gewalt durchsuchen können. In einem solchen Szenario müssten Kinder davon ausgehen, dass ihre digitale Kommunikation jederzeit überwacht und ihre Privatsphäre verletzt werden kann.

„Privatsphäre ermöglicht es Kindern, ihre Persönlichkeit sicher zu entwickeln und herauszufinden, wer sie sind“, heißt es in dem Bericht. Überwachte Kinder hätten das Gefühl, dass sie sich nicht wirklich frei und unabhängig ausdrücken könnten, und das könne ihre Entwicklung beeinträchtigen. „Die Gewissheit, nicht ständig überwacht zu werden, hilft Kindern, Vertrauen zu Eltern, Lehrer*innen oder anderen Bezugspersonen aufzubauen“, heißt es weiter. Das erhöhe die Wahrscheinlichkeit, dass Kinder um Hilfe bitten, wenn sie welche brauchen.

Anhand von fiktiven Beispielen macht der Bericht anschaulich, wie die Durchleuchtung von Chat-Nachrichten sogar Minderjährigen schaden kann. Eines der Beispiele handelt von „Alex“ mit den Pronomen they/them.

Alex ist 12 und kommt aus einer sehr konservativen Familie. Alex wurde bei der Geburt ein weibliches Geschlecht zugewiesen. Seit einiger Zeit zweifelt Alex jedoch an deren Geschlechtsidentität. Alex ist besorgt über die Veränderungen, die deren Körper durchmacht, und erkundet Möglichkeiten, den eigenen Körper weniger weiblich erscheinen zu lassen. Eines Tages, als Alex‘ Eltern nicht zu Hause sind, bindet sich Alex die Brüste ab und schickt ein Foto davon an eine befreundete Person, der Alex vertraut. Das Telefon stuft den Inhalt als sexuell explizit ein. Alex‘ Eltern werden benachrichtigt und erhalten eine Kopie des Fotos.

Das Beispiel zeigt, wie eine automatische Kontrolle von Chat-Nachrichten nach hinten losgehen kann. Bei der von der EU-Kommission geplanten Chatkontrolle werden allerdings nicht direkt die Eltern benachrichtigt: Zunächst sollen Anbieter verdächtige Inhalte an ein EU-Zentrum melden. Dort sollen menschliche Sichter*innen offenkundige Falschmeldungen aussortieren – ein weiterer, potentieller Eingriff in die Intimsphäre von Minderjährigen. Danach sollen Verdachtsmeldungen an örtliche Behörden gelangen.

Die fatale Signalwirkung der Chatkontrolle

Nicht nur die EU und Großbritannien möchten gern in verschlüsselte Kommunikation eingreifen – auch andere Staaten beobachten die Gesetzgebungen. Die Debatte sei aber „anglo- und eurozentristisch“, heißt es im Bericht. Das bedeutet, sie fokussiert sich allein auf den englischsprachigen und europäischen Raum. Dabei könnten die Regulierungen weltweite Welleneffekte („ripple effects“) auslösen, warnt CRIN.

„Politische Entscheidungsträger*innen sollten diese Zusammenhänge verstehen“, heißt es im Bericht. Man müsse begreifen, dass sich Technologien zur automatischen Erkennung von digitalen Inhalten einfach umfunktionieren lassen – auch um eigentlich legale Inhalte zu erkennen. In anderen Worten: Sogenannte westliche Demokratien können mit ihren Gesetzen den Weg ebnen für schärfere Menschenrechtsverletzungen in anderen Teilen der Welt. Wie das konkret aussehen könnte, macht ein weiteres, fiktives Beispiel aus dem Bericht deutlich. In diesem Beispiel wird Chatkontrolle nicht zur Eindämmung sexualisierter Gewalt eingesetzt, sondern als Waffe gegen queere Menschen:

Amadou ist ein schwuler 17-Jähriger. In seinem Land ist Homosexualität illegal und stigmatisiert, und queere Menschen erleben regelmäßig Gewalt durch den Staat und die Öffentlichkeit. Amadou nutzt unverschlüsselte Messaging-Dienste, um sich mit anderen queeren Jugendlichen zu treffen und Informationen über sexuelle Bildung auszutauschen. Die Polizei fängt die Kommunikation ab, und Amadou wird verhaftet. Die Polizei nutzt dann Amadous Kontakte, um andere Jugendliche zu identifizieren und ins Visier zu nehmen.

Alternative Hilfsmittel

Ein mögliches, technisches Hilfsmittel für Kinder und Jugendliche sind Meldemechanismen, wie aus dem Bericht hervorgeht. So können sich Minderjährige wehren oder Hilfe anfordern, wenn sie belästigt werden oder verstörende Inhalte sehen. CRIN empfiehlt: „Es braucht kostenlose, wirksame und kinderfreundliche Beschwerdemechanismen“. Kinder sollen Inhalte vertraulich und sicher melden können und dagegen vorgehen können, auf Wunsch auch mit rechtlichen Mitteln.

Meldemechanismen ließen sich laut Bericht einfach umsetzen und würden Datenschutz und Privatsphäre nicht beeinträchtigen. Zwar gibt es bei vielen Online-Anbietern bereits solche Funktionen. Ein Problem ist aber wohl die Umsetzung: Häufig dauere es zu lang bis Anbieter überhaupt auf eine Meldung reagieren, manchmal gar mehrere Wochen, berichtet CRIN und bezieht sich auf Gespräche mit Fachleuten aus der Betroffenenhilfe.

Mit Technologie allein lässt sich das Problem der sexualisierten Gewalt gegen Kinder aber nicht lösen, wie der Bericht erklärt. „Hüten Sie sich vor Tech-Solutionismus“, schreiben die Kinderschützer*innen in ihren abschließenden Empfehlungen. Tech-Solutionismus beschreibt den Irrglauben, dass sich komplexe, gesellschaftliche Probleme mit Technologie beseitigen lassen. Oft äußert sich so ein Irrglaube in überhöhten Erwartungen, was moderne Rechenprogramme – sogenannte Künstliche Intelligenz – alles leisten können. Manches spricht dafür, dass etwa die EU-Kommission die Fähigkeiten von KI bei der Erkennung von Missbrauchsdarstellungen überschätzt.

Alle Anlaufstellen einbeziehen

Kinderschutz erfordere menschliches Vertrauen, Austausch von Wissen und stabile Infrastrukturen, schreiben die Kinderschützer*innen weiter. Dafür brauche es eine Zusammenspiel von Akteur*innen aus einem breiten Ökosystem. Konkret nennt der Bericht etwa Ermittlungsbehörden, Sozialarbeiter*innen, Betroffenenhilfe, Schulen und ärztliche Praxen. Aus einem Fachgespräch mit der britischen Kinderschutz-Organisation Marie Collins Foundation zitiert der Bericht:

Ob Sozialarbeiter*innen oder Lehrkräfte, wir alle lassen die Betroffenen im Stich. Und das liegt nicht daran, dass es uns der Willen fehlt, sondern es fehlen die Ressourcen.

„Der Schwerpunkt sollte auf Prävention und Aufklärung liegen“, fordert CRIN. Wer mit Betroffenen zu tun hat, solle im Umgang mit digitalen Beweismitteln geschult werden. Seelische und medizinische Hilfsangebote für Betroffen sollten Priorität haben. Wie sehr auch in Deutschland Jugendämter unter mangelnden Ressourcen leiden, zeigte im Dezember unser Interview mit einem Sozialarbeiter aus Berlin.

Hacken, Scannen, Spähen

In einfachen Sätzen erklären und bewerten die Kinderschützer*innen die wichtigsten Technologien, mit denen sich digital Hinweise auf Missbrauch und sexualisierte Gewalt sammeln lassen. Zum Beispiel können Anbieter unverschlüsselte Inhalte nach bereits bekannten Darstellungen von Missbrauch durchsuchen, die wohl bekannteste Technologie hierfür heißt PhotoDNA. Anbieter können auch nach Inhalten scannen, bevor Nutzer*innen sie verschlüsselt verschicken, das nennt sich Client-Side-Scanning. Der Staat kann Geräte zudem hacken und mit Überwachungssoftware infizieren, etwa mit dem Trojaner „Pegasus“.

„Mir ist zum Glück noch nie ein Kind gestorben“

Denkbar wäre auch, dass Ermittlungsbehörden als unsichtbare Nutzer*innen in einen verschlüsselten Chatraum eindringen und heimlich mitlesen; dafür müssten Anbieter allerdings ihre Software anpassen. Ein entsprechender Vorschlag des britischen Geheimdiensts GCHQ stieß im Jahr 2019 auf breite Ablehnung.

Nüchtern benennen die Kinderschützer*innen den Schaden, den solche Technologien anrichten können. So ist staatliches Hacken auf offene Sicherheitslücken angewiesen, die auch andere Akteur*innen ausnutzen können. Für das Client-Site-Scanning müsste man zwar nicht die Technologie von Ende-zu-Ende-Verschlüsselung abschaffen – es würde aber mit dem Grundgedanken brechen, dass die Inhalte von Kommunikation nicht angefasst werden sollen.

Aus den ausführlichen Abwägungen geht hervor: Keine der Methoden ist frei von gravierenden Nachteilen. Der CRIN-Bericht verurteilt allerdings nicht grundsätzlich jeden Eingriff in Verschlüsselung. Das unterscheidet die Kinderschützer*innen von vielen Akteur*innen der digitalen Zivilgesellschaft. Aus der Perspektive digitaler Grundrechte wäre jeder Eingriff in Ende-zu-Ende-verschlüsselte Kommunikation tabu. Der CRIN-Bericht dagegen formuliert viele Einschränkungen, ohne jedoch konkrete Eingriffe zu empfehlen. Würden Staaten die Einschränkungen beherzigen, dürfte das allerdings viele Überwachungsvorhaben hinfällig machen.

Gesetzgeber*innen sind am Zug

Zum Beispiel dürften Eingriffe in Verschlüsselung nicht pauschal sein, sondern nur gezielt, heißt es im CRIN-Bericht. Es brauche genaue Daten über das Ausmaß von Missbrauch im Netz und die Erkennungsraten automatischer Systeme. An dieser Stelle gibt es Defizite: Es kursieren enorm irreführende Zahlen, wie unser Bericht über die Statistiken des NCMEC zeigt, der weltweit renommierten Meldestelle für Missbrauch im Netz mit Sitz in den USA.

Eingriffe müssten außerdem auf die vielfältigen Lebenswelten von Kindern zugeschnitten sein, fordert CRIN. Sie sollten die politischen, wirtschaftlichen, sozialen und kulturellen Kontexte berücksichtigen, auch von Kindern aus benachteiligten und marginalisierten Gruppen. Das ist sehr allgemein formuliert, bezieht sich aber offenbar auf die Vielfalt möglicher Kollateralschäden: zum Beispiel, wenn eine queere Person wie „Alex“ Fotos von sich selbst an eine befreundete Person verschickt.

Weiter heißt es, politische Entscheidungsträger*innen sollten ein besseres Verständnis „von der Bandbreite realer Anwendungen in der digitalen Welt“ entwickeln. Hinter dieser blumigen Formulierung dürfte sich ein scharfer Vorwurf verstecken, und zwar: Viele Politiker*innen haben wohl das Internet nicht verstanden – und begreifen nicht, was ein Gesetz alles kaputt machen kann.

Das Raunen vom millionenfachen Missbrauch

Als Beispiel nennt der CRIN-Bericht, dass etwa digitale Kommunikation zu medizinischen Themen möglich bleiben muss. Gemeint ist damit wohl das Problem, dass eine automatische Bild-Erkennung nicht unterscheiden kann, ob jemand gerade Darstellungen von Missbrauch verschickt oder bloß Aufnahmen für die betreuende Ärzt*in. Diese Gefahr ist nicht nur theoretisch: In den USA hatte bereits ein Vater Ärger bekommen, weil er für den Kinderarzt den Genitalbereich seines Sohnes fotografiert hat – dabei ging es bloß um eine Hautkrankheit.

Der differenzierte Bericht von CRIN und „Defend Digital Me“ kommt zu einer Zeit, in der noch manches möglich ist. In der EU müssen nun Parlament und Ministerrat ihre Positionen zum Vorschlag der EU-Kommission erarbeiten. In den USA ist zwar aus dem viel kritisierten „EARN IT“-Act nichts geworden, inzwischen gibt es aber Kritik am anders gelagerten „Kids Online Safety Act“ (KOSA). In Großbritannien ist ein passendes Gesetzesvorhaben am weitesten fortgeschritten. Dort hat der „Online Safey Bill“ bereits die erste Kammer, das House of Commons, passiert, und das House of Lords erreicht.

3 Ergänzungen

  1. „Datenschutz und Kinderschutz sind kein Gegensatz“

    Zur Grundlaganfrage ein Zitat: „Gib Fremden nicht deine Adresse.“ („Auch nicht die von anderen Kindern.“)

  2. „Wir müssen das Framing von Privatsphäre versus Kinderschutz hinter uns lassen, um die Rechte aller Kinder zu schützen“.

    Genau so ist es! Ich habe selten so viele korrekte Bemerkungen zum Thema gehört.

    Zu bemerken ist aber, dass dieses Framing weder von den Informatikern noch ursprünglich von den Kinderschützern kommt. Immerhin sind Informatiker und Grundrechtsschützer auch Eltern. Wenn man Jugendämter und andere Kinderbeauftragte fragt, so kommen ganz andere primäre Ursachen für Not von Kindern als das Internet. Und selbst wenn, dann ist das ein soziales Problem, das wir selbst in der Hand haben und lösen müssen (und einige andere Bereiche, wie etwa Frauenrechte, Diskriminierung, Datenschutz usw. tangiert). Dabei ist z.B. kontraproduktiv, mit Netzsperren den Bürgern die Augen vor dem Bösen zu verschließen.

    Ursula von der Leyen selbst baute dieses Framing auf um Netzsperren durchzusetzen. Kinderschutz würde zum Vehikel die Grundrechte zur privaten Kommunikation aufzuweichen. Niemand der Hardliner, damals wie heute, dachte in erster Linie an die Kinder.

    Dinge wie Klarnamenpflicht, Medienstaatverträge u.A zum Glücksspiel, Chatkontrolle, Maßnahmen gegen p2p-Verschlüsselung (etwa der unsägliche DE-Mail-Versuch), Verschlüsselungsverbote wie in Frankreich, die Zensur von russischen Propagandaseiten (damit niemand die perfide Propaganda nachvollziehen kann), Urheberrechte, Terror und viele andere Dinge zielen darauf ab oder werden als Begründung missbraucht, das Netz und freie Kommunikation unter staatliche Kontrolle zu bringen.

    Die Politik fürchtet einfach Kontrollverlust. Liegt deshalb das Initiativrecht in der EU bei der Kommission?

    Dabei ist demokratisches Prinzip und Notwendigkeit, dass Bürger die Regierungen kontrollieren und nicht die Regierungen den Bürger.

  3. In Russland werden bereits diese Kinderporno Filter eingesetzt um Kritiker des Diktators Putin mundtot zu machen.

    Quelle:

    https://www.derstandard.de/story/2000143125086/russische-suchmaschine-setzt-eigenen-kinderpornofilter-gegen-putin-kritiker-ein

    Wir sehen also das sich auch Diktatoren und Tyrannen bei den Ideen bedienen die in der EU und anderen Staaten für den angeblichen Kinderschutz erdacht werden um damit dann diktatorische Vorhaben umzusetzen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.