Intime Fotos im NetzDas kann der neue Filter, der Jugendlichen helfen soll

Der neue Dienst „Take It Down“ soll verhindern, dass sich intime Aufnahmen von Minderjährigen im Netz verbreiten. Meta, Pornhub und OnlyFans machen mit. Das Vorhaben birgt Risiken, zeigt aber auch eine Alternative zur geplanten Massenüberwachung der EU-Kommission.

Eine Hand hält ein Smartphone; ein Screenshot des Dienstes "Take It Down"
Jedes technische Mittel gegen bildbasierte Gewalt ist begrenzt – Hintergrund: IMAGO / Panthermedia; Screenshot: takeitdown.ncmec.org; Montage: netzpolitik.org

„Nacktbilder im Internet zu haben ist beängstigend“, heißt es auf der Website von „Take It Down“. Der neue Dienst richtet sich an Menschen, von denen sexualisierte Aufnahmen im Netz kursieren – und zwar Aufnahmen, auf denen sie noch nicht volljährig sind. Dahinter steht eine US-amerikanische NGO namens National Center for Missing and Exploited Children (NCMEC). Die Organisation engagiert sich weltweit gegen die illegale Verbreitung von intimen Aufnahmen Minderjähriger.

„Wir haben dieses System entwickelt, weil viele Kinder in dieser verzweifelten Situation sind“, sagte Michelle DeLaune, Präsidentin und CEO von NCMEC, in einer Mitteilung am Montag. „Wir hoffen, dass die Kinder von diesem Service erfahren und ein Gefühl der Erleichterung verspüren, weil es Mittel gibt, die ihnen helfen, die Bilder offline zu nehmen.“ Das Angebot richtet sich auch an Menschen, die nicht möchten, dass Ex-Partner:innen intime Bilder von ihnen verbreiten. Oft entstehen solche Bilder zunächst einvernehmlich, sind aber nicht für fremde Augen bestimmt.

Bislang nutzen nur fünf Plattformen „Take It Down“: Neben den beiden sozialen Netzwerken des Konzerns Meta, Facebook und Instagram, sind das Pornhub, eine der weltgrößten Pornoseiten, und OnlyFans, eine Plattform für Bezahlinhalte, die vor allem für Pornografie bekannt ist. Der fünfte Anbieter ist Yubo aus Frankreich, eine in Deutschland weniger bekannte Kennenlern-App. NCMEC sagt, weitere sollen hinzukommen, man habe alle rund 200 Anbieter eingeladen, die heute schon mit der Organisation zusammenarbeiten. Meta hat den Dienst zudem mitfinanziert.

So funktioniert „Take It Down“

„Take It Down“, auf Deutsch: „Lösch das“, funktioniert wie ein Filter. Zuerst müssen Betroffene oder deren Eltern die intimen Bilder heraussuchen, die möglicherweise im Netz gelandet sein könnten. Aus diesen Aufnahmen kann „Take It Down“ dann Hashes berechnen, so etwas wie den digitalen Fingerabdruck eines Bildes. „Take It Down“ speichert also nicht die Aufnahmen selbst, die sollen auf dem Gerät der Betroffenen bleiben. Nur die Hashes landen in der Datenbank. Diese Hashes teilt das NCMEC mit Online-Plattformen wie Instagram. Die Online-Plattformen wiederum berechnen selbst Hashes aus allen Bildern, die Menschen dort hochladen. Findet sich einer dieser Hashes auch in der NCMEC-Datenbank, wird ein Alarm ausgelöst. Dann kann die Online-Plattform das verdächtige Bild direkt überprüfen oder offline nehmen.

„Take It Down“ füllt damit eine Lücke in einem weltweiten Ensemble aus Hash-Datenbanken für intime Aufnahmen. Das NCMEC kümmert sich dabei allein um Aufnahmen von Minderjährigen. Bislang hat das Zentrum dafür nur Hashes von Aufnahmen gesammelt, die bereits online sind. Das NCMEC erhält jährlich mehrere Millionen Hinweise auf möglicherweise illegales Material von Onlineplattformen. Auch Einzelpersonen konnten Aufnahmen melden – bislang aber nur das, was schon online war. Mit „Take It Down“ lassen sich jetzt auch Aufnahmen melden, von denen man nur vermutetet, dass sie im Netz landen könnten. Prävention statt Schadensbegrenzung. Die Pressestelle von NCMEC schreibt, „Take It Down“ sei der erste, weltweit verfügbare Dienst dieser Art.

Wer älter ist, muss anderen Dienst nutzen

Wer schon über 18 Jahre alt ist, muss sich an andere Organisationen wenden. Eine solche internationale Anlaufstelle für Erwachsene ist die britische „Revenge Porn Helpline“. Hier können volljährige Menschen – ähnlich wie bei „Take It Down“ – aus ihren Aufnahmen Hashes generieren lassen. Der Dienst hierfür heißt StopNCII und existiert seit 2021. Facebook und Instagram nutzen ihn bereits, außerdem die Dating-App Bumble und die Kurzvideo-Plattform TikTok. Der von der Organisation verwendete Begriff „Revenge Porn“ (auf Deutsch: Racheporno) ist allerdings umgangssprachlich. Fachleute verwenden lieber den Begriff bildbasierte Gewalt.

Es mag irritieren, dass sich Betroffene je nach Alter an verschiedene Hilfsorganisationen wenden sollen. Denn das Phänomen – nicht-einvernehmlich geteilte intime Bilder – ist zunächst das gleiche. Auch die zugrunde liegende Technologie von Hash-Datenbanken unterscheidet sich nicht wesentlich. Selbst die Eingabemasken von „Take It Down“ und StopNCII sind nahezu identisch. Die Gründe dafür dürften wohl juristisch sein: Für Nacktaufnahmen von Minderjährigen gibt es andere Gesetze als für nicht-einvernehmliche Nacktaufnahmen von Erwachsenen. Bildbasierte Gewalt gegenüber Erwachsenen ist erst seit einigen Jahren auf der politischen Agenda – und bislang nur in wenigen Ländern strafbar.

Der Schutz von Minderjährigen steht dagegen im Fokus der internationalen Gesetzgebung. Entsprechende Regulierungen entstehen gerade in der EU, den USA und Großbritannien. Im deutschen Recht ist die Rede von Kinder- und Jugendpornografie. Ein englischer Fachbegriff ist „child sexual abuse material“ (CSAM), frei übersetzt: Darstellungen von Kindesmissbrauch. Viele Betroffene lehnen diese Begriffe als verharmlosend ab und sprechen eher von sexualisierter Gewalt gegen Kinder.

Neuer Weg im Vorgehen gegen Missbrauchsdarstellungen

Für den Kampf dagegen ist das NCMEC seit Jahren eine wichtige Schnittstelle zwischen Online-Plattformen und Strafverfolgungsbehörden. Das Geld der gemeinnützigen Organisation kommt teils vom US-Justizministerium, teils von Spender:innen. Beim NCMEC landen jährlich Abermillionen Verdachtsmeldungen, die Online-Plattformen wie Facebook und Instagram gesammelt haben. Es handelt sich um Aufnahmen, die Algorithmen der Plattformen als mögliche Darstellungen von Kindesmissbrauch eingestuft haben. Die Verdachtsmeldungen stammen aus öffentlichen Beiträgen und privaten Chats, die nicht Ende-zu-Ende-verschlüsselt sind. Facebook etwa durchsucht diese Nachrichten schon seit Jahren.

Beim NCMEC werden diese Meldungen sortiert: Aufnahmen, die Ermittler:innen helfen können, landen bei Strafverfolgungsbehörden. Neu entdeckte Aufnahmen kommen in die Hash-Datenbank.

Diese Hash-Datenbank ist das Ergebnis sorgfältiger Sichtungen durch Menschen. Die ihr zugrunde liegenden Aufnahmen wurden „überprüft und dreifach kontrolliert“ – damit werben auch Anbieter wie Google, die die NCMEC-Datenbank für ihre Dienste einsetzen.

Das Raunen vom millionenfachen Missbrauch

Mit der neuen Datenbank „Take It Down“ geht das NCMEC einen neuen Weg. Denn in diesem Fall kann das Zentrum die neuen Aufnahmen nicht überprüfen. Nutzer:innen erstellen die Hashes auf ihren Geräten, das NCMEC kann die Bilder nicht sehen. Die Eingabemaske fordert Nutzer*innen auf, nur Bilder von sich selbst und nur aus der Zeit unter 18 zu melden, ob sie das auch tun, ist nicht klar. Einerseits schützt das die Privatsphäre von Betroffenen, die ihre intimen Bilder eben nicht fremden Augen präsentieren möchten. Andererseits wirft es die Frage auf, inwiefern sich der Dienst „Take It Down“ missbrauchen lässt.

Denn theoretisch lässt sich „Take It Down“ auch nutzen, um legale Aufnahmen in die Hash-Datenbank zu schmuggeln. Diese Aufnahmen würden bei den Online-Plattformen dann einen Alarm auslösen, und deren Moderationsteams müssten diesen Fehler erst einmal bemerken. Das dürfte vor allem für Akteur*innen spannend sein, die unliebsame Online-Inhalte mit allen Mitteln bekämpfen.

Warum ungeprüfte Hash-Datenbanken eine Gefahr sind

Auf sozialen Medien ist es längst zur Waffe geworden, auch erlaubte Inhalte massenhaft zu melden. So landen sie immer wieder auf den Bildschirmen von Inhalte-Moderator*innen. Selbst wenn diese Inhalte keine Regel verletzen – früher oder später könnte eine der vielen Meldungen Erfolg haben und ein Inhalt wird zumindest zeitweise gesperrt. Schließlich müssen Moderator*innen oft unter hohem Zeitdruck viele Meldungen auf einmal abarbeiten.

Wie leicht sich ungeprüfte Hash-Datenbanken missbrauchen lassen, hängt also entscheidend davon ab, wie sorgfältig Online-Plattformen mit den Verdachtsmeldungen umgehen. Auch das NCMEC schreibt auf unsere Presseanfrage: Anbieter könnten ein entdecktes Bild „vor der Löschung überprüfen“. Aber tun sie das auch? Wir haben bei Meta, Pornhub, OnlyFans und Yubo nachgefragt.

Meta teilt mit, dass Verdachtsmeldungen zunächst von Menschen überprüft werden, bevor weitere Maßnahmen greifen. OnlyFans wiederum erklärt auf einer Infoseite, dass verdächtige Inhalte für eine Überprüfung offline genommen werden. Die Pressestelle von Yubo erklärt, verdächtige Inhalte würden sofort gesperrt. Pornhub geht nicht näher darauf ein, in welcher Reihenfolge die Moderation abläuft. Ein Sprecher erklärt jedoch, dass Menschen die Treffer überprüfen. Ist der Treffer korrekt, gehe eine Meldung zurück an das NCMEC. Das NCMEC kann das Bild dann überprüfen.

Das bedeutet wohl auch: Auf diesem Weg könnten noch nicht überprüfte Hashes von „Take It Down“ in die Datenbank überprüfter Hashes gelangen. Pornhub erklärt außerdem, dass auch kleinere Angebote der Konzern-Mutter Mindgeek die Hash-Datenbank nutzen, beispielsweise die Pornoseite Youporn.

Woran Hash-Datenbanken scheitern

Die Missbrauchsgefahr von „Take It Down“ ist bislang wohl eher ein theoretisches Problem. Es gebe Feedback-Mechanismen, wie das NCMEC mitteilt, und bislang habe man von keinen irrtümlichen Treffern gehört. Grundsätzlich haben Hash-Datenbanken aber auch technische Schwächen: Kleine Änderungen an einem Bild können ausreichen, um den Filtern zu entgehen. Wie das NCMEC auf Anfrage erklärt, würde es schon genügen, ein Bild anders zuzuschneiden oder ein Emoji auf das Bild zu packen.

Betroffene können mit Hash-Datenbanken also nur die massenhafte Verbreitung ihrer Bilder nach dem Prinzip Copy-and-paste wirksam bekämpfen. Wird ein Bild gezielt immer wieder neu bearbeitet, sind Hash-Datenbanken keine Hilfe. Für Betroffene kommt erschwerend hinzu, dass längst nicht alle Online-Anbieter mit solchen Hash-Datenbanken arbeiten. Erst recht nicht kleinere Pornoseiten, auf denen Nutzer*innen massenhaft Bilder hochladen können, ohne dass dabei Einvernehmlichkeit überprüft würde.

Meldung statt Massenüberwachung

Bei näherer Betrachtung zeigt sich: Technische Lösungen gegen bildbasierte Gewalt sind immer begrenzt. Sie bergen die Gefahr, dass verbotene Aufnahmen irrtümlich übersehen werden – und dass legale Aufnahmen irrtümlich gelöscht werden. Auch die EU-Kommission hat zur Eindämmung von CSAM einen Gesetzentwurf vorgelegt, der vor allem technische Lösungen vorsieht.

Unter anderem sollen Anbieter auf Anordnung E-Mails, Cloudspeicher, sogar private, verschlüsselte Nachrichten massenweise nach verdächtigen Aufnahmen durchsuchen. Im Visier sind nicht nur bekannte Aufnahmen, die etwa in Hash-Datenbanken verzeichnet sind, sondern auch bislang unbekannte Darstellungen. Es wäre eine anlasslose Massenüberwachung der Kommunikation und Dateien von Abermillionen Menschen. Damit einher geht die Gefahr, dass unschuldige Menschen aufgrund irrtümlicher Treffer ins Visier von Behörden geraten. Gegen diese sogenannte Chatkontrolle gibt es breite Kritik von unter anderem Kinderschutz-Verbänden, der digitalen Zivilgesellschaft, Datenschutzbehörden und EU-Mitgliedstaaten.

Wie die EU-Kommission beim Kinderschutz versagt

Vor diesem Hintergrund erscheinen Dienste wie „Take It Down“ als ungleich weniger invasives Mittel gegen die Verbreitung von CSAM. Der Gesetzentwurf der EU-Kommission sieht vor, dass Anbieter auf Anordnung pauschal Inhalte durchleuchten und jegliche Verdachtsfälle zur menschlichen Überprüfung an ein EU-Zentrum weiterleiten. Aus dem Entwurf geht auch hervor, dass praktisch jede Darstellung von Nacktheit und möglicherweise Minderjährigen ein solcher Verdachtsfall sein könnte. Das würde bedeuten, dass auch massenhaft legale Nacktaufnahmen auf den Bildschirmen von amtlichen Sichter*innen landen. Im Gegensatz dazu funktionieren Mittel wie „Take It Down“ gezielt und beziehen sich allein auf Aufnahmen, die Betroffene selbst als vertraulich eingestuft haben.

Eine weiterer Streitpunkt ist, dass Instagram und Facebook derzeit auch private Chats mithilfe von Hash-Datenbanken durchleuchten. Das klappt nur, weil Facebook Messenger und Direktnachrichten auf Instagram nicht flächendeckend Ende-zu-Ende-verschlüsselt sind. Eine solche Ende-zu-Ende-Verschlüsselung ist aber wichtig und gilt als Standard zum Schutz der Privatsphäre im Netz. Für Facebook und Instagram hieße das, dass Dienste wie „Take It Down“ dann nur noch bei öffentlichen Posts im Einsatz wären.

0 Ergänzungen

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.