Missbrauch auf Porno-PlattformenxHamster lässt Freiwillige mutmaßlich illegale Fotos moderieren

Die populärste Pornowebseite Deutschlands verlässt sich bei der Überprüfung von möglicherweise illegalen Fotos auf ein Team von unbezahlten Freiwilligen. Sie sollen per Bauchgefühl darüber entscheiden, ob die gezeigten Frauen minderjährig sind oder missbraucht wurden.

Person im Dunkeln am Computer
Content-Moderation als Hobby? Auf xHamster suchen Freiwillige nach mutmaßlich illegalen Inhalten. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Clint Patterson

Die Porno-Webseite xHamster, eine der meistbesuchten Seiten im Internet, verlässt sich bei der Moderation von mutmaßlich illegalen Bildern auf ein Team von freiwilligen Nutzer:innen. Das zeigen verdeckte Recherchen von Vice, für die sich Journalist:innen in das Moderationsteam der Plattform eingeschleust haben.

Die freiwilligen Löscharbeiter:innen sollen etwa überprüfen, ob die auf Fotos gezeigten Frauen unter 18 Jahre alt sind. Dabei sollen sie sich laut Anweisungen der Plattform allein auf den Augenschein verlassen. Solche Bilder von Minderjährigen könnten in Deutschland dem Gesetz zur Verbreitung von Jugendpornografie zufolge strafbar sein. Die Fotos sollen jedoch nur dann zur Löschung markiert werden, wenn sich die Freiwilligen in ihrem Urteil absolut sicher sind. Strittige Fälle bleiben online.

Auch Aufnahmen, die von Voyeuren mutmaßlich gegen den Willen der gezeigten Personen verbreitet wurden, sollen von Moderator:innen nicht gelöscht werden.

Anonym und unqualifiziert

Die Arbeit erledigen die Freiwilligen anonym mit ihren privaten Accounts. Sie müssen dazu keinerlei Qualifikation vorweisen und werden auch nicht geschult. xHamster überprüft nicht ihre Identität. Die eingeschleusten Journalist:innen wurden lediglich aufgefordert, selbst mehr pornografisches Material auf die Plattform hochzuladen, bevor sie in das Moderationsteam befördert wurden.

Inhaltlich wird die Gruppe von einer xHamster-Mitarbeiterin betreut, die jedoch teils tagelang nicht auf Nachfragen reagierte. Die Bilder, die die Freiwilligen überprüfen, sind bereits auf der Plattform veröffentlicht. Gelöscht werden Bilder erst, wenn mehrere Löscharbeiter:innen ein Urteil abgegeben haben.

Einige der Freiwilligen sagten, ihre Motivation sei ihre eigene Porno-Sucht und sie erhofften sich von der Arbeit mehr Privilegien auf der Plattform. Andere gaben in ihren Profilen an, selbst mit voyeuristischem Material zu handeln.

Was ist echtes, was gespieltes Weinen?

xHamster tauchte in der Vergangenheit wiederholt in Skandalen um digitale sexualisierte Gewalt und Voyeurismus auf. Im Sommer 2019 zirkulierten Aufnahmen auf der Plattform, die mit versteckten Kameras auf einem Musikfestival gemacht wurden und Frauen beim Duschen und auf der Toilette zeigten. Solche Aufnahmen sind in Deutschland strafbar, doch die Moderator:innen werden von xHamster nicht angewiesen, sie zu löschen. Im Handbuch wird das Thema gar nicht erwähnt.

Im Fall von möglichen Vergewaltigungen werden die Moderator:innen dazu aufgefordert, „echtes“ und gespieltes Weinen voneinander zu unterscheiden, wenn sie die Fotos überprüfen.

Pornoplattformen wie xHamster werden auch häufig für so genannte Rache-Pornografie missbraucht, bei der Fotos von Frauen, häufig Ex-Partnerinnen, ohne deren Einverständnis veröffentlicht werden.

Notice and Takedown kommt zu spät

xHamster verweist darauf, dass sich in solchen Fällen nicht feststellen lasse, ob die Aufnahmen fiktional oder echt seien. Uploader könnten die Szenarien schließlich mit der Einwilligung der Gezeigten nachstellen. Nur in Fällen von Urheberrechtsverletzungen könne man die Nutzer kontaktieren und um einen Nachweis bitten, sagt eine Administratorin auf Nachfrage der verdeckten Journalistin.

Für Moderator:innen bleibt in solchen Fällen somit nur die Möglichkeit, ein Foto in der Kategorie „Sonstiges“ zu markieren und die Bedenken zu nennen. Eine Löschung kann laut xHamster nur die abgebildete Person selbst erwirken.

An sich sollte dieses „Notice and Takedown“ genannte Prinzip Nutzer:innen wie Online-Dienste schützen: Eine Plattform muss nicht alles prüfen, aber handeln, sobald sie von einem Rechtsverstoß erfährt. Auf so genannten Sozialen Medien sichert dieses Prinzip die Meinungsfreiheit. Im Fall von Porno-Plattformen offenbart es aber eine Schwachstelle, denn hier können Nutzer:innen anonym Nacktbilder verbreiten ohne nachweisen zu müssen, dass die gezeigten Personen einverstanden sind. Wenn Bilder von Vergewaltigungen oder intime Fotos der Ex-Partnerin verbreitet werden, dann ist der Schaden für die Betroffenen ungleich höher als im Fall etwa einer Urheberrechtsverletzung.

Betroffene fordern schärfere Regeln

Eine Initiative von Betroffenen von digitaler Gewalt setzt sich derzeit mit einer Petition an das Bundesjustizministerium dafür ein, die Gesetzeslage in Deutschland zu verschärfen: Für Porno-Plattformen sollen ähnliche Regeln gelten wie heute schon für die Netzgiganten mit mehr als 2 Millionen Nutzer:innen, die unter das Netzwerkdurchsetzungsgesetz fallen. Unter anderem sollen sie als missbräuchlich gemeldete Inhalte binnen von 24 Stunden prüfen und löschen müssen. Auch sollen Plattformen wie xHamster dazu verpflichtet werden, Fotos und Videos vor der Veröffentlichung zu prüfen und so zu verhindern, dass gelöschtes Material immer wieder neu hochgeladen wird.

Ob Uploadfilter und schnelle Löschfristen, die grob einer Kombination aus NetzDG und der derzeit verhandelten EU-Verordnung gegen Terrorinhalte entsprechen, der richtige Ansatz sind, muss sich noch in der weiteren Debatte ergeben. Jedoch steigt der Druck auf die Politik, die weitgehende Schutzlosigkeit von Betroffenen zumindest einzudämmen.

Das Justizministerium spricht sich gegenüber Vice für „effektive Sorgfaltsanforderungen“ im Umgang mit strafbaren Inhalten aus, damit sich Plattformbetreiber nicht durch ein „bewusstes Wegschauen“ der Verantwortung für illegale Inhalte entziehen können. Die bestehende und geplante Regulierung geht aber nicht konkret auf die Probleme mit Porno-Plattformen ein.

Der Europaabgeordnete und SPD-Politiker Tiemo Wölken verweist auf den „Digital Services Act“. Das geplante Gesetzespaket der EU soll Plattformen beim Umgang mit nutzergenerierten Inhalten klare Regeln geben, unter anderem sollen sie sich besser mit Behörden und Gerichten austauschen, so Wölken. Dass dies mit einer Meldepflicht umgesetzt wird, sei laut Wölken denkbar, liege aber letztlich im Ermessen der EU-Kommission.

Strengere Regeln fordert auch der Missbrauchsbeauftragte der Bundesregierung, Johannes-Wilhelm Rörig. Auf Anfrage von Vice sagte er, bisher stünden die Chancen, mit Missbrauchsabbildungen ungestraft davon zu kommen, viel zu gut. „Wir brauchen in Deutschland eine gesetzliche Verpflichtung für Internet-Provider, Missbrauchsabbildungen im Netz melden zu müssen“. Rörig fordert auch „die Pflicht der Anbieter zur (möglichst automatisierten) Suche nach Missbrauchsinhalten“ auf ihren Plattformen.

Allerdings ist es auch Algorithmen kaum möglich, in Grenzfällen das Gesicht einer minderjährigen Person von einer volljährigen zu unterscheiden. Wölken meint daher, dass Löschanordnungen nicht durch Algorithmen alleine durchgeführt werden dürfen, sondern „die finale Entscheidung in jedem Fall von einem Menschen getroffen werden“ soll.

Die Netzpolitikerin Anke Domscheit-Berg von der Linken im Bundestag macht den Vorschlag, in Grenzfällen von einem illegalen Inhalt auszugehen und das Material erst mal zu sperren bis der Altersnachweis der abgebildeten Person erbracht wird. Bis die Umsetzung eines solchen Verfahrens unter Wahrung des Datenschutzes und der Anonymität durchdacht ist, solle die Bundesregierung das „Ausmaß dieser missbräuchlichen und strafrechtlich relevanten Nutzung“ wissenschaftlich untersuchen lassen, sagte sie Vice. Diese habe bislang keine Zahlen, die das Ausmaß des Problems digitaler Gewalt erfassen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

5 Ergänzungen

  1. Die Petition auf change.org liest sich in etwa so:
    „Sogenannte Exposer Networks verbreiten online unsere intimsten Momente in Bildern, Videos und selbst erstellten verächtliche Bild-Text-Collagen, sogenannte Captions.“

    So richtig seriös sieht mir das nicht aus… Was denkt Ihr?

  2. Allgemeinplätze: Kinder oder Jugendliche sexuell zu Missbrauchen und diesen Missbrauch zu dokumentieren ist inakzeptabel. Das gleiche gilt für Menschen die einer Aufnahme nicht zugestimmt haben.
    Aber: Menschen die an einem Diskurs interessiert sind stimmen doch bei „den Großen Plattformen“ zu, dass Rechtsdurchsetzung nicht privatisiert werden soll. Warum sollte das für eine „Porno-Community“ nicht genauso gelten?
    Wenn es da zur Dokumentation von Kindesmissbrauch kommt oder Menschen sich darüber beklagen, dass Bilder von Ihnen dort auftauchen, die sie dort nicht sehen wollen sollte das entsprechend Aufgabe der Strafverfolgungsbehörden sein das zu verfolgen.
    In Deutschland gibt es meines Wissens keine Regelung welche 18 USC 2257 entspricht, also dass Porno-Hersteller sich durch einen Ausweis Name und Alter der dargestellten Personen dokumentieren müssen und es teil der Aufzeichnung sein muss, wo diese Aufzeichnung aufbewahrt werden. Das finde ich übrigens gut: Auch wenn ich ein Nacktbild verschicke möchte ich da nicht zwingend meinen Namen dran stehen haben.
    Warum sollte also nicht auch für die gelten „Community kann Kontext. Filter nicht.“?

  3. Wenn ich das richtig zusammenfasse, fordert ihr hier also:

    – Eine Vorabmoderation Nutzergenerierter Inhalte
    – Im Zweifel eher löschen
    – Klarnamenpflicht der Uploader
    – Abkehr vom Provider-Privileg
    – Uploadfilter lehnt ihr nicht strikt ab

    1. Wir als Redaktion oder Verein fordern in diesem Falle nichts, sondern geben die Erkenntnisse aus den Recherchen von Vice wieder und nennen die Forderungen, die Politiker:innen und Betroffene in dem Zusammenhang stellen.

  4. Gerade bei Gewalt und Mißbrauch sehe ich das etwas kritisch.

    Einerseits soll es die Genres an der Grenze geben, andererseits sind – mutmaßlich immer noch unterbezahlte und nicht optimal ausgewählte – „professionelle“ Teams doch oft auch psychisch überfordert.

    Da entsteht also das Risiko, dass es in höherer Zahl Menschen mit entsprechenden affinitäten in die Teams schaffen, mehr noch als es bei „professionellen“ bereits der Fall sein mag oder auch nicht :).

    ***

    Die andere Kehrseite: … Inhalteanbierter … möglichst automatisiert … freier Markt … kein legislativer Handlungsbedarf … Rechtsfreie Zone …

    Die malen auch wirklich alles mehrfach über, unsere Zukunfstanstreicher…

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.