eco-BeschwerdestelleRekord an gemeldeten und gelöschten strafbaren Inhalten

Mehr als 30.000 rechtswidrige Internetinhalte, die Missbrauchsdarstellungen von Kindern und Jugendlichen zeigen, konnten im letzten Jahr aus dem Netz entfernt werden. Das berichtet der Internetwirtschaftsverband eco von seiner Beschwerdestelle.

Netzwerkkabel
Die Beschwerdestelle des Internetwirtschaftsverbands eco hilft gegen strafbare Inhalte. CC-BY-SA 2.0 Martin Abegglen

Die Beschwerdestelle des eco, bei der man illegale und jugendgefährdende Inhalte im Internet melden kann, feiert dieses Jahr ihr dreißigjähriges Jubiläum. Sie ist fast so alt wie der Internetwirtschaftsverband eco selbst, der 1995 gegründet wurde und heute etwa eintausend Mitgliedsunternehmen hat. Der Verband nennt seine Meldestelle ein „Erfolgsmodell“.

Das beweisen die Zahlen, die heute im Jahresbericht der Meldungen vorgestellt wurden. Die Bilanz der eco-Meldestelle legt den Fokus auf die gemeldeten Missbrauchsdarstellungen von Kindern, die den weit überwiegenden Teil (93 Prozent) aller 51.359 eingegangenen Beschwerden betrafen. Der Betreiber der Beschwerdestelle arbeitet in der Bekämpfung dieser sogenannten CSAM-Inhalte permanent und aktiv mit Strafverfolgungsbehörden zusammen.

Ein neuer Höchststand von mehr als 30.000 rechtswidrigen Internetinhalten konnte aus dem Netz getilgt werden. Bei kinderpornographischen Inhalten berichtet eco von einer sehr hohen Gesamterfolgsquote von 99,51 Prozent. Im Inland wurde eine 100-Prozent-Erfolgsquote erreicht: Sämtliche der gemeldeten Inhalte mit Missbrauchsdarstellungen, die in Deutschland gehostet wurden, konnten entfernt werden.

CSAM

Wir berichten seit Jahren unter dem Stichwort CSAM (Child Sexual Abuse Material) über politische Vorhaben im Kampf gegen Missbrauchsdarstellungen von Kindern. Unterstütze unsere Arbeit!

Jeder einzelne an die Meldestelle in Köln herangetragene Fall werde geprüft, berichtete Alexandra Koch-Skiba, Leiterin der Beschwerdestelle bei eco. Sind die gemeldeten Inhalte, etwa Bilder, Videos oder Texte, nach juristischer Prüfung strafbar, wird zum einen die schnelle Löschung beim Provider oder beim Plattformbetreiber in Angriff genommen und der Fall zum anderen den Strafverfolgungsbehörden zur Kenntnis gebracht.

Diesen doppelten Ansatz bei der Bekämpfung rechtswidriger Inhalte betont Alexander Rabe, Geschäftsführer von eco, bei der Vorstellung des Jahresberichts. Denn „Internetsperren sind immer umgehbar“, daher gelte für eco der Grundsatz „löschen statt sperren“. Statt strafbare Inhalte nur zu blockieren, sollen die Dateien also direkt an ihrer Quelle aus dem Netz entfernt werden. Im Nachgang prüfen Mitarbeiter auch, ob die Inhalte wirklich verschwunden sind.

30.035 strafbare Inhalte

Nicht alle Meldungen, die bei eco zum Jugendmedienschutz eingingen, waren rechtswidrig. Nach rechtlicher Prüfung blieben insgesamt 30.035 Fälle als „berechtigte Beschwerden“, also betrafen strafbare Inhalte.

Das Jahr 2025 markiert für die eco-Beschwerdestelle einen neuen Höchststand an berechtigten Fällen: 30.035.
Jahresvergleich: Berechtigte Beschwerden, die einen Rechtsverstoß darstellen. - Alle Rechte vorbehalten eco-Beschwerdestelle

Das ist ein neuer Rekord an berechtigten Fällen. Zugleich wurden aber auch fast 42 Prozent der eingegangenen Meldungen nach der Prüfung als unberechtigt bewertet. Das ist dann der Fall, wenn der Inhalt rechtlich nicht relevant oder nicht prüfbar oder aber ein Duplikat ist, also bereits bekannt und zum Zeitpunkt der Meldung schon in Bearbeitung ist. Auch Meldungen außerhalb des Zuständigkeitsbereiches der eco-Beschwerdestelle fallen darunter.

Hinweise zumeist aus dem INHOPE-Netzwerk

Ein sehr großer Teil aller Hinweise kam im vergangenen Jahr über INHOPE, die internationale Dachorganisation der Beschwerdestellen von fünfzig Ländern. 24.400 Fälle sind über diese Partnerbeschwerdestellen an eco gemeldet worden.

Vom INHOPE-Netzwerk kamen die meisten Fälle: 24.400 Meldungen
Vom INHOPE-Netzwerk kamen die meisten Fälle: 24.400. - Alle Rechte vorbehalten eco-Beschwerdestelle

Meldungen, die nicht aus dem INHOPE-Netzwerk stammen und nicht bei der Beschwerdebearbeitung selbst aufgedeckt wurden, kamen überwiegend von dem Online-Meldeformular des Internetverbands. Das bietet – auf Wunsch anonym – die Möglichkeit, auf Inhalte hinzuweisen, die der jeweilige Hinweisgeber als rechtswidrig einschätzt.

Auch die Möglichkeit, Meldungen per E-Mail einzureichen, kann genutzt werden. Sogar per Brief gingen in wenigen Fällen tatsächlich Hinweise ein. In 5.727 Fällen sind Beschwerden im vergangenen Jahr anonym eingereicht worden.

Manuelle Prüfung nötig

Seit vielen Jahren betont eco seine erfolgreiche Beschwerdestellenarbeit. Doch schnelle Löscherfolge können nicht durchweg erreicht werden. In Deutschland dauert es im Schnitt viereinhalb Tage, bis ein rechtswidriger Inhalt gelöscht ist. Das ist eine Summe aus der Zeit für Eingang und Prüfung der Meldung an Werktagen und der Reaktionszeit der betroffenen Provider.

Zunehmende Verschleierungsmethoden oder auch Massenhinweise seien herausfordernd, so Koch-Skiba. Das bedeute einen enormen Zeitaufwand. Es könne vorkommen, dass „zeitweise alle mit der Hinweisbearbeitung betrauten Mitarbeitenden der Beschwerdestelle“ Massenmeldungen über mehrere Werktage hinweg vollständig abarbeiten, erklärt eco gegenüber netzpolitik.org.

Im vergangenen Jahr seien diese Massenhinweise aber nicht ganz so umfänglich wie in früheren Jahren gewesen. Es seien diesmal nicht mehr als 2.500 URLs auf einmal gemeldet worden. Es gab jedoch in den Vorjahren auch Massenmeldungen mit URLs im fünfstelligen Bereich.

Eine manuelle Prüfung bei dieser Fülle an Meldungen, die manchmal also Hunderte oder gar Tausende einzelne Hinweise auf URLs enthalten, ist entsprechend zeitaufwendig. Allerdings erklärte eco gegenüber netzpolitik.org, dass eingehende Hinweise schon länger nicht mehr manuell erfasst werden müssen. Auch bei der Bearbeitung der Meldungen greife man auf „Automatisierungen und technische Unterstützung“ zurück.

Allerdings gilt: „Die inhaltliche Prüfung erfolgt jedoch weiterhin einzeln: Jeder gemeldete Inhalt wird […] gesichtet und bewertet.“ Das übernehmen nach wie vor die Menschen in der Meldestelle.

Eine Zunahme von KI-generierten Inhalten ist nicht zu verzeichnen, berichtet eco gegenüber netzpolitik.org. „Im Jahr 2025 lag ihr Anteil bei knapp einem Prozent.“ In Deutschland dürften auch fiktive Darstellungen von sexualisierter Gewalt und Grenzverletzungen gegen Kinder und Jugendliche nicht verbreitet werden. Für die Arbeit der Beschwerdestelle und deren juristische Bewertung machten daher generierte Inhalte keinen entscheidenden Unterschied.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

13 Ergänzungen

  1. „Für die Arbeit der Beschwerdestelle und deren juristische Bewertung machten daher generierte Inhalte keinen entscheidenden Unterschied.“

    Naja, aber für die Behörden schon damit weitere Maßnahmen ausgeschlossen werden können, wie bspw. einen anhaltenden Missbrauch zu verhindern. Irgendwann muss auch die Beschwerdestelle priorisieren, denn wenn es „keinen entscheidenden Unterschied“ macht, dann scheint ja gerade kein derartiger Mechanismus zu existieren oder in Planung zu sein. Ob nun Kinder zum Opfer wurden oder nicht scheint „keinen entscheidenden Unterschied“ zu machen. Interessante Sichtweise…

    Kann mich an eine Aussage eines Experten aus England erinnern der davor gewarnt hat das man zunehmend nur noch KiPo verfolgt und dabei der physische Missbrauch immer mehr in den Hintergrund rückt. Denke diesen Trend sehen wir jetzt schon, wo Maßnahmen seitens der EU meist nur noch auf Abbildungen zielen, aber der eigentliche Missbrauch dann irgendwie in Vergessenheit gerät.

    1. Ich denke, hier ist gemeint, dass es keinen Unterschied macht für die juristische Bewertung der Strafbarkeit oder des Rechtsverstoßes für die konkrete Meldung, die geprüft wird.

  2. Also was Anime angeht scheint es entweder niemanden zu jucken, oder die Rechtslage ist absolut nebulös. Wie kann bspw. „Kiss X Sis“ von der FSK offiziel ab 16 freigegeben werden und vom Publisher mit der Beigabe einer Unterwäsche eines der Minderjährigen Figuren beworben werden?

    Würde man den Paragraphen sehr streng auslegen dann wären wir sicherlich bei SEHR viel mehr Fällen als 30.000. Ob man das will ist eine andere Frage. Die Quote von 99% für im Ausland gehostete Inhalte hört sich auch so an als würde man hier die eigenen Statistiken schönen, so wie es das BKA tut. Da werden hoffnungslose Fälle einfach weitergereicht um eine Indizierung zu veranlassen, so fliegen sie auch aus der Statistik.

    1. Es geht hier um von Menschen und Partnerbeschwerdestellen gemeldete Inhalte, die von den Hinweisgebern als rechtswidrig erachtet werden und daher zur Meldestelle kommen und auf Rechtsverstöße hin geprüft werden.

      1. Also ich hatte mal so vor ein Paar Jahren sowas testweise gemeldet und dem wurde nie wirklich nachgegangen. Auf die Idee bin ich gekommen, weil seit Jahren eine deutsche Künstlerin Hentai mit sehr jung aussehenden Charakteren zeichnet (also nicht welche die man als Jugendliche sehen könnte, sondern schon sehr klein) und das auf jeder deutschen Anime-Messe ausstellt. Einmal soll wohl die Polizei gekommen sein, aber die haben die Frau dann einfach in Ruhe gelassen.

        Bei solchen Erfahrungen kann ich schon verstehen das viele denken sowas sei gar nicht erfasst. So richtig schlau wurde ich dann erst durch diese Zitate, die das ganze vlt. erklären:

        „Wenn das Tatobjekt eine realitätsfremde fiktionale Darstellung ist (zB in virtuellen Welten spielt), kann nur auf explizite oder konkludente Altersangaben abgestellt werden. Fehlen solche Angaben, ist nicht davon auszugehen, dass Kinder dargestellt werden. Bei fiktionalen Darstellungen mit realitätsnaher optischer Gestaltung (wirklichkeitsnah) kommt es auf die Perspektive eines objektiven Betrachters an, dh darauf, ob die Person eindeutig kindlich wirkt“
        Quelle: MüKoStGB/Hörnle, 4. Aufl. 2021, StGB § 184b Rn. 11-13

        Auch hier gibt es dann bei Beschwerdestellen wieder unterschiedliche Aussagen, so stellt bspw. Jugendschutz.net die Rechtslage im INHOPE-Report korrekt dar während eCO sehr verallgemeinert.

        1. Das müsste wohl ein Jurist einschätzen, wo die Schwelle zur Rechtswidrigkeit ist. Zumindest an die eco-Beschwerdestelle gemeldete Inhalte werden einzeln geprüft. Wie kannst du wissen, dass dem „nie wirklich nachgegangen“ wurde?

          1. Wissen kann ich es natürlich nicht, aber mir ging es dann doch eher darum das Gefühl zu vermitteln das es ein Gummiparagraph ist. Das o. G. Beispiel mit der Serie z. B. (oder auch andere wie Eromanga Sensei, No Game No Life und Oreimo) könnte man mit echten Kindern nicht bringen, obwohl beides im gleichen Paragraphen steckt. Auch findet man zumindest erotische Anime-Bilder überall, so dass ich nicht das Gefühl von „99% Erfolg“ habe wenn sowas täglich auf reichweitenstarken Twitter/X oder YouTube-Accounts gepostet wird.

          2. Ich kann mich nur nochmal wiederholen: Hier geht es um strafbare Inhalte, nicht um geschmacklose oder jugendgefährende oder gefühlt inakzeptable. Ich glaube auch, dass es in diesem Bereich Illustrationen oder Serien gibt, die einfach grenzwertig sind, und ich denke, Juristen werden hier vielleicht auch nicht immer derselben Meinung sein. Ich würde aber davon ausgehen, dass grad bei reichweitenstarker Verbreitung Meldungen und dann auch Prüfungen stattfinden.

          3. @Constanze

            Ja, da hast Du recht. Große Plattformen löschen sowas sicherlich, aber würden jetzt viele eher kleinere, nationale Plattformen melden, die auch nicht dem DSA unterliegen, dann ist ein löschen de facto unmöglich und die Quote sehe anders aus.

            Ein gutes Beispiel – aufgrund der gleichen Sprache – wäre Österreich. Die Behörden wären gegen eine nationale Plattform machtlos und können nur eine Netzsperre verhängen:

            https://www.derstandard.at/story/2000106862750/hentais-animierte-kinderpornografie-in-oesterreich-weiterhin-legal

            Sorry für die Debatte hier, aber mich stört diese Gesetzgebung einfach, aber darum sollte es hier ja nicht gehen.

          4. Konkret bei den Meldungen über die eco-Beschwerdestelle wird ja der Weg beschritten, die Löschung direkt bei den Plattformen oder beim Provider zu verlangen oder aber über die Partnerbeschwerdestellen in einem anderen Land zu gehen, wenn die juristische Prüfung einen illegalen Inhalt identifiziert hat. Was dabei im Weg stehen kann, sind gesetzgeberische Unterschiede, also wenn etwas noch legal ist in einem Land, aber in einem anderen schon strafbar.
            Ich gehe quasi von einem juristischen Graubereich zwischen verschiedenen Ländern aus, nehme aber an, dass dies nur einen sehr kleinen Teil aller Meldungen betrifft und die Erfolgsquote nicht signifikant ändert. Denn was wirklich überall verboten ist, das dürfte eine weitaus größe Menge der CSAM-Inhalte sein.

  3. Gibt es irgendwo auch eine Übersicht hinter wie vielen auch Opfer stecken? Diese riesigen Zahlen sagen mir nichts, da ich daraus nicht die Anzahl der Persönlichkeitsrechtsverletzungen ablesen kann. Eventuell bin ich auch einfach nur blind. Danke!

    1. Nö gibt es nicht. In England bspw. kann man das wenigstens ablesen, da Fiktion einen eigenen Straftatbestand hat. Hier widerum wird immer wieder von „das schlimmste Verbrechen“ und „hinter jedem Bild steckt ein Opfer“ gefaselt was überhaupt nicht stimmt. Die Illusion sollte man den Bürgern nicht nehmen, denn man braucht viele Zahlen um immer mehr Maßnahmen zu pushen :) Dazu auch der gute Artikel hier von Netzpolitik.org: https://netzpolitik.org/2022/ncmec-zahlen-erklaert-das-raunen-vom-millionenfachen-missbrauch/

  4. FYI

    https://www.europol.europa.eu/media-press/newsroom/news/global-cybercrime-crackdown-over-373-000-dark-web-sites-shut-down

    On 9 March 2026, a global operation led by German authorities and supported by Europol was launched against one of the largest networks of fraudulent platforms in the dark web. The investigation began in mid-2021 against the dark web platform “Alice with Violence CP”. During the investigation, authorities discovered that the platform’s operator was running more than 373 000 fraudulent websites advertising child sexual abuse material (CSAM) and cybercrime-as-a-service (CaaS) offerings.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.