Die EU-Kommission hat ein Gesetz vorgeschlagen, um Kinder besser vor „sexuellem Missbrauch“ zu schützen. Die neue Richtlinie soll unter anderem europaweit festlegen, dass auch KI-generierte Darstellungen als Missbrauch gelten können. Außerdem soll die Polizei jedes Mitgliedstaates verdeckt im Netz ermitteln dürfen. Für Betroffene soll es mehr Rechte geben, etwa eine „kindgerechte“ Justiz.
Mit der neuen Richtlinie will die Kommission eine ältere Richtlinie ablösen, die das gleiche Ziel hatte. Es ist sozusagen ein Update. Es gibt allerdings eine Verwechslungsgefahr: Die geplante Richtlinie ist nicht dasselbe wie die geplante Verordnung „zur Bekämpfung des sexuellen Missbrauchs von Kindern“. Es sind zwei verschiedene Gesetze zum selben Thema. Verordnungen gelten unmittelbar in jedem EU-Mitgliedstaat, Richtlinien werden von den Mitgliedstaaten in nationales Recht umgesetzt.
Die Verordnung wurde unter dem Schlagwort Chatkontrolle bekannt. Sie soll unter anderem Online-Dienste dazu verpflichten, auf Anordnung vertrauliche Kommunikation von Nutzer*innen zu durchleuchten. Es drohen Massenüberwachung, Alterskontrollen und Netzsperren. Die Verhandlungen hierzu im EU-Rat sind derzeit ins Stocken geraten.
Obwohl es sich um separate Gesetze handelt, gibt es enge Verbindungen. Richtlinie und Verordnung sollen zusammenwirken und sich gegenseitig verstärken, wie die Kommission in ihrem Vorschlag vom Februar 2024 erklärt. Was die Kommission in der Richtlinie genau plant, fassen wir hier in sieben übersichtlichen Punkten zusammen.
1. Abkehr vom Begriff „Kinderpornografie“
In der alten Richtlinie ist immer wieder die Rede von sogenannter Kinderpornografie. Viele lehnen diesen Begriff als verharmlosend ab. Einem modernen Verständnis folgend beschreibt Pornografie einvernehmliche, sexuelle Darstellungen von Erwachsenen, ist also nicht mehr passend. Zugleich ist der Begriff etwa im deutschen Strafrecht fest verankert. Die neue Richtlinie will ihn jedenfalls nicht mehr nutzen und ersetzt ihn durchgängig durch die Worte: „Darstellung sexuellen Missbrauchs von Kindern“.
Diese Begriffswahl dürfte noch für Streit sorgen. Im Jahr 2017 hatte sich in Deutschland eine Kommission mit der Reform des Sexualstrafrechts befasst. Dabei ging es auch um Alternativen zum Begriff „Kinderpornografie“. Auf eine Lösung konnten sich die Fachleute allerdings nicht einigen. Sie kritisierten auch das Wort „Missbrauch“, wie aus dem Abschlussbericht hervorgeht. Zum einen taucht der Begriff bereits in einem anderen Kontext im Strafgesetzbuch auf; außerdem könne er nahelegen, dass es auch einen „Gebrauch“ von Kindern gebe.
Die Definition, was genau unter Missbrauch fällt, ist für die Verordnung zur Chatkontrolle relevant: Denn Online-Dienste sollen demnach auf Anordnung genau solche Inhalte automatisch suchen. Oft ist das schon rein technisch nicht möglich – oder nur mit hohen Fehlerraten, bei denen auch Unschuldige ins Visier geraten.
2. Online-Phänomene ausdrücklich strafbar
Mehrfach betont die EU-Kommission im Entwurf, dass es „technologische Entwicklungen“ gebe. Als Reaktion darauf sind mehrere neue Regeln vorgesehen. So sollen sogenannte Deepfakes ausdrücklich unter sexuellen Missbrauch fallen (Artikel 2, Absatz 3, d) können, also mithilfe künstlicher Intelligenz erzeugte, realistische Missbrauchsdarstellungen. In Deutschland gab es jüngst Berichte darüber, dass die Rechtslage hier unklar ist.
Sexueller Missbrauch von Kindern im Livestream (Artikel 7) soll ebenso gezielt eingedämmt werden wie sogenanntes Cybergrooming (Artikel 6). So nennt man es, wenn Erwachsene online versuchen, sexuelle Kontakte mit Kindern anzubahnen. Auch eine europaweite Strafbarkeit von sogenannten „Pädophilenhandbüchern“ ist vorgesehen (Artikel 2, Absatz 3, e). Die Kommission versteht darunter Anleitungen für Pädokriminelle, die davon handeln, wie sie unbemerkt Straftaten verüben können.
Eine weitere Regel (Artikel 8) zielt auf Online-Infrastruktur ab. Darunter dürften etwa Foren oder Tauschbörsen rund um sexuellen Missbrauch fallen. Europaweit strafbar werden soll dem Entwurf zufolge der vorsätzliche „Betrieb eines Online-Dienstes zum Zwecke des sexuellen Missbrauchs oder der sexuellen Ausbeutung von Kindern“. Das Wörtchen „vorsätzlich“ dürfte hier besonders wichtig werden, denn immerhin nutzen Täter*innen etwa auch gängige Cloud-Dienste, um Darstellungen zu speichern und zu verbreiten.
3. Verdeckte Ermittlungen
Sollte sich die Polizei auch mit falscher Identität in Foren herumtreiben, um Täter*innen auf die Spur zu kommen? Solche Formen verdeckter Ermittlungen gibt es in Deutschland bereits; die neue Richtlinie soll sie ausdrücklich europaweit erlauben (Artikel 16). Der Gesetz-Entwurf hebt in diesem Kontext den Erfolg von sogenannten Honeypots hervor. So nennt man es, wenn zum Beispiel die Polizei ein vermeintliches Angebot zum Erwerb von Missbrauchsdarstellungen verbreitet – mit dem Ziel, damit potentielle Täter*innen anzulocken und zu schnappen.
Dafür ist es oft notwendig, dass auch Ermittler*innen selbst Missbrauchsdarstellungen teilen. Mit dieser Hürde versuchen Pädokriminelle im Netz Außenseiter*innen fernzuhalten. Selbst wenn die Beamt*innen dafür künstlich erzeugte Inhalte verwenden, weisen Fachleute auf die schwierige Abwägung hin: Denn auch solche Bilder könnten die Würde von Kindern verletzen.
4. Online-Meldewege für Missbrauch
Wer selbst Ziel von sexuellem Missbrauch wird oder Hinweise auf entsprechende Straftaten hat, soll sich künftig besonders einfach bei Ermittlungsbehörden melden können. Die Richtlinie verlangt hierfür „leicht zugängliche“ und „benutzerfreundliche“ Wege. Sie sollen zudem „sicher“ und „vertraulich“ sein, sowie „in einer kindgerechten Weise und Sprache gestaltet“ sein (Artikel 18).
5. Betroffene besser behandeln
Mehrere Neuerungen in der Richtlinie drehen sich um Mindeststandards, damit Betroffene besser behandelt werden. Zum Beispiel soll die Justiz „kindgerecht“ sein. Konkret heißt das laut Entwurf: „Wenn Opfer im Kindesalter an einem Strafverfahren teilnehmen, sollte das Gericht (…) sicherstellen, dass das Kind dem Verfahren folgen und es verstehen kann.“ Außerdem sollen ärztliche Untersuchungen „auf das unbedingt notwendige Maß beschränkt werden, um die Gefahr einer Retraumatisierung zu begrenzen“ (Artikel 22).
In Artikel 21 des Entwurfs heißt es zudem: „Opfer erhalten eine koordinierte, altersgerechte medizinische Versorgung“ sowie „eine emotionale, psychosoziale, psychologische und pädagogische Betreuung“. Der Knackpunkt bei solchen Maßnahmen dürfte vor allem Geld und Personal sein. In Deutschland klagen Sozialarbeiter*innen immer wieder, das ihnen genau das fehlt.
6. Strafmaß und Verjährungsfrist hochschrauben
Das Strafmaß gibt an, wie viele Jahre ein Mensch für eine Straftat höchstens ins Gefängnis muss. Vor Gericht wird dann je nach Fall entschieden, ob dieses Strafmaß voll ausgeschöpft wird. Bei einigen Straftaten im Zusammenhang mit sexuellem Missbrauch soll die geplante Richtlinie dieses Strafmaß deutlich anheben. Zum Beispiel von fünf auf acht Jahre für „sexuelle Handlungen mit einem Kind“, das das Alter der sexuellen Mündigkeit noch nicht erreicht hat. Die Mitgliedstaaten dürfen das Strafmaß bei diesen und anderen Delikten auf Wunsch höher ansetzen, aber nicht niedriger.
Auch für die Verjährungsfrist sieht die Richtlinie neue Standards vor. Dahinter steht der Gedanke, dass Betroffene „oftmals noch viele Jahrzehnte nach dem Missbrauch nicht in der Lage sind, die Straftat anzuzeigen“, heißt es im Entwurf. Deshalb sollen die Straftaten nicht zu früh verjähren. Die Richtlinie sieht je nach Delikt Mindestfristen von bis zu 30 Jahren vor (Artikel 16). Außerdem sollen Betroffene europaweit einen Anspruch auf Schadensersatz haben (Artikel 23).
7. EU-Zentrum soll Daten sammeln
Nicht zuletzt sollen die Mitgliedstaaten die Entwicklungen rund um sexuellen Missbrauch überwachen und auswerten. Zum Beispiel sollen sie „Tendenzen“ online und offline bewerten (Artikel 24) sowie Statistiken über die einzelnen Straftaten anfertigen, aufgeschlüsselt unter anderem „nach Geschlecht, Alter von Opfer und Täter“ sowie „Beziehung zwischen Opfer und Täter“ (Artikel 31). Zusammenfließen sollen die Daten bei einem EU-Zentrum.
Dieses Organ gibt es aktuell noch nicht, es muss noch gegründet werden. Das EU-Zentrum spielt auch bei der geplanten Verordnung zur Chatkontrolle eine wichtige Rolle. Das ist eine weitere Verzahnung zwischen Richtlinie und Verordnung. Mit diesem EU-Zentrum hat die Kommission offenbar einiges vor, es soll laut Entwurf eine „zentrale unionsweite Wissensplattform“ werden. Das Zentrum soll zudem eine öffentliche Datenbank mit Maßnahmen und Programmen zur Unterstützung von Opfern führen (Artikel 21).
Was passiert als nächstes?
Die Gesetzgebung ist noch in einer sehr frühen Phase. Nachdem die Kommission nun die Richtlinie vorgeschlagen hat, müssen sich Parlament und Rat damit befassen.
Update, 3. April 2023: Wir haben einen Absatz zur Bedeutung der Definition von Missbrauch für die Chatkontrolle ergänzt.
„Einem modernen Verständnis folgend beschreibt Pornografie einvernehmliche, sexuelle Darstellungen von Erwachsenen, ist also nicht mehr passend.“
Das ist wohl war, aber sind Aufnahmen von kleinwüchsigen, oder anderweitig jünger wirkendenden Erwachsenen Darstellern denn nicht „einvernehmlich“ entstanden? Die Definition von „Kind“ bedeutet in der EU „eine Person unter 18 Jahre“.
Jetzt stelle ich mir also folgendes Bild vor: eine Gruppe westlicher Nationen definiert, verbindlich für die gesamte Welt, wie bzw. wann eine Person „unter 18 Jahre“ erscheint? Welchen Maßstab will man hier denn nehmen, um auch den unausweislichen Rassismus zu verhindern? Nimmt man diese Kollateralschäden hin und predigt einen Tag später weiter das „Rasismus jeglicher Art“ keinen Platz in einer modernen Gesellschaft hat, oder aber das „du schön bist, wie du bist“ und sich gegen Bodyshaming ausspricht?
Es ist ehrlich gesagt eher schockierend das der Indikator „Alter“ und „Opfer“ für das Erfüllen einer Straftat in den Hintergrund rückt. Wie sieht es denn aus mit realistischen, extrem brutalen Gewaltdarstellungen? Kein explizites Verbot dagegen, wenn es Kinder darstellt? Geht davon keine Gefahr aus? Dann empfehle ich mal einen Blick, wie viele Opfer von sadistischen Taten es gibt. Alles nur Aktionismus.
Danke für das Verlinken des Abschlussberichtes von der Reformkommission. Was ich interessant finde ist folgender Abschnitt auf Seite 253:
„Die Mehrheit der Mitglieder der Reformkommission sprach sich dafür aus, die eindeutig als
solche erkennbare fiktive Kinder- und Jugendpornographie aus dem Schutzbereich des
§§ 184b und 184c StGB herauszunehmen. Insbesondere sei die Gefahr eines Nachah-
mungseffektes bei eindeutig als Comiczeichnung erkennbaren Schriften etc. zu vernachläs-
sigen. Ein hinreichender Rechtsgutsbezug sei insoweit nicht ersichtlich. In der Praxis sei es
ferner schwierig zu entscheiden, ob es sich bei einer Comicfigur um eine jugendliche Gestalt
im Sinne des § 184c StGB handele“
Damit sei zwar nicht die hier angesprochenen KI generierten, realistischen Abbildungen gemeint, aber wenn ich so darüber nachdenke dann wird es zwangsläufig wohl irgendwann dazu kommen müssen. Mir fehlt die Fantasie, wie man es bewerkstelligen möchte realen und KI generierten Taten hinterherzukommen UND zusätzlich in anderen EU-Staaten legal vertriebene fiktive Inhalte zu „verfolgen“. Ergibt ermittlungstechnisch keinen Sinn ohne hier auf Netzsperren zu greifen. Es werden also mehrere Grundrechte und die Netzneutralität aufgrund – im harmlosesten Fall – Strichmännchenfiguren eingeschränkt…?
Jetzt mal ganz pessimistisch gedacht. Könnte folgende Neuerung:
„jegliches Material unabhängig von seiner Form, das dazu bestimmt ist,
Ratschläge, Anleitungen oder Anweisungen zu sexuellem Missbrauch oder
sexueller Ausbeutung von Kindern oder zur Kontaktaufnahme zu Kindern zu
geben“
nicht auch missbräuchlich genutzt werden? Jede Anleitung, oder Ratschlag ZUM SCHUTZ von Kindern braucht doch nur umgekehrt betrachtet zu werden, oder irre ich mich? Der Begriff „jegliches Material unabhängig von seiner Form“ ist hier sehr vage. Dieses Gesetz gibt es ebenfalls in DE, wo er etwas anders formuliert ist, aber auch hier hatte der Deutsche Anwaltsverein ein Verstoß gegen das Bestimmtheitsgebot gewittert, da ebenfalls medizinische Informationen darunter fallen können.
Je nachdem, wer also zunächst vermeintlich harmlose, oder wissenschaftliche Informationen besitzt, macht sich strafbar. Bspw. ein nachweislich Pädophiler, oder „unliebsamer“ Mensch.
Ebenfalls interessant das nun eine zentrale Datenbank eröffnet werden soll, wo dann auch
Erwachsene Personen ihren Einzug finden sollen, wenn eine Person sie für zu jung aussehend hält. Ich weiß nicht was man geraucht haben muss, um das zu beschließen, aber aufgepasst ihr 20 Jährigen Studenten, die an der Kasse noch ihren Ausweis vorzeigen müssen.
Das paradoxe an diesem Gesetz ist vielmehr folgende Konstellation:
A) Eine Minderjährige Person teilt ein Foto von sich mit einer anderen gleichaltrigen Person = Nicht strafbar.
B) Eine junge Erwachsene Person teilt ein Foto von sich mit einer anderen Erwachsenen Person = pot. strafbar da sie für x wie 17 wirkt.
Wo ist da die Logik?
„Reaktion auf Deepfakes“
Deepfake beschreibt das Erstellen von künstlichen Inhalten mit dem Erscheinungsbild einer real existierenden Person. Hier geht es doch aber eher um die Generierung künstlicher Inhalte?
In den USA gab es ebenfalls eine „Reaktion auf Deepfakes“, aber dort blieb es auch genau dabei, da dort nur Darstellungen unter Strafe gestellt wurden, die auch „the likeness of a real child“ benutzt haben.
Was ich mich in Anbetracht aktueller technologischer Fortschritte frage ist, ob „Gedanken“ bereits erfasst sind? Zählen „Bilder im Kopf“ bzw. gedankliche Inhalte auch zu kinderpornographischen Inhalten? Ein Mensch kann ja ganz bewusst bestimmte Bilder im Kopf „generieren“, oder reale Fotos gedanklich abrufen.
Sollte also jemand offen zugeben er provoziere ganz bewusst solche „Inhalte“ im Kopf dann ruft er diese ja vorsätzlich ab. Naja, diese Frage wird man sich wohl erst stellen, wenn es technologische Mittel gibt, die Menschen bei der Visualisierung von Gedanken helfen.
Kann diese neue Regelung in Anbetracht der pot. einfachen Massenproduktion und Lahmlegung von Strafverfolgungsbehörden nachvollziehen, aber solch ein Verbot wird das Problem ja nicht verhindern. Es wird quasi etwas unter Strafe gestellt, was in allen EU-Staaten schon bereits erfasst wird.
Man könnte die Verordnung also dahingehend verstehen das Hersteller von KI-Systemen Filter einbauen und solche Inhalte erkennen und die Ausgabe blockieren. Das passiert m. E. doch aber schon? Die Open Source Bildgeneratoren, welche Lokal auf einem Rechner laufen wird man da ja nicht erfassen/aufhalten können?
Ein weitere Punkt was die Verordnung aber klarstellt ist die Kritik von Befürwörtern solcher Inhalte, oder Befürchtungen abzuweisen und sie EU-einheitlich ganz klar unter Strafe zu stellen und pot. Diskussionen auszumerzen. In Finnland gibt es solche Diskussionen schon seit gut vier (?) Jahren mit dem Argument das hyperrealistische Gewalt die Medienlandschaft dominiert, aber reale Gewalttaten weltweit eher abnehmen. Kann man jetzt positiv, oder negativ sehen, aber es schafft ein Streitthema ab.
Warum eine Richtlinie parallel zu einer Verordnung? Weil das etwas unklar blieb:
1) Die Chatkontrolle-Verordnung hat als Rechtsgrundlage Artikel 114 des Vertrags über die Arbeitsweisen der Union (AEUV), wo es um harmonisierung des Binnenmarktes geht. Sie regelt ja vor allem Pflichten der Anbieter von Online- und Zugangsdiensten. Außerdem richttet sie ein neues EU-Zentrum ein, was auch nur per EU-Verordnung geht, die unmittelbar gilt.
2) Die neue Richtlinie novelliert eine Richtlinie von 2011, bei der die Rechtsgrundlage Artikel 82(2) und 83(1) AEUV sind. Artikel 82(2) betrifft die Harmonisierung von Mindeststandards im prozessualen Strafrecht, Artikel 83(1) betrifft Mindeststandards im materiellen Strafrecht für sogenannte „EU-Straftaten“. Gesetze nach Artikel 82 und 83 AEUV dürfen nur Richtlinien sein, die von den Mitgliedstaaten noch umgesetzt werden müssen – eben weil es nur Mindeststandards sind, keine volle Harmonisierung.