Kindesmissbrauch und TerrorismusMehr filtern, weniger verschlüsseln

Im Kampf gegen Kindesmissbrauchsinhalte plant die EU-Kommission neue Maßnahmen. Künftig soll sich das EU Internet Forum, das sich bislang gegen terroristische Inhalte richtete, auch Missbrauchsinhalte ins Visier nehmen. Neben den freiwilligen Ansatz will EU-Innenkommissarin Ylva Johansson ein Gesetz stellen.

EU-Innenkommissarin Ylva Johansson kündigte neue Maßnahmen im Kampf gegen Darstellungen von Kindesmissbrauch an. (Screenshot) – Alle Rechte vorbehalten EU-Kommission

Eine einst für terroristische Inhalte ins Leben gerufene Datenbank mit digitalen Fingerabdrücken soll künftig auch Darstellungen von Kindesmissbrauch aus dem Netz filtern. Das gab gestern die EU-Innenkommissarin Ylva Johansson auf einer Sitzung des EU Internet Forum bekannt. Zudem bereite sie ein neues Gesetz vor, das Online-Dienste dazu verpflichten soll, Kindesmissbrauchsinhalte zu melden und zu löschen, kündigte die schwedische Kommissarin an.

Korrektur, 19.4.2021: Wie aus dem Transkript der Rede von Ylva Johansson hervorgeht, ist es nicht das Global Internet Forum to Counter Terrorism“ (GIFCT), sondern das EU Internet Forum, das seinen „Horizont ausweiten“ und gegen Darstellungen von Kindesmissbrauch vorgehen will. Dass in der vom GIFCT betriebenen Datenbank künftig neben digitalen Fingerabdrücken terroristischer Inhalte auch solche von Kindesmissbrauchsinhalten liegen sollen, ist nicht richtig. Wir bedauern den Fehler.

Beide Maßnahmen haben laut Johansson den Umgang mit Kindesmissbrauchsinhalten im Internet im Blick und sollen bereits bestehende Mittel ergänzen. Anbieter wie Facebook beklagen derzeit Rechtsunsicherheiten, wenn sie Inhalte auf ihren Diensten freiwillig auf einschlägiges Material sichten.

Ein Ende letzten Jahres in Kraft getretener EU-Kodex für elektronische Kommunikation stellt solche Internet-Anbieter mit herkömmlichen Telekommunikationsdiensten gleich und erhöht für sie die Anforderungen an den Datenschutz. Eine gesetzliche Regelung, wie sie etwa die E-Privacy-Verordnung schaffen könnte, lässt jedoch bis heute auf sich warten.

In den letzten Monaten seien Meldungen über Kindesmissbrauchsinhalte um rund 50 Prozent gesunken, beklagte Johansson. Bis auf weiteres setzt etwa Facebook die Durchleuchtung von Inhalten auf derartiges Material aus, im Unterschied zu Google oder Microsoft.

Gegen letztere beiden Unternehmen hat der EU-Abgeordnete Patrick Breyer kürzlich Datenschutzbeschwerden eingereicht. „Den US-Konzernen fehlt der Respekt vor dem digitalen Briefgeheimnis, das in Europa ein Grundrecht ist“, teilte der Pirat in einer Pressemitteilung mit. Hier müsse rasch eine Lösung her, um die aktuelle Rechtsunsicherheit zu beseitigen, sagte Johansson.

Ausgangspunkt ISIS-Propaganda

Das EU Internet Forum wurde vor rund sechs Jahren von der EU ins Leben gerufen, am Tisch sitzen neben der EU-Kommission Behörden wie Europol und große Plattformbetreiber wie Facebook und Google. Im Visier der Runde standen ursprünglich terroristische Inhalte im Internet, vor allem Propaganda des damals umtriebigen sogenannten Islamischen Staates (ISIS).

Das Forum legte den Grundstein für das „Global Internet Forum to Counter Terrorism“ (GIFCT) und seine Datenbank mit digitalen Fingerabdrücken von mutmaßlich terroristischen Inhalten. Gemeinsam betrieben von den großen Anbietern Facebook, Microsoft, Facebook und Twitter, haben sich mittlerweile über ein Dutzend Betreiber daran angeschlossen, darunter Reddit, Amazon und Dropbox.

Inzwischen enthält die Datenbank über 300.000 sogenannter „Hashes“. Sie dienen Uploadfiltern als Grundlage, das erneute Hochladen dieses Materials zu unterbinden. Mangelnde demokratische Kontrolle sowie das Entstehen von „Inhaltekartellen“ haben in der Vergangenheit zu scharfer Kritik von Menschenrechtsorganisationen an diesem Ansatz geführt.

Befürchtet wurde zudem eine Ausweitung auf andere Inhalte, wie es unter anderem Bundesinnenminister Horst Seehofer von der CSU bereits 2018 gefordert hatte. In einem Brief an die EU-Kommission forderte Seehofer eine Evaluation des Ansatzes und gegebenenfalls um eine Erweiterung „um Maßnahmen zur Bekämpfung kinderpornografischer Inhalte und sonstiger rechtswidriger Inhalte“. Dies ist nun offenkundig eingetreten.

Inhalte oft schwer zu beurteilen

Die Hash-Datenbank des GIFCT wird flankiert von der Ende letzten Jahres fertig verhandelten EU-Verordnung gegen terroristische Inhalte im Internet. Zwar enthält sie nicht mehr gegebenenfalls behördlich angeordnete Uploadfilter, wie es die EU-Kommission ursprünglich vorgeschlagen hatte. Der Druck auf die Plattformen, freiwillig nach solchen Inhalten zu suchen und sie auszusieben, hat jedoch kaum nachgelassen.

Allerdings sei es nicht einfach, terroristische Inhalte zu monitoren und zu beurteilen, was legal und was illegal ist, sagte der portugiesische Innenminister Eduardo Cabrita, dessen Land seit Jahresbeginn die EU-Ratspräsidentschaft innehat. Ähnlich sei es bei mutmaßlichen Missbrauchsdarstellungen, sagte der Sozialdemokrat. Auch das Problem, wenn Ermittler nicht auf verschlüsselte Kommunikation zugreifen können, werde nicht einfach zu lösen sein, mahnte Cabrita. Hier müsse man sich zunächst auf „gemeinsame Definitionen und Leitlinien“ einigen.

Ein EU-Krisenprotokoll, das derzeit weiterentwickelt wird, solle nur in „außerordentlichen Situationen“ zum Zug kommen, so der Portugiese. Aber es könne zu einem „fundamentalen Mechanismus“ werden, um kollektiv und rasch auf Terroranschläge wie dem in Wien zu reagieren.

Putschversuch und Deplatforming

Johansson zeigte sich erfreut über den Abschluss der Verhandlungen zu Terrorinhalten, auch wenn sich die Kommission nicht vollständig durchsetzen konnte. Die EU-Verordnung, die dieses Jahr in Kraft treten soll, sei wichtig, werde aber „nicht alle Probleme lösen“. Angesichts des blutigen Sturms auf das US-Kapitol, bei dem rechte Extremisten die Zertifizierung des US-Wahlsiegers Joe Biden verhindern wollten, stellten sich weitreichende Fragen, so Johansson.

„Das Internet gibt Menschen eine Stimme, verbindet und einigt Menschen“, sagte Johansson. „Aber es gibt auch Demagogen eine Stimme und mobilisierte einen Mob in Washington“. Monatelang hatte der Ex-Präsident Donald Trump mit allen Mitteln, darunter seinem Twitter-Account, versucht, das Wahlergebnis umzustürzen. Von Trump und anderen Republikanern angefeuert, planten rechte Gruppen über das Internet den letztlich erfolglosen Putschversuch, der fünf Todesopfer zur Folge hatte.

Als Konsequenz nahm Twitter in Eigenregie Trump sein digitales Megaphon weg, Infrastrukturanbieter entzogen der weitgehend unmoderierten rechten Nischenplattform Parler die technische Grundlage. Die Internet-Dienste hätten damit Verantwortung übernommen, sagte Johansson, allerdings: „Freiwilliges Handeln ist gut und muss weiter verfolgt werden, aber es ist nicht genug“.

„Regierungen haben auch eine Verantwortung“, so Johansson weiter. Nur Politiker, die gewählten Parlamenten Rede und Antwort stehen könnten, sollten entscheiden, was legal ist und was illegal – und nicht private Unternehmen, sagte Johansson. Die EU müsse nun in dieser globalen Debatte eine Vorreiterrolle einnehmen, wie es etwa bei der Datenschutz-Grundverordnung der Fall ist.

Paradoxerweise erwähnte Johansson aber den Gesetzentwurf für digitale Dienste mit keinem Wort, der viele dieser schwierigen Fragen demokratisch beantworten könnte. Eine Lösung müssten, neben der EU-Kommission, „nationale Regierungen, Europol, Internet-Unternehmen, das GIFCT und die Vereinten Nationen“ gemeinsam entwerfen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

5 Ergänzungen

  1. zitat netzpolitik.org
    “ Zudem bereite sie ein neues Gesetz vor, das auf verschlüsselte Messenger-Nachrichten abziele, kündigte die schwedische Kommissarin an, ohne weitere Details zu nennen.“

    zitat cio.de ( 18.01.2021 ):
    „Die Verschlüsselung von Nachrichten-Diensten wie Whatsapp oder Telegram soll nach dem Willen der EU-Kommission nicht aufgeweicht werden. Die Brüsseler Behörde plant keinen Vorschlag für ein allgemeines Verbot verschlüsselter Kommunikation, heißt es in einem Schreiben von EU-Innenkommissarin Ylva Johansson an drei EU-Abgeordnete. Es werde keine Lösung in Betracht gezogen, die Verschlüsselung grundsätzlich für alle Bürger schwächen oder direkt oder indirekt verbieten würde.“

    komplettes posting:

    https://www.cio.de/a/eu-kommission-will-verschluesselte-kommunikation-nicht-schwaechen,3651336

    ??? was denn nun

    1. Die Aussagen aus der Kommission (und dem Ministerrat) sind oft genug widersprüchlich bzw. kommt es auf Details an um zu verstehen, was wirklich gemeint ist. Leider hat Johansson diese entscheidenden Details eben nicht genannt. Vielleicht meinte sie auch „nur“ den Facebook Messenger (und nicht Messenger allgemein), aber klar wurde das nicht.

      Auf eine konkrete Frage von Alex Fanta im Dezember wollte Johansson jedenfalls keine eindeutige Antwort geben: https://netzpolitik.org/2020/eu-kommissarin-wir-brauchen-eu-vorschrift-zu-verschluesselung/

    2. „Nicht für alle aufweichen, sondern nur für schwergewichtige Straftäter.“
      Deckt sich auch mit Anscheinsantwort auf die Kritik derjenigen die die Verfassung für sinnvoll halten (würde Verschlüsselung für alle schwächen, was schlecht wäre). Dass man den Kurs nicht ändert ist bisher wohl intern nicht auf Problembewusstsein getroffen, es wurde dann zurückgerudert, wenn es geht eben nur verbal (Nebel).

      (Demnächst in diesem Theater: Um organisierte Kriminalität bekämpfen zu können, muss auch ein Parkticket eine Ermittlung anstoßen können… weil das zu viele Resourcen binden würde, sollen Streifen- und Bürokräfte bei Verdacht Anfragen stellen können, so dass die spezialisierten Ebenen nicht überbeansprucht werden… ALLES HABEN ALLES HABEN ESSEN ALLES)

  2. Ja nur bei Kinderpornographie – damit das dann nicht nach „immer“ aussieht wird der Effekt für den anderen Fall gemildert. Also nicht ganz Uploadfilter verhindert (Uploadfilter eingeführt, dabei dann Regeln gemacht, wann nicht geblockt wird, aber es wird ja gefiltert und dadurch nicht nur alles datengesammelt, denn immer noch die Frage: wenn das Overblockingproblem im Technischen sitzt, wie erkennt „sich“ technisch dann z.B. 50% eines Werkes? Die Abschwächung wurde wohl von irgendwem statistisch vorgerechnet, wie wird es bei Kinderpornographie aussehen? Der Eingriff findet nicht statt, weil wir den Kopf nur abtrennen, wenn wir [nach Häkchensetzen durch in einen IT-Vorgang externalisierten „Richter/Vorbehalt“] der Meinung sind, dass…).

    Wenn Fachliches nicht zählt, gibt es nur „immer weiter“, vor allem, wenn die Politik sich ein „Kosmetikstadl“ gebaut hat, also den Bezug zur Realität selbst definieren will, während „das Volk“ durch PR beglückt wird, und außerhalb der PR-Sicht auch nicht wirklich vorkommt.

    1. Ich glaube das ist alles einfach nur der Effekt von ganz normaler Gamification. Alles wird zum Spiel, und dann verlieren die Spieler auch mal den Abstand zum Spiel, das Spiel wird zumindest zwischendurch ab und zu zur Realität. Lässt man Psychopathen ran, geht es natürlich alles viel schneller und nachhaltiger…

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.