Uploadfilter sind aus dem Internet schon lange nicht mehr wegzudenken. Spamfilter sieben unerwünschte Kommentare und Werbeposts aus, PhotoDNA Darstellungen von Kindesmissbrauch, Content ID urheberrechtlich geschützte Werke und ThreatExchange terroristische Inhalte.
In vielen Fällen funktioniert die Technik einigermaßen zuverlässig – aber noch lange nicht in allen. Unverfängliche Beiträge finden sich dann im Spamordner wieder, ikonografische Kriegsfotografien enden womöglich im digitalen Nirvana.
Trotzdem sehen viele Politiker automatisierte Inhalteerkennung als eine Art Wundermittel, um missliebige Inhalte aus dem Netz zu fegen. Zunehmend wollen sie den Einsatz solcher Mittel gesetzlich vorschreiben, etwa im Zuge der EU-Urheberrechtsreform oder dem aktuell verhandelten EU-Gesetz gegen terroristische Inhalte.
Großer Umbau geplant
Mit dem geplanten Digitale-Dienste-Gesetz zeichnet sich bereits das nächste umfangreiche Gesetzespaket ab, in dem solche Vorschriften enthalten sein könnten. Vor dem ersten Gesetzentwurf der EU-Kommission wollte es der Rechtsausschuss des EU-Parlaments aber genauer wissen.
Seit Kurzem liegt nun eine von den Abgeordneten in Auftrag gegebene Studie der „Fachabteilung Bürgerrechte und konstitutionelle Angelegenheiten“ der EU vor. Erstellt von Giovanni Sartor und Andrea Loreggia vom Europäischen Hochschulinstitut in Florenz gibt sie einen Überblick über den Einfluss, den Algorithmen auf Inhalteerkennung und -moderation im Internet haben.
Optionen für gesetzliche Regelungen
Vor allem gibt sie den Abgeordneten wie der Zivilgesellschaft einen Ausblick auf Optionen, die in das Digitale-Dienste-Gesetz einfließen könnten. Dieses soll die gut 20 Jahre alte eCommerce-Richtlinie ersetzen und wird damit prägen, wie der europäische digitale Raum auf absehbare Zeit aussehen wird.
Die Richtlinie legt unter anderem die bedingte Haftungsfreiheit für Online-Dienste sowie das Verbot allgemeiner Überwachungspflichten fest. Geht die anstehende Reform dieser Grundprinzipien jedoch schief, könnte dies unter anderem die Meinungsfreiheit im europäischen Internet gefährden, warnt die Studie.
Uploadfilter manchmal sinnvoll
Grundsätzlich kann der Einsatz automatisierter Systeme manchmal sinnvoll sein. Darauf weisen inzwischen auch Netzaktivist:innen hin, etwa die Digital-NGO Access Now. „Wir glauben, dass Uploadfilter eine Rolle in sehr spezifischen und außerordentlichen Fällen spielen können – gesetzt den Fall, dass diese Systeme transparent sind und regelmäßig durchleuchtet werden“, sagte jüngst Javier Pallero, der Policy-Chef von Access Now, gegenüber netzpolitik.org.
Dies fordern auch die Autor:innen der Studie. Sollten solche Werkzeuge tatsächlich eingesetzt werden, dann müssten sie allfällig Open Source sein – schon allein, weil die Entwicklung teuer und nur für große Anbieter machbar ist. Gleichzeitig weist die Studie darauf hin, dass quelloffene Software nur die halbe Miete ist. Plattformen brauchen eine Infrastruktur sowie ausreichendes Datenmaterial, um mit den großen Anbietern mithalten zu können.
Effektive Berufungsmöglichkeiten
Möglichst transparent sollte bei algorithmisch getroffenen Entscheidungen die gesamte Kette ausfallen und „prozedurale Rechtsmittel“ gesetzlich verankert werden. Nutzer:innen, deren Inhalte automatisiert ausgefiltert oder „herabgesetzt“ wurden, sollten nicht nur informiert werden. Die Entscheidung sollte auch begründet werden, zudem müsste es Berufungsinstanzen geben, die aus Menschen bestehen. Gegebenfalls könnten solche Entscheidungen auch an unabhängige Schiedsstellen ausgelagert werden.
Ferner empfehlen die Autor:innen, zwar eine harmonisierte und EU-weite Regulierung anzustreben, den EU-Ländern aber ausreichend Spielraum in der Bewertung illegaler Inhalte zu geben. Was in einem Land legal ist, muss nicht notwendigerweise für andere Länder gelten und umgekehrt.
Breite Debatte notwendig
Vor allem aber fordert die Studie eine möglichst breite Debatte über Inhaltemoderation und im Besonderen über Uploadfilter. Daran teilnehmen sollten nicht nur politische und administrative Akteure, sondern auch die Zivilgesellschaft und die akademische Welt. „Diese Debatte sollte rechtliche Regulierung in einen breiteren Kontext stellen, der das Verhältnis zwischen menschlichen und sozialen Werten und dem Online-Informationsökosystem adressiert“, so die Autor:innen.
Uploadfilter funktionieren überhaupt gar nicht. Einige Konzerne haben ihre eigenen, die strikt auf Geschäftserhalt getrimmt sind, irgendwo gibt es Kooperation zwischen Konzernen, aber das war es dann auch schon. Für den allgemeinen Fall sind existierende Systeme mitnichten anwendbar, da sie im Zweifel die bestzahlenden Kunden bevorzugen. Anderslautende Behauptungen sind dem Stand der Dinge nach wohl eher vogelwilde PR.
Das ist für unsere Politik natürlich kein Problem – wir sehen offenbar auf „bestzahlende Kunden“ zugeschnittene Richtlinien und Gesetzgebung…
„Uploadfilter manchmal sinnvoll“ – kann ja so sein. Aber das ist dann ein so schmaler Anwendungsbereich, dass man sich nochmal genau überlegen muss, ob es klug ist die Büchse der Pandora zur Deko auf den Tisch zu stellen, und einfach darauf zu hoffen, dass nicht irgendwann jemand auf die Idee kommt sie aufzumachen, wo sie doch sowieso schon mal da ist! (Genau das erwarte ich leider: ist die Infrastruktur da wird bald wie irrsinnig darauf losgefiltert, immer mehr, immer öfters, immer pingeliger …)
„Breite Debatte notwendig“ – Debatten kann man sich eigentlich sparen, wenn es wieder so läuft wie sonst auch mit Berlin: nach ein paar Monaten erklärt Ministerin X die Debatte für beendet und tut das, was sie schon von Anfang an tun wollte. Aber gut, dass wir darüber gesprochen haben.
Uploadfilter sind niemals sinnvoll. Automatisierte Filterung wird immer, unweigerlich zur Zensur. So gut ist die automatische Erkennung von Bildern, Videos, Texten und Audiofiles einfach nicht.
Kommt der Rotz läuft bei mir nichts mehr ohne Tails/Vpn/Tor.