Datenschutz

Bundesdatenschutzbeauftragter warnt vor Uploadfiltern

Die EU-Urheberrechtsreform in der jetzigen Form wird eine automatisierte Inhaltskontrolle bringen. Diese Uploadfilter könnten nicht nur der Grundstein für eine Zensurinfrastruktur sein, sie sind auch aus datenschutzrechtlichen Gründen bedenklich. Die EU solle darlegen, wie die Reform ohne Uploadfilter umgesetzt werden könne, fordert der Bundesdatenschutzbeauftragte Ulrich Kelber.

Schematische Darstellung eines Uploadfilters aus Alexander Lehmanns Film „Uploadfilter Erklärt“ CC-BY-SA 4.0 Alexander Lehmann

Die EU-Urheberrechtsreform könnte zu erheblichen datenschutzrechtlichen Problemen führen, warnt der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, Ulrich Kelber. Beim Einsatz von Uploadfiltern bestehe die Gefahr, dass wenige große Anbieter, die eine entsprechende Technik zur Verfügung stellen, verstärkt Daten über Nutzer vieler Plattformen und Dienste im Internet gewinnen würden.

Kelber warnt deshalb vor möglichen Konsequenzen der Reform. Auch wenn Uploadfilter nicht explizit im Gesetzentwurf gefordert würden, geht er davon aus, dass diese in der Praxis eingesetzt werden müssten. Kelber sagt: „Gerade kleinere Plattform- und Diensteanbieter werden nicht die Möglichkeit haben, mit allen erdenklichen Rechteinhabern Lizenzverträge zu schließen. Ebensowenig werden sie den immensen Programmieraufwand betreiben können, eigene Uploadfilter zu erstellen. Stattdessen werden sie auf Angebote großer IT-Unternehmen zurückgreifen, so wie das heute schon unter anderem bei Analysetools passiert, bei denen die entsprechenden Bausteine von Facebook, Amazon und Google von vielen Apps, Websites und Services verwendet werden.“

„Nicht auf dem Rücken der Internetnutzer“

Letztendlich entstünde so ein Oligopol weniger Anbieter von Filtertechniken, über die dann mehr oder weniger der gesamte Internetverkehr relevanter Plattformen und Dienste laufe. Diese würden dann weitreichende Informationen über alle Nutzerinnen und Nutzer erhalten, so Kelber weiter. Der Bundesdatenschutzbeauftragte fürchtet, dass die EU-Urheberrechtsreform als Nebeneffekt eine weitere Konzentration von Daten bei den großen Plattformen bewirkt. Gerade vor dem Hintergrund des nur ein paar Wochen alten Beschlusses des Bundeskartellamts zu Facebook sollte der Fokus eigentlich darauf gelegt werden, genau das Gegenteil zu erreichen, so Kelber.

„Wenn die EU der Auffassung ist, dass Plattformbetreiber auch ohne Uploadfilter ihrer neuen Verantwortung sinnvoll nachkommen können, muss sie dies klar darlegen.“ Andernfalls müssten die Pläne aus datenschutzrechtlicher Sicht noch einmal grundlegend überarbeitet werden. Denn bei aller Notwendigkeit der Reform dürfe diese nicht auf dem Rücken und zu Lasten des Datenschutzes der Internetnutzerinnen und -nutzer erfolgen.

Proteste gegen Uploadfilter gewinnen an Stärke

Gegen die EU-Urheberrechtsreform hat sich mittlerweile massiver Protest formiert – auch auf der Straße. In Köln demonstrierten in den letzten zwei Wochen jeweils mehrere Tausend Menschen. Am kommenden Samstag, den 2. März, wird es in Berlin unter dem Motto #berlingegen13 eine Demonstration geben, zu der ein Bündnis von Bürgerrechtsorganisationen, Journalistenverbänden und Parteien aufruft.

Es wird nicht die einzige Demonstration zum Thema in Berlin bleiben. Am 23. März sollen dann europaweit Demonstrationen stattfinden, es bildet sich dafür gerade auch ein großes europäisches Bündnis. Für diesen Tag sind allein in deutschen Städten 17 Demonstrationen angemeldet sowie laut SavetheInternet Aktionen in Städten in Polen, den Niederlanden und in Belgien. Darüber hinaus sind noch weitere Proteste in Planung, so dass die Liste in den nächsten Tagen länger werden dürfte.

Eine europaweite Kampagne ruft zudem zum Protest per Telefon auf. Auf www.pledge2019.eu können Menschen aus Europa bis zur finalen Abstimmung im Plenum des EU-Parlaments in den Büros ihrer Abgeordneten anrufen.

Gegen die Uploadfilter hatte sich schon in den letzten Wochen reger Widerspruch im Netz geregt, der sich in Videos, Meme, Mails, Tweets und Petitionen äußerte. Seit vergangenem Samstag ist der Protest auf der Straße angekommen: Zwischen 1.000 und 2.000 Menschen demonstrierten in Köln gegen die Uploadfilter bei einer Veranstaltung, die sehr kurzfristig angesetzt war. Spannend an diesem Protest ist die Tatsache, dass die Youtube-Community über eine sehr große Reichweite unabhängig von klassischen Medien verfügt und so schnell viele Menschen mobilisieren kann. Über die Urheberrechtsreform stimmt das Plenum des Europaparlaments aller Voraussicht nach final zwischen dem 25. und 28. März ab.

21 Ergänzungen
  1. Man darf nicht vergessen, dass kleinere Anbieter entweder alles zeitaufwändig einzeln prüfen, auf die Gefahr hin, etwas zu übersehen, oder eben auf einen rechtssicheren Filterdienst ausweichen müssten, sobald ein solcher existiert und im Budget liegt. Bis dahin wäre dann Bangen oder Schließen dran.

    Offensichtlich können sich kleinere Anbieter keine Verträge mit den Inhaltsriesen leisten, und auch Google und Facebook und sonstetwas können es nur, wenn im Gegenzug dafür dann Rechtssicherheit hervorgeschissen kommt. Und am Rande … wie schön ist es dann für den einzelnen Urheber, wenn sich die Situation ohne Lobby dann zu verschlechtern droht, weil wieder mal nur die Großen im trockenen Boot sitzen? Anderes Thema, oder doch dieses?

    Erst wenn es einen rechtssicheren Filter gibt, und dieser/solcher erbarmungsbedingt gegen Geld/Daten/Blut/Seele auch kleineren Anbietern zur Verfügung steht, dann können letztere darüber nachdenken, ihre Foren wieder online zu stellen. Bis dahin bleibt es ein Kahlschlag, und bleibt es bzgl. derer, die die Kosten nicht aufbringen können oder wollen.

    Ein nicht durch Unterlassung und Lobbyinkontinenz getriebener Gesetzgeber könnte versuchen, reparierend einzugreifen. Besser wäre es, den Entwurf als offensichtlich fehlerbehaftet einzustampfen. Demokratie hat so keine Chance, da Änderungsanträge nahezu beliebigen Inhalt ermöglichen – ein Gesetz müsste einen formulierten Sinn oder eine Richtung haben, so dass Änderungsanträge, die dem nicht ensprechen, automatisch als formfehelerbehaftet abgelehnt werden und gar nicht erst zur Abstimmung vorgelegt werden können. Im Grunde sollte nicht einmal Redezeit aufs Budget des Gesetzes verschwendbar sein, sofern solche Teile enthalten sind. Rechtswidersprüche und implizite Folgen sind auf europäischer Eben auch zu bedenken, da bekannterweise (im NEULAND jetzt) die Modellierungsfehler am Anfang die teuersten sind.

    In-game Chat ist auch so eine Sache, werden dort auch alle übers brennende Knie geworfen? Vielleicht erst, wenn Foren durch Onlienespiele ersetzt werden, dann bewegt sich unser Gesetzgeber. Keine Welt zum Anfangen.

    1. Rechtssicherheit bezieht sich nicht auf Technik (Filter oder Forum), sondern auf Statuten, also Verträge und Verordnungen. Diese sollen verständlich sein.

      Rechtssicherheit kann also ein Filter gar nicht ermöglichen oder verhindern. In den jeweiligen Verträgen, die ggf. zwischen Filteranbieter und Contentplattform abgeschlossen werden, kann ein Haftungsübergang vereinbart werden. Das könnte auch gesetzlich geregelt werden. Nur hier kann Rechtssicherheit hergestellt werden.

      Der Programmieraufwand eines Filters ist dank open source community nicht wirklich das Nadeloer. Es ist eher der jeweilige Rechenaufwand und die Datenbank bzw. Datenbankenschnittstelle, die erstellt und betrieben werden muss.

      Chuck Norris kann also zu Hause bleiben.

      1. Rechtssicherheit für den Betrieb eines von der Reform betroffenen Angebotes meine ich im übergeordneten Sinne, d.h. ein Anbieter kann kalkulieren. Europa oder „die Staaten“ müssten schon klare Regeln etablieren, nach denen man einen Dienst anbieten kann, ohne dass man von Abmahnbomben vernichtet wird – d.h. es gibt eine verbindliche Staatliche Datenbank, oder eine Zertifizierung für Filterdatenbanken mit Persilschein bei Benutzung (und Löschpflicht innerhalb von soundso Zeit, von mir aus, wenn etwas nachgewiesenermaßen nicht erfasst ist, oder durchrutscht), oder eine Präzisierung, dass es doch nicht für kleine gilt, was auch immer. Sonst haben wir den Fall, dass unabhängig von der Filterlösung, kein abmahnsicherer Betrieb mehr möglich ist, so man Benutzer etwas eingeben lässt, spätestens nach drei Jahren Existenz.

        In dem Szenario, in dem der Gesetzgeber keinen „Handel“ eingeht, d.h. vielleicht noch Google und Facebook mit den größten Rechteverwertern usw. Verträge eingehen, und Filtertechnik mit Restrisiko betreiben, sind die kleinen auf jeden Fall kaputt, dann steht auch keiner mehr auf, weil es einfach ist, etwas zu platzieren, was nicht im Filter ist, aber nach Urheberrecht dort nicht stehen darf. Dann folgt eine Abmahnung (mal N nehmen, ja nach Kleinheit des Dienstes), und das ist das Ende eines großen Teils des relevanten Angebotes im Internet (nicht google/facebook).

        Ich mag begrifflich nicht ganz korrekt liegen, aber ohne dass der Staat sagt, man könne so ein Angebot machen, ohne Abmahnrisiko für den typischen Fall, ohne das ist’s keine Rechtssicherheit für den Betrieb eines von der Reform betroffenen Angebotes.

        Sonst wird ein kleiner Anbieter, selbst bei Benutzung einer Filterlösiung eines großen Anbieters, eben jenen Chuck Norris brauchen, wie ich erwähnt hatte, nicht um den Filterzugriffscode zu schreiben, sondern um zu verhindern, abgemahnt zu werden, z.B. durch Sichtung allen Materials auf allen Medien, dies es so gibt. Eine sehr schnell arbeitende Variante von Sysiphos könnte auch funktionieren.

        Also man müsste alles nicht erfasste Material erfassen, damit man existieren kann, Gibt es dafür etwas Griechisches?

      2. Eigentlich schrieb ich ja das, bzw. soetwas.

        Es ist natürlich nicht mittels Programmieraufwand zu bewerkstelligen, weil dann immer noch keine Rechtssicherheit besteht. Es wurde im Artikel aber auf den Programmieraufwand den die Kleinen nicht leisten könnten verwiesen. Die kleinen können auch keinen Weltraumaufzug bauen, hätte man das vielleicht erwähnen sollen? Vielleicht habe ich auch den Text nicht verstanden…

        Rechtssicherheit meint natürlich die Sicherheit, nicht durch Abmahnungen zerstört zu werden, z.B. wenn Benutzer eines Dienstes Abmahnbomben platzieren. Das muss das Gesetz bewerkstelligen, sonst war es das für kleinere Anbieter, während die Großen zumindest mit Rechteverwertern Verträge leisten können.

        Die vermeintliche „Lösung“, auf Filterprodukte größerer Anbieter auszuweichen, birgt große Risiken, z.B. auch die temporäre Blockade ganzer Themenbereiche, weil die Großen als erste berichten wollen. Hier fehlt Spezifikation und für private Dienste wohl ein rechtlicher Rahmen, auch wenn „Zertifizierung“ unschön klingt.

        Eine Open-Source Lösung ist denkbar, aber das Pflegen der Datenbank ist (auch schon bei privater Hand) hochproblematisch. Zum einen müsste die Datenbank im Sinne der Richtlinie akzeptiert sein (Rechtssicherheit Punkt 1), zum anderen muss die Datenbank „irgendwie sicher“ geführt werden, da bösartige Datensätze (zähle Überspezifisches dazu) schnell zum Infragestellen der „Lösung“ führen könnten – d.h. eigentlich muss auch hier schon vom Gesetz spezifiziert werden, wie so eine Datenbank zu befüllen ist (Rechtssicherheit Punkt 2). Weiterhin… kostet es dann Geld, seine Machwerke dort einzuspeisen? Kann eine Trollfabrik einspeisen? Fallen „kleine Urheber“ heraus, wenn die nicht in der GEMA o.ä sind? Verschlechtert sich deren Position dann sogar? „Kleine Urheber“ bezahlen extra oder müssen ein Gerichtsurteil vorweisen, „Große“ sind per Klüngelvertrag drinnen, „wie soll man es denn auch sonst machen?“.

        Das ganze ist ein Riesenmist, die sollten zuerst einmal Begriffe aufarbeiten und Begrifflichkeiten für sich in Richtlinien gießen, auf die sich weitere Richtlinien dann beziehen, damit nicht jede neue Richtlinie und jeder Änderungsantrag neue Nebelformulierungen für irgendwie ähnliches enthält.

  2. Eine Frage rein interessehalber:

    Hat es einen Grund, warum ihr heute ein Video einbindet, das ihr gestern mit und heute ohne die Signatur „Alexander Lehmann CC-BY-SA“ gekennzeichnet ist?

    Da bei der Filterdarstellung auf Alexander Lehmann verwiesen wird, ist das vermutlich unproblematisch, aber würde mich einfach interessieren.

    1. Verstehe nicht, was du meinst. Der Bildausschnitt im Artikelaufmacher-Bild hat doch eine Kennzeichnung der Lizenz. Das eingebundene Video nicht. Beim anderen Artikel auch nicht.

  3. Eigentlicher Punkt war der „Programmieraufwand“ – bin nicht sicher ob ich darauf eingegangen war:

    Welcher Programmieraufwand ist denn nötig, um ein rechtssicheres Forum zu haben, als Beispiel? Die Antwort ist: es gibt keinen Programmieraufwand, der zu Rechtssicherheit führt. Selbst wenn Chuck Norris (offenbar der Name des Programmiers des Forums) zugriff auf alle urheberrechtlich geschützten Werke aller existierenden Medien usw. hätte, gäbe es noch immer keine Rechtssicherheit für Hashalgorithmen, Datenbankaktualisierungsfrequenz usw. Der „Programmieraufwand“ existiert einfach nicht Möglichkeit, und der Teil des Absatzes könnte einfach gestrichen werden, es sei denn der „Aufwand“ bestünde darin, keinen Inhalt jemals zu veröffentlichen, also kein Forum zu haben.

    Nicht einmal Google+Facebook können so einen Aufwand treiben, so nicht festgelegt ist, dass die damit Rechtssicherheit erreichen. Dann klüngeln die vielleicht in der Gegend herum, und die größten Fünf sind im Boot, und den Gesetzgeber freut es, oder irgendein so ein Quatsch.

    Ohne standardisierte Methoden und staatliche bzw. staatlich regulierte Nichtabflussdatenbanken wird das nichts weiter als ein weiteres Feuer in einer bereits brennenden Welt, zum Schaden aller.

    1. Google hat bereits Millionen in ein Filtersystem gesteckt (Content ID) und es ist schlecht. Doch die EU-Bürokraten wollen gar nicht, dass da selbst was gemacht wird. Audible Magic hat da ja bestens lobbyiert zum verpflichtenden Filter werden[0]. Für die EU-Bürokraten mag es dann rechtssicher sein, doch wird Audible Magic wie Content ID durch die Natur der Unzulänglichkeit von automatisierten Filtern zahlreiche Rechtsbrüche hinsichtlich Schrankenbestimmungen (zB Parodie) machen. Rechtsbrüche die jedoch nicht mit Strafe belegt sind (soweit ich weiß, vielleicht gibts auch einen Klaps auf die Finger).

      [0] https://www.techdirt.com/articles/20190121/17024041437/there-was-heavy-tech-lobbying-article-13-company-hoping-to-sell-everyone-filters.shtml

  4. Was ich bei der ganzen Geschichte um Artikel 13 nach wie vor nicht verstehe, ist der Vorwurf von „Zensur“. Kann mir bitte mal jemand erklären, woher die Ansicht stammt, es sei Zensur, wenn eine x-beliebige, kommerzielle Plattform (aus irgendwelchen Gründen) nicht alles mögliche veröffentlicht, was die Nutzer dort gerne sehen wollen? Wäre es demnach nicht auch Zensur, wenn ihr hier nicht mehr beliebige Kommentare veröffentlichen würdet ;-)

    PS: Ich halte auch nicht allzu viel von der geplanten Reform, finde aber, man sollte mit sauberen Argumenten arbeiten, wenn man ernst genommen werden will.

    1. Es geht ja darum, dass die aufgebaute und verpflichtende Infrastruktur der Uploadfilter sich hervorragend eignet, um Zensur durchzuführen. Dass solche Strukturen ausgeweitet werden können, zeigt sich an der EU-Terrorismusrichtlinie, welche auch Uploadfilter enthält. Die Erfahrung bei Bürgerrechten und Datenschutz zeigt: eine einmal eingeführte Infrstruktur weckt Begehrlichkeiten.

      1. > Es geht ja darum, dass die aufgebaute und verpflichtende Infrastruktur der
        > Uploadfilter sich hervorragend eignet, um Zensur durchzuführen.
        Ich sehe nicht, wie das funktionieren sollte? Zensur wäre, wenn der Staat meine Äußerungen (im Internet) verhindern kann. In gewissen Grenzen kann er das natürlich bereits durch Strafandrohung oder nachträgliche Anordnung zur Entfernung kraft Gesetzes, so dass es eher um Vorzensur geht.

        Die Richtlinie betrifft, soweit ich das verstehe, aber nur Plattformen, die Nutzern eine „Ein-Klick“-Veröffentlichung erlauben. Spätestens sobald ich meine eigene Webseite aufmache, bin ich wieder komplett Herr meiner Veröffentlichungen. Insofern geht „Zensur“ an der Stelle zu weit, finde ich. Ihr wärt bspw. in eurer redaktionellen Arbeit von Artikel 13 nicht betroffen, oder übersehe ich dabei etwas?

        1. Wir sprechen in keinem Artikel zum Thema davon, dass der Artikel13 direkt zu Zensur führt, sondern dass er den Grundstein für eine Infrastruktur legt, die für Zensur genutzt werden kann. Zensur bedeutet nach meinem Verständnis nicht, dass der Staat ALLE Äußerungen überall verhindern kann. Eine Verlagerung auf „weniger sichtbare Ecken“, also eine Verbannung aus den großen Plattformen heraus kann allerdings die Reichweite von Inhalten extrem senken. Auch diese „Drosselung von Reichweite“ wäre ein Eingriff, der unter die Begriffe Zensur oder staatlicher Inhaltskontrolle gefasst werden könnte.

          Ich empfehle zum Thema auch mal diesen Artikel, der zeigt, dass wir derzeit nicht nur von Uploadfiltern für das Urheberrecht sprechen, sondern auch zu anderen Themen. Hier wird auch ganz gut deutlich, dass diese Filter extrem intransparent sein werden: https://netzpolitik.org/2019/uploadfilter-gegen-terroristische-online-inhalte-wie-das-eu-parlament-um-seine-position-ringt

          1. Danke für den Link. Den Artikel hatte ich, glaube ich, damals bei Veröffentlichung schon gelesen.

            Inzwischen verstehe ich aber besser, wo unsere Auffassungen auseinander gehen:
            > Eine Verlagerung auf „weniger sichtbare Ecken“, also eine Verbannung aus den
            > großen Plattformen heraus kann allerdings die Reichweite von Inhalten extrem senken.
            > Auch diese „Drosselung von Reichweite“ wäre ein Eingriff, der unter die Begriffe Zensur
            > oder staatlicher Inhaltskontrolle gefasst werden könnte.

            Aus meiner Sicht sind und waren diese „großen Plattformen“ niemals verlässliche Kommunikationsmedien. Sie haben Hausrecht und das erlaubt ihnen praktisch beliebige Eingriffe ganz nach Gutdünken. Facebook bietet da mit seinem „Nippelverbot“ seit Anbeginn ein gutes Beispiel. Insofern sehe ich es auch nicht als Katastrophe, wenn dort jetzt *auch* durch Staaten eingegriffen wird. Definitiv unschön, aber eben kein Paradigmenwechsel wie bspw. VDS oder Staatstrojaner.

            Letztlich ist für mich das Kernproblem die grassierende Zentralisierung des ursprünglich mal auf Dezentralität ausgerichteten Internets: Viele kleine Anbieter weltweit sind nunmal deutlich schwerer (staatlich) zu kontrollieren als eine Handvoll Dickschiffe. China musste dafür eine sehr beeindruckende Filterinfrastruktur errichten. In diesem Sinne bin ich euch besonders auch dafür dankbar, dass ihr nicht eure Webseite vernachlässigt, um nur noch Facebook, Twitter & Co zu befüllen, wie es leider einige andere getan haben.

    2. Abgesehen von der für weiträumigere Zensur geeigneten Infrastruktur, wird konkret „relative Zensur“ erfolgen, das ist sicher:
      * Falsche positive zu Lasten der Benutzer werden eklatant zunehmen. Da führt kein Weg dran vorbei, sofern die Filteranbieter nicht die Regierungen+-Justiz mit einem besonders nebulösen Rechtssicherheitsfilterdeal komplett aufs Kreuz legen.
      * Dadurch werden Inhalte relativ zu den heute gegebenen Nutzungsbedingungen, Gepfolgenheiten und Gesetzen zensiert, ganz konkret.
      * Es ist unklar, ob ein Widerspruchsverfahren für falsche Positive dann überhaupt umgesetzt bzw. weitergeführt werden wird. Es werden eine Menge sein…
      * Es entsteht der Anreiz, mehr Dinge zu zensieren und mehr Gebiete in die Filter einfließen zu lassen, auch im Sinne von mit maliziösen Absichten eingebrachten Daten. Vergleiche Situation mit Werbejingles wie „nur für besonders schwere Straftaten“, „nur bei Terrorismus“, und deren realexistierender Ausweitung bis hin zu Taschendiebstahl oder sogar „vieleicht irgendwann mal was mit Straftat“, sowie mit „Informationsfreiheitsanfrage vs. Urheberrecht“ u.ä.. Also im Klartext: Filterbomben, die es irgendwie schaffen, bestimmte Themen oder sogar Personen oder Begriffer herauszukicken.
      * Die Unternehmen werden erst durch solche Gesetze zu denen, die vermeintlich „nach Gusto“ zensieren.

      Das ist die Perspektive eher mit dem Blick auf die großen Konzerne gerichtet! Die kleinen trifft es ja viel schlimmer, gemäß „älter als drei Jahre“.
      * Kleine können nicht eigene Verträge mit Rechteverwertern usw. aushandeln.
      * Sofern sie eine Filtertechnologie von anderswo benutzen, entscheiden möglicherweise andere darüber, was im Bienenforum ab jetzt häufigst weggeschnitten wird (z.B. Blumen oder Bienen).
      * Bis ein Filteranbieter überhaupt existiert, wird ein übles Chaos oder wohl eher ein Kahlschlag passieren. Kleine müssen halt dichtmachen, da Abmahnungen zu teuer würden.
      * Die Kriterien für Gewinnerzielungsabsicht usw. sind nicht unbedingt leichtfertig zu ignorieren, es wird also auch Kommentarspalten treffen u.a.
      * Kleine Anbieter werden also zum Teil ganz entfernt („zensiert), oder werden eine irgendwie konforme Filterlösung eines irgendwie gearteten Anbieters einsetzen („Zensur anderer Leute“), mit all deren falschen Positiven und sonstigen Schmankerln.

      Hier sind große konkrete Kahlschlagrisiken direkt angeschlossen. Wer wird alle Beiträge händisch auf Urheberrecht prüfen, nur um dann trotzdem abgemahnt zu werden (47 cent Songtext, veröffentlicht in Flur von Anwaltskanzlei Huber und Schober, Dreigmündbrücksbergen).

      Als nächstes noch Chatrooms, Ingame-Chat, …. auch lustig … Echtzeitchat vielleicht nicht betroffen, aber Logs davon (vgl. IRC)?

  5. Film, Sprache, Text, Bild. Ein upload-Filter kann nur in einer Datenbank hinterlegtes grundsätzliches Material rastern. Es verbliebe genügend, um ev. Schadensersatzforderungen zu begründen. Wären mehrere 10tsd mögliche Fälle in der EU zu hoch gegriffen?. Geht man von diesen Dimensionen aus stellt sich die Frage, ob z.B. youtube so wie bisher sein Geschäft betreiben wird.
    Google&Co., um nur mal die Grossen und Wichtigen zu nennen, müssten bald ihre künftigen Strategien veröffentlichen. Vor der Abstimmung im EU-Parlament. Nachher wäre zu spät.

  6. Eine weitere Erwiderung zum 22:39h Kommentar von Balthasar:
    > “ (Plattformen) haben Hausrecht und das erlaubt ihnen praktisch beliebige Eingriffe ganz
    > nach Gutdünken. (…) Insofern sehe ich es auch nicht als Katastrophe, wenn dort jetzt *auch*
    > durch Staaten eingegriffen wird. Definitiv unschön, aber eben kein Paradigmenwechsel
    > wie bspw. VDS oder Staatstrojaner. “

    Es ist eben doch ein Paradigmenwechsel! Zuvor haben Plattformbetreiber nach deren Hausrecht Beiträge gelöscht (bzw tun es noch), weil sie erkennen konnten, was hochgeladen wurde und sie erst dadurch entscheiden konnten, ob es ihnen „passt“ oder nicht. Die verschiedenen Plattformen (auch die vielen Kleinen) kontrollieren ihre Inhalte selbst, und wenn Nutzern was nicht passt, dann kann man zum nächsten Forum umziehen.

    Mit den neuen Regeln würde zunächst das klassische „Hausrecht“ weiter bestehen, aber es würden auch von hochgeladenen Inhalten Hashwerte erzeugt und diese digitalen Fingerprints dann mit einer einzelnen zentralisierten Datenbank verglichen. Gäbe es einen Treffer, würden die hochgeladenen Inhalte erst gar nicht veröffentlich. Ich bezweifle, dass Foren- und Plattformbetreiber überhaupt sehen könnten, welchen konkreten Inhalt eine geblockte Datei hatte.

    Die Entscheidung darüber, welche Inhalte konkret geblockt werden sollen, würde einzig bei demjenigen liegen, der diese Sperr-Datenbank unterhält und füttert. Da es sich dabei kriminelle Inhalte handelt, können eigentlich nur staatliche Institutionen dafür in Fragen kommen.

    Das bedeutet, ganz konkret, dass einzig Behörden entscheiden würden, was sperrwürdig sei und was nicht. Niemand außerhalb der Behörden hätte da Einblick, wohl auch nicht die Forenbetreiber.

    (PS: das oben stehende beschreibt die Methodik, so wie ich denke sie verstanden zu haben. Sollte ich falsch liegen, bitte ich um höfliche Korrektur :) )

    1. Soweit ich es verstehe, ist es völlig unklar wo und von wem eine Datenbank mit Hashwerten existieren könnte. Eher sicher scheint, dass es keinerlei Rahmen dafür gibt, wie soetwas aussehen sollte und wie Rechtssicherheit entstehen soll. Extrem-implizite Umgebungsformung, sozusagen.

      Das ist alles maximal unklar und wird vielleicht oder vielleicht nicht noch von EU-XY präzisiert oder mit nationalem Recht präzisiert oder bleibt halt rechts-unsicher (Pech gehabt, hihi), soweit ich es mit meinem Pamphletüberblicksstil erfassen kann.

      Zunächst wäre es ein Kahlschlag, und die Abgordneten und Regierungen sollen dann plötzlich nach inkrafttreten von Gesetzen anfangen, auf die Kritik von Blogbetreibern und kleineren Zeitschriftenverlagen zu hören? Das und mehr gibt es jetzt schon, der Prozess ist in der Form kaputt, aber das ist noch ein anderes Thema.

      1. Völlig unklar ist es nicht, da Audible Magic mächtig lobbyiert hat, der verpflichtende Filter zu werden. Der verlinkte Techdirt-Artikel oben zeigt es gut. Zwar scheinen sie sich den Platz noch nicht gesichert zu haben, aber ich kann mir vorstellen, dass sie ziemlich schnell aus den Startlöchern kommen, sobald es zur Auswahl eines verpflichtenden Filters kommt. Angesichts der Vetternwirtschaft könnte ich mir auch vorstellen, dass es in der Öffentlichkeit so abläuft:

        EU: Hmm, wir brauchen Filter, _wo_ bekommen wir die nur her? [ungewiss umher schauend]
        Audible Magic: Ach BTW, ihr sucht doch Filter. Hier habt ihr Filter.
        EU: Oooh, vielen Dank aber auch! Das hätten wir aber jetzt nicht erwartet, dass das so einfach ist!

    2. > Es ist eben doch ein Paradigmenwechsel! Zuvor haben Plattformbetreiber nach deren
      > Hausrecht Beiträge gelöscht (bzw tun es noch), weil sie erkennen konnten, was
      > hochgeladen wurde und sie erst dadurch entscheiden konnten, ob es ihnen „passt“
      > oder nicht.
      Du hast insofern Recht, als bislang die Betreibern „illegale Inhalte“ erstmal veröffentlichen können. Rechtliche Probleme drohen erst, wenn sich jemand beschwert. Das ist in der Tat ein signifikanter Schritt, der sicher dazu führt, dass eher mehr als weniger gelöscht wird. Allerdings steht es den Betreibern eben frei, erstmal nach Gutdünken vorzufiltern und meines Wissens tun das auch praktisch alle großen Anbieter. Das nehmen alle bereitwillig hin.

      Erinnert mich für die Nutzerseite insgesamt etwas an Kants „selbstverschuldete Unmündigkeit“. Es wird Zeit für eine neue Aufklärung :-)

      > es würden auch von hochgeladenen Inhalten Hashwerte erzeugt und diese digitalen
      > Fingerprints dann mit einer einzelnen zentralisierten Datenbank verglichen. Gäbe
      > es einen Treffer, würden die hochgeladenen Inhalte erst gar nicht veröffentlich.
      […]
      > Das bedeutet, ganz konkret, dass einzig Behörden entscheiden würden, was sperrwürdig
      > sei und was nicht. Niemand außerhalb der Behörden hätte da Einblick, wohl auch nicht
      > die Forenbetreiber.
      Ein System der Art steht derzeit nicht zur Debatte. Insbesondere hängt das zu sperrende Material ja auch von Lizenzvereinbarungen ab, die ein bestimmter Anbieter getroffen hat: Habe ich bspw. einen Deal mit der GEMA dann darf ich ich deren Material auf meinen Seiten haben, sonst nicht.

      Allerdings, und da gebe ich auch Markus Recht, besteht die sehr reale Gefahr, dass es letztlich auch staatliche Filterlisten geben wird. Gerade im Bereich „Terrorismus“. Nur sind die großen Plattformen, wie schon gesagt, eben niemals frei gewesen. Ich sehe die einzig echte Lösung in einer Rückkehr zur Dezentralität und dem Teil des Internet jenseits der goldenen Käfige großer Plattformanbieter.

      1. Es wird allerdings auch nicht nur „etwas mehr“ gefiltert werden, da die Haftung sofort besteht, und keine Zeit mehr zur Entfernung gegeben wird. Das gilt dann auch für sehr kleine nicht wirklich im landläufigen Sinne kommerziell geführter Seiten, die aber vom Gesetz entsprechend eingeordnet werden.

        Sie scheinen Uhrheberrechtsverletzungen sehr zu betonen, mit Vermerk auf Kant z.B.. Das Problem ist aber dass legale Inhalte und Vielfalt verschwinden.

        Der Deal ist also nicht „eine Menge filtern und Rest auf Zuruf löschen“ für die Großen, und „auf Zuruf löschen“ für die Kleinen, sondern Selbstschutz mittels „alles was irgendwie angebellt werden könnte gar nicht erst reinnehmen“ für alle. Anbieter zu zerstören ist auch eine Form der Zensur.

        Das ist kein harmloses Vorhaben, selbst wenn man den Aspekt der Zensurinfrastruktur komplett außer Acht lässt.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.