Notice and Staydown: Haften Hoster für wiederholte Urheberrechtsverletzungen?

Wenn File-Hoster über Urheberrechtsverletzungen auf ihrer Plattform informiert werden, müssen sie diese entfernen. Doch sollen sie diese zukünftig automatisch verhindern? Gerichte in Deutschland und Frankreich kommen zu unterschiedlichen Bewertungen. Die EU will eine einheitliche Regelung.

Diensteanbieter im Internet sind für fremde Inhalte laut deutschem Telemediengesetz und europäischer E-Commerce Directive zunächst nicht verantwortlich. Falls ein Inhalt rechtswidrig ist, muss der Anbieter diesen jedoch entfernen (Notice and Takedown). Gleich mehrere Gerichte beschäftigen sich derzeit mit der Frage, ob die Anbieter auch zukünftige Versionen diese Inhalte selbst verhindern müssen.

GEMA vs. YouTube

Den Auftakt machte die GEMA gegen YouTube beim Landgericht Hamburg. YouTube haftet erst ab Kenntnis einer Rechtsverletzung, muss aber künftige Uploads verhindern und einen Wortfilter einsetzen. Aus der Mitteilung des Gerichts:

Zuzumuten sei [YouTube] jedoch, nach Erhalt eines Hinweises auf eine Urheberrechtsverletzung durch den Einsatz einer Software künftige Uploads zu verhindern, die eine mit der gemeldeten Musikaufnahme übereinstimmende Aufnahme enthielten.

Um die Anzahl der von der Software der Beklagten nicht erfassten Rechtsverletzungen zu reduzieren, sei [YouTube] außerdem verpflichtet, einen Wortfilter zu installieren. Der Wortfilter solle neu eingestellte Videos herausfiltern, deren Titel sowohl den Titel als auch den Interpreten der in einem Video beanstandeten Musikaufnahme enthält.

Rechtskräftig ist das noch nicht, beide sind in Berufung gegangen.

Atari vs. RapidShare

Letzte Woche legte Atari gegen RapidShare beim Bundesgerichtshof nach. Auch hier wird wieder bestätigt, dass File-Hosting-Dienste erst ab Kenntnis über Urheberrechtsverletzungen haften. RapidShare soll aber verhindern, dass das beklagte Spiel erneut angeboten wird. Hier hätte ein Wortfilter vielleicht geholfen. Zudem soll RapidShare so genannte Link-Sammlungen von selbst scannen und Inhalte von dort entfernen. Das Gericht selbst:

Im Streitfall war es … grundsätzlich nicht ausreichend, dass die Beklagte [RapidShare] die ihr konkret benannte rechtsverletzende Datei gesperrt hatte. Vielmehr musste sie auch das technisch und wirtschaftlich Zumutbare tun, um – ohne Gefährdung ihres Geschäftsmodells – zu verhindern, dass das Spiel von anderen Nutzern erneut über ihre Server Dritten angeboten wurde. Diese Pflicht hat die Beklagte möglicherweise verletzt, weil sie keinen Wortfilter für den zusammenhängenden Begriff „Alone in the Dark“ zur Überprüfung der bei ihr gespeicherten Dateinamen eingesetzt hatte.

Dem Diensteanbieter ist es grundsätzlich zuzumuten, eine überschaubare Anzahl einschlägiger Link-Sammlungen auf bestimmt bezeichnete Inhalte zu überprüfen.

Die schriftliche Urteilsbegründung ist noch nicht da. Auch hier ist das Verfahren noch nicht abgeschlossen, der Bundesgerichtshof verwies es zurück zum Berufungsgericht. RapidShare zeigt sich zuversichtlich, dort zu gewinnen.

Bach Films vs. Google Frankreich

Das oberste Gericht Frankreichs sieht das anders als die deutschen Gerichte. Gleich drei Mal hat der Kassationshof jetzt entsprechende Entscheidungen der anderen Instanzen abgeschmettert.

Um zukünftige Rechtsverletzungen zu verhindern, müssten Diensteanbieter wie Google alle ihre Uploads kontrollieren. Solche Routine-Kontrollen sind in der EU-Richtlinie über den elektronischen Geschäftsverkehr untersagt.

Félix Tréguer von La Quadrature du Net im EDRi-gram:

Through its decision, the Supreme Court rejected the notion that online service providers are under the obligation to prevent any future infringements. According to the Court, the three appellate rulings violated EU and French law by imposing “a general obligation to monitor” the content that Google stores, as well as to actively “seek illicit uploads”.

Und Loek Essers auf PCWorld:

The French Final Court of Appeal ruled Thursday that two „take-down, stay-down“ orders made by lower court judges conflicted with the European Union’s 2000 E-Commerce Directive and with the French 2004 law on Confidence in the Digital Economy.

By ordering ISPs to remove content at the request of the copyright holder, and then to block all future attempts to upload that content without further notice, the judges were in effect forcing the ISPs to filter all content as a matter of routine, something expressly forbidden by the directive and the law, according to the French Association of Internet Community Services (ASIC).

Stellt sich die Frage, ob damit auch die existierenden Kontrollen von YouTube, die als Verteidigung gegenüber der GEMA ins Feld geführt wurden, mit EU-Recht vereinbar sind.

EU vs. Illegalität im Internet

Auch die EU-Kommission beschäftigt sich mit der Frage, ob Anbieter für die Inhalte Dritter haften. Wie Leonhard bereits berichtete, läuft noch bis Anfang September eine Konsultation über Verfahren zur Mitteilung und Verfolgung von illegalen Inhalten auf Seiten von Online-Intermediären:

Die Konsultation ist allerdings schon von ihrer Ausrichtung klar auf “clean” und weniger auf “open” hin orientiert. Gleichzeitig wird an Hand der Fragen ersichtlich, dass die auch in ACTA propagierte Privatisierung der Rechtsdurchsetzung erleichert oder sogar gefördert werden soll. So lautet Frage 22, ob Plattformbetreiber gegen Schadenersatzansprüche geschützt werden sollen, die aus pro-aktiven Maßnahmen resultieren könnten. Diese Frage zielt darauf ab, Dienstebetreiber zu Investitionen in automatisierte Entfernung (vermeintlich) illegaler Inhalte zu motivieren, ohne dass ihnen dadurch verstärkte Haftung droht, weil sie durch diese Technologien besser über illegale Inhalte auf ihren Plattformen Bescheid wissen. Derartige Formen privat-technologischer Rechtsdurchsetzung durch Plattformbetreiber jenseits richterlicher Kontrolle sind dabei natürlich im Interesse der Rechteinhaber.

Dabei geht es jedoch gar nicht mal nur um Urheberrechtsdurchsetzungen. Vielmehr will die Kommission gegen „illegale Inhalte“ und „Illegalität im Internet“ vorgehen. Sie ist sich sogar bewusst, dass diese Begriffe nicht hinreichend definiert sind und viele Sachen umfassen können. Da klingt dann auch die Überschrift, das Internet „sauber und offen“ halten zu wollen, ein bisschen wie das Clean IT Projekt.

6 Ergänzungen

  1. Bei dem Youtube Bsp. ist ja das lustigste (und was mal wieder die Kurzsichtigkeit (in Hamburg) zeigt.) Die wollen also ernsthaft, dass „$Künstlername $Song Cover“ per default gefiltert wird?

  2. Ach ja. Sehr hübsch. Wortfilter. Würde mich wundern, wenn das vor Gericht bestand hätte.
    Oder doch nicht?
    TakeDown-Notices ohne Anhörung der Einstellerin? Immerhin ist der Provider durch das Akzeptieren des ursprünglichen Uploads ein Vertrags- und Vertrauensverhältnis mit der Nutzerin eingegangen. Eine Behauptung, die zur Verfügungstellung der Daten verletze Rechte dritter, ist, auch wenn die AGB diese untersagt, nichts als eine Behauptung einer Partei, die diese im einzelnen nachzuweisen hat. Der Provider wiederum hat die Nutzerin von dem Verlangen bzw. der Behauptung in Kenntnis zu setzen und um Stellungnahme zu bitten. Der Provider ist hier nur Vermittler und Anbieter von Speicherplatz und Zugang. Ebenso kann dieser handeln. Entfernt er ohne Zustimmung der Nutzerin Daten, verletzt er deren Rechte am Eigentum und das Recht über die Verfügbarkeit der Daten.
    Nach heutiger Rechtsprechung (was man auch immer davon hält) sind digitale Daten physikalischen Gütern gleichzusetzen. Die Inanspruchnahme eines Beschlagnahmerechts steht ausschließlich staatlichen Organen zu. Alles andere ist, nach heutiger Diktion, Raublöschung.
    Ebenso steht ausschließlich staatlichen Behörden und Gerichten zu über die Rechtmäßigkeit, oder Unrechtmäßigkeit der zur Verfügungstellung zu entscheiden, wenn beide Parteien sich nicht einig sind.

  3. Wortfilter sind ein vollständig ungeeignetes Instrument. Ggf. werden durch derartige Filtermethoden auch andere, ähnlich benannte Uploads verhindert. Dies iwäre die Etablierung eines intransparenten Zensursystems und gleichzeitig eine Verletzung des Gleichbehandlungsgrundsatzes.
    Eine Möglichkeit, dies auszuschließen, wäre eine Meldung in der Uploadmaske die verhindert, das Dateinamen gewählt werden, die evtl. gefiltert werden könnten.

  4. Zumal es solche Filter selbst für die eigentlichen Rechteinhaber unmöglich machen ihre eigenen Videos hochzuladen.

    Und für uploads auf Filehostern ist die regelung Wertlos, da trifft man nur unschuldige mit.

    Dann nennt man halt das .rar Archiv anders, ändert das passwort, und tut ne 0,5MB bloat-txt-datei rein, und kein automatischer Filter der Welt erkennt das als identischen Upload, wenn die nicht grade nen Crawler einsetzen der ‚einschlägige‘ Seiten nach links auf den Filehoster durchsucht.

    1. Ach du liebe Zeit. Meine Großschreibung erinnert mich gerade daran, dass ich einen Kaffee brauche.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.