Live-Blog: Leistungsschutzrecht im Unterausschuss Neue Medien

Heute findet ab 13:00 Uhr im Unterausschuss Neue Medien im Deutschen Bundestag eine Anhörung zum Leistungsschutzrecht statt. Mathias Schindler sitzt für uns vor Ort und wird hier berichten. Das ist ein Love-Blog, Rechtschreibfehler können daher gerne behalten werden. Auf bundestag.de findet sich übrigens ein Live-Stream. Kurz vor Beginn hat sich ein Gerücht bestätigt: Die Koalition hat die 2. und 3. Lesung für das Leistungsschutzrecht für Presseverleger für den kommenden Freitag, den 1. März auf die Tagesordnung setzen lassen. Daon kann der Punkt aber auch wieder verschwinden.

Liste der geladenen Sachverständigen

Dr. Arnd Haller, Google Germany GmbH
Dr. Thomas Höppner, Bundesverband der Zeitungsverleger
Prof. Dirk Lewandowski, Hochschule für Angewandte Wissenschaften Hamburg
Michael Steidl, International Press Telecommunications Council, London

Hallo und herzlich willkommen an den zugeschalteten Empfangsgeräten. Dies ist ein Loveblog. (Wer das für einen Tippfehler hält, der sollte die Vorgeschichte auf netzpolitik.org nachlesen. Ihr solltet eh mehr Netzpolitik.org lesen)

Im Gegensatz zu der Sachverständigenanhörung im Rechtsausschuss vor einigen Tagen ist diese Sitzung mit Livestream. Ihr könnt also die Experten und Abgeordneten selbst anhören und seid nicht auf die Fremdvermittlung des Vierten Standes angewiesen.

Sebastian Blumenthal eröffnet die Sitzung des #UANM. Einziger Tagesordnungspunkt ist die Expertenanhörung zum LSR.

Blumenthal spricht korrekt von “Sachverständigenparteien”, zumindest drei der Sachverständigen sind ganz eindeutig mit einer eigenen Interessenlage. Google darf in doppelter Rolle sprechen, der Sachverständige von Google ist Wieland Holfelder, er darf sich aber sich bei Arnd Haller rückversichern.

Frage Heveling (CDU) an Höpper: ob es aus technischer Sicht zutreffe, ob das Leser-Zuführe-Argument zutreffe.

Klingbeil (SPD) an Höppner: “Klaut aus Ihrer Sicht Google Daten”

Klingbeil (SPD) an Holfelder: “Erklären Sie uns bitte robots.txt” (sinngemäß)

Jimmy Schulz (FDP) an Holfelder und Höppner: Es gab Diskussion um technische Standards. Verlage haben die Möglichkeit, den Zugriff zu beschränken. Z.B. robots.txt oder nosnippet-Tag.

Sitte (PDL) an Holfelder: Verleger behaupten, robots.txt reiche nicht aus, ACAP komme nicht zu Anwendung. Welchen Aufwand bedeutet die Umsetzung des ACAP-Standards, warum implementiert Google ACAP nicht.

Sitte an Lewandowski: Halten sich Suchmaschinen an die robots.txt?

Notz (Grüne) an Lewandowski und Holfelder: Wenn das LSR kommt, ob es dann nicht unabdingbar ist, durch welche technischen Maßnahmen Suchmaschinen erkennen können, ob es sich um ein Presseerzeugnis handelt?

Es antwortet Holfelder: Er ist Entwickler, Softwareentwickler, hat vor 14 Jahren selbst einen Crawler implementiert und freut sich, über Technik zu reden.

Holfelder an Heveling und Klingbeil: Ob die technischen Möglichkeiten ausreichen: Robots.txt ist ein de-facto-Standard, existiert seit fast 2 Jahrzehnten. Relativ fein granular bestimmbar für Anweisungen an Suchmaschinen. Granularität ist auf Ebene jeder Webseite. Erklärt nun auch die verfügbaren Meta-Tags. Wer jetzt bei der Beschreibung nicht folgen kann, sollte bitte am Freitag nicht mit abstimmen oder sich bei Jimmy Schulz informieren :) Im Ernst. Holfelder erklärt alles, was in *jedem* elementaren Einführungstext zu robots.txt zu finden ist. Wozu man für diese Informationen eine Expertenanhörung benötigt, ist mir unklar. Aber vielleicht hilft es ja.

Bekommt der Bundestag eigentlich Vergütung für die Einräumung von Sendezeit für diese Produktpräsentation?

Vorschlag an Google: Verschickt diese Erklärung an alle MdBs in ausgedruckter Form. Nur aus Gründen der Sorgfalt.

Glückwunsch an Google, dass sie im Vorbeigehen der Antwort auch noch den Axel-Springer-Verlag (ASV) für ihre Haltung zu Suchmaschinen getrollt haben.

Holfelder an Schulz: Wir sind offen für weitere Standards. Wir haben beispielsweise unavailable-after mit übernommen (Ist das ein ÖR-Tag für Depublikationen?). Wir haben im Dialog mit Verlegern das Tag eingeführt.

Holfelder an Sitte zu ACAP: Es gibt Aspekte von ACAP, die wir inzwischen in robots.txt sehen, siehe unavailable-after. Es gibt einige Formulierungen in ACAP, die für uns schwierig umzusetzen sind, ohne den Nutzen für Nutzer zu schmälern.

Holfelder zu ACAP, er kritisiert, dass descriptions zwingend seien und damit spammer ein freies Feld haben. Es stehe der Suchmaschine also nicht frei, eine eigene Description zu setzen.

Holfelder an Notz: Heuristiken zur Erkennung von Pressenseiten in einer Verbotsrechtswelt wäre problematisch, weil jede Fehleinschätzung nicht nur eine negative Nutzererfahrung wäre, sondern ein Rechtsverstoß. Im Zweifel müssten wir sehr sehr konservativ vorgehen (=overblocking)

Nun kommt Höppner (BDZV).

Höppner will nun das Taxi-Mem erklären. Er sei kein Fan des Vergleichs, will aber nun weiter den Vergleich nutzen und ad absurdum führen. Es folgt nun keine technische, sondern eine politische Erklärung zu irgendwas. Irgendwas mit Taxen und Kapitalismus.

Wow, Höppner macht gerade eine Erklärung, wie groß die Leistungen von Suchmaschinen sind. Wenn es jemals ein Suchmaschinen-LSR geben soll, sollten die Befürworter dieses LSR einfach die Worte von Höppner 1:1 kopieren.

Vorschlag an die mitlesenden MdBs des UANM: Fragt Höppner, ob er mit seiner Erklärung nicht der Ansicht ist, dass die Suchmaschinen nicht die eigentlichen Empfänger eines Leistungsschutzrechts sein sollten, wenn sie so viel Arbeit leisten.

Höppners zweiter Punkt ist, dass die Verlage zu wenige Informationen erhalten, wie die Aggregatoren genutzt werden. Suchmaschinen nähmen den Webseiten eher Traffic ab.

Oh, jetzt wird es abenteuerlich: Verlage würden nur Meta-descriptions bringen, weil sie aus der Not das Beste machen wollen und sich um die Restverteilung des Kuchens prügeln. Das setzen von meta-descriptions sei

Höppner: Verlage kümmern sich nur um Relevanz, weil die Suchmaschinen das wollen. Ohne Suchmaschinen gäbe es keine solche Innovation (sinngemäß).

“Zur zweiten Frage: Klaut Google Daten? Aber selbstverständlich hat Google damit ein Geschäftsmodell aufgebaut!”.

Vorschlag an den BDZV: Beim nächsten mal zu einer Anhörung zu technischen Fragen einen Techniker mitnehmen.

Höppner bezieht sich auf “Google Knowledge”.” Meint er Google Knol oder den Knowledge Graph?

Höppner an Schulz: Auch wenn es so rosig dargestellt ist, so rosig ist das nicht. Es handele sich um eine freiwillige Vereinbarung. Viele Anbieter würden sich nicht daran halten. Auf die Frage von Schulz, ob man robots.txt verpflichtend machen wolle, antwortet er, dass robots.txt derzeit nicht verpflichtend ist. Spannend, gibt es in Deutschland eine Strafbarkeit von contempt of congress – Missachtung des Vorsitzenden o.ä.?

Höppner, selbsterklärter Keinfan von schlechten Vergleichen, mit einem schlechten Vergleich. Mit einem großen Stadium und einem Türsteher. Ich glaube, er hat gleich die CDU weichgekocht.

Höppner mit einem doh!-Moment: Wenn man das Snippet verbietet, gehen weniger Leute auf unsere Seiten. Jetzt muss er nur noch die Konsequenzen aus dieser Erkenntnis nehmen. Schlägt der BDZV also nicht nur ein LSR vor, sondern eine Top-Plazierung für Presseinhalte?

Vorschlag an Frage für MdBs an Höppner: Schlagen Sie nicht gerade vor, dass der Gesetzgeber die Plazierung von Treffern in Suchmaschinen regeln sollte?

Wie kommt es eigentlich dazu, dass so viele Verbandsvertreter Probleme mit dem Kapitalismus und der freien Marktwirtschaft haben?

Lewandowski: an Sitte: Robots.txt wird von den großen Suchmaschinen beachtet. Es gibt böse Anbieter, die robots.txt missachten. Dies ist nicht das große Problem. Robots.txt kann explizit nicht nur verbieten, sondern auch erlauben. Robots.txt kann eingerichtet werden, google alles zu erlauben und anderen etwas zu untersagen.

Kann eine erweiterte Robots.txt das Problem lösen: Ja, das ist sinnvoll.

Lewandowski: Man sollte Suchmaschinen nicht vorgeben, welche Description angezeigt werden muss. Er hält den Fall für konstruiert, es gibt nämlich andere Möglichkeiten, z.B. herunterranken.

Lewandowski an Notz: Man muss klären, ob es sich um ein Verlagsangebot handeln muss. Bei Google News sei dies kein Problem, weil es hier um eine manuelle Aufnahme gehe. Schwierig sei es bei anderen Fällen, insbesondere auf der Artikelebene.

Steidl an Heveling: Wir sind die Standardisierungsorganisation der Nachrichtenbranche. Damit bezieht er sich insbesondere auf die Standards von Agenturen zu ihren kommerziellen Abnehmern.

Steidl: Haben ACAP mit entwickelt und entwickeln gerade an RightsML. Steidl weist nun darauf hin, dass es in der Praxis oft um eine Mischung aus Anweisungen, die sowohl in robots.txt als auch dem meta-bereich von HTML-Seiten geht. Oder in tags.

Steidl liest jetzt google.com vor. Rutscht er gerade ab in das Feld von Sitemaps?

Wir haben inzwischen nach der Halbzeit. 50 von 90 Minuten sind vorbei.

Ich glaube, ich weiss, was Steidl meint, aber es klingt irreführend. Es geht wohl darum, wie ein Seitenbetreiber erkennen kann, dass es sich um einen Crawler eines bestimmten Anbieters handelt. Google veröffentlicht meines Wissens, von welchen IPs aus welche Crawler mit welcher user-agent-Zeile sich melden.

Siegfried Kauder betritt den Raum. Sitzt übrigens neben den Kollegen der CDU (nach dem Beitrag von Krings muss man da ja seine Zweifel haben)

Rückfrage vom Vorsitzenden, ob die Antwort von Steidl noch mit der Frage von Heveling zusammenhängt. Die Frage ist sehr berechtigt, es wirkt eher wie ein allgemeines Referat über Suche. Sehr charmante Art von Blumenthal, auf das Problem hinzuweisen.

Steidl: Es gibt keine Organisation, die für robots.txt steht.

Steidl: Vor 10 Jahren hätte robots.txt noch genügt. Heute nicht mehr. Robots.txt arbeitet nur mit ganzen Seiten, nicht mit Nachrichtenübersichtsseiten.

Steidl, Holfelder: Dann fügt rel=noarchive etc auf ebene des Tags div oder p an.

Blumenthal fährt Steidl noch einmal in die Parade. Und beendet die Antwort, startet zweite Fragerunde.

Fragerunde 2

Jarzombek an Steidl und Holfelder: Frage zu einem Text auf google.com zu robots.txt und die Archivierung.

Dörrmann an Holfelder: Welcher Traffic von Google geht auf die Angebote der Verleger. Welche objektivierbaren Ergebnisse gibt es?

Zypries an Lewandowski: Es muss eine Verlagsliste geliefert werden, wer von dem Verbot erfasst ist. Ist das aus verfassungsrechtlichen Gründen verpflichtend und müsste ins Gesetz aufgenommen werden?

Schulz-Frage (an wen?): Wäre es denkbar, solche Standards mit einem rechtlichen Schutz zu versehen?

Schulz an Höppner: Haben Sie Zahlen zu dem Traffic, den Google ihnen wegnimmt?

Behrens an Holfelder: Welcher Aufwand entsteht bei Suchmaschinen und suchmaschinenähnlichen Diensten? Wir gehen davon aus, dass sich eine Reihe von Rechteinhabern nicht melden würde. Wie würde man davon ausgehen? Wie ist das qualitativ?

Sitte an Holfelder: Warum haben sie bei Steidls Vortrag mit dem Kopf geschüttelt? Zusätzlich Frage zu RSS-Feed-Nutzung.

Notz an Höppner: Ginge es wirklich den Verlagen ohne Suchmaschinen besser als ohne? Ist das wirklich ihre These?

Notz an Lewandoski: Es geht um nicht-kommerzielle Dienste. Wie soll es bei Diensten wie twitter und facebook.

Antwortrunde:

Holfelder an Jarzombek: Es gibt zwei Dinge: Crawlen und Indexieren. Wir sagen, dass wenn sie ihre Seite nicht sichtbar machen, sie dennoch gecrawled werden kann, wenn sie verlinkt wird. Sprich: Der Seitenanbieter muss erklären, welche Inhalte nicht indexiert werden können.

Holfelder an Dörrmann: Zitiert Döpfner, wir sind Google unendlich dankbar. Bis zu 80% Traffic kommt von Google. Well played.

Holfelder an Schulz: Description tag ist Teil des HTML-Standards. Das Argument, robots.txt funktioniere nicht mehr, weil es 20 Jahre alt sei, klappt nicht im Internet, wo TCP/IP 40 Jahre alt ist. Ich bin nicht sicher, warum man einen Standard in deutsches Recht überführen will. Wir reden mit den Parteien.

Holfelder an Behrens: $wirwerdenallesterben. Ich bekomme immer die Frage aus der deutschen Politik, wie man sicherstellen kann, dass das nächste Google, das nächste Facebook aus Deutschland stammt. Hier meine Antwort: Kein LSR.

Holfelder an Sitte: Empfiehlt Holder tatsächlich iframes????

Höppner: Horizontale vs. Vertikale Suche. Google bei horizontaler Suche 90% Marktanteil in Europa. Spannend, dass sich LSR auf beide beziehen soll, wenn Verlage nicht bei beiden Bereichen ein Problem haben.

Höppner: Wir haben keine Zahlen, ob wir von google news profitieren oder nicht.

Für Höppner heisst “profitieren Sie”, ob “100% der Leser durchgereicht werden”. Interesting.

Lewandowski an Zypries: Spannend, das erste mal sagt ein Sachverständiger, dass es sich bei der Frage um etwas handelt, wo er nichts dazu sagen kann. Mut zur Lücke.

Lewandowski: Antwort an von Notz nicht verstanden, sehr schwer akustisch verständlich. Wenn ich es richtig verstehe, hält er den Gesetzesentwurf dafür für ausreichend.

Steidl erklärt nun den Crawler. Stellt sich selbst Fragen. Ein bisschen mehr Lewandowski würde ihm helfen.

Letzte Fragerunde, eine Frage pro Fraktion:

Brandl (CDU): Wie kommt die Google News-Liste zustande?

Brandl an Holfelder: Kann ein Webseitenbetreiber differenzieren zwischen Google Bot und Google News Bot?

Dörrmann: Wie würde Google das Gesetz umsetzen, wenn es am Freitag durch die 2. und 3. Lesung kommt?

Schulz: Es wird ja diskutiert, einen Teil vom LSR auszunehmen, ein Snippet. Wie wollen sie das fedinieren?

Behrens an Holfelder: Müssen Betreiber von sozialen Netzwerken Sperren einrichten?

Notz an Holfelder oder Haller: Würde die Einführung des LSR zur Einstellung des Dienstes führen?

Holfelder: Es ist sowohl algorithmisch als auch manuell. Der große Unterschied ist, dass es bei einem Verbotsrecht nicht mehr ausreichen würde, dann bräuchten wir eine verbindliche Liste.

Holfelder: Google Bot und Google News Bot sind verschiedene und differenzierbare Bots.

Holfelder an Klinbeil: Zieht Juristenkarte.

Haller (Google): Wie kann man LSR implementieren? Man kann es nicht implementieren. Nun Zoff zwischen Schulz und Haller zur Frage, ob das noch zur Frage gehört. Haller sagt, es geht nicht um Google News, sondern auch um Google Webseite. Ein Bot kann nicht unterscheiden, ob es um ein LSR-geschütztes Produkt geht oder nicht. Die CDU schüttelt mit dem Kopf.

Haller: Wie gehen wir mit dem Gesetz um? Das wird sich zeigen, wenn es inkraft tritt. Wir warten ab. Ich sehe im Moment schwarz, dass man das Gesetz anwenden kann, ohne permanent in die Falle zu laufen. Wir müssen alle europäischen Verlage im EWR schützen und bei allen Verlagen im EWR fragen.

Holfelder: +1 Zu Haller.

Höppner: Frage zu zulässigen Links und Zeichensatzbegrenzung. Zulässig wird die Anzeige der URL sein. Zulässig könnte sein URL plus title-tag sein. Warum muss man schon auf der Suchtrefferseite die Antwort liefern?

Der Vorsitzende beendet die Sitzung. Und ich kehre zurück zum day-job. Um 9 Uhr Freitag kommt das nächste Loveblog (?).

22 Ergänzungen

  1. Ich sehe viele ratlose Gesichter auf den Bänken, während der sehr technischen Vortrages von Michael Steidl.

  2. Bei den Antworten von Höppner stellt sich der Gedanke ein, dass einfach alles so wie früher bleiben solle und es bloß keine Weiterentwicklung geben möge. Man wisse ja nicht was kommt, aber bestimmt ist alles böse und bringe einem selbst vermutlich eh nichts.

  3. Warum soll man sich eigentlich groß Gedanken um robots.txt machen? Natürlich ist das veraltet und der Staat könnte sagen, geben wir mal einen neuen Standard bei der DIN in Auftrag, oder machen wir mal eine Kooperation mit der Apache Foundation und ein wenig Wissenschaft, hier habt ihr 5 Millionen zum Spielen für ein zeitgemäßes Crawler-Management.

    Wieso gehört das zum Thema LSR? Dass man Newsaggregatoren aussperren kann, ist weit bekannt, aber es tut nichts zur Sache.

    Wenn ein Theater unvergütet die Stücke von Dramatikern spielt, führt es ihnen auch Popularität zu, und natürlich haben Dramatiker das Recht die Aufführung ihrer Werke auf der Bühne zu untersagen, aber das ist doch gar nicht der Punkt hier. Der Punkt ist, dass das Theater zwar aufführt aber alle dramaturgische Leistung nicht bezahlt.

    Bei Nachrichten haben wir eine besondere Situation. Die Leistung und der Wert liegt bei Nachrichten nun einmal zu 80% in Überschrift und Teaser. Nachrichten werden seit jeher traditionell von hinten gekürzt. Die Verlage, die sie erzeugen, zahlen ihre Autoren und sie abonnieren kostenpflichtig die Nachrichtenagenturen, von denen sie übernehmen. Google zahlt nichts und stellt via umfassender Aggregation eine kostenlose Titelseite als Dienst zusammen. Damit konkurrieren die einzelnen Online-Zeitungen. Statt Faz.net oder Zeit.de rufe auch ich lieber Google News auf.

    1. Warum soll man sich eigentlich groß Gedanken um robots.txt machen?

      Weil es die Lösung des von den Verlagen entdeckten Problem ist.

      Natürlich ist das veraltet und der Staat könnte sagen, geben wir mal einen neuen Standard bei der DIN in Auftrag, oder machen wir mal eine Kooperation mit der Apache Foundation und ein wenig Wissenschaft, hier habt ihr 5 Millionen zum Spielen für ein zeitgemäßes Crawler-Management.

      Nur weil etwas alt, ist heißt das nicht, dass es nicht funktioniert oder schlecht ist. TCP/IP wurde bereits genannt.
      EIn zeitgemäßes Cm kann man machen und wenn die Verlage das wirklich wollen, dann sollen sie das machen (oder beim Staat lobbyieren, dass er das macht).

      Wieso gehört das zum Thema LSR? Dass man Newsaggregatoren aussperren kann, ist weit bekannt, aber es tut nichts zur Sache.

      Falsch. Das ist der Kern der Diskussion: die Verleger sagen, dass google sich unberechtigt an ihren Inhalten bediene und dafür nichts zahle und das sie deswegen das LSR PV bräuchten. Warum ziehen sie nicht die Konsequenz und sperren google aus? robots.txt und Elemente (aka Tags) funktionieren in der Praxis.

      Wenn ein Theater unvergütet die Stücke von Dramatikern spielt, führt es ihnen auch Popularität zu, und natürlich haben Dramatiker das Recht die Aufführung ihrer Werke auf der Bühne zu untersagen, aber das ist doch gar nicht der Punkt hier.

      Warum schreibst Du es dann?

      Der Punkt ist, dass das Theater zwar aufführt aber alle dramaturgische Leistung nicht bezahlt.

      Der Punkt ist, dass das Theater von den Verlagen gemacht wird. Und die Verlage nutzen ihr Hausrecht nicht, laden google ein, den Content verfügbar zu machen und beschweren sich dann a) dass sie von ihrem Hausrecht nicht Gebrauch machen und b) dass ihr Content verfügbar gemacht wurde und sie nichteinmal Geld dafür bekämen.

      Bei Nachrichten haben wir eine besondere Situation. Die Leistung und der Wert liegt bei Nachrichten nun einmal zu 80% in Überschrift und Teaser.

      Darum geht es aber bei der verlegerischen Leistung nicht (und für die Verleger soll das LSR PV sein).

      Nachrichten werden seit jeher traditionell von hinten gekürzt. Die Verlage, die sie erzeugen, zahlen ihre Autoren und sie abonnieren kostenpflichtig die Nachrichtenagenturen, von denen sie übernehmen.

      Du hast an der Stelle vergessen, dass die Verlage sich von den Autoren die urheberrechtlichen Verbotsrechtsrecht einräumen lassen. Das bedeutet, dass die Verlage (aus abgeleitetem Recht) Unterlassungsklagen erheben können (und vorher abmahnen), wenn es sich um einen Urheberrechtsverstoß handelt. Man kann nach der Rechtsprechung des BGH eine reine Verlinkung zu einem Verstoß gegen das UrhG machen, aber die Verlage wollen das augenscheinlich nicht.

      Google zahlt nichts und stellt via umfassender Aggregation eine kostenlose Titelseite als Dienst zusammen. Damit konkurrieren die einzelnen Online-Zeitungen. Statt Faz.net oder Zeit.de rufe auch ich lieber Google News auf.

      Google zahlt für die kostenrei erhältlichen (und oftmals für suchmaschinen optimierte Webseiten) mit Aufmerksamkeit und dem Zuleiten von Leserströmen (80% des Traffics kommt von google). Warum schaffen es die Verlage nicht, die ihnen kostenfrei zugeleiteten Besucherströme in Münze umzusetzen?

    2. Der Punkt ist, dass das Theater zwar aufführt aber alle dramaturgische Leistung nicht bezahlt.

      Der Punkt ist, dass du die gleichen unbelegten Behauptungen wie in den anderen beiden Beiträgen abläßt und weiterhin Nachfragen ignorierst. Aus gutem Grund wohl, nur so wird das nichts.

      1. Ich finde die Aggressivität doch sehr bezeichnend. Wie sich so ein Hassmob aufgestaut hat. Die Le D Argumentation verstehe ich natürlich. Ich denke aber, dass die Aggregation eine andere, neue Qualität erzeugt.

        Und da haben wir doch genau den Knackpunkt:

        Das bedeutet, dass die Verlage (aus abgeleitetem Recht) Unterlassungsklagen erheben können (und vorher abmahnen), wenn es sich um einen Urheberrechtsverstoß handelt.

        Derzeit handelt es sich ja um keinen Urheberrechtsverstoß, aus gutem Grund, und das soll ja auch so bleiben. Zitatrecht sollte man eher ausbauen und an Online anpassen. Das Ganze ist dennoch mehr als die Summe der Teile. Denn der ganze Dienst besteht ja nur aus diesen „freiwillig und unkompensiert zur Verfügung gestellen“ Fremdbeiträgen. Jetzt besteht die Möglichkeit, ein Rechtsinstrument zu schaffen, was sich genau um diesen Spezialfall kümmert, der aus meiner Sicht durch seine Qualität einen Missbrauch des Zitatrechts darstellt.

        Ich bin für Open Access, weil ich es unmoralisch finde, dass Wissenschaftler für ihre Veröffentlichung und die unbezahlte Peer Review der Kollegen zahlen, und dann noch einmal die Bibliotheken und die Wissenschaftler für den Erwerb der Zeitschriften, bis hin zu kleinkarierten Kopierabgaben. Ebenso denke ich, dass ein LSR eine fairere Ordnung schafft.

      2. Ich finde die Aggressivität doch sehr bezeichnend.

        Die liegt daran, dass die Befürworter des LSR PV bislang nicht mit Argumenten um die Ecke gekommen sind, dafür aber grobe Kellen mit Druck auf die Tränendrüse auspacken, wenn man ihnen widerspricht (oder Widersprüchlichkeiten in ihrer Argumentation aufzeigt).

        Und es liegt – in concreto – daran, dass Du auf die geäußerten Argumente/Anmerkungen/Kritikpunkte mit keinen Satz eingegangen bist.

        Derzeit handelt es sich ja um keinen Urheberrechtsverstoß, aus gutem Grund, und das soll ja auch so bleiben.

        Dann ist a) das LSR falsch angesiedelt, weil das Urheberrechtsgesetz den Schutz von Urheberrechten regeln sollte (und nicht den Schutz von Leuten, die Geld in ein Produkt investieren) – und wenn es b) ohnehin so bleiben soll, warum wird dann über eine Ausschließlichkeitsrecht diskutiert, aus dem man auch ohne Urheberrechtsverstoß Unterlassungsansprüche geltend machen kann?

        Zitatrecht sollte man eher ausbauen und an Online anpassen.

        Eben – und dann etwas untersagen zu wollen, das nichteinmal einen Urheberrechtsverstoß darstellt und das Zitatrecht nicht zur Rechtfertigung der Handlung braucht, ist seltsam.

        Das Ganze ist dennoch mehr als die Summe der Teile. Denn der ganze Dienst besteht ja nur aus diesen “freiwillig und unkompensiert zur Verfügung gestellen” Fremdbeiträgen.

        Ich habe GN mal angeschmissen: der Dienst besteht nicht aus Fremdbeiträgen. Er listet kleine Teile von Fremdbeiträgen, deren Indexierung der Rechteinhaber trotz Kenntnis der einschlägigen Entscheidung des BGH nicht untersagt oder unterbunden hat.

        Jetzt besteht die Möglichkeit, ein Rechtsinstrument zu schaffen, was sich genau um diesen Spezialfall kümmert, der aus meiner Sicht durch seine Qualität einen Missbrauch des Zitatrechts darstellt.

        Zitate sind Zitate. Und wenn mit dem Zitatrecht (was widersprüchlich ist weil Du schreibst, dass es kein Urheberrechtsverstoß ist und deswegen nicht des Zitatrechts zur Rechtfertigung bedarf) etwas Gutes und Neues geschaffen wird, dann sind Zitate auf einmal schlecht und ein „Mißbrauch“?

        Und man kann sich gegen den Spezialfall auf mindestens zwei Wegen zur Wehr setzen: technische Unterbindung (die wird nicht gemacht) oder rechtliche Unterbindung (da sagt Keese sinngemäß: das ist den Verlagen zu riskant und den Aufwand können wir nicht erbringen). Warum es aber bei mindestens zwei Wegen, dann eine rechtliche Regelung mit unabsehbaren Folgen und nuklaren Inhalten braucht, ist mir vollständig unverständlich.

        Ebenso denke ich, dass ein LSR eine fairere Ordnung schafft.

        Das wird es nicht – kann es auch schon vom Konzept nicht.

        Und es ist alles andere als Fair, einen Dienstleister für die Erbringung seiner Dienstleistung mit dem Risiko einer gerichtlichen Auseinandersetzung zu belasten, die zur Folge haben kann, dass er für seine Leistung bezahlen muss. Das passt auch nicht in unser Wirtschaftssystem, in dem Dienstleister für ihr Leistung ein Entgelt erhalten – und dieses nicht an den Auftraggeber bezahlen müssen. Wenn die Auftraggeber keinen Bock darauf haben, bei google news zu erscheinen, dann sollen sie den Bot aussperren.

        Und weil wir meine Zeit zu blöde ist: ohne inhaltliches Eingehen auf die Gegenseite ist schwer diskutieren. So lange da von Dir nichts kommt, ziehe ich mich raus.

      3. Ich finde die Aggressivität doch sehr bezeichnend. Wie sich so ein Hassmob aufgestaut hat.

        Welche Agressivität? Welcher Hass? In welcher Welt lebst du eigentlich? Wir konnten ja schon an deinen Pro-LSR-Argumenten sehen, dass es nicht die reale sein kein, aber wow, just wow.

  4. das Organisieren von Links zu reglementieren, und darauf läuft diese unsägliche robot.txt-Diskussion hinaus, ist ein nicht hinzunehmender Eingriff in die Netzwerkstruktur des Webs.
    dieser verlauf kann nicht der Kompromiss der absurden LSR-Farce sein.

    1. In die Netzwerkstruktur des deutschen Webs. Resultat ist, daß man mit einem Startup dann doch lieber in einem Startup-freundlicherem Land loslegt.

  5. Gibt es die Anhörung irgendwo zum Nachsehen? Auf bundestag.de in der Mediathek konnte ich bisher nicht fündig werden.

    1. Klar, bevor die Anzahl an Abgeordneten die hinter den Schleier sehen und merken um was es eigentlich geht noch weiter ansteigt. Traurig, traurig.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.