Live-Blog: Leistungsschutzrecht im Unterausschuss Neue Medien

Heute findet ab 13:00 Uhr im Unterausschuss Neue Medien im Deutschen Bundestag eine Anhörung zum Leistungsschutzrecht statt. Mathias Schindler sitzt für uns vor Ort und wird hier berichten. Das ist ein Love-Blog, Rechtschreibfehler können daher gerne behalten werden. Auf bundestag.de findet sich übrigens ein Live-Stream. Kurz vor Beginn hat sich ein Gerücht bestätigt: Die Koalition hat die 2. und 3. Lesung für das Leistungsschutzrecht für Presseverleger für den kommenden Freitag, den 1. März auf die Tagesordnung setzen lassen. Daon kann der Punkt aber auch wieder verschwinden.

Liste der geladenen Sachverständigen

Dr. Arnd Haller, Google Germany GmbH
Dr. Thomas Höppner, Bundesverband der Zeitungsverleger
Prof. Dirk Lewandowski, Hochschule für Angewandte Wissenschaften Hamburg
Michael Steidl, International Press Telecommunications Council, London

Hallo und herzlich willkommen an den zugeschalteten Empfangsgeräten. Dies ist ein Loveblog. (Wer das für einen Tippfehler hält, der sollte die Vorgeschichte auf netzpolitik.org nachlesen. Ihr solltet eh mehr Netzpolitik.org lesen)

Im Gegensatz zu der Sachverständigenanhörung im Rechtsausschuss vor einigen Tagen ist diese Sitzung mit Livestream. Ihr könnt also die Experten und Abgeordneten selbst anhören und seid nicht auf die Fremdvermittlung des Vierten Standes angewiesen.

Sebastian Blumenthal eröffnet die Sitzung des #UANM. Einziger Tagesordnungspunkt ist die Expertenanhörung zum LSR.

Blumenthal spricht korrekt von “Sachverständigenparteien”, zumindest drei der Sachverständigen sind ganz eindeutig mit einer eigenen Interessenlage. Google darf in doppelter Rolle sprechen, der Sachverständige von Google ist Wieland Holfelder, er darf sich aber sich bei Arnd Haller rückversichern.

Frage Heveling (CDU) an Höpper: ob es aus technischer Sicht zutreffe, ob das Leser-Zuführe-Argument zutreffe.

Klingbeil (SPD) an Höppner: “Klaut aus Ihrer Sicht Google Daten”

Klingbeil (SPD) an Holfelder: “Erklären Sie uns bitte robots.txt” (sinngemäß)

Jimmy Schulz (FDP) an Holfelder und Höppner: Es gab Diskussion um technische Standards. Verlage haben die Möglichkeit, den Zugriff zu beschränken. Z.B. robots.txt oder nosnippet-Tag.

Sitte (PDL) an Holfelder: Verleger behaupten, robots.txt reiche nicht aus, ACAP komme nicht zu Anwendung. Welchen Aufwand bedeutet die Umsetzung des ACAP-Standards, warum implementiert Google ACAP nicht.

Sitte an Lewandowski: Halten sich Suchmaschinen an die robots.txt?

Notz (Grüne) an Lewandowski und Holfelder: Wenn das LSR kommt, ob es dann nicht unabdingbar ist, durch welche technischen Maßnahmen Suchmaschinen erkennen können, ob es sich um ein Presseerzeugnis handelt?

Es antwortet Holfelder: Er ist Entwickler, Softwareentwickler, hat vor 14 Jahren selbst einen Crawler implementiert und freut sich, über Technik zu reden.

Holfelder an Heveling und Klingbeil: Ob die technischen Möglichkeiten ausreichen: Robots.txt ist ein de-facto-Standard, existiert seit fast 2 Jahrzehnten. Relativ fein granular bestimmbar für Anweisungen an Suchmaschinen. Granularität ist auf Ebene jeder Webseite. Erklärt nun auch die verfügbaren Meta-Tags. Wer jetzt bei der Beschreibung nicht folgen kann, sollte bitte am Freitag nicht mit abstimmen oder sich bei Jimmy Schulz informieren :) Im Ernst. Holfelder erklärt alles, was in *jedem* elementaren Einführungstext zu robots.txt zu finden ist. Wozu man für diese Informationen eine Expertenanhörung benötigt, ist mir unklar. Aber vielleicht hilft es ja.

Bekommt der Bundestag eigentlich Vergütung für die Einräumung von Sendezeit für diese Produktpräsentation?

Vorschlag an Google: Verschickt diese Erklärung an alle MdBs in ausgedruckter Form. Nur aus Gründen der Sorgfalt.

Glückwunsch an Google, dass sie im Vorbeigehen der Antwort auch noch den Axel-Springer-Verlag (ASV) für ihre Haltung zu Suchmaschinen getrollt haben.

Holfelder an Schulz: Wir sind offen für weitere Standards. Wir haben beispielsweise unavailable-after mit übernommen (Ist das ein ÖR-Tag für Depublikationen?). Wir haben im Dialog mit Verlegern das Tag eingeführt.

Holfelder an Sitte zu ACAP: Es gibt Aspekte von ACAP, die wir inzwischen in robots.txt sehen, siehe unavailable-after. Es gibt einige Formulierungen in ACAP, die für uns schwierig umzusetzen sind, ohne den Nutzen für Nutzer zu schmälern.

Holfelder zu ACAP, er kritisiert, dass descriptions zwingend seien und damit spammer ein freies Feld haben. Es stehe der Suchmaschine also nicht frei, eine eigene Description zu setzen.

Holfelder an Notz: Heuristiken zur Erkennung von Pressenseiten in einer Verbotsrechtswelt wäre problematisch, weil jede Fehleinschätzung nicht nur eine negative Nutzererfahrung wäre, sondern ein Rechtsverstoß. Im Zweifel müssten wir sehr sehr konservativ vorgehen (=overblocking)

Nun kommt Höppner (BDZV).

Höppner will nun das Taxi-Mem erklären. Er sei kein Fan des Vergleichs, will aber nun weiter den Vergleich nutzen und ad absurdum führen. Es folgt nun keine technische, sondern eine politische Erklärung zu irgendwas. Irgendwas mit Taxen und Kapitalismus.

Wow, Höppner macht gerade eine Erklärung, wie groß die Leistungen von Suchmaschinen sind. Wenn es jemals ein Suchmaschinen-LSR geben soll, sollten die Befürworter dieses LSR einfach die Worte von Höppner 1:1 kopieren.

Vorschlag an die mitlesenden MdBs des UANM: Fragt Höppner, ob er mit seiner Erklärung nicht der Ansicht ist, dass die Suchmaschinen nicht die eigentlichen Empfänger eines Leistungsschutzrechts sein sollten, wenn sie so viel Arbeit leisten.

Höppners zweiter Punkt ist, dass die Verlage zu wenige Informationen erhalten, wie die Aggregatoren genutzt werden. Suchmaschinen nähmen den Webseiten eher Traffic ab.

Oh, jetzt wird es abenteuerlich: Verlage würden nur Meta-descriptions bringen, weil sie aus der Not das Beste machen wollen und sich um die Restverteilung des Kuchens prügeln. Das setzen von meta-descriptions sei

Höppner: Verlage kümmern sich nur um Relevanz, weil die Suchmaschinen das wollen. Ohne Suchmaschinen gäbe es keine solche Innovation (sinngemäß).

“Zur zweiten Frage: Klaut Google Daten? Aber selbstverständlich hat Google damit ein Geschäftsmodell aufgebaut!”.

Vorschlag an den BDZV: Beim nächsten mal zu einer Anhörung zu technischen Fragen einen Techniker mitnehmen.

Höppner bezieht sich auf “Google Knowledge”.” Meint er Google Knol oder den Knowledge Graph?

Höppner an Schulz: Auch wenn es so rosig dargestellt ist, so rosig ist das nicht. Es handele sich um eine freiwillige Vereinbarung. Viele Anbieter würden sich nicht daran halten. Auf die Frage von Schulz, ob man robots.txt verpflichtend machen wolle, antwortet er, dass robots.txt derzeit nicht verpflichtend ist. Spannend, gibt es in Deutschland eine Strafbarkeit von contempt of congress – Missachtung des Vorsitzenden o.ä.?

Höppner, selbsterklärter Keinfan von schlechten Vergleichen, mit einem schlechten Vergleich. Mit einem großen Stadium und einem Türsteher. Ich glaube, er hat gleich die CDU weichgekocht.

Höppner mit einem doh!-Moment: Wenn man das Snippet verbietet, gehen weniger Leute auf unsere Seiten. Jetzt muss er nur noch die Konsequenzen aus dieser Erkenntnis nehmen. Schlägt der BDZV also nicht nur ein LSR vor, sondern eine Top-Plazierung für Presseinhalte?

Vorschlag an Frage für MdBs an Höppner: Schlagen Sie nicht gerade vor, dass der Gesetzgeber die Plazierung von Treffern in Suchmaschinen regeln sollte?

Wie kommt es eigentlich dazu, dass so viele Verbandsvertreter Probleme mit dem Kapitalismus und der freien Marktwirtschaft haben?

Lewandowski: an Sitte: Robots.txt wird von den großen Suchmaschinen beachtet. Es gibt böse Anbieter, die robots.txt missachten. Dies ist nicht das große Problem. Robots.txt kann explizit nicht nur verbieten, sondern auch erlauben. Robots.txt kann eingerichtet werden, google alles zu erlauben und anderen etwas zu untersagen.

Kann eine erweiterte Robots.txt das Problem lösen: Ja, das ist sinnvoll.

Lewandowski: Man sollte Suchmaschinen nicht vorgeben, welche Description angezeigt werden muss. Er hält den Fall für konstruiert, es gibt nämlich andere Möglichkeiten, z.B. herunterranken.

Lewandowski an Notz: Man muss klären, ob es sich um ein Verlagsangebot handeln muss. Bei Google News sei dies kein Problem, weil es hier um eine manuelle Aufnahme gehe. Schwierig sei es bei anderen Fällen, insbesondere auf der Artikelebene.

Steidl an Heveling: Wir sind die Standardisierungsorganisation der Nachrichtenbranche. Damit bezieht er sich insbesondere auf die Standards von Agenturen zu ihren kommerziellen Abnehmern.

Steidl: Haben ACAP mit entwickelt und entwickeln gerade an RightsML. Steidl weist nun darauf hin, dass es in der Praxis oft um eine Mischung aus Anweisungen, die sowohl in robots.txt als auch dem meta-bereich von HTML-Seiten geht. Oder in tags.

Steidl liest jetzt google.com vor. Rutscht er gerade ab in das Feld von Sitemaps?

Wir haben inzwischen nach der Halbzeit. 50 von 90 Minuten sind vorbei.

Ich glaube, ich weiss, was Steidl meint, aber es klingt irreführend. Es geht wohl darum, wie ein Seitenbetreiber erkennen kann, dass es sich um einen Crawler eines bestimmten Anbieters handelt. Google veröffentlicht meines Wissens, von welchen IPs aus welche Crawler mit welcher user-agent-Zeile sich melden.

Siegfried Kauder betritt den Raum. Sitzt übrigens neben den Kollegen der CDU (nach dem Beitrag von Krings muss man da ja seine Zweifel haben)

Rückfrage vom Vorsitzenden, ob die Antwort von Steidl noch mit der Frage von Heveling zusammenhängt. Die Frage ist sehr berechtigt, es wirkt eher wie ein allgemeines Referat über Suche. Sehr charmante Art von Blumenthal, auf das Problem hinzuweisen.

Steidl: Es gibt keine Organisation, die für robots.txt steht.

Steidl: Vor 10 Jahren hätte robots.txt noch genügt. Heute nicht mehr. Robots.txt arbeitet nur mit ganzen Seiten, nicht mit Nachrichtenübersichtsseiten.

Steidl, Holfelder: Dann fügt rel=noarchive etc auf ebene des Tags div oder p an.

Blumenthal fährt Steidl noch einmal in die Parade. Und beendet die Antwort, startet zweite Fragerunde.

Fragerunde 2

Jarzombek an Steidl und Holfelder: Frage zu einem Text auf google.com zu robots.txt und die Archivierung.

Dörrmann an Holfelder: Welcher Traffic von Google geht auf die Angebote der Verleger. Welche objektivierbaren Ergebnisse gibt es?

Zypries an Lewandowski: Es muss eine Verlagsliste geliefert werden, wer von dem Verbot erfasst ist. Ist das aus verfassungsrechtlichen Gründen verpflichtend und müsste ins Gesetz aufgenommen werden?

Schulz-Frage (an wen?): Wäre es denkbar, solche Standards mit einem rechtlichen Schutz zu versehen?

Schulz an Höppner: Haben Sie Zahlen zu dem Traffic, den Google ihnen wegnimmt?

Behrens an Holfelder: Welcher Aufwand entsteht bei Suchmaschinen und suchmaschinenähnlichen Diensten? Wir gehen davon aus, dass sich eine Reihe von Rechteinhabern nicht melden würde. Wie würde man davon ausgehen? Wie ist das qualitativ?

Sitte an Holfelder: Warum haben sie bei Steidls Vortrag mit dem Kopf geschüttelt? Zusätzlich Frage zu RSS-Feed-Nutzung.

Notz an Höppner: Ginge es wirklich den Verlagen ohne Suchmaschinen besser als ohne? Ist das wirklich ihre These?

Notz an Lewandoski: Es geht um nicht-kommerzielle Dienste. Wie soll es bei Diensten wie twitter und facebook.

Antwortrunde:

Holfelder an Jarzombek: Es gibt zwei Dinge: Crawlen und Indexieren. Wir sagen, dass wenn sie ihre Seite nicht sichtbar machen, sie dennoch gecrawled werden kann, wenn sie verlinkt wird. Sprich: Der Seitenanbieter muss erklären, welche Inhalte nicht indexiert werden können.

Holfelder an Dörrmann: Zitiert Döpfner, wir sind Google unendlich dankbar. Bis zu 80% Traffic kommt von Google. Well played.

Holfelder an Schulz: Description tag ist Teil des HTML-Standards. Das Argument, robots.txt funktioniere nicht mehr, weil es 20 Jahre alt sei, klappt nicht im Internet, wo TCP/IP 40 Jahre alt ist. Ich bin nicht sicher, warum man einen Standard in deutsches Recht überführen will. Wir reden mit den Parteien.

Holfelder an Behrens: $wirwerdenallesterben. Ich bekomme immer die Frage aus der deutschen Politik, wie man sicherstellen kann, dass das nächste Google, das nächste Facebook aus Deutschland stammt. Hier meine Antwort: Kein LSR.

Holfelder an Sitte: Empfiehlt Holder tatsächlich iframes????

Höppner: Horizontale vs. Vertikale Suche. Google bei horizontaler Suche 90% Marktanteil in Europa. Spannend, dass sich LSR auf beide beziehen soll, wenn Verlage nicht bei beiden Bereichen ein Problem haben.

Höppner: Wir haben keine Zahlen, ob wir von google news profitieren oder nicht.

Für Höppner heisst “profitieren Sie”, ob “100% der Leser durchgereicht werden”. Interesting.

Lewandowski an Zypries: Spannend, das erste mal sagt ein Sachverständiger, dass es sich bei der Frage um etwas handelt, wo er nichts dazu sagen kann. Mut zur Lücke.

Lewandowski: Antwort an von Notz nicht verstanden, sehr schwer akustisch verständlich. Wenn ich es richtig verstehe, hält er den Gesetzesentwurf dafür für ausreichend.

Steidl erklärt nun den Crawler. Stellt sich selbst Fragen. Ein bisschen mehr Lewandowski würde ihm helfen.

Letzte Fragerunde, eine Frage pro Fraktion:

Brandl (CDU): Wie kommt die Google News-Liste zustande?

Brandl an Holfelder: Kann ein Webseitenbetreiber differenzieren zwischen Google Bot und Google News Bot?

Dörrmann: Wie würde Google das Gesetz umsetzen, wenn es am Freitag durch die 2. und 3. Lesung kommt?

Schulz: Es wird ja diskutiert, einen Teil vom LSR auszunehmen, ein Snippet. Wie wollen sie das fedinieren?

Behrens an Holfelder: Müssen Betreiber von sozialen Netzwerken Sperren einrichten?

Notz an Holfelder oder Haller: Würde die Einführung des LSR zur Einstellung des Dienstes führen?

Holfelder: Es ist sowohl algorithmisch als auch manuell. Der große Unterschied ist, dass es bei einem Verbotsrecht nicht mehr ausreichen würde, dann bräuchten wir eine verbindliche Liste.

Holfelder: Google Bot und Google News Bot sind verschiedene und differenzierbare Bots.

Holfelder an Klinbeil: Zieht Juristenkarte.

Haller (Google): Wie kann man LSR implementieren? Man kann es nicht implementieren. Nun Zoff zwischen Schulz und Haller zur Frage, ob das noch zur Frage gehört. Haller sagt, es geht nicht um Google News, sondern auch um Google Webseite. Ein Bot kann nicht unterscheiden, ob es um ein LSR-geschütztes Produkt geht oder nicht. Die CDU schüttelt mit dem Kopf.

Haller: Wie gehen wir mit dem Gesetz um? Das wird sich zeigen, wenn es inkraft tritt. Wir warten ab. Ich sehe im Moment schwarz, dass man das Gesetz anwenden kann, ohne permanent in die Falle zu laufen. Wir müssen alle europäischen Verlage im EWR schützen und bei allen Verlagen im EWR fragen.

Holfelder: +1 Zu Haller.

Höppner: Frage zu zulässigen Links und Zeichensatzbegrenzung. Zulässig wird die Anzeige der URL sein. Zulässig könnte sein URL plus title-tag sein. Warum muss man schon auf der Suchtrefferseite die Antwort liefern?

Der Vorsitzende beendet die Sitzung. Und ich kehre zurück zum day-job. Um 9 Uhr Freitag kommt das nächste Loveblog (?).

21 Kommentare
  1. Thomas Elbel 25. Feb 2013 @ 14:08
Unterstütze unsere Recherchen und Berichterstattung für Grundrechte und ein freies Internet durch eine Spende. Spenden