Manuela Branz ist Autorin und Pressesprecherin von MetaGer/SUMA-EV. Seit 1996 bietet MetaGer seinen Nutzern die Möglichkeit, nach Inhalten im Web zu suchen – unter anderem auch nach aktuellen Nachrichten. Als Forschungsprojekt der Uni Hannover entstanden, wird die Suchmaschine seit 2004 vom gemeinnützigen Verein SUMA-EV getragen. Er organisiert sich als Dachverband der „kleineren“ Suchmaschinen, insbesondere im deutschen Sprachraum.
Das deutsche Leistungsschutzrecht war von vorneherein ein umstrittenes Unterfangen. 2013 eingeführt mit der Absicht, die von der Digitalisierung gebeutelten Verlage zu stärken, blieb es ein zahnloser Tiger, bis es schließlich im September 2019 wegen eines Formfehlers vom Europäischen Gerichtshof kassiert und damit endgültig zu den Akten gelegt wurde.
Mit dem Leistungsschutzrecht sollen Verlegerinteressen gestärkt werden: Presseartikel sollen grundsätzlich nur vom Verleger veröffentlich werden dürfen. Suchmaschinen wird gestattet, auf die Presseseiten zu verlinken. Ein ausführlicher Vorschautext, mit dem ein Link überhaupt erst brauchbar wird, soll aber nur mit Lizenz erlaubt werden. Zu Recht wurde dieses Gesetz von vielen Netzaktivisten kritisiert.
Die Befürchtung besteht nun, dass das Leistungsschutzrecht mit der Umsetzung der Richtlinie der EU-Urheberrechtsreform in neuem Gewand aber mit alter Problematik an den Start gebracht werden soll. Während Artikel 17 – früher Artikel 13 – der EU-Urheberrechtsreform im Fokus der Medien stand und immer noch steht und im Frühjahr zu Demonstrationen motivieren konnte, erfährt die Revitalisierung des Verlegerrechtes erstaunlich wenig mediale Aufmerksamkeit. Doch eine strikte Umsetzung der Richtlinie könnte fatale Folgen haben: für kleinere Suchmaschinenbetreiber und kleinere Verlage. Und damit für uns alle.
Wo ist das Problem?
Im Prinzip geht es den Verlegern um die Schlagzeilen-Previews der News-Aggregatoren. Oft stehen unter den von News-Aggregatoren eingestellten Informationshappen ganze Sätze, die einen Wechsel auf die entsprechende Presseseite im Prinzip nicht mehr erforderlich machen. Noch gibt es aber genug Nutzer:innen, die sich von der Presseseite mehr Inhalt erhoffen, als im Anreißtext an Information zu finden ist. Diese Personen klicken die Links dann auch an.
Doch auch wenn die Presseverleger aktuell von der prominenten Darstellung ihrer Inhalte stark profitieren und durch die News-Aggregatoren an Traffic gewinnen, wollen die Presseverleger dieser Verwertungsmentalität Googles generell einen Riegel vorschieben und zukünftige Entwicklungen lenken. Aus diesem Machtkampf um die News darf sich jedoch keine Schwierigkeit entwickeln, eine Suchmaschine generell zu betreiben.
Liest man die Richtlinie genau, betrifft sie durchaus nicht nur die News-Aggregatoren. Sie betrifft genaugenommen alle Links, die auf Presseartikel verweisen. Nun kann eine Suchmaschine jedoch nicht zwischen „normalen“ Webseiten und Presseseiten unterscheiden. Da eine Suchmaschinen folglich alle Seiten so lesen muss, als seien es Seiten von Presseverleger, müssen die Seiten auch urheberrechtlich so behandelt werden, als gelte für sie eine Lizenzpflicht.
Die Folge: Wird die Richtlinie so strikt umgesetzt, wie es der Text nahelegt, dürften auch bei der ganz normalen Websuche nur noch sehr kurze Snippets auf der Ergebnisseite angezeigt werden. Wie kurz, lässt die Richtlinie offen. Nur diese wären ganz sicher von der Lizenzpflicht ausgenommen. Der Suchmaschinenbetreiber müsste also vorsorglich alle Previews kräftig eindampfen, um rechtlich ganz auf der sicheren Seite zu sein.
Eine solche Veränderung des Vorschautextes würde jedoch Inhalt, Brauchbarkeit und Optik der Ergebnisseite einer Suchmaschine stark negativ verändern. Die Orientierungsmöglichkeit durch Snippets ist kein verzichtbares Beiwerk, das einfach entsorgt werden kann, sondern für eine komfortable und sinnvolle Suche essenziell. Schließlich muss sich der Nutzer ein umfassendes Bild über den Inhalt der entsprechenden Webseite machen können, um sich für oder gegen ein Anklicken des Links entscheiden zu können.
Was kann man tun?
Natürlich wäre es möglich, spezielle Filter vorzubauen, die alle lizenzpflichtigen Seiten der Presseverlage herausfiltern. Dabei aber treten die Probleme zutage, die man auch im Falle der Uploadfilter schon identifiziert hat: Filter sind ungenau und filtern unter Umständen irrtümlich auch Webseiten heraus, die mit Presseverlegern nichts zu tun haben.
Im Vorfeld müsste man technische Werkzeuge wie automatisierte Pressefilter entwickeln beziehungsweise kaufen, was insbesondere für Betreiber nicht-kommerzieller Suchmaschinen eine erhebliche finanzielle Hürde darstellen würde. Für Google wäre es kein Problem, sich entsprechende Filter zu leisten. Der Monopolist wird sich gleichwohl weigern, wie Googles Reaktion auf die französische Umsetzung des europäischen Leistungsschutzrechts zeigt. Nicht-kommerzielle Suchmaschinen und andere Dienste sind aber von vornherein nicht in der Lage, sich hier entsprechend auszurüsten.
Mit der Identifizierung lizenzpflichtiger Presseseiten ist es zudem nicht getan. Im zweiten Schritt müssten von jedem einzelnen Presseverlag eine Lizenz eingeholt und Lizenzvereinbarungen ausgehandelt werden, was weitere personelle und finanzielle Ressourcen erforderlich machen würde. Zwar könnte sich ein Suchmaschinenbetreiber pauschale Lizenzen von den großen Presseverlegern einholen, was in der Tat einen gangbaren Weg darstellen würde. Sich aber um die Vielzahl der kleinen europäischen Verleger und Publisher zu kümmern, wäre nicht drin.
Im Zweifelsfalle – und um sich nicht in Gefahr der Rechtsunsicherheit zu begeben – würde man die entsprechenden Seiten einfach nicht mehr listen oder eben nur mit eingeschränkter Vorschau bereitstellen. Nicht-kommerzielle Suchmaschinen sowie kleine Presseverleger würden damit gleichermaßen benachteiligt.
Ein Lösungsvorschlag
Wie könnte man die Richtlinie umsetzen, ohne den „Normalbetrieb“ einer Suchmaschine in Gefahr zu bringen? Eine Lösung könnte sein, zwischen Nachrichten-Aggregatoren und anderen Diensten strikt zu unterscheiden. Ein auf Presseerzeugnisse spezialisierter Dienst, also ein Nachrichten-Aggregator, stellt sich schon per Definition durch ein ausführliches Preview dar und „weiß“ natürlich, dass er Presseartikel verwendet.
Die Aggregatoren könnten daher im Sinne der EU-Richtlinie verpflichtet werden, sich eine Lizenz zu holen. Ob sie sich eine Lizenz dann tatsächlich auch beschaffen, ist allerdings äußerst fraglich. Google lässt sich, wie es sich jüngst bei der französischen Umsetzung des Richtlinientextes gezeigt hat, durchaus nicht unter Druck setzten und verzichtet lieber auf den ausführlichen Text unter den News-Schlagzeilen. Für alle anderen Dienste aber könnte eine implizierte Lizenz die Lösung sein.
Eine implizierte Lizenz würde den Betrieb einer Suchmaschine und ähnlicher Dienste in der gewohnten Weise ermöglichen. Die Funktionsweise ist erprobt: Wehrt sich ein Webseitenbetreiber nicht aktiv dagegen, dass seine Seite von einem Suchmaschinencrawler gefunden und entsprechend genutzt wird, gibt er damit sein Einverständnis zu Nutzung, und damit auch für die Erstellung aussagekräftiger Snippets. Schon jetzt ist diese Steuerungsmöglichkeit rechtlich bindend.
Technisch gesehen ist die Lizenz ohnehin kein Problem, sie lässt sich durch den obligatorischen sogenannten „Robots.txt“-Standard realisieren. In dieser Datei bestimmt ein Webseitenbetreiber, welche Bestandteile seines Angebots durchsucht werden dürfen; darüber hinaus können einzelne Crawlbots zugelassen oder ausgesperrt werden. Für Inhalte auf den nicht ausgeschlossenen Seiten würde dann die rechtlich bindende Erlaubnis zur Nutzung ohne Einschränkung gelten. Einer aussagekräftigen Vorschau aus mehreren Wörtern würde nichts mehr im Wege stehen.
Alternativ wäre auch denkbar, dass die Anbieter von Presseerzeugnissen den Vorschautext selbst bestimmen können. Das wäre leicht realisierbar, indem sie diesen auf den Webseiten entsprechend maschinenlesbar auszeichnen. Die Presseanbieter könnten dann entscheiden, ob sie eine ausführliche Vorschau zeigen wollen oder auf die Darstellung verzichten.
Auch hier gilt dann wieder die Logik der implizierten Lizenz: Wer keinen eigenen Vorschautext zur Verfügung stellt, gibt sein Einverständnis für die automatisierte Variante der Suchmaschine und gut ist. Es gibt also durchaus machbare Lösungen, mit denen die verunglückte EU-Richtlinie noch halbwegs unschädlich über die Bühne gebracht werden kann.
Den Spielraum nutzen
Über die Frage nach dem Sinn von Artikel 15 und 17 der EU-Richtlinie lässt sich streiten. Fakt ist, dass sie unabhängig von ihrem Potential, das Urheberrecht für Urheber tatsächlich zu stärken, nun innerhalb der nächsten beiden Jahre in deutsches Recht umgewandelt werden muss. Erkennbar ist der Vorsatz in der Politik, mit der Ausgestaltung von Artikel 15 die Verlegerinteressen zu berücksichtigen, und im Falle der Aggregatoren mag es aus Sicht der Presseverleger auch einige Gründe geben, die Rechte für den Inhalte generierenden Qualitätsjournalismus zu stärken.
Wenn das Gesetz dann aber eine ähnliche Gestalt erhält wie vormals das deutsche Leistungsschutzrecht, ist zu befürchten, dass eine weitere Machtkonzentration auf dem Suchmaschinenmarkt die Folge sein wird. Denn große Internetdienste wie Google können sich weitaus besser auf die neuen Erfordernisse einstellen als kleinere Suchmaschinen und ähnliche Dienste. Auch hat ein Monopolist wie Google eher die Freiheit, es auf einen Prozess ankommen zu lassen und/oder entsprechende Vorgaben zu ignorieren.
Um die Interessen nicht-kommerzieller Suchmaschinen zu stärken, ist es daher unumgänglich, dass bei der Überführung des Richtlinientextes in deutsches Recht darauf geachtet wird, den vorhandenen Spielraum auch im Sinne der kleineren Suchanbieter zu nutzen.
»Oft stehen unter den von News-Aggregatoren eingestellten Informationshappen ganze Sätze, die einen Wechsel auf die entsprechende Presseseite im Prinzip nicht mehr erforderlich machen.«
What? Ich weiß ja nicht, wie andere das nutzen, aber wenn ich über Google News nach Nachrichten zu einem bestimmten Thema suche, klicke ich *immer* auf die resultierenden Links. Das ist schließlich der Sinn der Sache.
»Alternativ wäre auch denkbar, dass die Anbieter von Presseerzeugnissen den Vorschautext selbst bestimmen können.«
Bloß nicht. Das wäre ein Rückfall in uralte Prä-Google-Zeiten, als jeder über Meta-Tags alle möglichen Clickbait-Stichwörter an die Suchmaschinen gefüttert hat. Wenn ich irgendwas suche, dann möchte ich auch bitte das finden, wonach ich gesucht habe, und nicht irgendwas total anderes, was von findigen SEOs mit meinem Suchthema gelabelt wurde.
„Für alle anderen Dienste aber könnte eine implizierte Lizenz die Lösung sein.“
Ich weiß nicht, wer diese Frau ist, aber wenn sie den Punkt „Lizenzen kosten einen Preis, den die Verlage bestimmen, was in Deutschland ein Dutzend Aggregatoren kaputt gemacht hat“ so konsequent „vergisst“, hat sie entweder Ihre Idee nur bis zur Hälfte erarbeitet oder ist direkt eine Lobbyistin der Pressekonzerne.
Warum nicht auf Steuerung durch die gekrabbelte Seite setzen?
Zwischen Krabbeln-ja und Krabbeln-nein könnte man schon noch Zitieren-dies-nicht setzen, man muss ja nicht mit Steintafeln aufeinander werfen, in Zeiten von fast nichts kostenden Speicherhalden.
@con2art: Vielleicht habe ich deinen Kommentar falsch verstanden, aber für mich klingt es so, als würdest du davon ausgehen, dass die „impliziten Lizenzen“ Geld kosten. Oder wieso kommst du auf Preise zu sprechen? Die impliziten Lizenzen kosten natürlich kein Geld. Oder kannst du dein Statement noch etwas genauer ausführen?
@con2art Es war mir ein Anliegen, einen bewusst pragmatischen Weg zu beschreiben, die negativen Auswirkungen einer strikten Richtlinien-Auslegung auf den „normalen“ Suchmaschinenbetrieb im Rahmen zu halten. Das europäische Leistungsschutzrecht ist aber natürlich als solches Mist!
Wäre es nicht eine Idee in der robots.txt ein Punkt Presseverleger hinzuzufügen, in dem dann eine ID oder None steht, wodurch crouwler wissen, ob sie Beit diesem Presseverleger ein Recht haben, oder so wie bei Cookies, das dort dann den crouwlern gesagt wird, darfst oder darfst nicht nutzen
Eine Standardisierung wäre ja auch mal lustig.
Würde diese z.B. beinhalten, Absätze mit „kein Zitat“ zu markieren, erhöht sich natürlich der Aufwand für Suchmaschinen, womit kleinere „Wettbewerber“ derzeit vermutlich eher systematische nachteile hätten.
Also vielleicht liber kommerziell betriebene Suchmaschinen dichtmachen, zugunsten Forschungs- und Staatsgetriebener Varianten, die eben z.B. Werbung von Inhalten so trennnen, dass man nicht über das jeweils unerwünschte stolpert. Also keine Shoppinganzeige oder auch nur Ergebnisse, wenn man nach Informationen sucht – am Besten sogar einstellbar, falls man doch „Benutzerbewertungen“ sehen will. Ach und wie wäre es damit, wenn Webseiten ihre Inhalte korrekt identifizieren müssen (nicht nur TLD-„spezifisch“), also Metatags setzen, z.B. für Forschung, Unternehmen, Shop, Privatblog, etc. mit entsprechenden Unterkategorien und Strafbarkeit bei bösartiger Einordnung einerseits, mindestens Auslistung, andererseits aber eben auch Markierung von Seiten aus „fremder Legislation“ durch die Suchseite oder auch (erzwungen!) Browser, damit Benutzer nicht nur irgendeine Wahl haben, sondern auch verwertbare Informationen erhalten.
Oder man erlaubt kommerzielle Anbieter, verbietet aber Geräte mit solchen Voreinstellungen u.ä., also eine Art Voreinstellungsregime, damit die Gewöhnungseffekte schwächer werden – hier muss dann mit harter Hand Verhalten von Anbietern kurzfristig sanktioniert werden (Datenschutzvoreinstellungen, UI-Komplexität, …. Nachtigallen überallen).
Oder in ein Giftküchensubnetz verbannen, bei dem Browser vor betreten Warnen müssen, und von Benutzern die explizite Erlaubnis zum Betreten einholen müssen.
Fehlt nur noch eine vertrauenswürdige Basis (Staat, Systeme, …), um zivilisatorisch relevantes umzusetzen.
Meine Lösung:
Keine webseiten mehr in den suchalgorytmus aufnehmen welchem auf diesem recht bestehen. (Also auschluss) Dann merken Sie das Ihr ziel nicht war nichtmehr gefunden werden zu können.
Das Problem ist ja, dass der Crawler nicht erkennen kann, welche Seite das fordert. Praktisch wäre eine Art Markierung, durch die der Crawler merkt „Achtung, das hier ist Presse!“, daher auch der Vorschlag mit der Robots.txt – das funktioniert bereits.
Die Richtlinie ist angenommen, das Kind ist im Brunnen. Jetzt kommt es sehr auf die nationalen Gesetze an; zu retten, was noch zu retten ist. Meine Hoffnungen halten sich in Grenzen…
Ich sehe unter anderem zwei Lösungsansätze um das Thema endgültig vom Tisch zu kriegen:
1. eine Petition, dass Axel Springer Medien und andere Befürworter von den Suchindexen und Newsaggregatoren gestrichen werden. Mit einer erfolgreichen Petition können Suchmaschinenbetreiber Bild vom Netz kicken ohne irgendwelche Repressionen zu erleiden.
Danach haben sie weder Geld noch Reichweite, um ihren Blödsinn weiterzuverbreiten.
2. (sehr diabolisch, eher so ein letzter Weg) zentrale Internetstelle für europäische Suchindizierung. Nur wer seinen monatlichen Obolus entrichtet wird verlinkt. So 1 € für Textlinks, 2€ Bild und 10€ Bild mit Beschreibung. Hier kann man auch eine Prüfung der Inhalte vornehmen:
– Open Source, Privatseite kostenfrei, kein Obolus
– Fake News (wie Bild) verboten, werden nicht indiziert. Hust hust, wer da nicht an Zensur denkt^^
Mit diesem Ansatz tritt man so vielen Menschen auf die Füße, dass es ein politisches Erdbeben gibt (wer würde sich da nicht verkauft fühlen, wenn er plötzlich für eine kostenfreie Leistung zahlen muss).
Das Gesetz war immer ein schlecht gemachtes Lobbyistengesetz. Es wird in der vorgesehen Form auch keinen Bestand haben. Man kann nicht gleichzeitig Google verpflichten Verlage im Index zu behalten UND Abgaben vorsehen, wenn die Texte genutzt werden.
Auch die Begründung ist an den Haaren herbeigezogen: Wer nur an simplem Informationen wie bspw. am Ergebnis von Tottenham Hotspur gegen Bayern interessiert ist, der bekommt es auch so, ohne News-Aggregatoren. Es gab schon immer Leute, die einen Blick auf die Überschriften der Zeitungen geworfen, sie aber nicht gekauft haben. Und mir wäre neu, dass Kioskbesitzer dafür Geld an die Verlage zahlen mussten.
Die meisten Verlage haben den digitalen Umbruch schlicht verschlafen und haben inzwischen ein Problem mit der Monetarisierung. Auch wenn die Probleme verständlich sind, so haben sie wenig mit Google zu tun.
Der oben gemachte Lösungsvorschlag ist zwar aus Sicht der Metager-Betreiber nachvollziehbar, weil sie dann direkt nicht mehr betroffen wären, aber er löst das Problem nicht wirklich. Die grundsätzlichen Probleme würden weiter bestehen, nur die Kollateralschäden würden verkleinert.
Wenn man etwas mit Ansage gegen die Wand fährt, dann nur zu. Auch wenn die Presse ein elementarer Pfeiler der Demokratie ist, Verlage sind zum Glück nicht systemrelevant. Ich freue mich schon auch die Umsetzung des Leistungsschutzrechts:
https://meedia.de/2019/09/26/keine-snippets-mehr-google-laesst-eu-leistungsschutzrecht-in-frankreich-vor-die-wand-laufen/
Mir würde schon eine Filteroption reichen, gängige Verlage und Publisher aus meiner Suche auszuschließen.
2013 eingeführt mit der Absicht, die von der Digitalisierung gebeutelten Verlage zu stärken
Achtung, das ist die Narration der Verlage! Tatsächlich wurden die Verlage nicht „von der Digitalisierung gebeutelt“, sondern sie haben sich im Zuge der Digitalisierung durch eine Vielzahl von Fehlentscheidungen und generelle Marktblindheit selbst gebeutelt.