Verlage vs. Google: ACAP, das intelligente robots.txt

Wolfgang Michal beschäftigt sich auf Carta mit dem Automated Content Access Protocol (ACAP), der „intelligenten“ Version von robots.txt: „ACAP ist Digitales Rechte-Management (DRM).“

ACAP regelt, anders als das Protokoll robots.txt, nicht nur ob, sondern auch wie Suchmaschinen auf Webseiten-Inhalte zugreifen dürfen. Würden sich Google & Co. daran halten, bekämen Verlage und andere Website-Betreiber beträchtliche Macht über die Suchmaschinen-Anbieter.

Aktuell spielt ACAP im Streit zwischen Verlagen und Suchmaschinen eine relativ geringe Rolle. Es dürfte aber zu den vielen „Säulen“ gehören, auf denen die Verlage laut Christoph Keese ihre zukünftige Strategie errichten wollen.

Verlage contra Google: Der vergessene Kampf um ACAP auf Carta.

No Tracking. No Paywall. No Bullshit.

Unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen. Werde Teil dieser einzigartigen Community und unterstütze jetzt unsere Arbeit mit einer Spende.

Jetzt spenden

2 Ergänzungen

  1. Wäre schön zu sehen. Schlimm genug wieviele Webseiten z.B. Google-Analytics usw. einbinden, um jeden Klick zu verfolgen. (Klar, der erfahrene User blockt es, aber der normale Anwender weiss von all dem nichts!)

    Aber wieso machen die ganzen Verlage ihre Seiten nicht einfach passwortgeschützt? Wer die Inhalte sehen will muss sich anmelden und/oder bezahlen.

    Thema erledigt.

    Oh, dann würden ja die blöden User ausbleiben und auf kostenlose Konkurrenz ausweichen, wo das Angebot eventuell sogar besser ist.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.