Kultur

Springer (vs.|&) Google: Mit Cloaking zum Erfolg?

Seit gestern ist ein Großteil der Inhalte des Hamburger Abendblattes im Internet nur noch kostenpflichtig erhältlich. Auch wenn der – laut Stefan Niggemeier für Mitarbeiter und Leser gleichermaßen überraschende – Schritt des Springer-Blattes für das Netz auf den ersten Blick keinen sonderlich großer Verlust bedeuten dürfte, ist er doch mit einer klaren Ansage verbunden: Bei Hamburgs größtem Lokalblatt ist’s vorbei mit kostenlos.

Wir finanzieren uns fast vollständig aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

Vorbei? Wirklich? Nun, ausser natürlich, man stellt den so genannten „User Agent“ des eigenen Webbrowser so ein, dass er sich als Google-Bot ausgibt, wie bereits gestern in einem Tweet des Kölner Pressefotografen Peter Wafzig zu lesen war.

Ja hoppla? Auf der einen Seite wird Google von Verlagsseite als Grund allen Übels ausgemacht (zum Beispiel unlängst wieder von Springer-Vorstand Axel Döpfner). Auf der anderen Seite ist Google gut genug, um der Suchmaschine für den Stammleser nicht kostenlos erreichbare Inhalte unterzuschieben und auf diese Weise potentielle Abonnenten anzulocken?

Es kommt sogar noch besser, wie Robin Meyer-Lucht bei Carta.info schreibt. Während Besucher, die direkt auf Abendblatt.de einem Link zu einem Artikel folgen, zur Kasse gebeten werden, sind die Stücke für Google-Nutzer kostenfrei lesbar:

Die Hintertür ist, wie der Verlag bestätigt, ein Feature: Die Leser, die “vorne” bei abendblatt.de reinkommen, sollen ein Abo lösen. Zugleich soll der Traffic über Google nicht abgeschnitten werden. Es handele sich um den bewußten Einsatz eines “Der erste Klick ist entgeltfrei”-Modells (vgl. hier [via]).

Und ob man’s glaubt oder nicht, diese besonders kreative Form der Leserverar^H^H bindung wird von Google im Rahmen des “Der erste Klick ist entgeltfrei”-Modells tatsächlich unterstützt. Und ich kleines Dummerchen hatte doch tatsächlich gedacht, dass „Cloaking“ nach wie vor zu einem Ausschluss aus den Suchergebnislisten (SERPS) führe.

Weitersagen und Unterstützen. Danke!
34 Kommentare
  1. Cool. Muss ich mir die Sachen also nur mit nem gefakten UserAgent ziehen.*g*

    Wenn ich das neulich richtig verstanden habe ging es die ganze Zeit schon um solche Geschichten weil die Verlage Google zwar den ganzen Inhalt zeigen, den Nutzern aber nicht.

    Selbst schuld wenn die so nen Blödsinn machen.
    Und echt schade, dass google so ne scheisse inziwschen auch mitmacht.
    Wir „normalen“ Seitenbetreiber fliegen wegen solcher Suchmaschinenbetrügereien direkt aus dem Index.

  2. Ich hab das gestern schon mit dem google-bot als „user agent“-Kennung ausprobiert. Und mich dabei herrlich beömmelt :-)

    Für den Normalo-Benutzer wird das Ganze dank der one-klick-free-Geschichte aber ja noch einfacher. (Man suche nach dem Titel des Artikels + abendblatt bei google und kann danach den verlinkten Artikel kostenlos lesen.) Das versteht sogar die „Was war nochmal ein Brauser“- Fraktion. Das wird sich so schnell rumsprechen, dass denen wohl nur noch diejenigen die 7,95 EUR in den Rachen schmeissen werden, die das mit voller Absicht und absolut freiwillig machen. Aber wer zahlt schon freiwillig für derartige Qualitätsjournalismus- Simulationen, gerade aus der Zielgruppe von Springer.

  3. @johannes: Vollkommen richtig, siehe das Zitat von carta.info und den Kommentar im letzten Absatz. Ich kann’s aber gerne nochmal deutlicher schreiben.

    (Ihr müsst die Links klicken! Die Links sind bei mir immer viel toller als mein eigenes Geschreibsel. Echt! ,)

  4. Bin mal gespannt ob man da noch nachsteuert weil so einfach kanns ja eigentlich nicht gemacht werden. Wäre natürlich zu begrüßen wenn alle kostenpflichtigen Angebote das genauso machen weil ich dann, als so genannter versierter Nutzer (ihr wisst schon: teilweise schwer pedokriminell), überall kostenlos rankommen würde. Aber ich kanns mir nicht vorstellen.
    Mal so generell: Ich glaube kaum, dass die ein Bezahlangebot im Internet etablieren können weil es irgendwo immer kostenfreie Angebote geben wird. Die Information lässt sich nicht so einfach einsperren + Spieltheorie.

    Bin mir auch nicht sicher ob ich das gut finden soll oder nicht denn einerseits begrüße ich einen schrittweisen Fall der so genannten etablierten Medien, andererseits kann ich eine Alternative noch nicht abschätzen.

  5. Kleiner Tipp an die Zeitungen:

    Auf die Startseite legt man eine Browserweiche und die Suchrobotter werden auf einen Nachbau der Site, die nur aus Artikel-Teasern und Meta-Daten besteht, geleitet. Die richtigen Schlagworte werden halbautomatisch generiert. Sollte das hauseigene CMS das nicht hergeben – dann sollte man einen Umstieg auf Drupal erwägen.

  6. @Sistrix: Dass das Cloaking im konkreten Fall mit expliziter Erlaubnis durch Google erfolgt, hatte ich bei netzpolitik.org freilich auch erwähnt. Weit interessanter als die SEO-Perspektive finde ich das Vorgehen aber aus Konsumentensicht.

    Klar, man kann solche Spielchen natürlich als „Feature zu Monetarisierung“ sehen.* Man kann sich als (Stamm-)Leser aber auch schlicht veralbert fühlen, wenn man für einen Text zahlen soll, den man ausgerechnet als frei surfender Google-(News-)User (bzw. „spätideologisch verirrte Web-Kommunisten“, wie sie bei Döpfner heißen) weiterhin umsonst bekommt.

    *Damit der Trick funktioniert, müssten a) entweder die Inhalte so herausragend sein, dass man freiwillig zahlt oder b) alle ähnlichen Inhalten kostenpflichtig werden. Beides ist nicht der Fall und selbst bei einem Lokalmedium mittelfristig schwer vorstellbar. Urheberrechtlich gibt’s zudem _noch_ die Schranke in UrhG § 50 „Berichterstattung über Tagesereignisse“.

  7. Ich habe bisher von meinen Inhalten auf Google Alerts basierende Schlagzeilen (die meine Themen begleiten) verlinkt. Da ich _sicher_nicht_ kostenlose Verlinkungen auf Abodrückerseiten gegen dafür von meinem Inhalt wegsurfende und entnervt nicht wiederkommende Kunden eintauschen werde (ich bin sowieso nicht Sankt Martin, und schon gleich gar nicht für den ASV!), muß ich mir nun erst mal ganz genau ansehen, ob und wenn ja wie ich das in Zukunft überhaupt noch mache.

  8. Is ja herrlich.

    Nicht, daß ich das „Abendblatt“ groß lese.
    Ich kaufe EINE Zeitung ab und zu mal und die auch nur weil zwei Sudokus drin sind und ein Kreuzworträtzel das ich tatsächlich ab und zu mal lösen kann. UND weil bei einem Bier in der Kneipe ein Laptop oder selbst ein Netbook eher nerven würde. Ausserdem kritzel ich ganz gerne.

    Für wirkliche journalistische Arbeit würde ich sogar bezahlen. AUCH im Netz.
    Um mal zu bauchpinseln, ich wäre bereit für Netzpolitik.org hartverdiente Knete auf den Tisch zu legen. Für das „Abendblatt“? Sicher nicht. Für den „Spiegel“? Hängt davon ab, aber eher nicht.

    Aber meistens sinds doch nur umformulierte DPA-Meldungen. Und dafür zahle ich ganz bestimmt nichts. Oder wenn, dann direkt an die DPA.

    Kann schon sein, daß die Jungs bei Springer meinen, ihnen stünde es zu.
    (Siehe http://tinyurl.com/yfkt683 )
    Aber wenn die Jungs nicht aufpassen (und in die Hufe kommen) dann gehen sie den gleichen Weg, den vor ihnen schon die Buchbinder und Hufschmiede genommen haben. Ebenso wie die Kutscher und jeder andere Beruf, der von der Realität überholt wurde.

    Gute Journalistische Arbeit, gute Artikel, gut recherchiert, das darf und soll sich auch weiterhin lohnen. Aber wer nur zwei Mal eine DPA-Meldung durch den Babelfisch (gibts den überhaupt noch?) jagen kann und dafür erwartet einen Lebensunterhalt zu verdienen, der hat eben Pech.

    Da kann Herr Döpfner lange zetern.

    Tokay

  9. Wenn Journalismus gut ist, dann würde vermutlich fast jeder dafür zahlen. Nur ist das von Axel Springer weder Journalismus, noch gut. Die Telepolis von Heise will ja nicht mal mein Geld, obwohl das ein Heftchen wäre, das ich sogar abbonnieren würde (oder sogar ein, zwei Euro für einen RSS-Feed ausgeben würde) (und an alle Klugscheißer: nein, das auf der Seite ist kein RSS-Feed, das ist eine Krankheit).

    Aber Google scheint schon länger \evil\ zu sein: Gegen den richtigen Springer-Verlag (ohne Axel) gehen die auch nicht vor, obwohl die auch immer recht weit oben in den Suchtreffern auftauchen und scheinbar Inhalte dahinterliegen – die für uns nicht zugänglich sind. Frag mich sowieso, warum die so weit oben sind – verlinken tut die Seiten ja keiner, weil man nicht drauf zugreifen kann.

    Es hilft im Prinzip nur eines (oder zwei was): Entweder Google ignorieren und was anderes nehmen (nur was?) oder regelmäßig das Zeugs als Spam melden. Gibt ja ne Funktion dazu :)

  10. Na toll. Habe ich das also umsonst gemeldet. :-(

    Das geht natürlich auch nur wenn man Referrer anhat und das habe ich natürlich nicht.

    Hoffentlich fallen sie trotzdem auf die Nase damit. Wobei mich weniger der Versuch stört Geld dafür zu bekommen als die Art und Weise der Umsetzung und die Überheblichkeit mit der die Macher zu Werke gehen.

  11. Sagt mal, liebe Netzpolitiker, Autoren wie Kommentatoren: Was ist das denn? Ist die Recherche ausgefallen? Hätte doch gereicht, sich den Googleblog anzuschauen, da erklären die Herren aus Mountain View recht verständlich, was First Click Free soll und dass das mit Cloaking gar nichts zu tun hat, obwohl es Parallelen gibt. Muss man natürlich nicht zur Kenntnis nehmen, wobei dann doch der Verdacht auftaucht, es sei hier vor allem darum gegangen, eine aus Geek-Perspektive irgendwie reißerische Überschrift zu produzieren. Die durch das Fragezeichen kein bißchen souveräner wirkt. Und der Text – puh: Mehr Informationen wäre irgendwie gut gewesen. Erinnert mich an – Bild?

  12. @Jörg-Olaf Schäfers Schreibschwäche? Wenn es in diesem Stück tatsächlich ums Informieren hätte gehen sollen, hätte es anders aufgezogen sein sollen. Hättehättehätte: Die besten Infos stecken hinter den Links, wie? Warum dann selbst schreiben? Das ist genau so, wie’s bei Ihnen steht: Leserverarschung. Oder Selbstverwirklichung. Oder beides. Ist aber keine gute Kombination.

  13. @Markus: Was ich mit „Cloaking“ zum Ausdruck bringen wollte: Googlebot (und FCF’ler) bekommen eine andere Seite zu sehen, als reguläre Besucher von Abendblatt.de oder Besucher, die ihre Freiklicks bereits aufgebraucht haben.

    Damit ist FCF für mich eine Form des Cloaking. Mir ist klar, dass man das anders sehen kann.

    Aus Lesersicht ist die Frage ist letztendlich, wo/wann die Irreführung beginnt.

    Aus SEO-Sicht, bzw. aus der Position eines Seitenbetreibers, der Einnahme „generieren“ will, mögen solche Spielchen natürlich legitim sein.

    PS: Ursprünglich wollte ich gar nicht auf FCF eingehen, sondern nur kurz auf den Tweet/User-Agent-Hack hinweisen. Die FCF-Analysen kamen ja erst am nächsten Tag, während der Eintrag und Olaf friedlich schlummerten ;)

    1. Ich habe das Verfahren nach ein paar Stunden Warten & Recherche als „‘ein Klick für Lau’ Unbequemlichkeit“ bezeichnet und bewundere eigentlich ein wenig die Chuzpe, mit der sich Google durch FCF mit einem einzigen Satz („The page displayed to all users who visit from Google must be identical to the content that is shown to Googlebot.“) in alle relevanten Richtungen, d.h. Cloaking, Referrer und Googlebot, den Rücken freihält.

      http://sankt-georg.info/artikel/896/hamburger-abendblatt-kostenlos-zeitung-lesen-abendblatt.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.