Googlebot entleert Webseite

Wie thedailywtf berichtet, hat eine leider nicht näher benannte Regierungswebseite in den USA eine böse Überraschung erlebt: Nach der Neueinführung eines wikiähnlichen Content-Management-Systems und der zeitraubenden Migration von bereits vorhandenen Daten fand sich die Seite nach ein paar Tagen Betrieb komplett geleert vor. Die verursachende IP stammte erstaunlicherweise vom Googlebot. Wie sich herausstellte, kamen zwei Dinge zusammen, die diesen Web-Gau bewirkten: Ein User hatte aus einem anderen Artikel Text inclusive einem „Edit“-Hyperlink in das Wiki kopiert. Dies wäre normalerweise kein Problem, da ein User zum Editieren angemeldet sein muss. Der Googlebot kümmert sich jedoch weder um Cookies noch um Javascript, das einen unangemeldeten User umleiten und benachrichtigen würde. Der Bot folgt einfach allen Links, die er findet. Auch den „Delete Page“-Links…

Die Behörde zog allerdings aus der Aktion nicht die Konsequenz, das CMS in irgendeiner Weise abzusichern oder auf Javascript zu verzichten, sondern vorbot jegliches Copy-and-paste von anderen Seiten. Mehr zu den technischen Fragen in der Diskussion zu der Meldung.

Via Fefe.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

3 Ergänzungen

  1. Selbiges ist mir mit meinem usemod-Wiki passiert. Immer wieder wurde der Inhalt diverser Seiten geloescht – verursacht durch den Google-Bot.

    Zum Ausgleich half der Google-Cache beim Wiederherstellen mehrerer Wiki-Seiten (inklusive Formatierung), als ein Backup fehlschlug: Ich musste nur nach dem Titel der Seite +editing suchen.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.