Wie thedailywtf berichtet, hat eine leider nicht näher benannte Regierungswebseite in den USA eine böse Überraschung erlebt: Nach der Neueinführung eines wikiähnlichen Content-Management-Systems und der zeitraubenden Migration von bereits vorhandenen Daten fand sich die Seite nach ein paar Tagen Betrieb komplett geleert vor. Die verursachende IP stammte erstaunlicherweise vom Googlebot. Wie sich herausstellte, kamen zwei Dinge zusammen, die diesen Web-Gau bewirkten: Ein User hatte aus einem anderen Artikel Text inclusive einem „Edit“-Hyperlink in das Wiki kopiert. Dies wäre normalerweise kein Problem, da ein User zum Editieren angemeldet sein muss. Der Googlebot kümmert sich jedoch weder um Cookies noch um Javascript, das einen unangemeldeten User umleiten und benachrichtigen würde. Der Bot folgt einfach allen Links, die er findet. Auch den „Delete Page“-Links…
Die Behörde zog allerdings aus der Aktion nicht die Konsequenz, das CMS in irgendeiner Weise abzusichern oder auf Javascript zu verzichten, sondern vorbot jegliches Copy-and-paste von anderen Seiten. Mehr zu den technischen Fragen in der Diskussion zu der Meldung.
Via Fefe.
Ach ja, mit laufen immer noch die Tränen 8-)
Selbiges ist mir mit meinem usemod-Wiki passiert. Immer wieder wurde der Inhalt diverser Seiten geloescht – verursacht durch den Google-Bot.
Zum Ausgleich half der Google-Cache beim Wiederherstellen mehrerer Wiki-Seiten (inklusive Formatierung), als ein Backup fehlschlug: Ich musste nur nach dem Titel der Seite +editing suchen.