Ich war heute morgen froh, in einem Posting von John Andrews zu lesen, dass ich nicht der einzige bin, der seit Tagen Probleme mit Suchanfragen bei Google hat. Seit Jahren versucht Google jetzt schon, automatisierte Abfragen zu erkennen und diese zu sperren. Gerade bei „PHP-Würmern“, die Suchmaschinen nutzen, um weitere, exploitbare Installationen von [Wordpress|Joomla|…] zu finden, eine durchaus nachvollziehbare Einstellung und umsetzbar, ohne dass der Schaden für normale Nutzer zu groß wird.
Frag SISTRIX: 403 Forbidden – Was bedeutet es?
Google sportlicher Ehrgeiz geht allerdings noch einen Schritt weiter: wenn in den Webmaster Guidelines schon steht, dass man bitte keine automatisierten Suchanfragen stellen möge, um Positionen zu checken, dann wird auch versucht, das umzusetzen. So hat Google einen Algorithmus implementiert, der versucht, solche automatisierten Abfragen zu erkennen und setzt ihnen ein Captcha vor, bevor es zu den eigentlichen Suchergebnissen geht. Das nervige an der Geschichte ist nun, dass während meine automatisierten Abfragen weiterhin ohne Probleme funktionieren, ich immer häufiger in meinem Browser das Captcha eingeben muss. Gerade, wenn ich intensiv mit speziellen Suchoperatoren wie „site:“ suche und Suchquerys mehrmals umformuliere, schlägt Google in den letzten Tagen mit an Sicherheit grenzender Wahrscheinlichkeit zu. Hoffentlich hat da derzeit nur ein Praktikant die Parameter geändert.
PS: Während Google derzeit in seinen Webmasterblogs tagelang predigt, bei einem 404-Error auch den entsprechenden HTTP-Statuscode zu senden, so dass der Googlebot weniger Arbeit habe und nicht vorhandene Seiten einfacher erkenne, scheint das bei eigenen Fehlermeldungen nicht so wichtig zu sein. Im Title der „automatisierten Abfragen“ steht zwar sogar der korrekte HTTP-Fehlercode, im entscheidenden HTTP-Header allerdings nicht mehr …