Manchmal kommt mir der Suchmaschinengigant Google wie der sprichwörtliche Elefant, der Angst vor der kleinen Maus hat, vor. Gerade, wenn man sich generische Serps, die beispielsweise aus einem Stadtnamen und einer Berufsbezeichnung bestehen, ansieht, so werden dort meistens nicht relevante Webseiten von Anbietern aus der jeweiligen Stadt sondern Branchenbücher, Meinungsportale und ähnliche Seiten angezeigt. Wie kommt es dazu? Google hat das Bestreben, dem Suchenden möglichst gute, also relevante Ergebnisse zu liefern. Um die Qualität und Relevanz und damit die Position einer Seite zu beurteilen, setzte Google in den letzten Jahren in zunehmendem Maße auf „Trust“, also einer Beurteilung, ob man den Inhalten einer kompletten Domain eher vertrauen. Dieses Vertrauen müssen sich Seiten aber erst erarbeiten: gute eingehende Links, eine gewisse Zeit bereits online und keine Aktionen auf der Domain, die zu weit jenseits des Webdurchschnittes liegen. Naturgemäß haben große Projekte mit entsprechendem finanziellen und technischen Hintergrund es einfacher, dieses Vertrauen – sei es natürlich oder „nachgebaut“ – zu erarbeiten als die Selbstdarstellung eines regional tätigen Handwerkers. Zum wirklichen Problem wird dieses Verhalten von Google allerdings erst, wenn man Überlegungen, wie sie Cho und Roy in ihrem Paper „Impact of Search Engines on Page Popularity“ gemacht haben, mit einfließen lässt: Populäre Seiten (sowohl in Bezug auf die Besuche als auch auf die Anzahl und Qualität der eingehenden Links) werden populärer während unpopuläre weiter an Boden verlieren. So erhielten eine große Anzahl hochwertiger Webseiten nicht die angemessene Besucherzahl. Für Suchmaschinen heißt das, dass die die Ablösung oder deutliche Verbesserung der bislang eingesetzten Algorithmen notwendig ist; für Seitenbetreiber, dass sie versuchen sollten, mit den Gegebenheiten zu leben und ihre Maus neu anstreichen sowie das ein oder andere Empfehlungsschreiben aus der Tierwelt einholen sollten.