Trends kommen und gehen, im Suchmaschinenmarkt genauso wie in anderen Branchen. Regelmäßig wird ein neuer Googlekiller angekündigt (erinnert sich noch jemand an Cuil oder WeFind?), auch die Semantik-Sau wird jedes Jahr mehrfach durchs Dorf getrieben und relevanter sollen die Ergebnisse sowieso ständig werden. Eine der wenigen Entwicklungen, die sich in den letzten Jahren durchgesetzt hat, ist die Integration von vertikalen Suchmaschinen in die herkömmlichen SERPs: bei Google heißt das Universal Search, Bing macht, zumindest in den USA, Vergleichbares und Yahoo wird sich vermutlich auch irgendwo versuchen.
Interessant ist dabei der unterschiedliche Ansatz von Google und Bing. Bei Microsoft hat man sich entschlossen, interessante Firmen zu kaufen und Technologie sowie Datenbestände als exklusiven Partner in den SERPs zu hieven. Das sieht man in den USA bereits sehr schön an Farecast, in Europa ist nach der Übernahme von Ciao wohl Ähnliches im Shopping-Bereich zu erwarten. Google geht da einen anderen Weg und sammelt aus unterschiedlichen Quellen Daten, versucht diese zu strukturieren und vertikale Suchen damit zu betreiben. Auch hier ist die Shopping- oder die Lokale-Suche ein anschauliches Beispiel.
Damit die Methode von Google möglichst gut funktioniert und mehr als eine simple Volltextsuche geliefert wird, werden möglichst viele Daten in strukturierter Form benötigt. Zum Teil können sie sich diese Daten zusammencrawlen und nutzen dafür bei großen Domains vermutlich auch angepasste Crawler aber bequemer wäre es schon, wenn die Webmaster die Daten frei Haus liefern würden. Praktischerweise gibt es da aktuell einige Entwicklungen, die in die gleiche Richtung laufen: Microformats und RDFa. Beiden Technologien ist gemein, dass man im vorhandenen HTML bestimmte Daten so auszeichnet, dass Suchmaschinencrawler sie automatisch auslesen können. So kann bei Nutzerbewertungen zum Beispiel der Name, die Bewertung als Text und auf einer Skala ausgezeichnet werden. Im Prinzip eine schöne Sache und Google forciert diese Auszeichnung dadurch, dass man mit Seiten, die diese Tags integriert haben, etwas prominenter in den SERPs auftaucht (Rich Snippets).
Aber leider hat die Sache auch einen kleinen Haken: wenn Google genügend Daten hat, um daraus ein eigenes Produkt bauen zu können, wird die Suchmaschine zum Konkurrenten. Gut zu verfolgen war diese Entwicklung im Shopping-Vertical: in einem ersten Schritt (damals noch unter dem Namen Froogle) sollten Shopbetreiber ihre Daten hochladen, schön strukturiert und in einem Format, das Google genehm war. Danach kam die Integration in die Google-SERPs: Shopping hatte damit eine erhöhte Sichtbarkeit und weitere Shops haben ihre Daten zur Verfügung gestellt. Damit diese auch möglichst vollständig sind, hat man den Algorithmus so gedreht, dass Shops, die viele der Felder ausfüllen, besser ranken. Im letzten Jahr war es dann so weit: die Integration von Links, die direkt zu den Shops führen, ist zunehmend einem eigenen Preisvergleich von Google gewichen. Die Shops, die Google ursprünglich die Daten zum Aufbau des Produktes geliefert haben, sind jetzt nicht mehr zwangsläufig zu finden.
Die interessante Frage ist nun: „Wie gehe ich mit dem Wunsch Googles nach meinen strukturierten Daten um?“. Da zu erwarten steht, dass Google in Zukunft noch in zahlreiche weitere Märkte einsteigt (Immobilien, Autos, Jobs, Kleinanzeigen, Bewertungen und so weiter) betrifft das Thema einige der größten Webseiten Deutschlands. Ich bin mir unschlüssig: auf der einen Seite wird man Google nicht an der Entwicklung eines eigenen Produkts hindern können und hat durch die Kooperation zumindest in einer Übergangsphase vermutlich mehr Traffic. Auf der anderen Seite hilft man damit einem künftigen Konkurrenten, der in der Vergangenheit nur sehr wenig falsch gemacht hat und aus seinen Fehlern schnell lernt. Wie seht ihr das?