Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam? 1) Sie dienen einem bestimmten Ziel. 2) Sie verfügen nur über ein begrenztes Platzangebot (Engpass).
- Warum zeigt Google nicht einfach mehr als 10 Treffer an?
- Rechenaufgabe: Optimiere das Regal im Supermarkt
- Lösung Rechenbeispiel
- Wie lässt sich die Regalplatzoptimierung auf Google übertragen?
- Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten
- Links sind sehr wichtige Signale, haben aber ihre Grenzen
- Für einzelne Seiten liegen wenig Signale vor
- Google bewertet die Qualität ganzer Domains
- Google wertet zusätzlich das Nutzerverhalten aus
- Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?
- Grenzen der CTR-Daten
- Wie bewertet Google die CTR-Daten der gesamten Domain?
- Die Sichtbarkeit von Domains entwickelt sich in Trends
- Was bedeutet das für die Praxis?
- 9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis
Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere Auswahl von Produkten anbieten und so mehr Kaufbedürfnisse befriedigen könnte. Ebenso könnte Google mit mehr als 10 organischen Treffern auf der ersten Suchergebnisseite mehr Suchanfragen zufriedenstellend beantworten (Searcher Satisfaction oder auch das Needs-Met-Rating aus Googles Quality Rater Guidelines).
Sowohl Google als auch der Supermarkt stehen vor dem Problem das optimale Angebot für ein begrenztes Platzangebot auszuwählen. Während das übliche Vorgehen beim Supermarkt bekannt ist und zu den Grundaufgaben der Betriebswirtschaftslehre gehört, wird über das Vorgehen bei Google viel gerätselt. Es lohnt sich einen Blick auf die Auswahlentscheidung des Supermarktes zu werfen. Vielleicht lernen wir dabei auch eine ganze Menge über die Auswahl der Treffer bei Google.
Selbstverständlich verfolgt auch Google das Ziel der Gewinnmaximierung. Betrachtungsgegenstand in diesem Beitrag sind die kostenlosen, organischen Treffer auf den Suchergebnisseiten. Wir gehen in diesem Beitrag aber vereinfachend davon aus, dass die organischen Treffer bei Google das Ziel der Nutzerzufriedenheit und die AdWords-Anzeigen das Ziel der Gewinnmaximierung verfolgen. Die Wechselwirkungen zwischen organischen Treffern und AdWords-Anzeigen sind nicht Inhalt dieses Beitrags.
Warum zeigt Google nicht einfach mehr als 10 Treffer an?
Auf den ersten Blick wäre es für Google am einfachsten die Zufriedenheit der Nutzer mit den Suchergebnissen zu steigern, indem sie mehr als 10 organische Treffer auf einer Suchergebnisseite (SERP) anzeigen. Google hat zur dieser Idee seine Nutzer befragt und bekam von diesen tatsächlich die Antwort, dass sie sich mehr Ergebnisse wünschen. Mehr ist mehr.
Laut der ehemaligen Vizepräsidentin Marissa Mayer führte Google daraufhin Tests mit 30 Treffern pro SERP durch. Der Umsatz und Traffic fiel bei diesem Experiment um 20 Prozent gegenüber der Variante mit 10 Treffern. Wie ist das zu erklären?
Google benötigte 0,4 Sekunden, um eine SERP mit 10 Treffern zusammenzustellen und auszuliefern. Die Seite mit 30 Treffern benötigte hingegen 0,9 Sekunden. Dieser Unterschied von 0,5 Sekunden zerstörte die Nutzerzufriedenheit und führte zu einem neuen Engpass, der 20 Prozent Traffic kostete. Daher beschränkt sich Google bis heute auf 10 organische Treffer.
Grundsätzlich das gleiche Problem hat der Supermarkt. Er könnte theoretisch mehr Regale aufstellen. Aber eine solche Maßnahme würde die Gänge für die Kunden verengen und damit das gesamte Einkaufserlebnis stark beeinträchtigen. Somit ist auch das Angebot im Supermarkt durch ein bestimmtes Platzangebot limitiert.
Rechenaufgabe: Optimiere das Regal im Supermarkt
Nachdem der Engpass bekannt ist, schauen wir uns am besten ein einfaches Beispiel an. Nehmen wir an, in einem Supermarkt steht ein Regal mit Zeitungen und Zeitschriften. Das Regal verfügt über 10 Regalreihen, die mit Printprodukten gefüllt werden können. Dem Supermarkt-Manager stehen folgende Daten zur Verfügung.
Der geneigte Leser mag mir verzeihen, dass ich in diesem Beispiel den in der Betriebswirtschaft korrekten Begriff „Deckungsbeitrag“ und nicht den umgangssprachlichen Begriff „Gewinn“ verwende. Ich kann nicht anders. Zur Erklärung: Gewinn = Deckungsbeitrag – fixe Kosten (Gebäudemiete, Personalkosten usw.).
Welche Änderungen sollte der Supermarkt-Manager bei bei der Zusammenstellung des Angebotes vornehmen, um zukünftig mehr Deckungsbeitrag mit dem Regal zur erwirtschaften? Sollte das Sortiment verändert werden? Kennst Du den richtigen Lösungsweg?
Lösung Rechenbeispiel
Die Lösung ist sehr einfach, wenn man einmal das Prinzip der Engpassoptimierung verinnerlicht hat. Das ganze System muss auf eine optimale Ausnutzung des Engpasses ausgerichtet werden, in diesem Fall auf die vorhandene Regalfläche.
Der Deckungsbeitrag pro Produktgruppe muss durch die Anzahl belegter Regalreihen geteilt werden, um den relativen Deckungsbeitrag pro Produktgruppe zu erhalten. Das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag > 200 € wird erweitert und das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag < 200 reduziert.
Die entscheidende Kennzahl ist nicht der in Tabelle 1 angegebene Deckungsbeitrag pro Produktgruppe (Publikumszeitschriften, Fachzeitschriften usw.). Für eine Optimierung des Regals benötigen wir den Deckungsbeitrag pro Engpassbeanspruchung (relativer Deckungsbeitrag pro Regalreihe). Konkret fragen wir uns also nicht, wie viel Deckungsbeitrag die einzelnen Produktgruppen insgesamt erwirtschaften, sondern wie viel Deckungsbeitrag sie pro beanspruchten Regalfläche erwirtschaften. Dazu teilen wir den Deckungsbeitrag pro Produktgruppe einfach durch die Anzahl belegter Regalreihen und erhalten so den relativen Deckungsbeitrag. Wir alle kennen das Prinzip aus dem Online-Marketing, wenn wir mit Kennzahlen wie der Click-Through-Rate (CTR) arbeiten und eine Anzahl Klicks in ein Verhältnis zur Engpassbeanspruchung (Impression) setzen.
Im Schnitt erzielen die 10 Regalreihen einen Deckungsbeitrag in Höhe von 200 € (2.000 € DB : 10 Regale). Die Fachzeitschriften erzielen pro Regalreihe nur 150 EUR. Sie sind damit die unwirtschaftlichste Produktgruppe. Insgesamt erzielen sie nach den Publikumszeitschriften mit 450 EUR zwar den zweithöchsten Deckungsbeitrag. Allerdings belegen sie auch 3 Regalreihen und damit 30 Prozent des Engpasses. Sie erwirtschafte aber nur 22,5 Prozent des Deckungsbeitrages. Ein Teil dieses Regalplatzes könnte daher besser genutzt werden.
Die Comics erzielen insgesamt nur 300 EUR Deckungsbeitrag, aber sie belegen auch nur 1 Regalreihe. Sie sind mit einem relativen Deckungsbeitrag in Höhe von 300 EUR die wirtschaftlichste Produktgruppe.
Die Optimierung kann jetzt ganz einfach erfolgen. Das Angebot an allen Produktgruppen, die einen unterdurchschnittlichen relativen Deckungsbeitrag erwirtschaften (< 200 EUR), sollte reduziert werden zugunsten von Produktgruppen, die einen überdurchschnittlichen (> 200) relativen Deckungsbeitrag erzielen.
In unserem Beispiel sollte der Supermarkt-Manager also weniger Fachzeitschriften und weniger Zeitungen in das Regal stellen und den frei gewordenen Platz versuchsweise mit Comics und Publikumszeitschriften auffüllen. Eventuell lohnt es sich auch eine weitere Produktgruppe wie z.B. Taschenbücher anzubieten. Das langfristige Ziel ist den durchschnittlichen Deckungsbeitrag pro Regalreihe zu steigern.
Es gibt keine exakte Lösung, da der Grenznutzen der Produktgruppen unbekannt ist. Der Manager weiß nicht, ob er das Comic-Angebot um 10, 50 oder 100 Prozent steigern soll. Bekannt ist nur die Richtung. Es bleibt ihm nichts anderes übrig als sich durch Tests iterativ an die optimale Lösung heranzutasten. Nach der Umstellung des Angebots beginnt ein neuer Kreislauf mit neuen Daten.
In der Praxis sind diese Entscheidungsprozesse selbstverständlich komplexer, es liegen mehr Informationen, Daten und Optionen vor. Das Beispiel sollte aber bewusst einfach gehalten werden.
Wie lässt sich die Regalplatzoptimierung auf Google übertragen?
Das Prinzip der Engpassoptimierung, auch Theory of Constraints genannt, ist eine in der BWL weit verbreitete, praxistaugliche und erfolgreiche Methode. Sie wird nicht nur für die Verkaufsflächennutzung im Einzelhandel angewendet, sondern praktisch in der gesamten BWL (Produktion, Marketing, Supply-Chain-Management, Finanzen, Controlling, Projektmanagement usw.).
Die Abbildung des Trichtermodells rechts dient zur Illustration des Hauptsatzes der Theory-of-Constraints: „In jeder Wertschöpfungskette gibt es genau ein System, das die Leistungsfähigkeit des Ganzen bestimmt – ein eindeutiger Engpass“
Es wäre wenig überraschend, wenn auch Google das Rad nicht komplett neu erfindet und bei der Auswahl der Suchtreffer dieses grundsätzliche Prinzip anwendet. Es gibt einige Punkte, die dafür sprechen. Bevor wir uns dazu tiefergehende Gedanken machen, müssen wir kurz einen etwas größeren Bogen spannen und ein paar Informationen über die Google Suche und das Ranking zusammentragen.
Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten
John Wiley, Lead Designer Google Search, sagte 2013, dass etwa 15 Prozent der täglichen Suchanfragen neu sind und noch nie zuvor an Google gestellt wurden. Diese Zahl findet sich auch heute noch auf Googles How Search Works Seite, zusammen mit der Information, dass Google mehrere Billionen Suchen pro Jahr weltweit beantwortet. Das entspricht mehr als 800 Millionen Suchanfragen pro Tag.
Google hat in diesen Fällen schlicht und einfach keine Daten aus der Vergangenheit darüber, welche Treffer von den Nutzern für die spezifische Suchanfrage als gut empfunden werden und dem Ziel der Nutzerzufriedenheit, der Searcher Satisfaktion, am besten dienen.
Man kann nur erahnen, wie groß der Anteil an Suchen ist, die zwar schon einmal durchgeführt wurden, aber so selten sind, dass Google über keinen ausreichend großen und aktuellen Datenpool für die Bewehrung einzelner Treffer verfügt. Ein Wert von 30–60 Prozent würde mich nicht überraschen.
Google kann zwar anhand einer OnPage-Analyse bestimmen, ob ein Treffer für eine bestimmte Suchphrase grundsätzlich als relevant erscheint, aber nicht beurteilen, ob der Treffer tatsächlich die Nutzer zufriedenstellt. Unter diesen Bedingungen ist Google dazu gezwungen weitere Signale auszuwerten, die eine möglichst gute Vorhersage erlauben, welche Qualität ein Treffer besitzt.
Links sind sehr wichtige Signale, haben aber ihre Grenzen
Nach der Auswahl aller relevanten Dokumente für eine bestimmte Suchanfrage beruht das Grundprinzip von Google auf dem PageRank-Algorithmus. Dabei handelt es sich um ein Verfahren eine Menge verlinkter Dokumente anhand ihrer Verlinkungs-Struktur zu bewerten. Jeder SEO weiß, wie wichtig Links auch heute noch für das Google Ranking sind.
Grundsätzlich funktioniert der PageRank-Algorithmus sehr gut und hat Google in kürzester Zeit zum Marktführer unter den Suchmaschinen werden lassen. Das Prinzip hat aber seine Grenzen.
Für einzelne Seiten liegen wenig Signale vor
Google kennt über 120 Billionen einzelne Seiten. Die deutliche Mehrzahl der Dokumente (URLs) im World Wide Web wird nicht von externen Websites verlinkt. Eine Domain wie ebay.de ist derzeit mir über 24 Mio. unterschiedlichen URLs im Google Index vertreten. Sicherlich besitzt nur ein relativ kleiner Bruchteil dieser URLs einen externen Link, zumal viele URLs nach Ablauf einer Auktion veraltet sind. Ähnliches trifft auf die meisten anderen Websites zu.
Daher muss Google im großen Umfang ebenfalls die interne Verlinkung einer Domain berücksichtigen, um Linkdaten zu jeder bekannten URL zu erhalten. Die interne Verlinkung lässt sich jedoch komplett vom Seitenbetreiber steuern und ist damit nur bedingt vertrauenswürdig.
Aber auch die externe Verlinkung wird seit Jahren durch bezahlte Links manipuliert und ist nur eingeschränkt vertrauenswürdig.
Google bewertet die Qualität ganzer Domains
Das Problem der mangelnden Daten zu jeder einzelnen URL kann Google abschwächen, indem die Qualität der dazugehörige Domain bewertet wird. Die Summe der Signale einer Domain inklusive aller URLs ergeben wesentlich mehr belastbare Daten zur Bewertung der Quelle.
Folgerichtig spricht Google auch von „Website– und Seitenqualität“, wenn sie die Funktionsweise des Rankings erklären.
In SEO-Kreisen spricht man bei der Bewertung einer ganzen Domain durch Google auch von Domain Trust oder Domain Authority (Bewertung der Domain für ein bestimmtes Themengebiet wie z.B. „Gesundheit“ oder „Sport“).
Das grundsätzlich gleiche Problem trifft auch auf unseren Supermarkt-Manager zu. Er kann unmöglich jede einzelne Zeitschrift und jede einzelne Ausgabe testen und bewerten, um sein Sortiment zusammenzustellen. Zudem ändert sich die Qualität einzelner Produkte von Ausgabe zu Ausgabe. Er ist darauf angewiesen die Komplexität zu verringern, indem er anstelle von einzelnen Ausgaben z.B. Produktgruppen wie Publikumszeitschriften und Fachzeitschriften zusammenfasst, bewertet und deren Leistungsdaten miteinander vergleicht. Es sind beliebig weitere Dimensionen wie z.B. Preisgruppen und Verlage/Anbieter/Marken denkbar.
Google wertet zusätzlich das Nutzerverhalten aus
Es dürfte inzwischen in SEO-Kreisen unbestritten sein, dass Google nicht nur die Verlinkung auswertet, sondern in einer weiteren Stufe auch das Nutzerverhalten. Anhand der Linkdaten lässt sich ein erstes Set von relevanten und möglichst vertrauenswürdigen Treffern für die Top 10 zusammenstellen.
Deutlich bessere Suchergebnisse erhält Google, wenn auch die Interaktion der Nutzer mit den Suchergebnissen ausgewertet wird und zu einer Umsortierung der Suchergebnisse führen kann.
Es wäre nicht logisch und zielführend einen Treffer dauerhaft auf Position 1 anzuzeigen, wenn ein Treffer auf den Positionen 2–10 von den Nutzern beständig häufiger ausgewählt wird. Ebenso wäre es unlogisch eine Treffer dauerhaft in den Top 10 zu behalten, wenn er kaum von den Nutzern ausgewählt wird. Bei aktuellen Ereignissen und sogenannten Hot Topics sind seit Jahren historisch gewachsene Verlinkungen erst Recht kein brauchbares Signal. Man spricht in solchen Fällen auch von einem Reranking, also einer Neureihung der Suchergebnisse. Google hat dazu eine ganze Reihe von Patentschriften eingereicht, in denen sich Details zu den Überlegungen von Google nachlesen lassen.
Nutzersignale können Kriterien wie Content-Qualität, Website-Usability und Präferenzen (z.B. für Marken) berücksichtigen. Im Zweifel ist die „Abstimmung“ der Nutzer als wertvoller einzustufen, als das pure Vertrauen in Linkdaten. Gleichwohl sind die Linkdaten wichtig, damit eine Seite überhaupt bei der „Abstimmung“ zur Auswahl steht.
Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?
Es ist nicht bekannt welche Nutzerverhaltensdaten im einzelnen für das Ranking bzw. Reranking ausgewertet werden und wie einzelne Treffer aufgrund des Nutzerverhaltens bewertet werden.
Jedoch lässt sich, in Googles Search Quality Rater Guidelines ab Seite 84, nachlesen was Google unter der Searcher Satisfaction, in Form des „Needs Met„-Ratings, versteht.
Denkbar sind zudem Metriken, wie beispielsweise CTR, Clickstream-Daten, Verweildauer und Return-To-SERP-Rate. Die CTR wäre bei allen diesen Metriken zumindest der Ausgangspunkt.
Ebenfalls ist die Auswertung von Daten denkbar, die über den Chrome-Browser von Google gesammelt werden und praktisch für alle Domains zur Verfügung stehen. Weniger wahrscheinlich ist, dass Google Daten von Google Analytics auswertet. Zum einen wären die Analytics-Daten nur für Domains verfügbar, die auch tatsächlich Analytics verwenden. Laut den Daten von builtwith.com sind das nur 19 Prozent aller Websites, auch wenn bei den großen Websites der Anteil höher liegt.
Zum anderen hätte Google ein Glaubwürdigkeitsproblem, da offiziell immer verlautbart wird, dass die Analytics-Daten nicht für das Ranking ausgewertet werden. Der Chrome-Browser besitzt laut den Daten von StatCounter mittlerweile eine weltweiten Marktanteil von rund 67 Prozent (Deutschland 43 Prozent). Damit dürften Nutzungsdaten zu praktisch jeder Website vorliegen. Als Datenquelle wäre er damit gegenüber Analytics die wesentlich besserer Alternative.
Zudem stehen Google selbstverständlich die Daten direkt aus der Google Suche zur Verfügung. In der Google Search Console zeigt Google die Click Through Rate zu einzelnen Suchanfragen und URLs an. Diese Daten werden also garantiert gemessen und ausgewertet.
Gehen wir für unser Beispiel vereinfacht davon aus, dass Google den „Zufriedenheitsbeitrag“ eines einzelnen Treffers anhand der CTR bewertet, auch wenn die Bewertung in der Realität sicherlich komplexer und ausgeklügelter verlaufen wird.
Die CTR wäre bei der Google-Suche in unserem vereinfachten Beispiel damit das Äquivalent zum relativen Deckungsbeitrag aus dem Supermarktbeispiel. Die CTR berücksichtigt bereits die Engpassbeanspruchung. Der Wert für die Anzahl Klicks wird im Verhältnis zu den Impressions (Engpass) betrachtet.
Grenzen der CTR-Daten
Wie weiter oben bereits beschrieben, liegen bei einer Vielzahl von Seiten nur wenige seitenindividuelle Daten vor. Das trifft nicht nur auf Linkdaten zu. Selbstverständlich betrifft es auch die CTR-Daten.
Man kann das sehr schön sehen, wenn man sich die CTR-Daten in der Google Search Console anschaut. Man kommt bei der Auflistung der Keywords und der einzelnen URLs relativ schnell an den Punkt, an dem Google in der Spalte „Klicks“ Werte unter 10 anzeigt.
Bei dem weiter oben dargestellten Daten einer großen Domain mit über 34 Mio. SERP-Impressions und mehr als 2 Mio. Klicks pro Monat, die ich mir für diesen Beitrag angeschaut habe, lagen die Werte von Suchanfragen mit weniger als 10 Klicks pro Monat bei etwa 50 Prozent. Allerdings zeigt Google in der Auswertung auch nur die populärsten Suchanfragen an. In dem Fall wurden nur 6 Mio. von 34 Mio. SERP-Impressions angezeigt, also rund 18 Prozent. Bei den meisten Suchanfragen besitzt Google also keine aussagekräftigen Daten zu Treffern einer einzelnen Domain.
Insgesamt wird unabhängig vom exakten Wert sehr deutlich, dass die CTR-Daten nur für relativ populäre Suchanfragen halbwegs aktuelle Daten zu einzelnen Treffern liefern können. Sie stoßen wie die Linkdaten bei einer Vielzahl von Suchanfragen schnell an ihre Grenzen.
Wie bewertet Google die CTR-Daten der gesamten Domain?
Es wäre logisch und sinnvoll, wenn Google die CTR-Daten der gesamten Domain berücksichtigt (bzw. die ausgeklügeltere, aber uns unbekannte Definition von „Searcher Satisfaction“). Diese Kennzahl könnte einen Bestandteil einer übergeordneten Metrik „Domain Trust“ bilden.
Der dahinter liegende Gedanke ist sehr einfach. Wenn eine Domain insgesamt überdurchschnittlich viel Searcher Satisfaction erzeugt, kann die Searcher Satisfaction über alle Google-Suchen weiter gesteigert werden, wenn relevante Treffer der Domain bei noch mehr Suchen noch populärer angezeigt werden.
Die Gründe, warum Nutzer die Treffer einer bestimmten Domain bei ähnlicher Relevanz gegenüber anderen Domains als zufriedenstellender empfinden, können mannigfaltig sein. Domainname, Markenpräferenzen, Ladezeiten, Content-Qualität, Sprachstil, Usability, (Un-)Aufdringlichkeit der Werbeeinbindungen, Qualität der Snippet-Optimierung und empfundene Vertrauenswürdigkeit sind hier nur einige Kriterien, die dabei in Frage kommen und von den Nutzern bewusst oder unbewusst durch ihr Verhalten bewertet werden.
Folgt man dieser Überlegung, wäre es im Sinne der Engpassoptimierung folgerichtig einer Domain mit einer überdurchschnittlich guten CTR zukünftig mehr Sichtbarkeit (SERP-Impressions) in den SERPs einzuräumen. Umgekehrt würde man die SERP-Impressions einer Domain mit unterdurchschnittlichen CTR-Daten so lange reduzieren, bis sie durchschnittliche Werte erreicht.
Diese Strategie wäre geeignet die Searcher Satisfaction insgesamt zu steigern, so wie der Supermarkt-Manager aus unserem Beispiel den Deckungsbeitrag seines Regals steigern kann, indem er den Anteil überdurchschnittlich wirtschaftlicher Produktgruppen erhöht.
Die Sichtbarkeit von Domains entwickelt sich in Trends
Die Sichtbarkeit einer Domain verläuft nicht generell linear, sondern ist ständigen Schwankungen mit Aufs und Abs unterworfen. Auf diese Weise bilden sich recht eindeutige Gipfel und Täler im Sichtbarkeitsindex. Die Richtung der Gipfel und Täler definiert einen Trend. Von einem Aufwärtstrend spricht man, wenn eine Serie sukzessiv höherer Gipfel und Täler zu beobachten ist. Umgekehrt liegt bei einer Serie von sukzessiv niedrigeren Gipfeln und Tälern ein Abwärtstrend vor. Eine Abfolge von gleich hohen Gipfeln und Tälern definiert hingegen einen seitwärts gerichteten Trend. Eine ausführliche Beschreibung der Trendanalyse erhält man in unserem kostenlosen Buch „SEO-Analysen“.
Die folgende Grafik zeigt als Beispiel den Aufwärtstrend von apotheken-umschau.de und den Abwärtstrend von netdoktor.de über einen langen Zeitraum von mehreren Jahren.
Während der eine Wettbewerber über eine sehr langen Zeitraum innerhalb des Trendkanals ständig Sichtbarkeit gewinnt, verliert der andere Wettbewerber zunehmend an Sichtbarkeit bei Google.
Das vorgestellte Modell der „Regalplatzoptimierung“ wäre geeignet solche Trend zu erklären. Eine Domain mit überdurchschnittlich guten Werten für die Searcher Satisfaction erhält schrittweise immer mehr Sichtbarkeit. Sie darf den Engpass SERP-Impressions stärker auslasten. Dieses geschieht so lange, bis der Grenznutzen weiterer Impressions der Domain in den Suchergebnissen immer weiter abnimmt und die Domain insgesamt nur noch durchschnittliche Werte erreicht.
Erzielt eine Domain unterdurchschnittliche Werte, wird ihr Sichtbarkeit entzogen. Sie darf den Engpass nur noch in einem geringeren Umfang beanspruchen.
Zusätzlich bestimmen selbstverständlich weitere Faktoren wie Linkentwicklung, Contentaufbau, fortschreitende SEO-Optimierung, Umgestaltungen der Website, Google-Updates usw. die Entwicklung der Sichtbarkeit. Das Modell der „Regalplatzoptimierung“ würde aber sehr gut erklären, warum sich bei so vielen Domains die Sichtbarkeit oftmals über einen langen Zeitraum in vielen kleinen Schritten anstatt in wenigen Stufen in eine bestimmte Richtung entwickelt.
Was bedeutet das für die Praxis?
Um es ganz klar zu sagen, das Modell der „Ragalplatzoptimierung“ bei Google ist nur eine theoretische Überlegung und an keiner Stelle belegt. Es ist aber sehr hilfreich, wenn man ein funktionierendes Modell der Mechanismen des Google-Algorythmus im Hinterkopf hat, um einzelne Entwicklungen zu verstehen. Hält man das Modell für plausibel und folgt dem Gedanken, ergeben sich daraus insbesondere zwei Stellschrauben für die Praxis:
- Optimierung der Leistung: Alle erfolgreichen Maßnahmen zur Steigerung der Searcher Satisfaction einer bestimmten Domain steigern ihre Sichtbarkeit in Form von mehr und besseren Rankings.
- Optimierung der Engpassbeanspruchung: Indexierte Inhalte, die nur eine unterdurchschnittliche Performance bei der Searcher Satisfaction erzielen, schmälern die Gesamtperformance der Domain und reduzieren damit die zukünftige Sichtbarkeit der Domain in den Suchergebnissen von Google. Daher sollten Seiten mit einer schlechten Performance Google erst gar nicht angeboten werden (
<meta name="robots" content="noindex">
). Der Engpass „Impressions“ in den Suchergebnissen bei Google sollte möglichst nur von Seiten mit einer guten Performance beansprucht werden, um von Google zukünftig einen höheren Anteil der Engpassbeanspruchung zugewiesen zu bekommen.
Während über die Optimierung der Leistung ständig geschrieben und geredet wird, bleibt die Optimierung der Engpassbeanspruchung oftmals unbeachtet. Konkret geht es darum, welche Inhalte man von Google indexieren lässt und welche nicht.
Viele erfahrene SEOs berichten von ihren Beobachtungen, dass es sich sehr positiv auf die Rankings auswirkt, wenn man nur Seiten mit tatsächlich wertvollem und einzigartigem Content indexieren lässt und weniger wertvolle Seiten deindexiert. Auch diese Beobachtungen ließen sich mit dem Modell der „Ragalplatzoptimierung“ erklären.
9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis
Zum Schluss möchte ich noch 9 Tipps für die Optimierung der Engpassbeanspruchung „SERP-Impressions“ auf den Weg geben.
- Prüfe regelmäßig die CTR-Daten in der Google Search Console. Man sollte in Bezug auf die CTR die Stärken und Schwächen der Domain kennen.
- Sind die Stärken erst einmal bekannt, produziere mehr Inhaltsseiten von dieser Art.
- Überlege bei Suchanfragen und Seiten mit schlechten CTR-Werten, ob die Seite auf die richtige Suchphrase optimiert wurde. Eventuell beinhaltet eine Seite tollen Content, wird aber aufgrund falscher Signale einfach nur bei den falschen Suchanfragen angezeigt. Schau Dir die Treffer (Überschrift, Description, URL) und Inhalte der anderen Seiten an, die für das Keyword in den Top-10 stehen und überprüfe, ob sie die Suchanfrage eventuell besser beantworten. Versetze Dich in die Lage des Suchenden und versuche seine Bedürfnisse zu verstehen.
- Setze Seiten mit schlechten CTR-Daten und Inhalten ohne nennenswerten Mehrwert auf NoIndex, um die restlichen Seiten zu stärken.
- Noch besser ist es, wenn ganze Gruppen von Seiten identifiziert werden, die man bedenkenlos auf NoIndex setzen kann. Müssen bei einem Shop wirklich alle Seiten mit Sortier- und Filterergebnissen des Angebots in den Index? Bei zalando.de darf Google z.B. die Seite „Herren Business Schuhe“ indexieren und auch die gefilterten Ergebnisse „Schwarze Herren Business Schuhe“. Die Seiten mit den gefilterten Ergebnissen für „Schwarze Herren Business Schuhe aus Leder“ stehen jedoch auf NoIndex, da es sich um eine weniger explizit nachgefragte Eigenschaft handelt und die Trennschärfe zu den beiden anderen Seiten verloren geht. Macht es bei einem Branchenbuch Sinn alle 3.500 Branchenkategorien auch bei einem kleinen Ort indexieren zu lassen, bei dem es weniger Einwohner als Branchenkategorien gibt? Gehören Seiten mit veralteten Inhalten wie z.B. abgelaufenen Kleinanzeigen wirklich in den Index? Eine klare und sachlogische Trennlinie für die Indexierung ist sehr hilfreich, um den Engpass nicht unnötig mit weniger wertvollen Inhalten zu beanspruchen.
- User-Generated-Content (UGC) ist günstig und daher eine tolle Sache, Qualität und Mehrwert sind jedoch meist sehr durchwachsen. Daher erhalten z.B. Foren und Frage-und-Antwort-Portale im Durchschnitt eher schlechte Nutzersignale. Hier sollte ein wirksames System eingeführt werden, um nur Seiten mit wertvollen Inhalten indexieren zu lassen. Die Auswahl kann redaktionell erfolgen oder automatisch z.B. durch ein Bewertungssystem, bei dem die Nutzer über die Qualität einzelner Inhalte abstimmen können.
- Wie immer Google auch die Searcher Satisfaction definiert, die CTR-Werte sind wahrscheinlich ein Teil davon. Die CTR lässt sich durch eine zielgerichtete Gestaltung der Treffer (Titel, Description, URL) steigern. Ein Treffer sollte Relevanz, Mehrwert und eine Handlungsaufforderung kommunizieren. Berücksichtige bei der Gestaltung der Meta-Description das AIDA-Prinzip.
- Behalte die Anzahl indexierter Seiten im Auge und finde die Ursachen für stärkeren Veränderungen heraus, um eventuell gegensteuern zu können.
- Vermeide Duplicate Content.