Die Site-Abfrage bei Google (site:domain.de) liefert seit 1–2 Wochen für viele Domains deutlich geringere Werte. Bedeutet das, dass jetzt weniger Seiten indexiert werden?
Diese Woche bekamen wir eine interessante Support-Anfrage bezüglich der gesunkenen Anzahl indexierter Seiten bei mehreren Domains. Daher habe ich mir die Daten zu der Anzahl indexierter Seiten von einigen Domains angeschaut. Tatsächlich zeigen auffällig viele Kurven einen ungewöhnlichen Abfall der Werte in der aktuellen Woche.
Über 50 % Rückgang der indexierten Seiten
Die folgende Tabelle zeigt das Ergebnis meiner händischen (nicht repräsentativen) Prüfung einiger großer Domains. Wie man sieht, ging bei 15 von 20 Domains die Anzahl indexierter Seiten in den letzten Wochen deutlich zurück. Fast die Hälfte der untersuchten Domains hat über 50 Prozent der Seiten verloren.
Nr. | Domain | Anzahl indexirte Seiten laut Google Site-Abfrage | Veränderung | ||
---|---|---|---|---|---|
03.07.2017 | 10.07.2017 | 17.07.2017 | in Prozent | ||
1 | heise.de | 6.420.000 | 3.920.000 | 659.000 | -89,74% |
2 | zeit.de | 3.160.000 | 2.890.000 | 729.330 | -76,92% |
3 | dastelefonbuch.de | 10.200.000 | 7.260.000 | 2.660.000 | -73,92% |
4 | focus.de | 2.760.000 | 2.270.000 | 800.000 | -71,01% |
5 | meinestadt.de | 7.250.000 | 5.510.000 | 2.400.000 | -66,90% |
6 | chefkoch.de | 3.710.000 | 2.690.000 | 1.250.000 | -66,31% |
7 | chip.de | 1.560.000 | 1.510.000 | 577.000 | -63,01% |
8 | duden.de | 1.070.000 | 1.050.000 | 505.000 | -52,80% |
9 | sueddeutsche.de | 1.530.000 | 1.260.000 | 724.670 | -52,64% |
10 | wikipedia.org | 182.330.000 | 156.830.000 | 132.000.000 | -27,60% |
11 | idealo.de | 1.140.000 | 1.100.000 | 833.500 | -26,89% |
12 | welt.de | 5.600.000 | 4.420.000 | 4.780.000 | -14,64% |
13 | ebay-kleinanzeigen.de | 17.400.000 | 18.000.000 | 16.900.000 | -2,87% |
14 | twitter.com | 1.138.330.000 | 1.117.140.000 | 1.110.000.000 | -2,49% |
15 | holidaycheck.de | 1.150.000 | 1.130.000 | 1.130.000 | -1,74% |
16 | youtube.com | 1.178.330.000 | 1.300.000.000 | 1.193.330.000 | 1,27% |
17 | spiegel.de | 3.990.000 | 4.020.000 | 4.090.000 | 2,51% |
18 | wiktionary.org | 22.700.000 | 23.600.000 | 23.900.000 | 5,29% |
19 | ebay.de | 46.330.000 | 42.610.000 | 59.100.000 | 27,56% |
20 | facebook.com | 2.731.430.000 | 2.556.670.000 | 3.950.000.000 | 44,61% |
Welche Seiten sind betroffen?
Man kann das Phänomen scheinbar bei vielen News-Seiten wie z.B. heise.de, focus.de, sueddeutsche.de und zeit.de beobachten, aber auch bei Plattformen mir lokalen Informationen wie dastelefonbuch.de und meinestadt.de. Es gibt aber auch Gegenbeispiele wie spiegel.de, die sogar leicht zugelegt haben. Ein einheitliches Muster ist daher nicht deutlich zu erkennen und dafür ist die Stichprobe von n=20 sicherlich auch zu klein.
Was zeigt die Site-Abfrage eigentlich an?
Es es wichtig zu wissen, dass die Site-Abfrage bei Google nur eine grobe Schätzung der indexierten Seiten liefert. Google zählt die Seiten nicht wirklich durch, sondern schätz deren Anzahl mit einem Algorithmus. Dieser Algorithmus wurde von Google nicht darauf optimiert die Zahl möglichst genau zu schätzen, sondern möglichst schnell. Wichtiger als die Genauigkeit ist es für Google die Ergebnisseite in weniger als 0,5 Sekunden ausliefern zu können.
Daher sollte man die die Ergebnisse der Site-Abfrage immer mit Vorsicht genießen. Die Site-Abfrage liefert z.B. andere Daten als die Google Search Console, da dort ein anderer Algorithmus zur Bestimmung der indexierten Seiten verwendet wird. Wenn man aber die Werte mit anderen Domains vergleichen will, bei denen man keinen Zugang zur Search Console hat, bleiben einem nur die öffentlichen Werte der Site-Abfrage.
Wenn Google bei der Site-Abfrage die Anzahl indexierter Seiten falsch schätz, dann schätzen sie die Zahl relativ konstant falsch ein. Eine Veränderung der richtigen oder falschen Werte kann durchaus eine wichtige Bedeutung haben. Man sollte solche Schwankungen nicht einfach ignorieren.
Hin und wieder gab es aber auch in der Vergangenheit starke Veränderungen über viele Domains, die eher darauf hindeuteten, dass wahrscheinlich der Schätz-Algorithmus in irgendeiner Form geändert wurde. Das könnte auch jetzt der Fall sein.
Der Sichtbarkeitsindex der betroffenen Domains zeigt keine Auffälligkeiten
Die veränderten Werte der Site-Abfrage haben keinen erkennbaren Einfluss auf die Sichtbarkeit der Domains bei Google. Ohnehin bedeuten mehr indexierte Seiten nicht automatisch mehr Sichtbarkeit. Häufig ist weniger mehr. Seiten ohne (größeren) Mehrwert für die Suchmaschine gehören nicht in den Index bei Google. Die Indexhygiene ist ein wichtiges Thema, um das Index-Budget optimal zu nutzen.
Die Tatsache, dass keine auffälligen Veränderungen in der Sichtbarkeit der betroffenen Domains erkennbar ist, deutet darauf hin, dass Google tatsächlich nur den Schätz-Algorithmus geändert hat. Eventuell gibt es einen Zusammenhang zur aktuellen Überarbeitung der Search Console.
Was soll ich machen, wenn meine Domain betroffen ist?
Sollte die eigene Domain betroffen sein, ohne das Auswirkungen im Sichtbarkeitsindex erkennbar sind. sollte man sich keine großen Sorgen machen. Da viele Domains betroffen sind, ist es wahrscheinlicher, dass Google etwas geändert hat als das man selbst einen Fehler gemacht hat.
Es bietet sich an die Daten zur Indexierung in der Search Console zu überprüfen. Sollte es dort keine Auffälligkeiten geben, gibt es keinen Anlass zur Sorge.
Schreibt doch in die Kommentare, welche Beobachtungen ihr gemacht habt.