Google hat heute angekündigt, dass der Googlecrawler Webseiten künftig auch über das HTTP/2-Protokoll crawlen kann. HTTP/2 oder auch nur in kurz h2 genannt, ist die nächste Entwicklungsstufe des HTTP-Protokolls.
Der Hauptvorteil von HTTP/2 ist, dass mehrere Dateien über eine Verbindung übertragen werden können. Gerade bei hoher Latenz, wie sie beispielsweise in langsamen Handynetzen zu finden ist, reduziert das die Ladezeiten von Webseiten mit vielen Ressourcen (Javascript, CSS, Bilder) deutlich.
War das für den Googlebot bislang in weiten Teilen noch nicht so relevant, da das reine Crawling von HTML-Seiten nicht so stark von der HTTP/2-Nutzung profitiert, sieht es seit einiger Zeit anders aus: da ein Großteil der gecrawlten Seiten auch mit Javascript gerendert wird, hilft HTTP/2 auch dem Googlebot.
Google wird laut der Angaben in dem Blogpost im November anfangen, einzelne Domains via HTTP/2 zu crawlen. Wenn das gut funktioniert, wird der Anteil künftig ausgebaut. Webseitenbetreiber werden über die Umstellung per Nachricht in der Google Search Console informiert.
Um zu erfahren, ob die eigene Webseite bereits HTTP/2 unterstützt, kann man beispielsweise das Kommandozeilentool curl (für Linux, Mac, Windows, …) nutzen. Mit dem Parameter “–http2” wird der Verbindungsaufbau via HTTP/2 probiert. Ergänzt man den Parameter “-I” ist im Header direkt zu erkennen, ob die Verbindung via HTTP/2 stattfindet:
curl -I --http2 https://assets.sistrix.com/ HTTP/2 200 date: Wed, 16 Sep 2020 22:50:26 GMT
curl -I --http2 https://www.sistrix.com/ HTTP/1.1 200 OK Date: Thu, 17 Sep 2020 18:21:52 GMT
Google hat bereits klargestellt, dass das Crawling via HTTP/2 keinen Rankingvorteil verspricht. Nur, falls sich jemand fragen sollte …