Googlebot wird HTTP/2 verarbeiten, was aber (vorerst) keine Auswirkungen auf die Qualität der Indexierung haben wird

Google hat in seinem Blog angekündigt, dass der Googlebot ab Mitte November 2020 in der Lage sein wird, Seiten zu crawlen, die das HTTP/2-Protokoll verwenden. Das ist natürlich eine gute Nachricht, aber sie wird vorerst nicht direkt zur Beschleunigung der Indexierung beitragen.

Was ist HTTP/2?

HTTP/2 ist eine Erweiterung des im Internet weit verbreiteten HTTP-Protokolls. Dies ist die erste wesentliche Änderung in der Art und Weise, wie Dokumente hochgeladen werden, seit 1997 und wird von allen wichtigen Browsern seit mehr als 5 Jahren unterstützt. Es beschleunigt die Verbindung zu den Seiten im Internet, indem es unter anderem die Kopfzeilen komprimiert, die Anfragen vervielfacht und dem Kunden die zum Laden der Website erforderlichen Dateien schickt, bevor der Kunde überhaupt seine Anfrage sendet.

Was bedeutet das für Webmaster?

Die Unterstützung von HTTP/2 durch den Googlebot bedeutet für große, häufig gecrawlte Websites eine deutliche Einsparung von Serverressourcen. Weniger TCP-Verbindungen und eine schnellere Ausführung in HTTP/2 werden die Hosting-Leistung etwas verbessern.

Es ist jedoch klar, dass die Änderung vor allem Google selbst zugute kommen wird, da die Ressourceneinsparungen sehr groß sein werden.

Gleichzeitig teilt Google mit, dass Das Crawlen der Website über HTTP/2 – auch wenn es weniger Ressourcen erfordert und theoretisch den Webmastern das mythische Crawl-Budget spart – wird sich nicht auf die Quantität, Qualität oder Häufigkeit der Indexierung auswirken. Es wird auch kein Ranking-Faktor sein.

Andererseits stimmen die Botschaften von Google nicht immer mit der Realität überein. Man könnte vermuten, dass die HTTP/2-Unterstützung langfristig den Webmastern in Form von häufigeren Besuchen von Robotern zugute kommen sollte – aber die offizielle Position schließt dies aus. Zu bedenken ist auch, dass HTTP/2 in der Regel ein schnelleres Laden der Seite bedeutet, und das ist durchaus schon ein Rankingfaktor.

Werden alle Seiten mit HTTP/2 gecrawlt?

Nein. Dies soll (zumindest vorläufig) nur für große, häufig gecrawlte HTTP/2-fähige Websites gelten, bei denen Google einen greifbaren Nutzen sieht. Für viele – vor allem einfache – Seiten würde das Crawling mit HTTP/2 fast keinen Nutzen bringen. Gleichzeitig schließt Google nicht aus, dass die Leistung des Roboters weiter verbessert und diese Kriterien schrittweise gesenkt werden.

Werde ich wissen, dass Google meine Website mit HTTP/2 crawlt?

Um das herauszufinden, müssen Sie einen Blick auf Search Consola werfen, wo es eine Ankündigung geben wird, wenn das Crawling über HTTP/2 beginnt (aber nicht vor November 2020).

Die Art und Weise, wie sich Googlebot mit unserer Website verbindet, lässt sich auch leicht überprüfen, indem man die Serverprotokolle analysiert – neben jeder Zeile des Datensatzes finden sich Informationen über das verwendete Protokoll.

Unterstützt meine Website HTTP/2?

Dies kann auf verschiedene Weise überprüft werden, aber für den Laien ist eine der drei Methoden die einfachste:

  • ein Chrome-Zusatzmodul namens HTTP/2- und SPDY-Indikator
  • Online-Test (Vorsicht, führt manchmal zu falsch positiven Ergebnissen)
  • Chrome-Konsole (Registerkarte Netzwerk, Spalte Protokoll, standardmäßig ausgeblendet)

Wie implementiere ich HTTP/2-Unterstützung auf meiner Website?

Hier gibt es leider keine einfache Anleitung; es bleibt nur, den eigenen Webhoster zu kontaktieren und zu konsultieren.

Dies lohnt sich nicht nur angesichts der oben genannten Neuigkeiten; HTTP/2-Unterstützung bedeutet in der Regel ein schnelleres Laden der Seiten, und niemand muss von den Vorteilen einer schnellen Website überzeugt werden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert