Warum Google schnelle Webseiten braucht

Google propagiert seit Jahren schnell ladende Webseiten. Mit der heutigen Aktualisierung der Webmaster-Richtlinien wird noch einmal deutlich warum Google auf schnelle Webseiten angewiesen ist. Google erfasst Webseiten so wie sie im Browser dargestellt werden.

Das klingt banal und technisch unbedeutend, doch dahinter steckt eine enorme technische Leistung.  Google hat viele Jahre darauf verzichtet, Webseiten so zu erfassen, wie sie im Browser dargestellt werden. Stattdessen wurde der Quelltext  der Seiten erfasst und interpretiert. Ein Seitenaufruf für den  Quelltext benötigt deutlich weniger Zeit und Rechenleistung als die Seite komplett darzustellen und JavaScript zu interpretieren.

Für die komplette Darstellung muss der Crawler  warten bis alle einzelnen Seitenelemente geladen und interpretiert sind. Neben den für Besucher sichtbaren Bildern werden zusätzliche Dateien benötigt um die Seite korrekt darzustellen. Vorrangig handelt es sich um Java-Script und Style-Sheet (CSS) Dateien. In modernen Webdesigns finden sich oft gleich mehrere dieser Dateien. Nur wenn alle Dateien vollständig geladen sind kann die Seite vollständig so erfasst werden, wie sie im Browser dargestellt wird.

Ladezeit ist wertvolle Rechenzeit

Was beim einzelnen Nutzer bereits nervig werden kann, falls eine Webseite mehrere Sekunden benötigt um geladen zu werden, potenziert sich bei Google. Ich verfüge über keine genauen Zahlen aber ganz sicher werden von den Google-Bots monatlich Milliarden von Seiten aufgerufen. Der Oktober-Webserver Survey von Netcraft zählte bereits über eine Milliarde Webserver, wobei jeder Webserver zahlreiche Seiten beheimatet. Die Verkürzung  der Ladezeit einer Seite um nur eine Sekunde bringt Google also monatlich Milliarden von Sekunden an eingesparter Rechenzeit nur für die Erfassung der Seiten. Eine Milliarde Sekunden entsprechen ungefähr 11 574 Tagen. Kein Wunder , dass Google  die Webmaster noch stärker dazu drängt, schnell ladende Webseiten zu betreiben. Google erklärte bereits im April 2010 die Ladezeit als Rankingfaktor.

Nun geht Google jedoch noch einen Schritt weiter und erklärt, falls der Zugriff auf die CSS- und JavaScript -Dateien nicht gewährt wird, etwa durch Sperrung per robots.txt kann dies zu einem schlechteren Ranking führen.

Webseiten für optimale Indexierung gestalten

  • Das Konzept des Webdesigns soll sich am Prinzip der progressiven Verbesserung ausrichten. Das heisst, die grundlegende Darstellung der Seite soll auf allen Geräten möglich sein. Zusätzliche Funktionen kommen nur bei Geräten zur Anwendung, die deren Darstellung unterstützen.
  • Die Seitenleistung soll optimiert werden.
  • Separate CSS und JavaScript Dateien zusammenfassen.
  • Unnötige Downloads eleminieren. Beispielsweise wird ein Foto-Karussel genannt, das sämtliche Bilder lädt, aber vielleicht nur von ganz wenigen Nutzern tatsächlich vollständig betrachtet wird. Auch Widgets von Drittanbietern wie etwa Sozialen Netzwerken sollten kritisch auf Nutzen und deren Auswirkung auf die Ladezeit geprüft werden.
  • Webserver sollen für die komprimierte Bereitstellung der Inhalte konfiguriert sein.

In den Webmaster Tools wurde die Funktion Abruf wie durch Google aktualisiert. Webmaster können nun sehen, wie die Google-Systeme eine Webseite darstellen und auftretenden Fehler schneller erkennen.

 

 

 


Posted

in

,

by

Tags:

Comments

5 responses to “Warum Google schnelle Webseiten braucht”

  1. […] dieser Seiten wesentlich effizienter”, schrieb Pierre Far in seinem gestrigen Blogpost. Der @-web Suchmaschinen-Blog hat dieses Thema nochmals tiefer analysiert und weist auch darauf hin, dass Google die Ladezeit einer Website im Jahr 2010 als Rankingfaktor […]

  2. Jan Avatar
    Jan

    Das ist technisch gesehen falsch: Google arbeitet hoch parallelisiert: Das Bot-Netzwerk fragt zeitgleich Millionen Webseiten ab. Es ist völlig egal, wie lange es ein einzelne Seite braucht, um die Daten zurückzuliefern. In der Zeit sendet der Bot halt Millionen weitere Requests. Und erst wenn alle Daten angekommen sind, werden sie als ganzes an die Auswertungsebene weitergereicht, wo sie dann zusammen gerendert werden.

  3. Klaus Patzwaldt Avatar
    Klaus Patzwaldt

    Okay Jan,
    die hauptsächliche Rechenzeit beim Zusammensetzen von Webseiten wird zur Ausführung von JavaScript benötigt. Auch wenn die Requests parallel ausgeführt werden, muss JavaScript für jede Seite separat ausgeführt werden. Egal ob parallel oder nacheinander, es wird Rechenzeit benötigt. Diesen Prozeß für das Web zu skalieren war für Google jahrelang ein unlösbares Problem. Da es aber immer mehr Website mit qualitativ hochwertigen Inhalten gibt, die JavaScript (AJAX usw.) verwenden, hat Google diese Herausforderung angenommen. Mit der Einführung von Hummingbird http://www.sistrix.de/frag-sistrix/google-algorithmus-aenderungen/google-hummingbird-update/ hat Google endgültig die technischen Voraussetzungen in der Infrastruktur dafür geschaffen. Doch selbst heute schränkt Google ein, dass JavaScript nicht immer komplett ausgeführt wird. Seiten können fehlerhaft dargestellt werden. Gerade mit JavaScript werden häufig Prozesse in Gang gesetzt, die im Hintergrund laufen und wertvolle CPU-Laufzeit beanspruchen und sich mitunter gar nicht selbst beenden.

    Neben JavaScript erfordert auch die Ausführung von CSS Rechenzeit, wenn auch sehr viel weniger und unkomplizierter als JavaScript. Die Ladezeit ist also mehr als nur das einfache Einsammeln und Zusammenfügen von Dateien. Im Gegensatz zu PHP und anderen serverseitigen Scriptsprachen wird JavaScript auf dem Rechner des Nutzers ausgeführt. Also auch auf den Rechnern von Google. In welchem Rechnercluster die Dateien ausgeführt werden, war für diese Betrachtung nicht relevant, da es nur um die Betrachtung der Rechenzeit ging, die bei der Ausführung der Dateien (Webseiten) verbraucht wird.

  4. […] Warum Google schnelle Webseiten braucht – Google propagiert seit Jahren schnell ladende Webseiten. Mit der heutigen Aktualisierung der Webmaster-Richtlinien wird noch einmal deutlich warum Google auf schnelle Seiten angewiesen ist. Weiter… […]

  5. Remo Avatar
    Remo

    Es ist fragwürdig, wiesehr Google das Internet beeinflußt.

    Mir war bisher die offizielle Geschichte, daß Google schnelle Webseiten höher einstuft, bekannt, welche lautete, daß Google das macht, weil die Nutzererfahrung auf diesen Seiten besser ist.

    Hier werden noch ganz andere mögliche Gründe genannt. Das ist wirklich aufschlußreich.

    Ich frage mich, ob es richtig ist, Leute mit langsamereren Webseite abzustrafen. Was ist z. B. mit Gegenden, in denen es gar nicht so schnelles Internet gibt. Man muß nicht unbedingt nach Afrika gehen, um solche Gegebenheiten vorzufinden.

    Oder Leuten, die vielleicht gar nicht das Geld für schnelles Hosting haben.

    Wird in Zukunft also eine Seite von einem Unternehmen, das viel Geld hat und es sich leisten kann, das schnellste Hosting zu buchen höher eingestuft als von kleineren Unternehmen?

    Eine Seite von einem Unternehmenskritiker oder von gemeinnützigen Vereinen mit weniger Geld würde dann weniger gut “ränken”… Hm…