Tag: GoogleBot

  • Warum Google schnelle Webseiten braucht

    Warum Google schnelle Webseiten braucht

    Google propagiert seit Jahren schnell ladende Webseiten. Mit der heutigen Aktualisierung der Webmaster-Richtlinien wird noch einmal deutlich warum Google auf schnelle Webseiten angewiesen ist. Google erfasst Webseiten so wie sie im Browser dargestellt werden.

  • Was ist Cloaking? – Lastfreie Textseiten nur für Google

    Was ist Cloaking? – Lastfreie Textseiten nur für Google

    Seit Google die Ladezeit von Webseiten als Rankingfaktor definiert hat, machen sich Webmaster berechtigte Gedanken, wie die Ladezeiten der Webseiten verringert werden können. Vielleicht könnte man für Suchmaschinen ballastfreie Webseiten erstellen, ohne CSS, JavaScript und diesen ganzen gestalterischen Käse?

  • Cloaking, IP Delivery und Geolocation

    Mit Cloaking werden Suchmaschinen andere Inhalte präsentiert als Nutzern. IP Delivery wird u.a dafür genutzt, Inhalte nach Standort des Nutzers auszuliefern (oder nicht zu liefern). Mit Geolocation wird festgestellt wo sich ein Nutzer aufhält um ihm z.B. mit lokalen Informationen zu versorgen. Was darf in welcher Form genutzt werden?

  • Google AdsBot prüft Qualität der Adwords Zielseiten

    Die Qualität der Zielseiten von Google Anzeigen im Adwords System soll systematisch überprüft werden. Das wurde bereits im Dezember bekannt. Waren diese Seiten für den Crawling Prozess nicht erreichbar bzw. wurden davon ausgeschlossen, fand die Untersuchung nicht statt. Nun soll die Nichterreichbarkeit für Google Bots zu einer spürbaren Verminderung der Anzeigenposition führen.