Category: Webmaster/SEO
-
BrowseRank – Nutzer bestimmen die Wichtigkeit von Webseiten
Was ist wenn die Relevanzbestimmung von Webseiten aus dem Nutzerverhalten abgeleitet wird? Wissenschaftler von Microsoft-China haben sich einem Algorithmus gewidmet, der Aufrufhäufigkeit von Webseiten und Verweildauer durch die Besucher berücksichtigt. Also BrowseRank statt PageRank?
-
Google PageRank Update – Juli 2008
Es ist nicht gerade häufig, dass Google bzw. Mitarbeiter des Unternehmens ein Update des Google PageRank offiziell verkünden. Vielleicht ein Schritt gegen das Sommerloch?
-
Die Wichtigkeit von Links und Linktexten
In einem Interview mit Eric Enge gibt Priyank Garg, Direktor für Produktmanagment der Yahoo! Search Technologie (YST), interessante Erläuterungen u.a. zur Verwendung von Links und Linktexten.
-
Google misst Traffic für Websites
Mit einer Aktualisierung in den Google Trends stellt Google nun klar, dass der Suchmaschinenbetreiber konkrete Zahlen zur Nutzung von Websites kennt. Ähnlich Alexa, aber sehr viel umfassender, kennt Google die Anzahl der Nutzer einer Website. Daraus lassen sich Rankings für Websites erstellen.
-
Anmeldung in Webkatalogen
Um eine Website bekannt zu machen, gehört der Eintrag in Webverzeichnisse dazu. Kataloge als vertrauenswürdige Quellen, die redaktionell geprüfte Links mit hoher Qualität veröffentlichen. Das war viele Jahre eine gute Richtlinie. Jedoch ist die Zahl der Webkataloge enorm gewachsen und es gilt die Spreu vom Weizen zu trennen.
-
Interview mit Stefanie Dürr – Search Quality Team Lead – Google
Im nachfolgenden Interview gibt Stefanie Dürr, Search Quality Team Lead – Google, Antworten auf Fragen, die für Webmaster von Interesse sind.
-
Suchmaschinen – Mehr Gemeinsamkeiten für Robots-Richtlinien
Mehr Klarheit für Webmaster bringt die jüngste Initiative der drei grossen Suchmaschinen von Yahoo!, Google und Microsoft. Gemeinsame Regeln für die Datei robots.txt und robots Meta-Tags bringen mehr Übersichtlichkeit und erleichtern die Arbeit. Nachfolgend die Details.
-
Cloaking, IP Delivery und Geolocation
Mit Cloaking werden Suchmaschinen andere Inhalte präsentiert als Nutzern. IP Delivery wird u.a dafür genutzt, Inhalte nach Standort des Nutzers auszuliefern (oder nicht zu liefern). Mit Geolocation wird festgestellt wo sich ein Nutzer aufhält um ihm z.B. mit lokalen Informationen zu versorgen. Was darf in welcher Form genutzt werden?
-
robots.txt für Suchmaschinen optimieren?
In seinem unstillbaren Wissensdrang kennt Google offenbar keine Grenzen. Man scheut nicht den “Blick in die eigene Westentasche” zu veröffentlichen. Daten, die ausschliesslich für die Crawler von Suchmaschinen bestimmt sind, finden ihren Weg in die Ergebnisliste.
-
GoogleBot bedient HTML-Formulare
Formulare waren bisher ein Tabu für Suchmaschinen. Google ist dabei dieses Tabu zu brechen. Durch die Nutzung von Formularen sollen neue Webseiten erschlossen werden. Vorrangiges Ziel sind Websites mit hoher Qualität.