Noch mehr Tipps von GoogleGuy

Am 2. Juni postete GoogleGuy einige zusammenfassende Antworten in einem separaten Thread, der sich auf die tausende Postings zum Bourbon-Update bezieht. Nachfolgend einige wichtige Aussagen:

Hinweis: Die nachfolgenden Ausführungen sind nicht immer wortwörtlich übersetzt.

  • Ständiges Update – Everflux

    Ich erwarte dass die Dinge zum Zeitpunkt von New Orleans auf einem normalen Everflux-Level sind. (Anmerkung: In New Orleans findet vom 21. bis 24 Juni die Webmasterworld Search Conference statt. Zusätzlich Meet the Google Engineers.) Aber wir haben schliesslich einen inkrementalen Index, deshalb ist es normal, einen bestimmten Betrag täglicher Änderungen festzustellen.

    I'd expect that things will be back to their normal level of everflux by New Orleans. But we do have incremental indexing after all, so it's normal to expect a certain amount of change to the index every day or so (aka everflux).

  • Everflux ist eine gute Analogie. Zurückschauend auf den Sommer 2003 lässt sich sagen, das Update Fritz war der Beginn des Übergangs von einem monatlichen Update zu einem inkrementalen Index.

    In fact, everflux is a pretty good analogy. If you go back to summer 2003, update Fritz was the beginning of the transition from a monthly update to an incremental index.

  • Parameter die vom Spidern abhalten

    Seit langer Zeit plädiere ich dafür irgendwo offziell zu erwähnen, dass Websites nicht “&id=” als Parameter (Anmerkung: In der URL) verwenden sollten, wenn sie maximale Ergebnisse beim Crawl durch den Googlebot erreichen wollen. So viele Seiten verwenden “&id=” mit Session IDs, dass Googlebot für gewöhnlich URL mit diesen Parametern vermeidet,…

    I've been aching for a long time to mention somewhere official that sites shouldn't use "&id=" as a parameter if they want maximal Googlebot crawlage, for example. So many sites use "&id=" with session IDs that Googlebot usually avoids urls with that parameter,...

  • Anzeige unterschiedlicher Texte in der Ergebnisliste

    Ich bin nicht sicher, welches die exakten Kriterien sind um den Inhalt des Meta-Tag Description anstelle der normalen Snippets anzuzeigen, doch das ist unabhängig vom Update. Wir schauen immer nach anderen Möglichkeiten die Snippets darzustellen ( vom Seitentext, von einer ODP-Beschreibung, vom Meta-Tag Description) und versuchen herauszufinden, welches die nützlichsten Ergebnisse für die Suchenden ergibt.

    ...,I'm not sure what the exact criteria are for using the meta description instead of a normal snippet, but it's independent of the update. You can assume that we're always looking at different ways of giving snippets (from the text of the page, from an ODP description, from meta descriptions) and trying to find what's the most useful result for a searcher.

  • Backlinks und PageRank

    Ich würde während eines Updates nicht zu sehr auf Backlinks oder PageRank fixieren. Die externen Links/PageRank sind mit einigen Faktoren verbunden, welche die Analyse erschweren. Zunächst sind das zeitabhängige Schnappschüsse. Die aktuellen Backlinks/PageRank verwenden für das Ranking einen anderen Zeitbereich. Ein anderer Faktor ist, dass wir nicht jeden Backlink bei Google zeigen, sondern nur einen Teilbereich davon.

    Schnappsschuss+Asynchronität+Teilbereich macht es ziemlich schwer der Grund für die Änderung eines Rankings zu verfolgen. Auf diesem Gebiet würde ich nicht so viel in die Backlinks und PageRanks hinein interpretieren, die zu einem bestimmten Zeitabschnitt angezeigt werden. Wenn ein Update von Backlinks und PageRank nach aussen gezeigt wird und gerade Rankings wechseln, würde ich nicht zuviel von dieser zeitlichen Nähe ableiten.

    Wir zeigen typischerweise neue Backlinks alle 3 bis 5 Wochen. Wir haben eine Bank von Maschinen die den PageRank fortlaufend und ohne Unterlass berechnet. Wir exportieren diesen neuen sichtbaren PageRank nur alle 3 bis 4 Monate oder so.

    In general, I wouldn't fixate too much on backlinks or PageRank during an update. The external backlinks/PR that we show have at least a couple factors that complicate analysis. First off, they are a snapshot in time, and the actual backlinks/PageRank used for ranking are from a different time interval. Another complicating factor is that we don't show every backlink on Google; we only show a subset of the backlinks we have internally.

    The snapshotting + asynchronous nature + subsampling actions means that it's pretty hard to trace the reason for a ranking change back to a particular exported view of backlinks or PageRank. This is an area where I wouldn't read as much into the particular backlinks or PageRank that you see at any particular instant in time. Also, if a backlink or PageRank external update happened at the same time as ranking changes, I wouldn't read too much into how closely in time they happen together.

    Just as a guide for people who don't eat and breathe WebmasterWorld, we typically show new backlink sample sets every 3-5 weeks or so. We have a bank of machines that computes PageRank continuously (and continually, I suppose; I wasn't an English major), but we only export new visible PageRanks every 3-4 months or so.

  • Keine Probleme mit iFrames

    GoogleGuy geht auf ein allgemeines Missverständnis ein. iFrames werden nicht von Google bestraft. Viele Seiten benutzen iFrames aus legalen Gründen, deshalb macht es keinen Sinn diese zu bestrafen. “Ich kann mir leicht vorstellen, dass einige Spider Probleme mit IFrames und Frames haben. Aber ich würde nicht erwarten, dass iFrames eine Bestrafung verursachen. Das ist die selbe Art von Mythos die vor einer Weile behauptete, JavaScript welches den Text in der Statusbar verändert, würde bestraft.”

    I've never heard the suggestion that Google would penalize for iframes before reading it in the thread. Plenty of legit sites use iframes, so it wouldn't make sense to penalize for it. Now I can easily believe that some search engine spiders would have trouble with iframes just like some spiders have trouble with frames. But I wouldn't expect iframes to cause any penalties.
    So it's kind of like the whole urban myth that was going on for a while about "if you use javascript to change the text in the status bar, a search engine may penalize you.

  • Links innerhalb einer Website

    – Um es Suchmaschinen und Spidern leicht zu machen und den Aufwand für die Berechnugen zu minimieren sollten absolute statt relativer Links verwendet werden.
    – Die Link sollten konsequent mit oder ohne www davor verwendet werden, jedoch nicht gemischt.
    – Damit Spider die korrekten Seiten erfassen, sollte immer eine permanente Weiterleitung 301 verwendet werden.

    For example, partway into the Bourbon discussion, wattsnew asked if there was a technical guide on how to handle www vs. non-www, relative vs. absolute linking, and links to different pages such as / vs. index.html vs. default.asp. My rule of thumb is to pick a root page and be as consistent as possible. I lean toward choosing http://www.yourdomain.com/ but that's just me; http://yourdomain.com/ would work as well. Then I recommend that you make things as simple as possible for spiders. I recommend absolute links instead of relative links, because there's less chance for a spider (not just Google, but any spider) to get confused. In the same fashion, I would try to be consistent on your internal linking. Once you've picked a root page and decided on www vs. non-www, make sure that all your links follow the same convention and point to the root page that you picked. Also, I would use a 301 redirect or rewrite so that your root page doesn't appear twice. For example, if you select http://www.yourdomain.com/ as your root page, then if a spider tries to fetch http://yourdomain.com/ (without the www), your web server should do a permanent (301) redirect to your root page at http://www.yourdomain.com/

    - make it as easy as possible for search engines and spiders; save calculation by giving absolute instead of relative links.
    - be consistent. Make a decision on www vs. non-www and follow the same convention consistently for all the links on your site. - Use permanent redirects to keep spiders fetching the correct page.

    Those rules of thumb will serve you well no matter what with every search engine, not just with Google. Of course, the vast majority of the time a search engine will handle a situation correctly, but anything that you can do to reduce the chance of a problem is a good idea. If you don't see any problems with your existing site, I wouldn't bother going back and changing or rewriting links. But it's something good to bear in mind when making new sites, for example.

GoogleGuy’s posts


Posted

in

,

by

Tags: