Infos für Webmaster aus zweiter Hand

24. October, 2008 4 Kommentare Autor:

Suchmaschinenbetreiber kommunizieren über diverse Wege mit Webmastern. Informationskanäle sind z.b. die speziellen Weblogs für Webmaster. Tagungen zum Thema Suchmaschinen werden jedoch auch gerne genutzt um Informationen weiterzugeben. Hier einige Informationen zu den Themen algorithmische Spamerkennung, Affiliate Links, Bedeutung von Links für das Ranking, und SiteMaps, diskutiert von Vertretern der Suchmaschinen Google, Yahoo! und Microsoft.

Die Antwortgeber während der SMX East, New York:
Nathan Buggia, Live Search Webmaster Central, Lead Program Manager, Microsoft
Aaron D’Souza, Software Engineer, Search Quality, Google Inc.
Sean Suchter, VP of Engineering, Yahoo

Algorithmische Spamerkennung fordert Opfer

Änderungen für Spam-Algorithmen passieren den gleichen Weg wie andere algorithmische Änderungen. Es wird in einem grossen Beispieldatenbestand getestet. Gibt es “überwältigend” gute Resultate werden die Änderungen offiziell wirksam. Das bedeutet aber auch immer, es gibt Opfer. Das Resultat sind Seiten, die ohne Verschulden schlechte Positionen bekommen oder gar aus dem Index entfernt werden.
Webmaster können in diesem Fall einen Antrag auf Wiederaufnahme stellen (Reinclusion Request).

Google versucht Spam mit Algorithmen zu bewerten. Manuelle Eingriffe gibt es aber ebenfalls. Diese sind vor allem dann notwendig, wenn die Algorithmen noch nicht genügend gelernt haben.

Affiliate Links

Partnerprogramme im Internet vermitteln Provision für Websitebetreiber, wenn bestimmte Aktionen der potentiellen Käufer registriert wurden. Webmaster binden z.B. Banner oder andere Werbemittel ein, um auf Produkte zu verweisen. Vertreter von Google, Yahoo! und Microsoft stimmten überein, dass Affiliate-Links nicht mit dem Linkattribut rel=”nofollow” für das Ranking unschädlich gemacht werden müssen.

Sind Links das hauptsächliche Signal für Popularität und Bedeutung einer Website?

Vermutlich ja, sind sich alle drei Suchmaschinenvertreter einig.

Aaron (Google) sagte, Links sind ein guter Wert für die Reputation einer Seite. Klicks (Anm.: Auf die Treffer in der Ergebnisliste) sind ein lautes Signal. Das Fehlen von Klicks sind ein deutlicheres Signal, dass dies nicht das relevanteste Ergebnis ist.
Sean (Yahoo!) ist sich nicht sicher ob Links das wichtigste Signal sind. Links sind jedoch wichtiger als andere Signale wie z.B. der Titel-Tag (Seitentitel).

Bedeutung von SiteMaps

Sean (Yahoo!) empfiehlt, die wirklich wichtigen Seiten einer Website in der SiteMap zu erwähnen, als bevorzugte Lösung gegenüber der Erwähnung sämtlicher Seiten in der SiteMap.

Yahoo! benutzt SiteMaps um herauszubekommen, welches die wichtigsten Seiten einer Webpräsenz sind. In dieser Verfahrensweise scheint zwischen den Vertretern Einigkeit zu bestehen.

Nathan (Microsoft) schildert, dass die Sitemaps vor allem dazu dienen, doppelte Inhalte automatisch herauszufiltern. Vorrangig bezieht sich das auf dynamisch generierte Inhalte, bei denen u.a. durch die Verwendung von Session-ID, zahlreiche URL für eine Seite erzeugt werden. Es sollte die kürzeste, aussaqgekräftigste URL gewählt werden.

Alle drei Vertreter sind sich einig, dass Websites, die SiteMaps einsetzen, häufig eine Zunahme des Traffics auf ihrer Site verzeichnen können.

Search Marketing Expo

Virginia Nussey: Ask the Search Engines

randfish: 6 Lessons from the Search Engineers at SMX East

Auch interessant:


Tags: , , , , , Kategorie: Webmaster/SEO

4 Kommentare to “Infos für Webmaster aus zweiter Hand”

  1. SEOnaut says:

    Ja, wenn das User behavior wirklich voll umgesetzt wird, dann müssen sich einige Leute sehr warm anziehen.

  2. Website Boosting says:

    Ich bin überzeugt davon, dass zumindest bei G. das Userverhalten beim Klicken auf die SERPs schon seit längerem für das Ranking berücksichtigt wird. Möglicherweise auch die Rückkehrrate innerhalb einer kurzen Zeitspanne. Ein besseres Votum gibt es doch gar nicht für Relevanz!
    Beispiel: Die Algorithmen erachten eine Seite als relevant und setzen sie auf Platz 3 einer SERP. Nun klicken die Menschen da drauf und z. B. 80% kehren nach z. B. 3 Sekunden per Backbutton auf die SERP zurück und klicken auf ein anderes Ergebnis. Wie könnte SO EIN EINDEUTIGES Verhalten nicht interessant für die Bewertung sein?

    Meine These: Die Algos ermitteln die “Kandidaten” für die SERPs und das Userverhalten steuert, ob die Treffer dann stehen bleiben oder im Extremfall rausfliegen. Die Relevanz können letztlich nur die Menschen in der breiten Masse entscheiden. Auf dieses Votum verzichten? Was spräche wohl dagegen?

  3. Klaus says:

    Einziges Problem sind die Menschen, die sich nicht mit Gegebenheiten arrangieren können. Jedes Signal für Suchmaschinen,das von Menschen beeinflussbar ist, wird von einigen Menschen zum eigenen Vorteil manipuliert. Sei es der PageRank oder das Klickverhalten. Könnte man Manipulation ausschliessen, wären die Klicks gewiss ein sehr gutes Signal. Von Manipulation frei hingegen erscheint mir das oben erwähnte Signal “Fehlen von Klicks”.

  4. Sebastian says:

    Es ist ein extrem aussagekräftiges Signal, das “Fehlen von Klicks”. Dann etwas was nicht da ist, kann niemand manipulieren bzw. manipuliert haben!Geringe Klickraten deuten auf geringes Interesse hin. Man kann seine eignen Klicks nach oben treiben, aber auch das wird bei einer Seite die mehrere hundert Besucher pro Tag von Google bekommt sehr zeitaufwendig, damit es eine Auswirkung hat. Ich müsste schon min. 50 Klicks pro Tag erzeugen. Und das erkennt Google mit Sicherheit, ebenso wie es gute Algorithmen gegen Klickbetrug bei AdWords besitzt.