Ergänzung der Google Webmaster Richtlinien

Die Richtlinien für Webmaster werden transparenter. Den Richtlinien für Webmaster hat Google einige Erklärungen hinzugefügt, die ein besseres Verständnis der Qualitätsrichtlinien zur Erstellung von Webseiten vermitteln. Unsichtbarer Text und unsichtbare Links, Cloaking und heimliche Weiterleitungen, irrelelvante Begriffe und doppelte Inhalte, Doorwaypages und andere Begriffe werden ausführlich erklärt.

Unsichtbare Texte und Verweise

Als unsichtbarer Text wird betrachtet:
– Weisser Text auf weissem Hintergrund
– Text der durch ein Bild überdeckt wird
– Verwendung von Cascading Stylesheets (CSS) um Text zu verstecken
– Fontgrösse auf NULL setzen

Versteckte Verweise werden gesetzt um Google Bots ( und andere Spider) zu bedienen, sind für Menschen aber unsichtbar:
– Der Verweis enthält unsichtbaren Text (Textfarbe ist indentisch mit Hintergrundfarbe)
– Links werden mit CSS auf die Grösse von einem Pixel verkleinert
– Der Link wird in einem kleinen Zeichen versteckt- z.B. in einem Bindestrich.
Die Verwendung unsichtbarer Texte und/oder Links kann dazu führen, dass die Seiten aus dem Index entfernt werden.

Bilder, JavaScript, Flash, Videos

Diese Hinweise werden im Zusammenhang mit Nutzerfreundlichkeit genannt. Mobile Internetnutzung, Menschen die Screenraeder nutzen und langsame Internetverbindungen sind Beispiele für die alternative Erläuterung der genannten Medien.

– Bilder
Nutzung des Alt-Attributes
Für Menschen lesbare Überschrift
Beschreibender Text um das Bild herum

– JavaScript
Texte innerhalb von JavaScript sollten identisch im NoScript-Tag abgelegt werden und für Nutzer, die kein JavaScript aktiviert haben, sichtbar sein.

– Flash
Aussagefähiger Text und Verweise, die sich auf den Inhalt des Flash-Videos beziehen, sollen ausserhalb der Flash-Animation abgelegt werden.

– Videos
Beschreibender Text zum Video soll ausserhalb des Videos, in HTML-Seiten abgelegt werden.

Cloaking und heimliche Weiterleitungen

Die Auslieferung unterschiedlicher URL bzw. Inhalte wird als Cloaking angesehen.
Beispiele für Cloaking:
– Während Nutzer eine Seite mit Bildern oder Flash präsentiert bekommen, wird eine HTML-Seite für Suchmaschinen gezeigt.
– Die Auslieferung unterschiedlicher Inhalte für Besucher und Suchmaschinen.

Elemente, die durch Suchmaschinen nicht erfasst werden können, wie etwa die Inhalte von Bildern, Flash und JavaScript sollen nicht durch Inhalte ersetzt werden, die auf Cloaking beruhen.

Heimliche Weiterleitungen mit JavaScript
Verweise innerhalb von JavaScript sind für Suchmaschinen unsichtbar und können nicht verfolgt werden.
Die Nutzung von JavaScript ist von Suchmaschinen legitimiert. Die Nutzung von JavaScript um Suchmaschinen zu täuschen hingegen nicht. Dazu gehört die Nutzung unterschiedlicher Texte innerhalb von JavaScript und NoScript-Tag. Suchmaschinen sehen nur den Text im NoScript-Tag.
Es verstösst gegen die Richtlinien, wenn von einer Seite mit JavaScript auf eine andere Seite mit unterschiedlichem Inhalt verwiesen wird. Die Suchmaschinen indexieren die Seite welche die Weiterleitung enthält, nicht die Seite auf die verwiesen wird.
Die Auslieferung unterschiedlicher Inhalte wiederspricht den Google Richtlinien. Die Nutzung von Verweisen innerhalb von JavaScript allein widerspricht nicht den Google Richtlinien. Erst die verursachte Auslieferung unterschiedlicher Inhalte wird als Cloaking angesehen.
Verweise innerhalb von JavaScript können von Suchmaschinen nicht gelesen werden und sollten deshalb im NoScript-Tag bzw. ausserhalb von JavaScript wiederholt werden.

Doorwaypages

sind speziell für Suchmaschinen erstellt worden und enthalten häufig hunderte von Verweisen. Die Gestaltung der Seiten ist nur für die Nutzung von Suchmaschinen gedacht, nicht für menschliche Nutzer.
HTML-Sitemaps enthalten auch sehr viele Verweise, sollen aber so gestaltet sein, dass menschliche Nutzer einfach navigieren können. Themenbereiche sollten z.B. eindeutig gegliedert sein um einen schnellen Überblick zu gewähren.

Keyword Stuffing

Werden in einer Webseite Begriffe zu häufig verwendet, kann das in eine negative Erfahrung für die Nutzer münden und deshalb das Ranking einer Seite negativ beeinflussen. Genaue Zahlen für die Häufigkeit werden nicht genannt. Hingegen wird darauf verwiesen, dass Worte immer angemessen und im Zusammenhang eingesetzt werden sollen. Nicht erwünscht sind Begriffe die zufällig wiederholt werden, häufig in Absätzen oder Listen von Begriffen. Es wird darauf verwiesen, die Nutzung der Begriffe sorgfältig zu bedenken. Begriffe können in unsichtbarem Text, Alt-Atributen oder Title-Tags versteckt werden. Auf die legitime Nutzung von Alt-Attributen und Title-Tags wird an dieser Stelle nicht eingegangen.

Doppelte Inhalte – Duplicate Content

Das Vorhandensein doppelter Inhalte ist nicht zwangsläufig betrügerisch. Doppelte Inhalte werden z.B. produziert in Diskussionsforen, Weblogs, Druckversionen und mobile Versionen von Webseiten. Google ist stark bemüht, jeweils nur eine dieser Versionen auszufiltern und anzuzeigen.
Doppelte Inhalte auf unterschiedlichen Domains können jedoch dafür gedacht sein, Suchmaschinen für ein besseres Ranking oder mehr Traffic zu manipulieren. Die Nutzerfahrung wird jedoch beinträchtigt, wenn mehrere Treffer mit gleichen Inhalten in der Ergebnisliste erscheinen. Werden Nutzer getäusch bzw. das Ranking durch doppelte Inhalte manipuliert, kann das eine Regulierung des Rankings zur Folge haben bzw. die Seiten werden völlig aus dem Index entfernt.

Webmaster können folgendes tun um die Erfassung doppelter Inhalte zu vermeiden:
– Mit der Datei robots.txt können Seiten von der Indexierung ausgeschlossen werden (z.B. die Druckversion einer Seite)
– Serverseitige Weiterleitungen mit 301 Statusmeldung (permanenter Umzug)
– Konsistente interne Verlinkung. Das heisst, nicht unterschiedliche URL für eine Webseite einzusetzen.
Beispiel wie es nicht sein soll:
http://www.meinedomain.de/seite/ und http://www.meinedomain.de/seite und http://www.meinedomain.de/seite/index.htm
– Nutzung von Toplevel Domains. Beispielsweise soll deutschsprachiger Inhalt vorrangig auf der Top Level Domain .de abgelegt werden.
– Die Nutzung des eigenen Inhaltes auf anderen Webseiten sollte immer unter Verwendung eines Backlinks zum originalen Inhalt erfolgen.
– Webmaster können über die Google Webmaster Tools ihre bevorzugte Domain mitteilen
– Verringerung unnützer Wiederholungen auf vielen Seiten. So soll etwa das komplette Impressum oder Hinweis auf das Copyright nicht auf allen Seiten erscheinen, sonder auf einer separaten Seite. Alle anderen Seiten enthalten nur einen kurzen Hinweis auf die ausführliche Version.
– Sich mit dem CMS vertraut machen das für Blogs, Foren, usw. gleiche Inhalte in unterschiedlicher Form zeigen.
– Ähnliche Inhalte sollten minimiert oder erweitert werden. Der gleiche Text einer Reiseseite für unterschiedliche Städte ist nicht erwünscht. Entweder werden die Städte auf einer Seite zusammengefasst beschrieben oder die Texte werden so erweitert, dass textlich unterschiedliche Versionen entstehen.

Doppelte Inhalte auf einer Site sind in der Regel kein zwingender Grund für Aktivitäten. Seiten welche nicht die erwähnten Aktivitäten durchführen brauchen keine Probleme zu befürchten. Google glaubt gut in der Lage zu sein, die passendste Seite auszuliefern.

Wenig oder kein originaler Inhalt

Seiten die wenig Wert für Nutzer darstellen, möchte Google nicht ausliefern. Dazu gehören Affiliate-Sites die keinen zusätzlichen Mehrwert darstellen. Dieser Mehrwert kann in der Auslieferung zusätzlicher Informationen liegen, die für Besucher nützlich sind.
Nicht erwünscht sind Doorwaypages sowie Inhalte die automatisch generiert werden, aber nicht sinnvoll zu lesen sind.
Ebenso unerwünscht sind Inhalte die aus anderen Webseiten ausgelesen wurden. Es lohnt sich, eigene Inhalte zu erstellen die nützlich für Besucher und Ergebnislisten der Suchmaschinen sind.

Webmaster Help Center – Webmaster Guidelines

Comments

5 responses to “Ergänzung der Google Webmaster Richtlinien”

  1. Rene Avatar
    Rene

    Zu: “Seiten die wenig Wert für Nutzer darstellen, möchte Google nicht ausliefern. Dazu gehören Affiliate-Sites die keinen zusätzlichen Mehrwert darstellen.”

    Da stellt sich für mich natürlich die Frage, warum Google überhaupt Treffer von ebay in seinen Ergebnislisten erlaubt. Egal welches Produkt man sucht man wird von tausenden ebay Seiten erschlagen. Selbst ebay betreibt massives Website-Spamming, indem spezielle Unterkategorien oder spezielle Domains eingerichtet werden, obwohl über die Hauptdomain die Inhalte erreichbar sind.

    cgi.ebay.de
    my.ebay.de
    motors.ebay.de
    signin.ebay.de
    hub.ebay.de
    buecher.ebay.de
    computer.ebay.de

    für sämtliche Kategorien auf ebay werden Subdomains angelegt, die alle sehr gut bei Google gelistet werden. Macht dies ein kleiner Website-Betreiber, fliegt er sofort aus dem Index und wird nicht mehr aufgenommen. Das nenne ich mal Marktbeherrschung!

    Es gibt wohl weltweit keinen größeren Suchmaschinen Spammer als ebay, aber so etwas wird natürlich von Google geduldet und nicht abgestraft. Wäre ja auch schlimm, wenn auf einmal ebay nicht mehr in den Suchmaschinen zu finden wäre.

  2. Susanna Avatar

    “Verwendung von Cascading Stylesheets (CSS) um Text zu verstecken”
    Das trifft leider auf bildersetzende Verfahren wie FIR und aus dem Viewport verschobene Sprungnavigationen zu. Das ist keim Spamversuch, sondern dient der barrierefreien Seitengestaltung. Man kann nur hoffen, dass Google den Unterschied rafft.

  3. Klaus Avatar
    Klaus

    Hallo Rene,

    eBay gehört zu den grössten Werbekunden von Google und legt sich mit Google schon mal an. Momentan hat eBay in den USA seine Werbung bei Google eingestellt.
    Siehe: http://news.yahoo.com/s/infoworld/20070613/tc_infoworld/89341
    Die Börsenwerte von Google erhielten sofort einen leichten Dämpfer. Kein Wunder, dass Google bestrebt ist, seine besten Kunden bei Laune zu halten.

    Eine Entschuldigung für Googles Verhalten ist das natürlich nicht.

  4. Googles Regeln: nur wer Sie kennt, kann Sie befolgen. – Webhosting Reseller Blog
  5. daniel Avatar
    daniel

    google macht das internet oder wie ?
    schön das es mal zu einer auslesung vieler seiten kommt, die keiner braucht und alles vermüllen.
    nur der jenige der sich nicht so richtig auskennt mit html und ausversehen fehler einbaut, hatt ja nie eine chance…