Suchmaschinen hüten schwarze Schafe und weiße Schafe

Blacklists sind ein “uraltes” Instrument um Websites aus dem Index zu verbannen. Das ist praktisch die Suchmaschinenhölle, dort schmoren die “bösen” Seelen (Im Fachjargon: Domains) Das Himmelreich hingegen war bislang weitgehend unbekannt. Websites auf Whitelists sind dagegen geschützt, von Algorithmen schlecht gerankt zu weden.

Blacklists stellen eine komplette Massnahme dar, die algorithmische Suche von der Beschäftigung mit diesen Angeboten zu befreien.
Whitelists (Ausnahmelisten) sind eine partielle Maßnahme um Webseiten zu schützen, die von einem speziellen Algorithmus in den Orkus des Rankings geschleudert wurden. Man könnte auch sagen, mit Whitelists werden Kollateralschäden, welche neue Algorithmen hervorrufen, vermindert.

Bing und Google führen Whitelists und Blacklists

Anlässlich der Suchmaschinenkonferenz SMX West erklärten Vertreter beider Suchmaschinen, Listen zu führen, welche ausgewählte Websites von Wirkungen algorithmischer Bewertungen ausschließen. (Exeption Lists – Whitelists)

Whitelists – Exeption Lists

Google Vertreter Matt Cutts erklärt: Es gibt keine Ausnahmeliste welche eine Website von allen algorithmischen und filternden Signalen freistellen.
Die Listen werden immer nur als Reaktion auf Algorithmen und Filter geführt. Beispielsweise sperrt der Kinder- u. Jugendfilter SafeSearch die Website essex.edu aus, weil die Domain das Wort Sex enthält. Also wurde eine Freistellungsliste für SafeSaearch angelegt, die gewährleistet, dass u.a. die Domain essex.edu bei aktiviertem SafeSearch-Filter erreichbar ist.

Google nutzt Freistellungslisten immer dann, wenn Algorithmen unbeabsichtigt Websites beeinflussen, sowie in Fällen wo Google glaubt, die Qualität der Suche wird deutlich erhöht. Google führt keine Masterliste welche bestimmte Websites vom Einfluß aller algorithmischen Änderungen ausschließt.

Die meisten der Algorithmen sind mit keiner Ausnahmeliste verbunden, erklärte Matt Cutts. Nur einige Algorithmen benötigen Ausnahmelisten, weil kein Algorithmus 100% perfekt ist.

Sasi Parthasarathy, als Vertreter von Bing (Microsoft) erklärt, die verwendeten Ausnahmelisten werden ständig überarbeitet und bereinigt. Im Zuge von Updates für den Algorithmus wird versucht, dass die in der Ausnahmeliste geführten Sites entfernt werden können. Das verbessert den Algorithmus.

Google erklärt ebenso, dass die Ausnahmelisten nur als Übergangslösung gedacht sind, bis mit einer Änderung am Algorithmus die Ausnahmeliste überflüssig wird.

Nicht perfekt zu sein ist keine Schande

Die Unvollkommenheit der algorithmischen Bewertung zu erklären, ist für Google und Bing nicht als Zeichen von Schwäche zu werten. Eher ein Zeichen, sich zu den Schwächen zu bekennen. Wir wissen alle, dass Suchmaschinen in einem sehr frühen Stadium stehen. Trotz deutlicher Verbesserungen im Ranking führender Suchmaschinen, bleiben ganz deutlich Differenzen zu den wachsenden Ansprüchen der Nutzer. Das gilt für Google, Yahoo!, Bing und noch viel mehr für viele andere Suchmaschinen, die weniger populär sind. Dennoch wissen wir alle, wie sehr Suchmaschinen unser Erlebnis im Internet häufig positiv beeinflussen.

Sind Whitelists zwigend notwendig?

Aus den Erklärungen der Suchmaschinenvertreter wird deutlich, dass die Einführung neuer Algorithmen nie das angepeilte Ziel perfekt erreichen. Es werden Domains im Ranking beeinträchtigt, die gar nicht ins Visier genommen wurden. Es klingt irgendwie verständlich, dass diese Domains ausgenommen werden um nicht von dieser partiellen Änderung betroffen zu sein.

Ausnahmelisten und Webmaster

  • Nach welchem konkretem Verfahren wählen Suchmaschinenbetreiber Domains für die Ausnahmelisten aus?
  • Können Webmaster einen Antrag zur Aufnahme in die Aufnahmeliste stellen, falls sie glauben betroffen zu sein?
  • Wie lässt sich für Webmaster feststellen ob eine Website unbeabsichtigt vom Algorithmus beeinträchtigt wurde?

Blacklists

Blacklists sind wahrscheinlich fast so alt wie Suchmaschinen. Jeder Blackhat-SEO hat schon Domains “verbrannt”, indem die Domain gegen die Richtlinien von Suchmaschinen verstiess und deshalb auf eine Blacklist gesetzt wurde. Schwer zu sagen, wie umfangreich so eine Blacklist ist. Blekko gibt einen Anhaltspunkt, dass es hier nicht um hunderte oder tausende Websites geht. Kürzlich erklärte Blekko 1,1 Millionen Websites als Spam gekennzeichnet zu haben. Die Spamuhr zählt jede Stunde eine Million neue Spam-Seiten. Betrachtet man die historische Entwicklung, so müssen die tatsächlichen Zahlen sehr, sehr deutlich über diesen Zahlen liegen.

Gründe für Blacklistings

sind beispielsweise:

  • Verstoß gegen die Richtlinien für Webmaster
  • Veröffentlichung von Materialien die gegen die öffentliche Moralvorstellung eines Landes verstoßen. In Deutschland sind das vor allem rassistische sowie als jugendgefährdend eingestufte Inhalte.
  • Übernahme aus einer anderen Blacklist, etwa BPjM-Modul.
  • Entfernung von Treffern aufgrund rechtlicher oder politischer Forderungen (Siehe auch: Weltkarte der Zensur)

Search Engine Land:
Transcript: Google & Bing On Whitelists & Exception Lists

Google & Bing Have Whitelists – “Exception Lists” – For Some Algorithm Signals
Search Engine Rountable:
Google Has Whitelists & Exception Lists


Posted

in

by