Neuer Algorithmus bekämpft Spam im Google Index

29. January, 2011 Kommentieren Autor:

Webseiten die einfach nur kopierte Inhalte von anderen Seiten besitzen, sowie Seiten mit einem niedrigen Anteil an Originalinhalten bzw.mit Inhalten niedriger Qualität, sollen sich nicht mehr in den Spitzenpositionen der Google-Ergebnislisten tummeln. In der vierten Kalenderwoche des Jahres 2011 änderten sich bei Google viel Millionen Treffer, rund 0,5% aller Ergebnislisten, durch den neuen Algorithmus.

Beobachtungen von Webmastern sehen die Wirkung vom neuen Algorithmus ab dem 26.Januar.

Seiten mit Originalinhalten sollen von nun ab mit grösserer Wahrscheinlichkeit vor Seiten stehen, welche die Inhalte etwa kopiert oder auf andere Weise eingefügt haben.

Theoretisch sollte es schon in der Vergangenheit nicht möglich gewesen sein, dass kopierte oder anders in die Seite eingebrachte fremde Inhalte vor dem Original rankten. Allerdings nur, solange die Originalseite nicht schwächer war als die Seite mit der Kopie. Momentan scheint aber noch nicht richtig klar zu sein, an welcher Stelle Google angesetzt hat. Werden die Kopien ausreichend stark heruntergestuft um immer nach dem Original zu landen?

Jede algorithmische Änderung verursacht “Kollateralschaden”. Seiten werden abgestuft, obwohl originaler Inhalt vorhanden ist. Entsprechende Beschwerden sind bereits in den Kommentaren zu Matt Cutts Blogeintrag nachzulesen.

Durch die Veröffentlichung über Start und Zweck wird es Google leichter fallen notwendiges Feedback zum Algorithmus zu bekommen. Anhand der Rückmeldungen von Webmastern können Feinjustierungen am Algorithmus vorgenommen werden.

Der neue Algorithmus ist auch eine Reaktion auf die steigende Zahl kritischer Beiträge über die Qualität der Google-Ergebnisse. Das geht aus dem kürzlichen Beitrag von Matt Cutts im offiziellen Google Blog hervor: Google search and serach engine spam. In den vergangenen Monate stellte Google einen “leichten Anstieg” von Spam fest. Das Spamaufkommen im englischsprachigen Bereich ist jedoch nur noch halb so hoch wie vor 5 Jahren, betont Matt in seinem Beitrag. In anderen Sprachbereichen liegt das Spamaufkommen unter dem des englischsprachigen Raumes.

Für das Jahr 2011 sind weitere technische Massnahmen geplant um Spam weniger präsent in den Suchergebnissen von Google zu machen. U.a. sollen sogenannte Content Farmen und Seiten mit geringen inhaltlichem Wert stärker bekämpft werden. Zwei algorithmische Änderungen wurden zu diesem Zweck bereits im Jahr 2010 durchgeführt, offenbar nicht mit dem beabsichtigten Erfolg.

Offensichtlich ist es schwierig minderwertige Seiten herauszufiltern ohne die oben erwähnten Kollateralschäden ausufern zu lassen. Und sicherlich kann Google ein Artikelverzeichnis nicht einfach deshalb abstrafen, weil es sich Artikelverzeichnis nennt. Eher deshalb, weil es ausschliesslich dafür geschaffen ist, das Ranking anderer Seiten zu erhöhen. Das muss aber exakt algorithmisch formuliert werden und für die Suchmaschine mit vertretbarem aufwand berechenbar sein. Warten wir die nächsten Schritte ab um zu schauen wie effektiv Google Suchmaschinenspam bekämpfen kann.

Betont wird auch, dass Webseiten keine Schonung bekommen, welche mit AdSense auf den kopierten Seiten gute Umsätze machen. Google will gegen alle Seiten vorgehen, welche gegen die Google-Qualitätsrichtlinien verstossen.

Matt Cutts Blog:
Algorithm change launched

VN:F [1.9.22_1171]
Beitrag bewerten
Rating: 0.0/5 (0 votes cast)


Share
Tags: , , , Kategorie: Google, Webmaster/SEO
Kommentieren zu “Neuer Algorithmus bekämpft Spam im Google Index”

Eine Nachricht hinterlassen