Ähnlichkeitsfilter bei Google angezogen?

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

In letzter Zeit verdichten sich die Hinweise, dass Google beim Filter, der ähnliche Inhalte erkennen soll, entweder die Parameter verändert oder aber neue Erkennungsmuster eingeführt hat. So scheinen derzeit Projekte, die eine Vielzahl ähnlicher oder gleicher Daten nutzen davon betroffen. Als Paradebeispiel hierfür können Preisvergleiche gelten: Letztlich haben sie alle die gleichen oder doch sehr ähnliche Produktdaten, die Anzahl der Shops in Deutschland ist auch begrenzt und unter den günstigsten 20 spielen häufig die gleichen Shops eine große Rolle.

So kann man bei Preistrend.de seit Ende Januar beispielsweise an den Alexazahlen beobachten, dass der Traffic doch recht gravierend zurückgegangen ist – auch in den Serps ist die Seite häufig nur noch weit hinten zu finden. Und auch die Aussage von Google bei der Site-Abfrage für Ciao.de sieht nicht wirklich gut aus: Google erkennt dort nur zwei Seiten mit einzigartigem Inhalt, die restlichen knapp 2,5 Millionen Seiten werden erst danach aufgeführt.

In US-Foren wird spekuliert, dass dies mit einem neuen Google-Patent zusammenhängen könne. Die Google-Mitarbeiterin Anna Lynn Patterson hat das Patent mit dem Titel „Detecting spam documents in a phrase based information retrieval system“ Mitte letzten Jahres eingereicht und beschreibt, wie die Spamerkennung verbessert werden könne. So werden Phrasen, die zusammen mit anderen Textbausteinen in einer Seite vorkommen erkannt und zusammen mit dem Dokument gespeichert. Wenn die gleiche Kombination von Textbausteinen nur auf mehreren Seiten erkannt wird, so kann vermutet werden, dass es sich um Spam handelt. Auf die oben genannten Preisvergleiche im Allgemeinen könnte dies zutreffen: Produktinformationen wie Gewicht, Abmessungen oder Farbe sowie Namen der Shops und Bezeichnung bei den Shops dürften auf vielen Preisvergleichen ähnlich sein und somit in diesen Filter fallen – so er denn angewendet wird …

Ähnliche Beiträge
Kommentare
Avatar Mario Göttsche   
13. Februar 2007, 21:31

Das könnte gut sein, dass es mit dem Patent zusammenhängt, dass geht sporadisch schon seit Mitte Dezember so. Etwas eigenartig ist die Sache mit der site: Abfrage, das war ja früher so wenn man immer die gleichen Metas verwendet hat, also die description und keywords. Seit einigen Wochen bezieht sich das wirklich auf den Content schadet aber (noch) nicht in Sachen Ranking.

Aber das Thema ist/wird spannend.

Avatar Robert Hartl   
19. Februar 2007, 15:17

Netter Artikel. Ich kann Deine Beobachtungen bestätigen. Vor etwa 3 Wochen fielen Seiten mit teilweise gleichem Inhalt (zB mit Wikipedia) in den SERPS um etliche Plätze – auch bei „erbärmlichen“ Keys, auf denen Platz 1 normal eindeutig sein sollte.
Nach Einfügen weiterer eigener Absätze, Füllwörter, … sprangen die Seiten ab dem nächsten Botbesuch wieder an vorherige Positionen.
Mal sehen wie lange.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.