Seit Google den Internetsuchmarkt mit der Einbeziehung externer Faktoren – wie Anzahl und Qualität eingehender Links – ins Ranking revolutioniert hat, gab es Versuche, diese Faktoren „nachzubauen“.
Aber der Reihe nach: Früher, ganz ganz früher ging es los damit, dass man sich (automatisiert) in die damals noch zahlreich vorhandenen Gästebücher und „Free-For-All“-Linklisten eingetragen hat und die benötige Linkpower für Positionierungen somit künstlich erzeugt wurde. Als dieses Vorgehen durch Google erkannt wurde, kam es wohl zur ersten Gegenmaßnahme in der Geschichte des Linkbuildings: Seiten, die Namen wie „guestbook.html“ oder „links.htm“ hatten, vererbten einfach keinen PageRank und auch keine sonstigen Vorteile mehr weiter.
Der Marktanteil von Google wuchs kontinuierlich, Webverzeichnisse wie das von Yahoo wurden immer unwichtiger und Suchmaschinenoptimierung nahm an Bedeutung zu. Schnell sind automatisierte Linktauschnetzwerke wie LinkVault entstanden. Man hat etwas (PHP)-Code auf seiner Seite eingebunden, der Links anzeigte und erhielt dafür im Gegenzug Links von anderen Seiten. Sobald diese eine Größe erreichten, dass sie Google auffielen und Auswirkungen auf die Qualität der SERPs hatten, ist Google dagegen vorgegangen und macht dies bis heute.
Kurz danach kam die Schwemme der Webverzeichnisse. Diese wurden in nahezu allen Fällen nicht aufgesetzt, um Usern Orientierung im Internet zu bieten, sondern, um als Backlinkschleudern für die Suchmaschinenoptimierung zu dienen. Häufig in Verbindung mit einer Backlinkpflicht versprachen sich beide Seiten einen Gewinn: Die Webverzeichnisbetreiber einen hohen PageRank ihrer Verzeichnisse (der dann über eBay oder dergleichen verkauft wurde) und die Seiten, die sich eintrugen die für ordentliche Positionierungen notwendigen Links. Leider wurde hier die Rechnung ebenfalls ohne den Wirt gemacht – Google entwertet diese Webverzeichnisse derzeit reihenweise.
Wenn man sich diese drei Beispiele der letzten sechs Jahre ansieht, kann man den roten Faden deutlich erkennen: Sobald eine Möglichkeit, Backlinks zu „simulieren“ groß genug geworden ist, dass Google negative Auswirkungen auf die Qualität seines Indexes fürchtet, wird gegen diese Möglichkeit – erfolgreich – vorgegangen. Es ist lediglich eine Frage der Zeit, bis die Tricksereien auffliegen und nicht, ob sie auffliegen. Wenn man sich jetzt die aktuellen Trends in der Backlinksammelei (Artikelverzeichnisse und Pressemitteilungsportale) ansieht, so dürfte die zu ziehende Schlussfolgerung nahe liegen.
[Ein Beitrag, der seit Monaten (man kann es auch an der ID sehen) in der Entwurfsliste für das Blog lag und mittlerweile von der Realität teilweise überholt wurde (siehe die aktuelle Entwicklung bei den Artikelverzeichnissen), ich will ihn trotzdem noch veröffentlichen]