Evolution der Linksammelei

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Seit Google den Internetsuchmarkt mit der Einbeziehung externer Faktoren – wie Anzahl und Qualität eingehender Links – ins Ranking revolutioniert hat, gab es Versuche, diese Faktoren „nachzubauen“.

Aber der Reihe nach: Früher, ganz ganz früher ging es los damit, dass man sich (automatisiert) in die damals noch zahlreich vorhandenen Gästebücher und „Free-For-All“-Linklisten eingetragen hat und die benötige Linkpower für Positionierungen somit künstlich erzeugt wurde. Als dieses Vorgehen durch Google erkannt wurde, kam es wohl zur ersten Gegenmaßnahme in der Geschichte des Linkbuildings: Seiten, die Namen wie „guestbook.html“ oder „links.htm“ hatten, vererbten einfach keinen PageRank und auch keine sonstigen Vorteile mehr weiter.

Der Marktanteil von Google wuchs kontinuierlich, Webverzeichnisse wie das von Yahoo wurden immer unwichtiger und Suchmaschinenoptimierung nahm an Bedeutung zu. Schnell sind automatisierte Linktauschnetzwerke wie LinkVault entstanden. Man hat etwas (PHP)-Code auf seiner Seite eingebunden, der Links anzeigte und erhielt dafür im Gegenzug Links von anderen Seiten. Sobald diese eine Größe erreichten, dass sie Google auffielen und Auswirkungen auf die Qualität der SERPs hatten, ist Google dagegen vorgegangen und macht dies bis heute.

Kurz danach kam die Schwemme der Webverzeichnisse. Diese wurden in nahezu allen Fällen nicht aufgesetzt, um Usern Orientierung im Internet zu bieten, sondern, um als Backlinkschleudern für die Suchmaschinenoptimierung zu dienen. Häufig in Verbindung mit einer Backlinkpflicht versprachen sich beide Seiten einen Gewinn: Die Webverzeichnisbetreiber einen hohen PageRank ihrer Verzeichnisse (der dann über eBay oder dergleichen verkauft wurde) und die Seiten, die sich eintrugen die für ordentliche Positionierungen notwendigen Links. Leider wurde hier die Rechnung ebenfalls ohne den Wirt gemacht – Google entwertet diese Webverzeichnisse derzeit reihenweise.

Wenn man sich diese drei Beispiele der letzten sechs Jahre ansieht, kann man den roten Faden deutlich erkennen: Sobald eine Möglichkeit, Backlinks zu „simulieren“ groß genug geworden ist, dass Google negative Auswirkungen auf die Qualität seines Indexes fürchtet, wird gegen diese Möglichkeit – erfolgreich – vorgegangen. Es ist lediglich eine Frage der Zeit, bis die Tricksereien auffliegen und nicht, ob sie auffliegen. Wenn man sich jetzt die aktuellen Trends in der Backlinksammelei (Artikelverzeichnisse und Pressemitteilungsportale) ansieht, so dürfte die zu ziehende Schlussfolgerung nahe liegen.

[Ein Beitrag, der seit Monaten (man kann es auch an der ID sehen) in der Entwurfsliste für das Blog lag und mittlerweile von der Realität teilweise überholt wurde (siehe die aktuelle Entwicklung bei den Artikelverzeichnissen), ich will ihn trotzdem noch veröffentlichen]

Ähnliche Beiträge
Kommentare
Avatar Marketing   
25. August 2007, 19:17

Was war ganz ganz früher?

Avatar loptr   
7. Dezember 2007, 15:22

Früher hats keinen interessiert 😀

Jetzt entdecken die Webmaster langsam das Web2.0 und bookmarken sich auf diversen Plattformen. Wobei es nicht unbedingt um die Links geht (welche eh alle nofollow sind) sondern eher um die Bekanntheit im riesigen Web.
Das selbe Problem besteht im übrigen auch bei Blinkern.

Ein Artikel über „Bookmarkoptimierung“ wäre hier vielleicht auch mal was feines. Immerhin werden Portale wie del.icio, mr wong und blinklist es schwer haben, einfach mal ein paar Accounts zu löschen um so die Spreu vom Weizen zu trennen. Wie unterscheidet man Spamer von Usern?

Fabelhaftes Web2.0 😉

Avatar igor   
7. Dezember 2007, 15:23

Da du ja beim Urknall angefangen und die Entstehung des SEO beschrieben hast liegt es jetzt an der Anpassungsfaehigkeit des „Homo SEO Humanus“.Denn Google wird sich immer neue schikanen ausdenken, die es zu umgehen gilt.

Johannes   
7. Dezember 2007, 15:47

Igor, das siehst du etwas falsch. Webmaster finden immer neue Methoden, um Google zu schikanieren und Google reagiert nur auf diese Entwicklungen 🙂

Avatar loptr   
7. Dezember 2007, 16:05

Jetzt die Masterfrage:
„Was war zuerst da: das Huhn (google) oder das Ei (seo)?“

Klare Antwort auf die Frage:
Vor dem Huhn (google) gab es schon Eier (seos).

Avatar Marius   
7. Dezember 2007, 18:25

Als nächstes folgen dann die Bloglinks und die von Hubseiten und die von Authorities. 7 Liter Blutverlust. Patient tot!

Avatar Nils   
7. Dezember 2007, 20:16

[Ein Beitrag, der seit Monaten (man kann es auch an der ID sehen) in der Entwurfsliste für das Blog lag

Hat sogar schon TB Pagerank 😉

Avatar Elmar   
7. Dezember 2007, 22:59

Hier kann man echt noch etwas lernen. Kaum veröffentlicht und schon ein grünes Bälkchen 😀

Wenn ich jetzt nicht vergessen hätte, meine URL einzugeben…

Johannes   
8. Dezember 2007, 09:41

Marius, Google funktionierte zu einer Zeit, da Webmaster Links noch keinen Wert beimaßen sondern sie lediglich setzten, um ihren Nutzern die verlinkte Seite zu empfehlen noch am besten. Um in deinem Vergleich zu bleiben. Wenn der Arzt den ungesunden Teil des Patienten (Krebs) rausgeschnitten hat, gehts hinterher dem ganzen Patienten besser 🙂

Avatar Frank   
8. Dezember 2007, 20:02

Auch ein Arzt hat keine Chance einen Patienten mit „reagierender Schnipplerei“ zu retten, sobald das Geschwür sich durch Metastasen (professionelle Linkdealer, Blog Spammer, Linktauscher, SMO)weiterverbreitet hat.

Vielleicht droht doch der Tod durch zuviel Blutverlust, bzw. der Versuch mit „Abschreck- & Show-Schnippelei“ zu überleben könnte mittelfristig einfach an der fehlenden Objektivität von Suchergebnissen scheitern …

Bleibt die nächsten Jahre wahrscheinlich aber das Hase (Google) & Igel (SEO) Backlink-Spiel, bis ein neues Wunderheilmittel (Mix aus Semantik, AI, Uservotes?) erfunden wird 😉

Avatar David   
11. Dezember 2007, 16:11

@Frank: Ich denke, dass es für Google vor allem eine Kosten-Nutzen-Rechnung ist. Die „Metastasen“, also die Spammer, stören den Erfolg nicht, solange sie nicht überhand nehmen. Eine gewisse Menge an Manipulation wird Google deswegen wohl immer tolerieren müssen.

Die großen Problemfelder zu beseitigen sehe ich aber nicht als Abschreckung oder reine Show. Die erwähnten Linklisten z.B. waren ein ernsthaftes Problem und mit seiner Lösung haben sich die Suchergebnisse verbessert.

Interessant finde ich deine Frage, wieviel „Blutverlust“ (bzw. Ausnahmen im Algorithmus, wenn ich dich richtig verstehe) Google vertragen kann. Aber – und da bin ich gerne etwas naiv – Google wird schon wissen, was Google tut… 😉

Avatar SEO Freelance   
13. Dezember 2007, 13:30

Wenn wir von der Masse reden, ist es natürlich richitg das
Artikelverzeichnisse und Pressemitteilungsportale der aktuelle Trend ist. Ich denke, diejenigen, die jetzt damit optimieren, werden eine kurze Freude über die Arbeit haben, die sie dort investiert haben. Interessanter wäre eine Diskussion über die „kommenden“ Trends, bzw. kommend kommende Trends 🙂
Z.B jegliche Auseinandersetzung des Linkbuildings aufgrund von 301er ist meiner Meinung nach interessant und auch hier gibt es viele kreative Möglichkeiten, die über das Schema Linkbait/301 Redirect hinausgehen…

Avatar trendstrom   
30. März 2008, 22:46

Zum Glück ist der durchschnittliche Spammer nicht sehr intelligent – so versuchen einige dieser „Spezialisten“ Begriffe zu „optimieren“, mit denen ihre Seite gar nichts zu tun hat. Der Spammer denkt sich, dass er viel Traffic bekommt und unternimmt alles, um diesen zu steigern. Auf diese dubiose Weise aquirierte Besucher würden sich allerings sowieso nicht für die thematisch fremden Angebote des Spammers interessieren.

Die Folge: Die Besucher ärgern sich, weil das Thema nicht passt; aber nicht nur Menschen nehmen diese Versuche wahr, auch Google erkennt das sehr schnell – und das ist gut so.

Google bestraft Maßlosigkeit und Manipulationen aller Art – welche Domains hierfür missbraucht werden, ist jedoch nachrangig. Dass die Webkataloge und Artikelverzeichnisse durch Google abgestraft wurden, hat überwiegend mit dem massenweisen Verkauf von Footerlinks zu tun.

Fazit: Es sind nicht die Systeme „Webkatalog“ oder „Artikelverzeichnis“, die bei Google nicht gern gesehen sind, sondern es ist die Art und Weise, wie die Seitenbetreiber selbst vorgegangen sind.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.