Erkennung von Linkverkauf – Theoretische Gefahr oder bereits Praxis?

Johannes Beus
Johannes Beus
18. Mai 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Das Thema Linkverkauf beziehungsweise Linkvermietung hat in den letzten Monaten große Wellen geschlagen. Google, in den Grundfesten seiner Rankingkriterien getroffen, kündigt schon länger an, dass linkverkaufende Seiten erkannt und entsprechend behandelt werden. Matt Cutts hat sogar schon dazu aufgerufen, diese Seiten zu melden, um einen angeblich in Entwicklung befindlichen Algorithmus zu testen.

Nachdem jetzt DaveN gebloggt hat, dass angeblich bereits sowohl Linkkäufer und Linkverkäufer betroffen sind, wollte ich mal ausprobieren, wie einfach die Erkennung von gekauften Link in der Praxis ist. Die folgenden Versuche beruhen auf der Überlegung, dass die meisten linkverkaufenden Seiten in ein bestimmtes Schema fallen: Starke Seiten verkaufen Links an themenfremde, aber kommerziell relevante Seiten. Dass Google das Thema einer Seite recht gut erkennen kann, sollte spätestens seit AdSense klar sein. Auch die Auwahl kommerziell starker Keywords dürfte dank der AdWords-Datenbasis kein Problem sein. Da ich so was derzeit nicht in der Schreibtischschublade liegen habe, musste ich diese beiden Kriterien – hoffentlich sinnvoll – von Hand auswählen.

Seiten aus der Linuxcommunity sind durch die alten und natürlich gewachsenen Links bei Linkkäufern seit jeher beliebt. Ich habe deshalb rund 1.000 De-Domains mit „Linux“ im Domainnamen untersucht. Von diesen Domains wurden automatisiert ausgehende Link von der Startseite auf die großen Kommerz-Keywords untersucht: Finanz-, Reise, Internetzugang und Ähnliche.

Interessant sind die Ergebnisse dieser kurzen, etwa 15-minütigen Untersuchung. Obwohl nur sehr wenig Aufwand und Zeit investiert wurden, sind die Ergebnisse schon recht überzeugend. Auch, wenn ich auch hoffentlich nachvollziehbaren Gründen hier keine URLs nenne, so sind es die „bekannten“ Linkkäufer, die auftauchen. Die Erkennung ist überraschend zuverlässig und schnell.

Wenn man nun überlegt, dass die Ressourcen bei Google nahezu unendlich sind, so sollten Linkkäufer ihre Strategie für die Zukunft überdenken. Themenfremde Links in Footern oder lieblos untereinander in der Navigation werden auf Dauer recht sicher automatisiert erkannt und abgewertetet. Links, die themenrelevant und aus dem Content heraus gesetzt werden, sind auch in der Zukunft vermutlich deutlich schwerer zu erkennen.

Ähnliche Beiträge
Kommentare
Saša Ebach   
18. Mai 2007, 03:41

Lang lebe die Presell Page 🙂

Johannes   
18. Mai 2007, 09:14

Ist sicherlich erstmal ein Schritt in die richtige Richtung 🙂

Rene Kriest@ProBloggerWorld   
18. Mai 2007, 11:54

Gute Artikel! 🙂

Googles Anti-Spam-Boss Matt Culls äußerte sich jüngst in einem Interview zum Thema Linkkauf etc. Primär geht es ihm um die P0rn/Casino-Sites, die Googles Argwohn erregen.

Die Linkverzeichnisse sollen manuell überprüft werden und in Einzelfällen durch Ban „abgestraft“ werden.

Das ist auch richtig, denn sonst würde jedes Link-Verzeichnis auf dem Index stehen, etwa auch dmoz.org und das kanns nicht sein.

Viele Grüße + schönen Tag,

René

Heiko   
18. Mai 2007, 23:58

Sehr interessante Information!!!

1. „Auch, wenn ich auch hoffentlich nachvollziehbaren Gründen“ <– das ist etwas durcheinander gewürfelt

2. Hab ich das richtig verstanden: "rund 1.000 De-Domains mit „Linux“ im Domainnamen untersucht" in etwa 15 Minuten???

Life long and prosper!

yankee   
20. Mai 2007, 21:11

Aber ein wenig komplexer ist die Sache denn schon. Bei den dicken Key magst du Recht haben, aber es gibt einen riesigen grauem Bereich. Da macht es kaum einen Sinn Links zu entwerten. Warum soll ich nicht auf eine nicht themenrelvante Seite Linken, wenn Sie gut ist. Aber ich denke du menst sicherlich auch mehr die einschlägigen Paltzierungen der Links. Dann kann ich dir dann folgen. Gerade die In Blocks gesetzen Links werden in Zukunft wohl Probleme machen.

Johannes   
20. Mai 2007, 22:05

Heiko, erstmal danke für den Hinweis zum Fehler, ist wohl auf die Uhrzeit zurückzuführen :-). Das mit den 15 Minuten stimmt schon. War ein schnell zusammengeschriebes Batch-Script, das erstens die Domains aus einer Datenbank ausliesst, diese dann runterlädt und die externen Links auswertet.

yankee, sicherlich steht dir frei, Links auf Seiten zu setzen, wie du magst. Google hat allerdings auch die Freiheit, zu bewerten, wie es mag.

steve   
29. Mai 2007, 00:03

echt interessanter artikel, thx

Uwe   
30. Mai 2007, 01:39

Dass dies der uneingeschränkt richtige Weg ist, wage ich zu bezweifeln. Yankee hat da schon ganz recht mit seinem Einwand. Das Netz lebt von Links, auch von jenen, die nichts mit dem Thema zu tun haben.
Diese Googlemaßnahme führt doch schlussendlich nur dazu, dass die SEOs sich für die lukrativen Gebiete kleine oder auch große Netzwerke aufbauen, um dann so Themenrelevanz herzustellen. Das ganze Googleranking ist von der Technik her doch kein ausgeklügeltes System, sondern ein Sammelsurium von Reaktionen auf die Arbeit von cleveren SEOs, welche die Schwächen des Systems exzessiv nutzten. Google wird es aber nie schaffen, die Mechanismen von SEO auszuhebeln, da das ganze Prinzip des Internets niemals durchschaubar und schon gar nicht zu steuern ist. Die Materie ist zu komplex und lässt immer ein Schlupfloch zu, das man ausnutzen kann.Es wird auch niemals einen Algorithmus geben, der ein faires Ranking zulässt. Es wäre fast schon besser, die ersten 20-30 Ergebnisse in den Serps auszulosen 😉

partyjunky   
7. Dezember 2007, 17:37

Na ja, ob dass so klappt wie Google sich das vorstellt? Entweder sie setzen die Grenze sehr hart, damit das wie gewünscht klappt, aber dann fallen wohl fast alle Links heraus, oder eher weich und dann verfehlt das ganze sein Ziel. Bin gespannt wie das Ganze letztendlich aussehen wird.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.