Ist das noch normal? – Teil II

Johannes Beus
Johannes Beus
30. August 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Im ersten Teil ging es, kurz zusammengefasst, darum, dass Suchmaschinen Seiten, die eventuell Spam sind dadurch erkennen können, dass eine Reihe von Merkmalen vom Durchschnitt aller Webseiten im Internet abweicht. Dass dies nicht nur mit Onpage-Merkmalen wie beispielsweise der Länge des Titels funktioniert, sondern auch – und dann viel effektiver – mit Offpage-Faktoren, soll in diesem Teil behandelt werden.

Wie bei den Onpage-Faktoren bilden sich auch in sozialen Netzen wie dem Internet mit zunehmender Größe gewisse Muster aus. Wenn man sich beispielsweise die Verlinkungen der deutschsprachigen SEO-Blogs untereinander ansieht, so wird man so eine Struktur feststellen: einige haben mehr eingehende Links, andere weniger aber alle zusammen bilden ein schönes Netzwerk oder auch Cluster genannt. Diese Nachbarschaften wie bei den SEO-Blogs wird man in sehr vielen Bereichen finden – alles natürlich, also organisch gewachsen.

Problematisch wird es nun, wenn man versucht, diese Linkstrukturen zu seinen Gunsten zu verändern. Ein paar gekaufte Links hier, einige Einträge in fragwürdige Webkataloge dort und zur Abrundung noch Artikel in diversen Artikelverzeichnissen und als Ergebnis hat man sein eigenes Linknetzwerk komplett verändert und grundlegende Strukturen, die natürlich gewachsene Netzwerke ausmachen, zerstört. So Veränderungen sind leider deutlich schwieriger darzustellen als bei den Onpage-Faktoren, doch ich will es versuchen: Von 16 deutschsprachigen Artikelverzeichnissen wurden jeweils die tausend ersten Seiten auf ausgehende Links untersucht. Wenn man sich jetzt in der Grafik rechts ansieht, wieviele Domains auf einer Vielzahl dieser Artikelverzeichnise vertreten sind, so kann man sich vorstellen, in welche Link-Nachbarschaft sie damit gerückt wurden. Dass Google bei seinen Webmaster-Richtlinien vor einiger Zeit das unscheinbare Wort „almost“ in den Satz „There’s almost nothing a competitor can do to harm your ranking or have your site removed from our index.“ eingefügt hat, sollte Hinweis genug sein, dass man sich seine linkgebenden Nachbar eventuell doch etwas sorgsamer auswählen sollte, als dies auf den ersten Blick scheint.

Im dritten und letzten Teil geht es dann darum, dass man auch noch die zeitliche Entwicklung im Auge behalten sollte.

Ähnliche Beiträge
Kommentare
Daniel   
31. August 2007, 13:43

Ich verstehe das so das je mehr Links ich von Webkatalogen und Artikelverzeichnissen ich sammel – je schlechter mein ranking wird! Aber ist das auch in der Praxis so?

Johannes   
31. August 2007, 13:47

Daniel, in dieser Serie geht es eher darum, dass Google bei bestimmten Merkmalen sich eine Seite eventuell nochmal genauer ansieht. Wenn du zum Beispiel 80% aller deiner Links aus Webkatalogen, Linkslisten und Artikelverzeichnissen hast, so weicht das doch deutlich vom Internetdurchschnitt ab und könnte den Ausschlag dafür geben, dass sich ein Mensch oder spezieller Algorithmus damit befasst. Dass es einen direkt Einfluss auf den Index hat, glaubt ich derzeit (!) noch nicht.

viSEOcoach   
31. August 2007, 16:16

„Dass es einen direkt Einfluss auf den Index hat, glaubt ich derzeit (!) noch nicht.“

Ich glaube auch noch nicht, dass Google das im Moment zu stark in die Bewertung einfließen lässt. Obwohl die bestimmt schon fleißig intern testen.

Wer jedoch heute so optimiert, wird (wenn er für Kunden arbeitet) in Zukunft in Erklärungsnotstand kommen, wenn auf einmal die Rankings flöten gehen. Ich zweifle nicht daran, dass das in Zukunft eine größere Rolle spielen wird. Google et al brauchen jedoch noch Zeit, weil das nicht gerade ein einfaches technisches Problem ist.

Loewenherz   
31. August 2007, 16:21

Was die SEO-Blogs angeht, war ich erstaunt, seoFM, FridayNite oder SEO Scene nicht in der Map zu finden (wobei letzteres sich auch noch nicht in deiner Blog-Liste findet – über eine Aufnahme würde ich mich freuen *g*). Bin ich blind oder sind die/wir einfach zu klein, um dort aufzutauchen?

Der Check der Artikelverzeichnisse ist wirklich interessant, da sich da viele typische SEO/AdSense-Projekte drunter finden. Sollte Google hier so vorgehen wie du es vorexerzierst, dürften sich einige Kollegen blutige Nasen holen.

x-plosiv   
31. August 2007, 16:27

Erstaunlich wie einfach solche Netzwerke aufdeckt werden können :-). Dennoch denke ich, dass Google vorsichtig ist mit dem Abstrafen, wenn die Anzahl Links aus Webkatalogen zunehmen. Alleine wenn ich mich bei dmoz eintrage, wird meine Webseite in hunderten von anderen Webkatalogen gelistet, ob jetzt legal oder illegal. Das liegt dann aber nicht mehr in meiner Hand. Ok viele Links werden wohl erst gar nicht gewertet von Google. Aber gibt es wirklich auch Strafen dafür? Ich bezweifle es einwenig.

Wie auch immer, danke für die erneuten sehr interessanten Auswertungen

Madb   
31. August 2007, 17:35

Ich habe mir zum Thema Webkataloge mal ein paar eigene Gedanken gemacht und bin mir sicher, dass man auch durch Webkataloge nützliche Links bekommen kann. Man sollte nur nach bestimmten SEO Kriterien aussortieren, welche Webkataloge man nimmt und welche man besser lässt. Aus eigener Erfahrung mit einem Webkatalog habe ich bemerkt, dass die Leute hier bei ihrer Auswahl der Kataloge immer nur nach den Webkataloglisten der Seiten gehen, die etwas mit Suchmaschinenoptimierung zu tun haben. Diese Listen sind veraltet und mindestens 80% aller Webkataloge die dort aufgeführt sind entsprechen nicht mehr den Richtlinien der Suchmaschinen und sind somit potenzielle bad neighbourhood Links. Wie Du schon in deinem Text anmerkst sind es die fragwürdigen Webkataloge, die man besser meiden sollte.

Johannes   
31. August 2007, 18:05

viSEOcoach, ich denke auch, dass es gerade mit Blick auf die Zukunft wichtig ist, bereits heute komplett „sauber“ zu optimieren. Nachlässigkeiten oder Fehler können einen sonst schneller einholen, als einem lieb ist.

Loewenherz, kann gut sein, dass viel fehlt. Beruht auf den Google-Backlinks und da ist ja bekanntlich vieles ungenau. Das SEO-Scene-Blog hab ich gerade aufgenommen. Hatte ich mir bereits vor nen paar Monaten schonmal vorgenommen nur dann wieder vergessen.

x-plosiv, Strafen durch einen Algorithmus denke ich derzeit noch nicht. Allerdings könnten so gut Listen erstellt werden, die Googles Spam-Experten in Dublin sich mal genauer ansehen.

Madb, genau so sehe ich das auch.

Olaf   
31. August 2007, 20:18

Die Idee hat für Google einen Schönheitsfehler.

Google (und alle anderen Suchmaschinen auch) versuchen, möglichst alles zu automatisieren. Für die Tests, die Du hier vorgestellt hast müssten aber die Link-Verzeichnisse als solche erst einmal erkannt und intern getaggt sein, damit man auf sie als Eigenschaft zurückgreifen kann. Also die Cluster, die die Web-Welt definieren, müssen definiert werden. Und das kann halt nur manuell sinnvoll erfolgen.

In diesem Zusammenhang glaube ich eher, dass Google & Co sich einfach mal die Link-Verzeichnisse anschauen werden und diese einfach auf eine Blacklist setzen werden, sodass die Backlinks nichts mehr bringen.

Black Friday   
31. August 2007, 21:30

Löwenherz:
Warum sollte da SEOFM oder fridaynite auftauchen? was haben diese Domains mit den angesprochenen Linkstrukturen zu tun?

Das sind wahrscheinlich welche der wenigen Domains, bei denen bewusst auf Tricks verzichtet wird, weil jede Menge Leute jeden Tag versuchen, da irgendetwas zu finden.

Warum sollte ich die Fridaynite.de in irgendein Artikelverzeichnis eintragen? Ich verkaufe keine Wasserbetten, schwindlige Versicherungen oder getragene Schlüpfer 🙂

Die Backlinks zu diesen Domains, genauso wie die zu Sistrix oder Jojo oder auch Geralds Blog kommen von ganz alleine. Nicht nur von SEO-Blogs (wenn auch sehr häufig), auch von ganz normalen anderen Webseiten und aus Foren. Content ist der wahre Faktor. Communitybuilding über Inhalte und Kommentare. Daher ist da mit Sicherheit auch keine Struktur da, die von der Norm abweicht.

Und darum gehts glaube ich bei Sistrix’s Post.

Loewenherz   
1. September 2007, 10:54

@Friday: Das bezog sich auf das erste Beispiel mit den SEO-Blogs, nicht auf das Zweite mit den Artikelverzeichnissen. Aber okay, war Freitag Nacht gestern 😉

Tom   
4. September 2007, 21:00

Ich kann mir nicht vorstellen, dass Seiten mit vielen Links von Artikelverzeichnissen, Webkatalogen und Linklisten in Zukunft von Google abgestraft werden.

Dadurch würde die Optimierung der eigenen Seite nur darauf hinaus laufen, die Konkurrenz Seiten möglichst oft bei solchen Verzeichnissen einzutragen.

Beim Linkaufbau denke ich mir immer, solang das Ganze auch mein Konkurrent für meine Seite machen kann, ist es nicht schädlich. Eventuell nur wirkungslos.

njeppo   
6. September 2007, 16:44

Der Tom hat recht…
Wenn bei Google die Entwicklung dahin gehen würde, dass Einträge in Webkataloge und Artikelverzeichnisse ein „Penalty“ jedwelcher Art bedeuten würden, dann würde sich SEO zu einem richtig fiesen Stellungskrieg entwickeln… Eine Suchmaschine, die sich derart dem „Geld drucken“ an Stelle von Suchergebnisqualität verschrieben hat wie Google, wird es tunlichst unterlassen ihren eigenen Markt (AdSense und AdWords für SEO, SEO-Blogs und „SEO-optimierte-Webkataloge“) zu zerstören, oder?

Johannes   
6. September 2007, 21:34

njeppo, ich denke, ganz so einfach ist es dann doch nicht. Wie ich in der Artikelserie versucht habe zu erläutern, geht es nicht nur um einzelne Links sondern darum, dass das komplette Gefüge natürlich ist. Wenn es nun eine saubere Seite mit einer natürlichen, ordentlichen Backlinkstruktur gibt, so werden dort ein paar Links von nicht so schönen Seiten (ranzigen Webkatalogen, irgendwann mal AVZ, etc) nicht weiter schaden, vielleicht sogar noch nutzen. Nur, wenn das Verhältnis nicht merh stimmt, kann es Probleme geben.

Tom   
6. September 2007, 23:40

Johannes, du meinst also, wenn man bei der Konkurrenz das Verhältnis aus der Balance bringt, straft Google die Seite ab?
Das wäre schon fast zu einfach und deshalb glaube ich es nicht.

Viele meinen auch, dass ein zu rascher Linkaufbau über Bookmark-Dienste schädlich sei. Mit Skripten und Tools kannst du einige hundert Links in sehr kurzer Zeit setzen.
Würde es negative Auswirkungen auf das Ranking haben, könnte man laufend Seiten aus dem Index holen.
Außerdem hätte es sicher schon jemand gemacht. Denn wer steht nicht gern beim Begriff DSL an erster Stelle. 🙂

Es wäre aber mal einen Versuch wert. Ich würde sogar eine meiner Seiten zu Verfügung stellen, wenn ihr im Gegenzug diese mit einigen hundert Links bombardiert. 🙂

Johannes   
7. September 2007, 10:23

Tom, ob Google die Seite direkt mit einer Penalty belegt oder sie lediglich in die „Manuel Review Queue“ kommt, weiss ich nicht. Derzeit vermute ich eher zweiteres, aber der Trend geht sicherlich in Richtung Automatisierung. Und ganz so einfach, wie das auf den ersten Blick erscheint, ist es wohl doch nicht, Konkurrenz zu schaden. So weisst du nicht, welche Seiten Google als „böse“ ansieht – so könntest du eher helfen, als Schaden anrichten. Auch muss das Verhältnis „richtig“ sein und du weisst nicht, welchen Wert „richtig“ bei Google hat. Yahoo hat zu dem Thema letztens ein ganz interessantes Paper veröffentlicht, wenn du dich interessiert und Zeit hast: Know your Neighbors: Web Spam Detection using the Web Topology

Thomas   
10. September 2007, 16:36

Die gegenseitige Verlinkung der SEO-Blogs ist ja jetzt nicht unbedingt ein typisches Beispiel, bei Webshops etwa gibts eine solche Vernetzung nicht. Man kann doch nicht einfach die Mechanismen aus der Blog-Welt als „natürlich“ definieren und auf alle Typen von Internetseiten übertragen. Links auf Webshops sind zwangsläufig aus Katalogen oder gekauft, weils freiwillige Links nicht geben kann, wenn die Zielgruppe nicht aus Bloggern oder Webmastern besteht.

Sven   
10. September 2007, 17:10

ich stimme Thomas da voll und ganz zu. Jeder SEO der behauptet er betreut seine Kunden ausschließlich mit gutem Content wird entweder nie gute Ergebnisse erzielen können, weil es keine Backlinks geben wird oder einfach zu lange dafür benötigen. Die Kunden zahlen schließlich nicht ewig Ihre pauschalen. Wir kommen aber etwas von Thema ab.
Mich würde tatsächlich interessieren, wie man ein sicheres Netzwerk von Seiten aufbauen kann, von welchem jeder SEO profitieren kann. Also gehen wir blödsinnigerweise davon aus ihr möchtet ein Netzwerk von 500 Seiten aufbauen. Wie könnte man diese 500 Seiten intelligent untereineinander verlinken ohne aufzufallen? Man könnte so einen natürlichen Aufbau von Links spielen und zusätzlich Kataloge usw. eintragen.

Johannes   
10. September 2007, 20:17

Thomas, das schöne an diesen Mustern ist ja, das sie im kompletten Netzwerk zu erkennen sind und ein Nichtvorhandensein darauf hindeutet, dass es sich eventuell um Spam handeln könnte. Wenn nun jemand seine Seite komplett durch Links aus fragwürdigen Webkatalogen stützt, so ist es nicht schwer zu erkennen, dass da etwas nicht natürlich ist. Das Beispiel mit den Blogs habe ich genommen, weil fast jeder Leser etwas damit anzufangen weiss und nicht, weil ich von diesem Einzelfall auf die Allgemeinheit geschlossen habe. Wenn dich die Hintergründe interessieren, so kann ich dir das weiter oben in den Kommentaren verkinkte PDF von Yahoo und das Buch „Evolution of Networks: From Biological Nets to the Internet and WWW“ empfehlen.

ts   
11. September 2007, 02:25

Wie einige zuvor halte ich Blogs, vor allem SEO Blogs (Vereziprokt hoch drei), für ein schwieriges Beispiel da diese Muster nicht für alle Bereiche übertragbar sind. Blogrolls, Pingbacks, Kumpeleien usw. lassen schnell ein Netzwerk wie oben entstehen. Außerhalb der Blog- und Linkinzestwelten können die Graphen oft etwas anders aussehen. Wobei sicher in linkintensiven Bereichen Hilltop ein Kriterium ist um vorne zu stehen. Der Zusatz in den Google Guidelines hat sicher Gründe, aber die liegt bestimmt nicht in der Neighborhood in Webkataloge und Artikelverzeichnissen. Eher mit den Links aus den selben, aber auch nicht für gestandene Seiten. Ich mag gerne die Grafiken von Touchgraph. Auch in der Grafik aus dem Yahoo Paper sind witzige und nur zu bekannte Formationen.

Thomas   
14. September 2007, 16:30

Johannes, ich glaube eben nicht, dass diese Muster überall zu finden sind, es kommt auf die Art der Website an. Google wird ja nicht nur zur Suche nach Informationen verwendet, sondern auch zur Suche von Produkten, die man kaufen will. Da wäre es völlig unsinnig, passende Webshops als Spam abzuwerten, nur weil diese keine entsprechenden Linkstrukturen haben. Wie gesagt, je nach Zielgruppe erhalten Webshops so einfach keine freiwilligen Links. Es ist daher völlig natürlich, wenn Webshops hauptsächlich Links aus Verzeichnissen haben. IMO wären im Gegenteil „bessere“ Linkstrukturen auffällig, weil es sich dabei um gekaufte Links handeln muss.

Ralph   
1. März 2008, 13:47

Sehr interessant den Artikel zusammen mit den Kommentaren auf einmal geschlossen zu lesen.

Ich denke und dies hat Johannes im 2. Absatz gleich zu beginn geschrieben, dass es heute bereits verschiedene erkennbare (mehr oder weniger) Muster gibt und diese mit anderen Bereichen vergleichen lassen können.

In der Biologie gibt es die Population und wenn diese unnatürlich anwächst, also eine Muster entwickelt das nicht einem normalem Muster entspricht, sich ab einem bestimmten Punkt wieder auf ihren natürlichen Ursprungspunkt zurück entwickelt, weil die Rahmenbedingungen einfach nicht stimmen.

Wenn also z. Bsp. eine Website nach diesem Muster vorgeht und die Suchmaschinen auf grund der Erfahrung erkennen, dass diesem Wachstum an Links kein natürliches Muster zu grunde liegt, sie sich diese Website genauer ansehen. Dies ist doch die Kernaussage von Johannes.

Natürlich ist es für uns interessant, wo man innerhalb des unnatürlichen und natürlichem Muster vorwärts kommt 😉

Aus Dresden grüssend

Ralph

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.