Wie lang darf ein Linktext sein? (Teil II)

Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.
17. Dezember 2008 17 Kommentare

Nachdem der Test aus dem letzten Posting ja zu keinem definitiven Ergebnis geführt hat, habe ich einen neuen Test gemacht und glaube, die Antwort jetzt gefunden zu haben. Wie vor ein paar Tagen, habe ich auch dieses mal ein paar Seiten und Links erstellt und wollte damit rausfinden, wie lang ein Linktext denn nun sein darf. Da der letzte Test gezeigt hat, dass die reine Länge des Linktextes kein begrenzender Faktor ist, habe ich dieses Mal die Anzahl der Worte im Linktext getestet, hier online zu sehen. Bei 8 Worten beziehungsweise 7 Leerzeichen wird die Zielseite noch mit dem letzten Linktext gefunden:

Bild I
Bei 9 Worten beziehungsweise 8 Leerzeichen nicht mehr:

Bild I
Mit dem vorletzten Verlinkten (dem 8. Wort) allerdings schon, Google schneidet also einfach nach den 8 Worten ab. Das ist übrigens genau der Wert, den Shaun in seinem ursprünglichen Blogpost erwähnt hat – er hat daraus allerdings den falschen Schluss gezogen, dass Google den Linktext nach Anzahl von Buchstaben begrenzt. Dass dies nicht so ist und Google die Anzahl der Trennzeichen nimmt, glaube ich mit den 2 Tests gezeigt zu haben.

Die Konsequenzen aus dieser Erkenntnis zeigen nun schön, dass überraschend vieles im SEO-Bereich irgendwie zusammenhängt – in diesem Fall Linktextlänge und URL-Design. Sehr viele Nutzer verlinken URLs, wenn es schnell gehen muss oder wenn das CMS das so vorsieht mit der URL selber als Linktext. Wenn man jetzt davon ausgeht, dass Google nicht nur Leerzeichen, sondern auch die sonst üblichen Trennzeichen nutzt, hat das zur Folge haben, dass bei sprechenden URLs die eigentlich interessanten Bereiche unter Umständen gar nicht im Linktext gewertet werden. Beispiel:

www.sistrix.de/artikel/verschiedenes/1337diesistdaskeyword.html
Die Trennzeichen habe ich mal rot markiert und wie man sieht, wird in diesem Fall das eigentlich wichtige „keyword“ gar nicht als Linktext gewertet, da zu viele Trennzeichen davor stehen. Also: URL kurz halten, IDs – wenn unbedingt nötig – an das Ende der URL, Anzahl der Unterverzeichnisse auf die unbedingt Notwendigen begrenzen und wichtige Keywords möglichst weit vorne in der URL unterbringen.

[Update 23:30] In den Kommentaren ist die Frage aufgekommen, ob ich die Idee, dass sich dieses auch auf URLs als Linktext auswirkt getestet habe. Muss ich gestehen, dass ich das nicht habe. Hole ich nach, hier ist der Test: Trennzeichen und Behandlung dieser.

17. Dezember 2008, 18:23

Sehr schöner Test, danke für die URL-Schlussfolgerung, hätte für mich nicht direkt auf der Hand gelegen! Du hast den Test auch mit beiden Wortlängen ausgewertet?

17. Dezember 2008, 18:40

Danke für diesen Test. Vielleicht hat dies Auswirkungen auf die künftige Nutzung von mod_rewrite hoffentlich nicht in Richtung, dass Überschriften immer mehr für SEO Zwecke geschrieben werden, sondern wie es auch die google-Richtlinien verlangen, für Menschen.

17. Dezember 2008, 20:03

„http://www.sistrix.de/news/830-wie-lang-darf-ein-linktext-sein-teil-ii.html“

Such den Fehler in dieser URL. Hilfe bitte dir der dort enthaltene Artikel^^. Tipp: „830“

17. Dezember 2008, 20:24

Das würde dann auch erklären, warum die bei Rails mit der Version 2.2.2 alles in die Routes gepackt haben und Metaprogrammierung sowieso cool ist…. Nein ganz im ernst, ich habe mich schon oft gewundert, warum vereinzelte möchtegern SEOs mit ihren subobtimal optimierten Blogs so viele Kategorien haben. Tja das wird wohl dann die Kehrtwende bedeuten… Danke Sistrix !

17. Dezember 2008, 20:25

Toll ermittelt. Da sollten einige (und insbesondere ich) nochmal über das URL-Design nachdenken…
Hmmm. Nach kurzem Überlegen würde ich allerdings doch Zweifel anmelden. Irgendetwas ist bei der Schlussfolgerung noch nicht ganz korrekt, denke ich. Denn wenn das „/“ als Trennzeichen herhalten würde, würden durch das http:// ja schon drei Trennzeichen verheizt. Vielleicht wird das / nicht als Trennzeichen gewertet? Ansonsten würde google ja auch so eine saubere Verzeichnis-Tiefe bei großen Sites ad absurdum führen, weil die Seiten in der Tiefe gar nicht mehr gefunden würden.

17. Dezember 2008, 21:50

Hallo Johannes,

ersteinmal Danke für den zweiten Test.

Die Schlussfolgerung, alle Trennzeichen (. / , : -) innerhalb einer URL können mit den Leerzeichen eines „generischen“ Ankertextes gleichgesetzt werden, würde ich an dieser Stelle allerdings bezweifeln.

Das Datum href=“[komplette URL]“ muss – ich denke davon können wir ausgehen – zu 100% von einem Crawler berücksichtigt werden, um eine sinnvolle Interpretation / Gewichtung des Links zu gewehrleisten. Es liegt also sehr nah, im Falle einer Übereinstimmung von Ankertext und Ziel-URL, die entsprechende Verknüpfung innheralb der DB herzustellen und somit die komplette [URL] in die Gewichtung einzubesziehen.

Ein weiterer Punkt wären die endlichen URL-Struktur-Möglichkeiten.

Ein abschliessender Test könnte hier Licht ins Dunkle bringen und „hollywood-like“ deinen Pilotartikel in einer Trilogie enden lassen. (+;

Johannes
17. Dezember 2008, 23:31

Paul, habe das URL-Design für dieses Blog vor rund 5 Jahres festgelegt. Auch ich entwickel‘ mich weiter 😉

Senseo, vollkommen richtig, hätte ich testen müssten. Habe ich aufgrund von Zeitdruck jetzt vor Weihnachten nicht gemacht. Ist natürlich keine Entschuldigung, deswegen das Update im Posting.

18. Dezember 2008, 10:41

Kool.

Dominik
18. Dezember 2008, 13:53

Hi @ all,

Klasse test, interessante Auswertung, welche man evtl. erweitern kann / Könnte.

Es fragt sich an dieser Stelle, ob das gute alte Subdomaining nicht doch wieder Sinn macht.

Um es zu verdeutlichen:
http://www.seite.de/cat/subcat/dies-ist-das-keyword.html

könnte man, um Zeichen zu sparen, ändern in: (‚www‘ fällt weg)
1. http://cat.seite.de/subcat/dies-ist-das-keyword.html
2. http://subcat.cat.seite.de/dies-ist-das-keyword.html
3. http://dies-ist-das-keyword.subcat.cat.seite.de/keyword.html

Bei Version 3, welche etwas schwerer zu automatisieren ist, wäre die Keywordreihenfolge zumindest im Sinne der Optimierung logisch.

Bei der Onpageoptimierung gilt ja auch de Reihenfolge der Keywords als ‚Logikfaktor‘ innerhalb der Gewichtung. Das sollte sich m. E. nach auch im Linkaufbau wiederspiegeln.

Das ist meines Erachtens durchaus einen Test Wert.

Man erstelle mehrere Seiten dieses Musters und ermittele, welches Muster im Durchschnitt letztendlich am besten rankt.

In diesem Sinne 🙂

Gruß Dominik

18. Dezember 2008, 17:22

Auja, wir graben den alten Subdomain-Spam wieder aus *freu*

Ich glaube nicht, dass dies das Ziel des Artikels war.

18. Dezember 2008, 19:12

Wie immer unermüdlich, Danke Johannes.
Was noch fehlt *drück* ist die Behandlung von Stopwörtern. 8
Wörter im Linktext können ja doch unter Umständen schon mal
erreicht werden – aber ohne Stopwörter gewinnt man noch Platz
und Buchstaben 🙂
BTW Kann es sein, dass Dein Captcha verrückt spielt, versuche seit heute morgen diesen Kommentar abzugeben 🙂

Chris
19. Dezember 2008, 02:55

Hmmmm also hab das jetzt nur grob überflogen.

Meine Frage:

Woher wisst ihr, ab wann gezählt wird?
Vielleicht auch erst nach dem www? Oder nach dem Domainnamen?

Weil wenn jemand ne Domain a la
http://www.geld-in-der-hose.de/tasche/inhalt-leider-leer.html hat …. tuts einen ja schonmal ein klein wenig anschei**** … vor allem weil viele Domaininhaber inzwischen diese Längen buchen.

Dominik
19. Dezember 2008, 10:34

Hi @ Mobile SEO,

dass die von mir angegebenen Versionen 2 und 3 mit Sicherheit nicht dem Schönheitsideal entsprechen, ist mir auch klar. 🙂 Mir ging es zu keiner Zeit darum zu spammen oder zum Spamming aufzurufen, sondern den logischen Ansatz anzusprechen.

Ein angemessenes durchstrukturiertes sauberes Subdomaining hingegen halte ich nicht nur für sinnvoll, sondern teilweise sogar für unerlässlich. Es kommt immer auf die jeweils präsentierten Inhalte an.

Ich arbeite für ein Dachportal mit cirka 90 Subdomains. Die Umstellung von 90 Einzeldomänen auf ein durchdachtes Subdomaining hat unser Portal vor cirka 2 Jahren insgesamt bei Big-G aufgewertet und uns mehr User eingebracht.

Des Weiteren werden die Inhalte durch Big-G und andere SuMas nicht sofort als DC ausgeschlossen, da die Zugehörigkeit nun eindeutig ist. Wir können, da wir hierarchisch arbeiten, unsere redaktionellen Texte nun auf mehreren Portalen anbieten.

Die PageRank-Verluste waren gering. Es haben lediglich 7 oder 8 Portale ihren PR eingebüsst, oder wurden herabgestuft. 4 Portale hatten ihren PR nach cirka 6 Monaten wieder. Das Austauschen der Seiten im G-Cache dauerte insgesamt cirka 9 Monate. Entsprechende 301er und andere Regeln waren sehr hilfreich 🙂

Ich wollte diesen Ansatz lediglich zur Diskussion stellen und wissen, wie andere SEO diese Möglichkeit einschätzen, bzw. ob sie das bereits ausgetestet haben. Ich werde es wohl auf meiner privaten Testseite demnächst aus Gag integrieren.

In diesem Sinne 🙂

Einen schönen Tag Euch allen,

Dominik

19. Dezember 2008, 16:40

Hey Dominik, das war auch nicht so ganz ernst gemeint. Ich nutze selbst Subdomains sehr erfolgreich auf einigen Portalen. Da sie zumindest teilweise als eigene Domain gewertet werden, kann man so mehr Seiten in den Index bekommen unter einer 2nd level Domain. Und trotzdem bekommen sie noch etwas von der Power der Hauptdomain ab. Nur fuer jedes Keyword eine Subdomain ist eben Quatsch 🙂

20. Dezember 2008, 09:45

Den Test wollte ich jetzt um Weihnachten auch machen. Aber Johannes war mal wieder schneller. 🙂

Vielen Dank für die Ergebnisse!

Gruß

2. Januar 2009, 17:04

Sehr, sehr hilfreich Deine Erkenntnisse aus diesem Test. Danke. Ralph

6. Januar 2009, 08:05

Ich wusste bis eben gar nicht, dass du einige deiner Blogposts auch auf Englisch anbietest. Aber super Sache!
Dein Traffic aus de ist aber vermutlich um ein vielfaches höher, oder?