Ist das noch normal? – Teil I

Johannes Beus
Johannes Beus
29. August 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Die Qualität der Suchergebnisse entscheidet über den Erfolg einer Suchmaschine: findet der Suchende wiederholt nur irrelevante Seiten, wird er recht zügig zu einer Suchmaschine wechseln, die ihm bessere Trefferlisten vorsetzt. Neben dem Versuch, die Qualität durch Einstellung der zahlreichen Stellschrauben, sprich Rankingfaktoren, möglichst hoch zu halten, ist eine weitere Vorgehensweise, die Wahrscheinlichkeit, dass deutlich unpassende Seiten angezeigt werden, zu reduzieren. Die – zumindest inoffiziell bestätige – Bevorzugung der Wikipedia in den SERPs kann so damit erklärt werden, dass, auch wenn die Wikipedia-Artikel nicht immer die Besten zum Thema sind, sie nur sehr selten wirklich schlecht sind. Auf eine der Möglichkeiten der Erkennung dieser potentiellen „Problemwebseiten“ möchte ich im Folgenden eingehen.

Wenn man, wie große Suchmaschinen einige Milliarden Seiten im Index hat, bilden sich häufig gewisse Regelmäßigkeiten aus. Weil ich die Daten sowieso gerade in einer Datenbank habe und sie gut als Beispiel dienen können, hier die durchschnittliche Länge des Title-Tags von deutschsprachigen Webseiten:

imagenotfound
Gut zu sehen, dass bei einem Großteil der Seiten der Titel zwischen 10 und 130 Zeichen lang ist. Ähnliche Verteilungen bilden sich bei einem Vielzahl weiterer Webseiten-Merkmale aus, einige so simple und einfach zu erkennen wie die Titellänge, aber viele davon auch deutlich komplexer und als Kombination mehrerer Merkmale. So könnten beispielsweise die Anzahl der externen Links in Relation zum vorhandenen Content oder auch die Anzahl der Headlines in Relation zur Textlänge ganz interessante Hinweise liefern.

Wenn bei einer Webseite nun genügend Hinweise vorhanden sind, dass sie nicht dem „Üblichen“, das sich im Web so finden lässt, entspricht, so kann die Suchmaschine diese Seite einer Sonderbehandlung unterziehen und genauer nachsehen, ob es ein harmloser Ausreißer ist oder die Qualität der Seite doch nicht den Vorstellungen der Suchmaschine entspricht. Hört‘ sich jetzt noch recht simpel an, dann baut man seine Seiten eben so, wie die meisten anderen, um nicht aufzufallen. Allerdings leben Suchmaschinen auch nicht mehr davon, hauptsächlich Onpage-Faktoren auszuwerten, sondern zielen sehr stark auf die Linkstrukturen ab und dort wird es erst richtig interessant, doch dazu im nächsten Teil dann mehr.

Ähnliche Beiträge
Kommentare
Italiano   
29. August 2007, 18:02

In bezug auf deinen Artikel ist mir es sehr oft aufgefallen das viele webseiten schon so viele zeichen im title verwenden das google die anzeige kürzt ….

ich freue mich schon auf die erkenntisse von teil 2

Daniel   
30. August 2007, 00:07

Verspricht wieder eine Klasse Serie zu werden! Ich warte gespannt auf den nächsten Teil!

DZVO   
3. September 2007, 09:55

Hi Sistrix erstmal THX für die Auswertung.
Was mich auch noch interessiert und vllt andere wäre eine Auswertung von title und headline.
Sprich ist es besser title == headline zu haben oder ist es besser title != headline zu benutzen.
Zur Zeit benutze ich z.B. title(singular) und headline(plural) was ja eigentlich gleich sein sollte. denn laut meinen infos erkennt google singular und plural.
Ansonsten weiter so mit solchen Auswertungen.

Ralph   
1. März 2008, 13:29

Ich hoffe, dass meine Antwort nicht doppelt erscheint, denn mit dem Spamschutz gab es eben Probleme ;(

Deswegen kurz meine Frage: Richten sich die Suchmaschinen nach dem Durchschnitt der User-Websites oder haben sie eigene Richtlinien, nach denen sie sich richten?

Gibt es noch mehr solcher Auswertungen, die im Text angesprochen wurden sind?

Aus Dresden grüssend

Ralph

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.