Google-Ranking-Faktoren

Johannes Beus
Johannes Beus
11. Mai 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

„Ich habe das Gefühl, dass die Hervorhebung des Keywords in formatierten Listen eventuell Vorteile für das Ranking haben könnte“ – so, oder so ähnlich hören sich viele Aussagen aus dem SEO-Bereich an. Gesicherte Tatsachen gibt es nur wenig, gefühlte Erfahrungen und Meinungen dafür umso mehr. Um die Verwirrung komplett zu machen, möchte auch ich noch eine etwas andere Herangehensweise in die Diskussion um mögliche Rankingfaktoren in das Rennen bringen. Da die Auswertung etwas umfangreicher geworden ist und ich auch die Möglichkeit, Kommentare und Bewertungen zu jedem Rankingfaktor zu hinterlassen, geben wollte, geht es hier weiter: Weiterlesen

Ähnliche Beiträge
Kommentare
miro   
11. Mai 2007, 21:47

Sehr interessante Untersuchung. Dass H1 im Gegensatz zu anderen Überschriften nicht ins Gewicht fällt, finde ich sehr überraschend. Dass sprechende URLs, kaum einen Gewinn bringen widerspricht meinen eigenen Beobachtungen vollkomen. Diese beruhen allerdings nicht auf solchen Analysen. In jedem Fall ist der Artikel eine gute Anregung sich näher mit den einzelnen Faktoren zu beschäftigen. Danke!

Saša Ebach   
12. Mai 2007, 02:00

Hallo Johannes,

das ist wirklich interessant. Meine größte Kritik wäre: Ohne zu wissen wie viele Seiten du mit „Mittelweg zwischen Machbarkeit und einer ordentlichen Datengrundlage“ meinst, sind diese Ergebnisse allerdings kaum einschätzbar. Wie denken da andere?

Du sprichst am Anfang von Gefühlen. Bist du durch irgendwas überrascht worden? Also, ich sehe meine „Gefühle“ in den meisten Ergebnissen bestätigt. Kein Ergebnis überrascht mich wirklich. Wie miro sagt vielleicht die H1. Aber nur ein wenig. Sie haben wohl an Kraft verloren, ähnlich wie meta description damals. Feiert meta description heutzutage ein Comeback und wenn ja, heißt das, dass wir in 2 Jahren ein h1 Comeback haben werden? 😉

Vielleicht kannst du den Test verfeinern und gewisse Kriterien hinzufügen. Hier ein paar Stichwörter: Metatags, Keyword Proximity relativ zur Seite und relativ zueinander, Trends (wächst die Bedeutung von H1 oder fällt sie?)

Alles in allem finde ich deine Idee aber toll. Eigentlich müsste sich jeder so ein Tool bauen, um das für sich selbst zu bestätigen. Noch beser wäre sich zusammenzuschließen und so ein Tool als Open Source zu veröffentlichen.

Johannes   
12. Mai 2007, 09:56

Hallo Saša,

der Mittelweg bedeutet konkret, dass ich 10.000 recht zufällig ausgewählte Keywords genommen habe. Einige von den „Großen“, aber auch rein akademische Suchanfragen und viel dazwischen. Davon wurden dann jeweils die ersten 100 Treffer untersucht. Pro Diagramm liegen somit 1.000.000 Datenpunkte zugrunde. Das waren so bereits ~50GB an Daten, die analysiert werden musten, wie geschrieben, ich denke das war ein guter Mittelweg 🙂

Mit weiteren Auswertungen wie den Meta-Tags ist das so eine Sache. Ich denke, dass Menschen, die um diese Meta-Tags wissen generell Wert darauf legen, dass ihre Seite gut ranked und damit auch weitere SEO-Maßnamhmen ergreifen werden. Wenn ich jetzt ein Diagramm online stelle, dass zeigt, dass Seiten, die Meta-Keywords haben, weiter vorne sind, heisst dass dann, dass Meta-Keywords ein Rankingfaktor sind oder, dass dies ein Ergebniss von dem oben beschriebenen ist?

Gruß Johannes

jens   
12. Mai 2007, 13:42

Ich denke, dass die guten Werte für h2-h7 wohl eher auf darauf zurückzuführen sind, dass Seiten mit diesen Tags HTML sinnvoll einsetzen und ihren Content gut strukturieren. Wenn ich mir schon Gedanken um die Struktur meines Content mache, habe ich wohl auch ausreichenden und halbwegs guten Content. Viele kommerzielle Systeme liefern ja lieber alles in div – Containern aus. Warum sich auch mit zu vielen HTML-Tags auseinander setzen, ein Tag ist ja ausreichend 😉
Ich gehe aber davon aus, dass die Seiten mit h2-h7 Tags auch h1 nutzen. Dementsprechend sehe ich keine direkte Abwertung von h1 sondern eine Aufwertung eine sinnvollen Contentstruktur. Aber hier sind wir wieder im Bereich der gefühlten Erkenntnis.
Die Untersuchung ist auf jeden Fall eine Bereicherung und sollte regelmäßig durchgeführt werden um Tendenzen zu ermitteln.

Markus   
12. Mai 2007, 21:47

Kann es sein, dass die scheinbare Bedeutung von h2-h7 – zumindest teilweise – auf das gute Ranking von (WordPress-)Blogs zurückzuführen ist? WordPress verwendet ja bei den Standard-Templates sehr viele h2-Tags, aber (glaube ich zumindest – ohne jetzt nachgeshen zu haben) keine h1-Tags.

Oliver   
12. Mai 2007, 22:53

Ich habe mit H1-Tags eigentlich konstant gute Erfahrungen gemacht. Eine Abwertung von H1-Tags kann auch durch andere Faktoren ausgelöst werden, z.B., wenn der H1-Tag mit dem eigentlichen Inhalt der Seiten nicht konform geht. Dies geschieht regelmäßig dann, wenn er, z.B. bei WordPress, in einem wenig aussagekräftigen Header platziert wird. Könnte dies vielleicht das Ergebnis der Studie beeinträchtigt haben?

Saša Ebach   
13. Mai 2007, 04:57

Hi Johannes,

wer weiß schon (außer Google), ob diese Menge ein „Mittel“weg ist? Es könnte durchaus sein, dass sich durch die Hinzunahme von 10 % mehr Daten die Ergebnisse stark verschieben. Wenn diese Menge ein Mittelweg wäre, dann hieße das, dass Mittelweg * 2 = Ganzerweg ergäbe. Das halte ich für unglaubwürdig. Die große Frage ist, ob das statistisch relevant ist. Und, ob man überhaupt bei so einer Untersuchung von „statistisch relevant“ sprechen kann…

In jedem Fall kann man deinen Aussagen entnehmen, wie schwer es ist sowas zu machen, ohne ein eigenes Datencenter aufzusetzen. Für sowas wäre wohl Amazon EC2 ideal geignet. Ein Programm schreiben und dann mal kurz 1000 Rechner starten 😉

Marc   
14. Mai 2007, 08:02

Auf jeden Fall eine sehr interessante Studie über erstaunlich viele Datensätze (10.000 Keywords mit den ersten 100 SERPS). Vielen Dank dafür! Das mit dem H1 Tag muß man wirklich noch einmal untersuchen…

Johannes   
14. Mai 2007, 08:09

Markus: Dass (WordPress)-Blog häufiger vorne geranked sind, liegt ja auch nicht daran, dass Google einfach Blogs bevorzugt, sondern weil WordPress in der Standardausführung schon recht viel aus SEO-Sicht richtig macht. Ich habe gerade mal nachgesehen und konnte in den Daten keine Auffällige häufig von „WordPress“ bei den ersten Seiten finden.

Oliver: Möglich, doch halte ich das für recht unwahrscheinlich, da die Datenbasis ja doch recht groß ist.

Saša: Mittelweg war auch eher gemeint als der Punkt zwischen „zuwenig Daten“ und „du musst dir ein paar Rechenzentren kaufen“, den ich für vertretbar hielt 🙂 Klar, es mag sein, dass 10% mehr Daten andere Ergebnisse liefern würden, die Wahrscheinlichkeit dafür halte ich allerdings für recht gering, da ja bereits jetzt schon viele Daten ausgewertet wurden.

Wie geschrieben, die Auswertungen erheben nicht den Anspruch auf Perfektion sondern sollen eher als Diskussionsgrundlage gesehen werden. Gerade Wechselwirkungen mit anderen Rankingfaktoren sind nur schwer einzuschätzen.

chrizz   
14. Mai 2007, 12:41

Hey Johannes. Wirklich eine interessante Studie. Egal ob die Ergebnisse nun valide sind oder nicht. ICh glaube dazu müsste man das ganze Netz durchforsten um testen. Google’s Algo ist ja schon ne Wissenschaft für sich. Da wird man auch nicht mit einer Studie so ohne wieteres drauf kommen. Nitchtsdestotrotz bietet deine Analyse nen paar interessante Anhaltspunkte, die man durchaus vertiefen kann. Wir sammeln einfach kollektiv für nen Rechenzentrum für dich und du checkst noch die Keyworddichte der ganzes Sites…:P

Dickes Lob jedenfalls!

Markus   
14. Mai 2007, 15:17

Nur damit ich hier nicht als völlig ahnungslos dastehe: ich habe nicht gemeint, dass „Google einfach Blogs bevorzugt“. Die Gründe für das gute Ranking von WordPress-Blogs sind mir so weit durchaus klar. Das stünde ja nicht in Widerspruch zu der von mir in den Raum geworfenen Theorie. Aber wenn du sagst, bei den untersuchten Ergebnissen gab es keine auffällige Häufung von WordPress-Blogs auf den ersten Seiten, dann ist das eh hinfällig.

@ Saša
Die recht geringe Volatilität der Diagramme deutet aber schon darauf hin, dass hier eine Menge an Daten herangezogen wurde, die man wohl durchaus als repräsentativ ansehen kann. Sonst gäbe es da viel deutlichere Ausreißer. Von daher bezweifle ich, dass das Ergebnis mit 10% Daten sichtbar anders ausfallen würde.

Lim_Dul   
14. Mai 2007, 16:38

Wobei ich diese Statistik weniger verstehen würde als „Faktoren die Google berücksichtigt“ sondern mehr als „Faktoren, wo eine Optimierung im Verhältnis zu anderen Seiten was bringt.“

Das beim h1 Tag die Ergebnisse so konstant sind, heißt ja nicht, dass man den nun ignorieren kann. Es heißt eher, dass eine Optimierung dort relativ wenig bringt, weil die anderen Seiten anscheinend auch schon so sinnvolle h1 Tags haben, dass man relativ wenig rausholen kann.

Bei den anderen Faktoren hingegen scheint es so, als könne man sich damit von der Masse absetzen.

jan   
14. Mai 2007, 18:24

Sehr interessante Studie. Allerdings sollte man einen Aspekt nicht vergessen:
Die untersuchten Punkte sagen nichts über den Einfluss aufs Ranking aus. Nur weil es bei den Ersten öfter vorkommt, bedeutet das noch lange nicht, dass es der Grund ist. Die H2-H7 Beispielsweise können nämlich genau so bedeuten, dass eine Menge Content verhanden ist. Nicht dass eine Seite mit H2-H7 besser rankt als eine Seite ohne. In 300 Wörte kann man schlecht noch ein H7 unterbringen.
Das Vorkommen der untersuchten Faktoren weiss nur auf ein Verständnis im Onpage Optimieren hin, das Ranking kann ganz andere Gründe haben, wie z.b. Anzahl der Backlinks.

Trotzdem halte ich die Untersuchung für sehr wertvoll, man muss halt die Kausalität beachten. Nicht weil etwas oft vorkommt muss es unbedingt ein Rankingfaktor sein.

Mark   
14. Mai 2007, 19:11

Sehr umfangreiche und aussagekräftige Studie! Als ich vor einigen Wochen den Beitrag von Sistrix zum Thema HTML Validität und deren Beeinflussung der Suchmaschinenergebnisse gelesen habe, habe ich mich noch gefragt warum es das nicht für andere Bewertungskriterien ebenfalls gibt.

Vorschlag für die Zukunft:
Eine Auswertung von Linkstrukturen von Internetseiten! Auch wenn es noch schwerer umzusetzen ist, so wäre doch solch eine Studie nicht nur einmalig im SEO Bereich, sondern auch unglaublich wertvoll. Wie viel bringen reziproke Links wirklich? Welche Links haben führende Webseiten am meisten? Wie viele Webkatalogeinträge haben die Top100 im Vergleich zueinander? Wie viele Social Bookmarks? Wie viele Einträge in Artikelverzeichnisse?

Wie hoch ist die Domainpopularität und IP Popularität der ersten Ergebnisse? Haben sie als Linktexte mehr den Namen der URL oder Keywords? Haben sie mehr Links auf ihre Unterseiten oder auf die Startseite? Mir würden noch etliche Kriterien einfallen die für eine Auswertung in einem ähnlichen Rahmen sehr interessant wären.

Saša Ebach   
15. Mai 2007, 23:09

Also, wo ich gerade nochmal die Kommentare lese. Leute, es gibt kein h7! Oder ist HTML erweitert worden, ohne das ich es gemerkt habe? 🙂

Bevor jan es geschrieben hatte, musste ich auch schon drüber nachdenken. Es könnte sehr gut sein, dass die Seiten, die sich um viele Links kümmern und gute SEO Arbeit machen eh schon die Grundlagen der On-Page-Optimierung beachten. Ich weiß, dass ich das so mache. Das ist so wie standardkonforme Websites erstellen. Wenn man einmal damit angefangen hat, dann geht das ins Blut über. Bei den On-Page-Tricks ist das doch auch so. Eine saubere Einteilung der Seitenstruktur durch h1-6 macht aus semantischer Sicht Sinn. Das ist aber nur was für Freaks. Dann sagten die SEOs, dass es auch für das Ranking gut sei und jetzt ist es auf einmal „Best Practice“.

Genau das kann bedeuten, dass man auf den höher gerankten Seiten diesen Best Practice ohnehin auffindet. Die Seiten ranken aber nur wegen den Links oder wegen mir zu 98% wegen den Links. Die On-Page-Faktoren sind sozusagen Beigleiterscheinung, sie sind Symptom. Ihre Bedeutung wird also völlig überschätzt.

Die Wahrheit liegt wahrscheinlich wie immer irgendwo dazwischen 🙂

Testen könnte man das nur, wenn man alle vorne gerankten Seiten dazu aufforderte Ihre On-Page-Faktoren zu eliminieren, nur um dann nochmals zu messen. Unmachbar.

Stefan   
16. Mai 2007, 00:23

Hallo Johannes,
wirklich ein sehr aufschlußreicher Beitrag den Du hier erarbeitet hast. Danke Dir dafür. Das unrelevante Abschneiden der h1 Tags ist alarmierend und dürfte bei dem ein oder anderen zu hektischer Aktivität führen 😉
Auf der anderen Seite: Lese ich die Graphik richtig, dass nur 15% der No 1 in den Serps das Keyword in einer Überschrift erster Ordnung hatten? Das fände ich extrem wenig, bzw. extrem sparsam optimiert.

shopdoc   
16. Mai 2007, 10:40

Das schlechte Abschneiden der H1-Tags liegt meiner Meinung nach an der häufig falschen bzw. unsinnigen Verwendung – vor allem in Blogs und deren Standard-Templates. Dort wird nämlich im H1 zumeist der Blogname abgelegt, der dann auf jeder Seite gleich ist und nur die Angabe „mein-tolles-blog-über-irgendwas“ enthält. Die wirklich wichtige Information, worum es auf dieser Seite bzw. diesem Post geht, liegt zumeist im H2 oder tiefer. Die Tatsache, dass es sehr sehr viele Blogs gibt, die sich außerdem um viele verschiedene Themen (unterhalb vom und abweichend vom H1-Tag) drehen, verleiht dem Ganzen ein entsprechendes Gewicht. Als Suchmaschine komme ich also gar nicht umhin den H1 weniger bzw. den H2-Tag entsprechend höher zu bewerten.

Jetzt kann man sich sicher über „richtige“ und „falsche“ Verwendung streiten und ob man auf diesen Zug aufspringt. Wenn ich Google wäre, dann hätte ich pro Domain ein entsprechendes Flag das mir anzeigt, ab welcher Ebene differenziert wird – lässt sich ja auch gut automatisieren. Wenn es das schon gibt, würde uns eine entsprechende Auswertung nur zeigen, welche Ebene am häufigsten für eine Unterscheidung genutzt wird, nicht aber, welche die „richtige“ ist.

Alexander Schestag   
27. Mai 2007, 13:48

Hallo,

Das hier ausgesprochene „dicke Lob“ kann ich nicht teilen, weil die Untersuchung statistisch fehlerbehaftet ist. Insbesondere beim Vergleich des Einflusses von h1 und h2-h6 werden Äpfel mit Birnen verglichen. Bei der Überschrift h1 liegen die Werte für das Vorkommen von Keywords in h1 nahe bei 0 und weisen mit 0,14-0,16 eine so minimale Streuung auf, daß das keinen Effekt ergeben *kann*. Die Streuung bei h2-h6 ist dagegen wesentlich größer, hier liegen die Werte zwischen 0,4 und 1,2. Das ist auch kein Wunder, weil man hier 5 Kategorien in einen Topf geworfen hat, was methodisch fragwürdig ist. Das gleiche Argument gilt für die Auswertung mit dem Pfadnamen. Hier liegen die Werte ebenfalls so nahe bei Null und streuen so wenig, daß die Schlußfolgerung, das hätte keinen Einfluß, aus diesen Daten nicht gezogen werden kann.

Darüber hinaus fällt auf, daß die einzelnen Grafiken völlig unterschiedliche Maße haben. Da sehen Grafiken, die grade mal eine Streuung von knapp über 0 haben, genauso dramatisch aus wie Grafiken, die weit größere Streuungen aufweist. Man hätte die Grafiken metrisch vereinheitlichen müssen, dann hätte sich so manch angeblicher Effekt in Luft aufgelöst. Letztliche Sicherheit können hier nur Signifikanz- und Effektstärkemessungen geben

Stefan Fischerländer   
28. Mai 2007, 10:55

@Alexander:
Die geringe Streuung der H1-Keywords ist ja gerade die entscheidende Aussage der Grafik. Im webweiten Durchschnitt kommt offenbar auf 15% der Seiten das Keyword in H1 vor, und diese 15% bleiben konstant, egal ob man Googles Top10 ansieht oder irgendwelche weit hinten gelisteten Seiten. Die geringe Streuung in der Grafik heißt nicht, H1 würde total gleichmäßig im Web eingesetzt, es heißt nur: Egal ob eine Seite auf Position 1 oder Position 100 ist, die Wahrscheinlichkeit dort das Keyword in H1 zu finden, liegt bei 15%. Die weitaus größere Streuung bei H2-H6 kommt nun eben genau dadurch zustande, dass diese Überschriften offensichtlich sehr wohl einen Einfluss aufs Ranking haben.

Die unterschiedlichen Maße der Grafiken liegen einfach auch daran, dass unterschiedliche Größen gemessen werden (müssen). Doch für die Aussagekraft ist das vollkommen irrelevant. Es geht nur um zwei Kurvenarten:
1) eine waagrechte Linie mit zufälligen Schwankungen: kein Einfluss aufs Ranking
2) einen Abfall von guten zu schlechten Positionen: Einfluss aufs Ranking

Man muss (und kann) ja nicht die einzelnen Grafiken miteinander vergleichen, sondern nur eine Kurve an sich ist aussagekräftig. Und da ist es wiederum entscheidend, dass der Abfall der Kurve bei schlechteren Positionen deutlich ist gegenüber den zufälligen Schwankungen. Aus diesem Grund ist es sogar notwendig, die Grafiken unterschiedlich zu skalieren: nur so kann man entscheiden, ob ein Effekt vorliegt oder es sich um zufällige Schwankungen handelt.

Alexander Schestag   
30. Mai 2007, 19:52

Zu Stefan Fischbachs Einwand, die geringe Streuung sei die entscheidende Aussage: Ich glaube eher, daß die Stichprobe diesbezüglich ungenügend randomisiert wurde. Man findet mit Sicherheit Webseiten, die mehr Keywords im h1-Text haben. Zudem ist die y-Achse in diesem Fall *nicht* als Prozentzahl (genauer als relative Häufigkeit) zu interpretieren, wie du es tust, sondern als absolute Zahl. So steht es auch in der Erläuterung:

„Wie bei der Überschrift erster Ordnung wurde hier die Anzahl der Keywordnennungen gezählt. “
Das sind also absolute Zahlen, keine Prozente. Ich nehme an, daß hier Mittelwerte für Platz 1, Platz 2 usw. gebildet wurden, ansonsten läßt sich diese gebrochene Zahl von ca. 0,15 nicht erklären. Auf gut Deutsch: Bei hochplatzierten Seiten kommen im Mittel 0,15 Keywords in h1 vor, bei niedrig platzierten auch. Das ist so nahe bei 0, daß ich einen Randomisierungsfehler vermute. Aber selbst wenn keiner vorliegt, kann man aus den vorliegenden Daten *nicht* schließen, daß die Menge der Keywords in h1 keinen Einfluß hat, weil eben die Streuung zu gering ist. Eine Aussage über das Verhalten Googles bei einer breiteren Streuung der Anzahl der Keywords in h1 ist unmöglich.

Zu dem Einwand, man dürfe die Grafiken nicht miteinander vergleichen: Wenn es sich um absolute Zahlen handelt, wie es die Grafiken und der Begleittext suggerieren, dann kann man das sehr wohl. Und dann darf man nicht Gefälle im Bereich 0,x genauso dimensioniert darstellen wie Gefälle im Bereich > 100.

Grüße.
Alex

Hermann   
30. Mai 2007, 20:16

Alexander Schestag ist bekannter Usenet-Troll und legt jetzt anscheinend auch hier los. Nehmt das Geseiere nicht ernst!

Alexander Schestag   
4. Juli 2007, 16:08

So, so, „bekannter Usenet-Troll“. Ist es nicht eher so, daß du meiner Argumentation nichts entgegenzusetzen hast und dafür mit lächerlichen, anonymen, persönlichen Angriffen versuchst, meine Argumente zu „entkräften“? Im Gegensatz zu dir kann ich hier nämlich guten Gewissens unter meinem Realnamen posten, denn ich stehe zu meinem „Geseiere“. Von daher finde ich deinen Diffamierungsversuch eher putzig, und der aufmerksame Leser wird sicher auch merken, was du hier zu erreichen versuchst. Also, schenk’s dir und schau das nächste Mal lieber, daß du vernünftige Argumente zur Sache beibringst. Davon hätten wir alle was. Von sinnfreien persönlichen Beleidigungen hat keiner was.

Amzad   
24. September 2012, 19:07

Free info like this is an apple from the tree of knoweglde. Sinful?

car insurance quotes   
2. Oktober 2012, 13:10

Peter Jens Dorfner sagt:hallo liebes Programmierteam,Glückwunsch zum Online-Start, unser Büro nutzt euer Portal täglich bis zu hundert mal. Wenn das noch besser wird, werdet ihr die Nummer 1 in und um Berlin. Wieso war das euren Vorgängern aus Bayern nicht eingefallen? Hätte uns schon längst nutzen können.Bin begeistert.Dorfner

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.

Kostenlosen Testaccount jetzt aktivieren

Aktiviere jetzt deinen kostenlosen Testaccount für die SISTRIX Toolbox. Garantiert ohne Kosten und unverbindlich. Jetzt aktivieren!