SEO-Gerüchte: Ranking abhängig von HTML-Validität

Johannes Beus
Johannes Beus
25. April 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

„Bring erstmal den Quelltext in Ordnung – so kann das mit dem Ranking ja nichts werden“ – dieser oder ähnliche Sätze werden gerne benutzt, wenn in SEO-Foren oder -Blogs nachgefragt wird, wieso das Ranking einer Seite nicht den Erwartungen entspricht. Dass allerdings kein Zusammenhang mit der Validität des HTML-Quellcodes besteht, wird zwar häufig angenommen, eine Untersuchung dazu habe ich aber nicht finden können. Also hab ich mir 1000 Keywords – bunt gemischt, sowohl kommerziell als auch nicht – genommen und die jeweils hundert ersten Ergebnisse zu der Suche durch eine lokale Installation des W3C-Validators gejagt. Die durchschnittliche Fehlerzahl der 100.000 Ergebnisse in Bezug auf die jeweilige SERPs-Position kann man hier sehen

imagenotfound
Damit dürfte klar sein, dass es keinen Zusammenhang zwischen W3C-Konformität und Position in den SERPs gibt. Nichtsdestotrotz ist eine fehlerfreie Validierung schon allein deswegen wünschenswert, weil nur so die Konformität mit geltenden Spezifikationen gewährleistet werden kann – nur mit SEO hat es eben nichts zu tun.

Übrigens: „Spitzenreiter“ bei der Fehleranzahl war eine Seite von Google Groups mit 4392 (!) Fehlern. Komplett fehlerfrei waren nur acht Prozent aller Seiten.

[Update 26.04.] Adam Lasnik, der kleine Cutts, hat es im Blog von Thomas jetzt auch bestätigt: „No, we do not rankingly reward flawlessly-validating HTML, nor punish not-nicely-validating HTML (unless it’s so broken that our otherwise-hardy completely chokes on it). There are simply too many outstanding sites (high quality content) with imperfect HTML for us to use this as a reliable signal.“

Ähnliche Beiträge
Kommentare
Tim   
25. April 2007, 14:08

So einfach wie genial der Test. Danke für die Aufklärung.

Markus   
25. April 2007, 16:02

Clever und unkonventionell gelöst. Danke für Veröffentlichung.

Malte   
25. April 2007, 16:38

>Damit dürfte klar sein, dass es keinen Zusammenhang zwischen W3C-Konformität und Position in den SERPs gibt.

Damit ist nur klar, dass es kein ausschlaggebender Rankingfaktor ist.
Laut den Rankingfaktoren von SEOmoz (an denen nicht wenige Experten mitgearbeitet haben) hat Validität zumindest einen geringen Einfluss.

Johannes   
25. April 2007, 16:43

„Ausschlaggebende Faktoren“ in dem Sinne sind alle Faktoren, die in das Ranking miteinfließen. Durch die doch recht umfangreiche Datenbasis denke ich, dass man die Validität als Rankingfaktor ausschließen kann, sie also nicht miteinbezogen wird. Und wenn du dir die Kommentare zu dem Faktor bei SEOMoz ansiehst, wird das bestätigt.

Marcus   
25. April 2007, 19:59

Lieber Johannes,
warum kommt mir das bekannt vor, das mit dem Prüfen der Positionen und so… 🙂

Johannes   
25. April 2007, 22:49

Marcus, ist richtig, dass das nur ein Teil einer größeren Auswertung ist. Ob ich die allerdings komplett oder auch teilweise zugänglich mache, muss ich mir noch überlegen 🙂

Tom   
26. April 2007, 00:00

Hallo Johannes,
dank dir für den Check. Ich habe zwar immer meinen Kunden geraten W3C konform zu bleiben um das Ranking zu verbessern, da ich fest als Rankingfaktor davon ausgegangen bin aber man läßt ja mit sich reden.

Gruß Tom

Gerd   
26. April 2007, 12:53

Hallo Johannes,

danke für den Test. Es ist sehr angenehm, wenn über fundierte Erkenntnisse geschrieben wird. Gerade im SEO-Bereich ist das nicht all zu oft so.

franky   
1. Mai 2007, 00:55

Derartige statistische Erhebungen machen mich insbesondere dann sehr stutzig, wenn ich mich darin selbst nicht wieder finden kann. Solche Diagramme eines üblen Mittels sind genau so sinnvoll wie Einschaltquoten im Fernsehen, durchschnittliche Lebenserwartungen von Lebensprognose.com und der Wasserstand der Unstrut bei Mönchpfiffeldittersdorf (den Ort gibt es wirklich) – sind aber in der „modernen Welt“ ähnlich Respekt einflößend wie eine religiöse Ikone im Mittelalter.

Trauriger Flachgeist.

Johannes   
1. Mai 2007, 10:33

franky, es steht Dir frei, dieses Blog zu lesen oder auch nicht. Du kannst die kostenlos angebotenen Informationen nutzen oder es sein lassen aber deine Lebenskrisen lässt du bitte in dafür vorgesehenen Foren aus. Danke.

Suchmaschinen Tippgeber   
1. Mai 2007, 14:08

Klasse Analyse – vielen Dank!

Ich kann mich erinnern, dass jemand das sogar ausgiebig mit eigenen Webseiten getestet hat.
Leider finde ich die Quelle nicht auf die Schnelle. Dort kam man zum gleichen Ergebnis: Die gezielt eingebauten Fehler und die fehlerfreien Seiten hatten ähnliches Ranking, ein Zusammenhang war auch dort nicht herzustellen. Insofern ist das hier eine Bestätigung.

Trotzdem muss man natürlich auf die Art des Fehlers achten! Fehlen schließende Tags, kann es sein, dass der Robot zwischen Code und Text durcheinander kommt oder das Crawling abbricht. Kann eine Überschrift nicht als solche erkannt werden (weil Fehler drin sind), gibts natürlich auch keine Punkte auf das Keyword… 😉

franky   
1. Mai 2007, 20:25

@Johannes
Ich habe keine Lebenskriese. Akzeptierst du nur Beifall? Wer Statistiken erstellt, sollte elementare Kenntnisse von Statistik besitzen. Würde man für 1000 Suchkeys Suchergebnisse mit bsw. dem PageRank der Seite ins Verhältnis setzen, kommt man mit Sicherheit auf eine ähnlich sinnfreie Fieberkurve, die uns dann die Bedeutungslosigkeit des PR nahe legt. PageRank ist aber unbestritten EIN Rankingfaktor.

Johannes   
1. Mai 2007, 21:00

franky, ich habe kein Problem mit Kritik. aber sie sollte sachlich und fundiert sein. Was passt dir an der Statistik also konkret nicht? Dass die Werte zu weit auseinandergehen? Die meisten liegen zwischen 90 und 110, wenn man nicht 1000 sondern 10.000 oder 100.000 Keywords nimmt, wird sich diese Linie immer näher dem Ideal annähern. Aber es bleibt dir natürlich unbenommen, gegen die Bestätigung von Lasnik deine Seiten anzuoptimieren. Deine Annahme bzgl. des PR-Graphen sind übrigens falsch, es kommt etwa sinnvolles raus 🙂

Christian Schmidt   
1. Mai 2007, 22:34

Den Webmaster der immer Zeit hat seine Webseite konform zu machen möchte ich erstmal kennenlernen.

franky   
1. Mai 2007, 23:34

@Johannes
Mach 1000 nicht-valide Webseiten W3C.org-conform und check die Positionen vorher und nachher – das ist annäherned eine aussagekräftige Statistik die das Spektrum minimaler und fataler Fehler wiederspiegelt, davon könnte ich dir gelegentlich berichten.

@Christian Schmidt
Halbe oder Ganze Sachen, ist jeden selbst überlassen…

Alexander Schestag   
2. Mai 2007, 00:24

Hallo,

diese Untersuchung ist methodisch sehr schwach und angreifbar und sagt über die entsprechende Fragestellung gar nichts aus.

a.) Es wurde nicht das untersucht, was gefragt war. Gefragt war, ich zitiere: „Dass allerdings kein Zusammenhang mit der Validität des HTML-Quellcodes besteht…“. Die zu untersuchenden Webseiten hätten also schlicht in „valide“ und „nicht valide“ unterteilt werden müssen. Was hat der Autor stattdessen getan? Er hat die *Anzahl* der Fehler in Zusammenhang mit dem Ranking gesetzt. Das ist eine völlig andere Fragestellung! Es gibt kein mehr oder weniger valide, das man anhand der Anzahl der Fehler auf einer Seite bestimmen könnte. Eine Seite ist entweder valide, oder sie ist es nicht. Und genau diese 0-1-Unterscheidung hätte der Autor untersuchen müssen.

b.) Betrachtet man die Grafik genau, fällt auf, daß der Autor offenbar gar keine validen Seiten in seinem Datensatz drin hat (wo sich die komplett fehlerfreien 8% abbilden sollen, ist gar nicht ersichtlich)! Ja, wie will er denn dann bitteschön eine Aussage darüber treffen, ob Validität bzw. Nicht-Validität eine Rolle beim Ranking spielt, wenn er nicht mal die entsprechenden Daten dazu erhebt? Selbst wenn 8% fehlerfreie Seiten im Datensatz drin sind, ist das im Verhältnis zur Gesamtstichprobe viel zu wenig, um statistisch sinnvolle Aussagen zu treffen!

c.) Die Untersuchung ist falsch ausgewertet und falsch interpretiert worden. Der Grund ist einfach: In dieser Grafik stecken *alle* Rankingmechanismen drin, die das Ranking der untersuchten Seiten bestimmt haben. Man müßte die Daten erst einmal um die Ranking-Mechanismen bereinigen, die nicht untersucht werden sollen und sich dann die bereinigten Daten anschauen. In den hier präsentierten Daten stecken so viele Wechselwirkungen drin, daß die Aussage, sie würden belegen, daß die Validität keinen Einfluß auf das Ranking habe, völlig unhaltbar ist.

Lange Rede, kurzer Sinn: Diese Untersuchung sagt nichts, aber wirklich gar nichts über den Zusammenhang von Validität und Google-Ranking aus.

Grüße,

Alex

Alexander Schestag   
2. Mai 2007, 01:43

Christian Schmidt schrieb:

„Den Webmaster der immer Zeit hat seine Webseite konform zu machen möchte ich erstmal kennenlernen.“

Da kenne ich einige, mehrere davon hauptberuflich als Webautoren tätig. Sie sehen die Validität auch als Qualitätsmerkmal ihrer Arbeit an. Meine Erfahrung ist aber auch, daß es gar kein Mehraufwand ist, eine Seite valide zu halten, wenn man sie von Anfang an valide aufbaut. Ärger bekommt man nur, wenn man eine nicht valide Seite valide machen will. Da geht oft neu schreiben schneller. Eine schon valide Seite valide zu pflegen, ist dagegen in der Regel einfacher, als eine nicht valide Seite zu pflegen, weil mehr klare Struktur drinsteckt. Wer als Ausrede für nicht valide Seiten also „keine Zeit“ bringt, hat noch nicht erlebt, wieviel einfacher es ist, valide Seiten zu pflegen, als nicht valide. Man schneidet sich aus Faulheit ins eigene Fleisch und steckt mehr Arbeit rein als nötig, wenn man Validität mit dieser Begründung ablehnt.

Grüße,

Alex

suit   
2. Mai 2007, 09:59

hallo,

ich sehe das wie alexander schestag – die fragestellung wurde mit dieser statistik nicht beantwortet

zudem ist „nicht valide“ nicht gleich „nicht valide“

meiner Meinung nach gibt es 3 „Haupt“-Stufen

a) 100%ig fehlerfrei
b) nachlässigkeitsfehler (z.B. fehlende alt-Informationen)
c) nicht geschlossene Tags

Eine Crawler wird sicher problemlos alles in der Überschrift finden (und diese entsprechend bewerten), wenn die Grafik 10 Zeilen weiter kein alt-Attribut hat – wenn die Überschrift selbst aber geöffnet, aber niemals geschlossen wurde (oder als h1 auf und h2 zu), kommts auf den Auswertungsalgorithmus an, ob er noch kapiert , dass es eine Überschrift ist (btw: das heisst natürlich nicht, dass alt-Attribute unwichtig sind ;))

Marc   
12. Mai 2007, 13:29

Danke für die Aufklärung, wurde ja wirklich von einigen vermutet…

Uweselbst   
5. Juni 2007, 17:49

ich habs immer gewusst 🙂

auch wenn google jetzt nicht soviel auf w3c gibt, ich werd immer versuchen, keine groben fehler in meinen seiten zu lassen … 🙂

chio   
18. Juni 2007, 09:16

@Alexander Schestag
@Franky
Wenn du eine Meinungsumfrage auf der Straße machst, kann jeder sagen: Die gilt nicht, weil an diesem Tag alle zuhause waren, die anderer Meinung waren.
Mit einer solchen Einstellung kommt man immer nur zum selben Ergebnis: Es gibt keine erlaubte Meinung außer der eigenen.
Dass dann ausgerechnet die Meinung des W3C bzw des Validators wichtig ist – ja: das nennt sich „Religion“. Dann betet eure Götter mal an und freut euch auf eure Spitzenplätze im SEO-Himmel.

Was nicht sein darf, kann nicht sein 😉

Crazy ED   
24. Juni 2007, 15:35

Ha! Wusste ich es doch – das ist ein ständiger Streitpunkt mit meinen Kollegen gewesen. Trotzdem sollte man validen Code schreiben, keine Frage – aber das er für Suchmaschinen (also Bots) irrelevant ist, war mir schön länger klar. Nicht einmal Browser von grossen Firmen bestehen auf validen Code, wieso sollte G**gle es dann?

Trotz und alledem code ich in css und lagere aus, so hat man selbst bei großen Projekten eine kb schmale Seite und spart eine Menge Traffic (wir hatten mal ein Banner auf Spiegel de versehentlich auf unserem Space gehostet und als Ergebnis kamen 1,5 TB Traffic raus, seitdem spare ich jedes Kbyte einzeln ein 🙂 !!)

Martin Hamann   
30. Juli 2007, 23:43

Danke für die „Erleuchtung“ !
Das muss t ja ne Menge Arbeit gewesen sein.
Perfekt!

Coburger   
12. Oktober 2007, 00:46

Das ist doch völlig klar. Mittlerweile gibt es so viele Seiten, dass einfach nicht jeder ein gutes Ranking hat. Bleibt nur, guten Content zu bieten.

Alexander Schestag   
2. November 2007, 14:28

@chio

Du haust auf einen Strohmann ein, wenn du sagst:

„Wenn du eine Meinungsumfrage auf der Straße machst, kann jeder sagen: Die gilt nicht, weil an diesem Tag alle zuhause waren, die anderer Meinung waren.
Mit einer solchen Einstellung kommt man immer nur zum selben Ergebnis: Es gibt keine erlaubte Meinung außer der eigenen.“

Hier wurde keine Meinungsumfrage gemacht, sondern es wurden objektivierbare Werte erhoben und methodisch fragwürdig ausgewertet und interpretiert. Bitte befasse dich mit Statistik und Methodik, ehe du mir völlig haltlos unterstellst, ich würde „Götteranbetung“ betreiben. Ich habe nirgends behauptet, daß es den Zusammenhang zwischen Ranking und Validität einer Seite wirklich gibt, ich habe lediglich gesagt, daß die vorliegende Untersuchung zur Widerlegung der Annahme, daß es den Zusammenhang gibt, wegen methodischer Mängel nicht geeignet ist. Das ist ein entscheidender Unterschied. Im übrigen haben das W3C und der Validator auch keine Meinung, sie setzen bzw. überprüfen *Standards*.

olli   
24. Dezember 2007, 06:11

…. und jetzt an alle korinthenkacker zusammen…

Wir fragen: Wieviel Körner bilden einen Haufen…

Antworten Bitte eben NICHT im Blog

oliver

Alexander Schestag   
25. Dezember 2007, 09:24

@olli ja ja, es ist ja egal, wie die Ergebnisse zustande kamen, Hauptsache, sie sagen aus, was man haben will…

flights to London   
6. Juli 2012, 18:28

Hey…ich habe mir überllegt mal anzfangen zu tanzen da ich schon mehrere kenne und mal was anderes ausprobieren will.ich habe schon mehr erfahrungen mit breakdance bzw tricking pakour und freerunning gemachtund wollte nachfragen ob das training jeden tag stattfinden würde?ich würde gerne mal mit einem freund vorbeischauen lgbasti

florida auto insurance   
19. Juli 2012, 04:51

sagt:Mensch, Tia, Du bist ja richtig fleissig! Cool, weiter so. Gefällt mir. Schöne Tipps sind das. Vielleicht kriegen wir die Seite ja doch wieder in Schwung…

immtamn   
2. September 2012, 18:43

sfunyk

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.