Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit?

Johannes Beus
Johannes Beus
24. Juni 2009
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

An der Keyworddichte als Rankingfaktor scheiden sich die Geister: für die einen ist sie ein Blick zurück auf den Anfang dieses Jahrtausends als häufiges Wiederholen des Keywords im Text und Dateinamen einen bei Fireball wirklich weit nach vorne brachte, für die anderen ist der prozentuale Anteil, den das Keyword an einem Fließtext ausmacht noch heute täglicher Maßstab ihrer SEO-Arbeit. Da die Wahrheit, wie so häufig, irgendwo zwischen diesen beiden Extremen liegen wird, habe ich mir ein paar Gedanken zur Keyworddichte gemacht und versuche, ihr anhand eines Tests – zumindest teilweise – auf den Grund gehen zu können.

Die Grundüberlegung für folgenden Test war, dass Google Seiten, die einen höheren Wert haben, besser rankt, als solche mit einer niedrigen Keyworddichte (unter der Bedingung, dass alle anderen Faktoren gleich sind). Darauf aufbauend habe ich diesen Test aufgesetzt: eine Menge sinnloser Fließtexte, die sich einzig in der Keyworddichte unterscheiden – hier sind alle Werte zwischen 0,1 und 10% vorhanden. Alle anderen möglichen Faktoren habe ich versucht gleich zu halten. Von Interesse ist nun: welche Seiten stehen bei der Suche nach dem Keyword vorne? Überraschenderweise sind es wirklich die Texte mit einer möglichst hohen Keyworddichte: auf der ersten Seite findet sich alles zwischen 7,0 und 9,8%. Schaut man sich das Ganze mal für die ersten 60 Positionen an, so sieht das so aus:

Keyworddichte
Auf den ersten Blick eine relativ klare Sache: je höher die Keyworddichte, desto besser. Hm, wär‘ zu einfach, oder? Leider richtig. Als ich nämlich den Rest der Ergebnisse in meine Excel-Tabelle eingetragen habe, kam folgendes Ergebnis raus:

Keyworddichte
Sieht jenseits von Position 60 erstmal ganz schön wüst aus. Meine Erklärung ist nun folgende: Wie bekannt, versucht Google Manipulationen der SERPs zu unterbinden. Dafür gibt es vielfältige Möglichkeiten, die allseits bekannten „Filter“ sind eine davon. Fällt eine Seite – durch was auch immer – ausreichend negativ auf, geht es erst einmal nach hinten. Die „Strafversetzung“ auf die Plätze jenseits der 60 ist als Strafe beliebt, man spricht auch von einer „Penalty +60“. Genau das scheint hier der Fall zu sein. Die Seiten haben es, weswegen auch immer, in einen oder mehrere Filter geschafft und wurden nach hinten durchsortiert. Vor einiger Zeit habe ich unter dem Titel „Ist das noch normal?“ etwas dazu geschrieben, wie Google Abkehrungen von der „Normalität“ im Index erkennen kann, vielleicht trifft das ja hier zu.

Welche Schlüsse ergeben sich nun aus diesem Test? Zum einen ist die Keyworddichte klar ein Rankingfaktor. Mehr ist hier gleich besser, ein Limit nach oben scheint es in (sinnvollen) Grenzen erstmal nicht zu geben. Allerdings besteht mit zunehmender Keyworddichte eine deutlich erhöhte die Gefahr, dass die Seite deswegen in einen Filter gerät und nach hinten durchgereicht wird – ein Wert zwischen 1,0% und 4,0% liegen nach diesem Test innerhalb der sicheren Parameter und ich würde mich ehrlich gesagt auch wundern, wenn man diesen Wert in einem gut lesbaren Fließtext sinnvoll überschreiten könnte.

Ähnliche Beiträge
Kommentare
HannsKronenberg   
24. Juni 2009, 22:43

@sistrix baut seine Charts immer noch mit Excel, aber sonst wieder einmal ein genialer Artikel in seinem Blog http://tinyurl.com/lbqqvj

Aslex   
24. Juni 2009, 22:48

RT @HannsKronenberg: @sistrix …Excel, aber sonst wieder einmal ein genialer Artikel in seinem Blog http://tinyurl.com/lbqqvj

mario670   
24. Juni 2009, 22:54

[Blog] Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj (via @sistrix)

krallino   
24. Juni 2009, 23:02

RT @sistrix: [Blog] Keyworddichte: relevante SEO-Basics oder vernachläigbare Vergangenheit? http://tinyurl.com/lbqqvj

twulli   
24. Juni 2009, 23:09

RT: @sistrix: [Blog] Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj

leogarb   
24. Juni 2009, 23:10

und wieder ein interessanter test von sistrix: keyworddichte und ranking position: http://tinyurl.com/lbqqvj

RonHillmann   
24. Juni 2009, 23:16

Johannes, und nun haben wir wieder das Ergebnis, dass es nicht aussreicht, billige „Content-Klopper“ zu beauftragen. Echte Redakteure sind in der Lage, die Keyword-Dichte „auszuhebeln“. Google-Algo ist auf der Seite des Journalismus, der suchmaschinenfreundlich schreibt.

SEO-united.de   
24. Juni 2009, 23:22

Hallo,

super Beitrag. Hast Du versucht die Keywordposition als möglichen Rankingfaktor so weit es möglich ist auszuschließen?

Grüße

Gretus

Johannes   
24. Juni 2009, 23:28

Gretus, ja – das Keyword ist immer im Title, H1 und das erste Wort im Fließtext. Danach kommt es nach der Keyworddichte, aber ich bin mir recht sicher, dass die Position dort keinen Einfluß hat – sonst gäbe es andere Merkmale in der Linie.

so   
24. Juni 2009, 23:30

Wie wir alle wissen, ist die Keyworddichte ein Kriterium für die Rankings und nicht DAS Kriterium (wäre auch zu schön um wahr zu sein). Also ist es an sich nicht verwunderlich, dass Deine Tests „ins leere laufen“. Texte von „Content-Kloppern“ sind also nicht das Entscheidende, sondern das „Gesamtkunstwerk“. Es würde mich auch wundern, wenn die Keyworddichte von jenseites der 5% als „empfehlenswert“ angesehen werden würde.

Johannes   
24. Juni 2009, 23:34

so, dass die Keyworddichte nur einer unter vielen Rankingfaktoren ist und die Gewichtung untereinander eher unklar ist, stand nie zur Diskussion. In diesem Posting geht es um die Betrachtung des eines Faktors und wie dieser sich verhält. Von „ins leere laufen“ kann ich bei den Ergebnissen ehrlich gesagt nicht das geringste sehen, aber ich bin auf deine Begründung gespannt.

pascaltilgner   
24. Juni 2009, 23:44

RT @sistrix Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj

SEO-united.de   
24. Juni 2009, 23:45

Hallo so,

man kann das Ergebnis in jedem Fall als verlässlich ansehen. Es mag zwar so sein, dass einzelne Faktoren miteinander verknüpft ein besseres Ergebnis liefern würden als das Optimum der beiden einzelnen Faktoren, wer aber alle einzelnen Faktoren für sich allein gesehen optimal erfüllen würde, würde wahrscheinlich bis an sein Lebensende auf Position 1 festzementiert sein.

Bei mehr als 200 Faktoren wäre es zudem müßig nach dem Gesamtkunstwerk zu forschen. Wer die Grundfarben kennt, dürfte schon weit vorne liegen 😉

Grüße

Gretus

Jan   
24. Juni 2009, 23:51

Wie schaut es eigentlich mit der Keyword-Dichte bei Suchbegriffen aus, die aus mehreren Worten bestehen? Wenn ich z.B. nach „abc def“ suche (bei Google ohne die Anführungszeichen eingegeben), sollten dann die Kombination „abc def“ im Bereich 1-4% vorkommen (also diese beiden Worte zusammen 2-8% des Textes ausmachen) oder beide Worte zusammen nur 1-4% des Textes ausmachen?

Ob es bei den Filtern einen unterschied macht, ob im Text „abc def“ immer in Kombination vorkommt oder wäre es bei einer Optimierung auf „abc def“ auch sinnvoll die Worte mal einzeln im Text auftauchen zu lassen? Dadurch würde natürlich die Häufigkeit der einzelnen Worte steigen. Damit durch die Häufigkeit der einzelnen Worte nicht zu groß wird, hätte es natürlich zur Folge, daß die Häufigkeit der exakten Kombination durch geringer ausfallen muss.

Brandkraft   
25. Juni 2009, 00:02

Suchmaschinenfreundliches SEO ist momentan eine Hauptanforderung an Texte für hohes Ranking-Potenzial, klar. Texte mit 4% KW-Dichte sind nicht unbedingt guter Journalismus. Da ist der SEO gefragt, um die Seite trotzdem auf diesen Schnitt zu heben. Allerdings bin ich nicht überzeugt von den linearen Annahmen, die manchmal über den Algo gemacht werden. Vielmehr kann ich mir, spontan, auch vorstellen, das eine Text auf einer thematisch passenden Seite mit thematisch passenden Backlinks auch eine höhere KW-Dichte verträgt. @seo-united.de – die Grundfarben (er)kennen bringt einen schon weit nach vorne!

so   
25. Juni 2009, 00:07

Werte Kollegen,

ich habe zur Zeit sehr sehr wenig Zeit, dennoch lese ich in regelmäßigen Abständen diesen Blog, da hier nicht gequirlte Sch… erzählt wird, sondern sich hier wertvolle Gedanken gemacht werden. Du schreibst im ersten Absatz, dass die Keyworddichte ein Kriterium ist (was unumstritten ist). Im zweiten Absatz erklärst Du deine Tests (Keyworddichte 7%-9%) um danach logisch aufzuzeigen, dass es so einfach nicht sein kann. Vollkommen ok. Danach schreibst Du, dass gewisse „Filter“ greifen und genau da liegt das Problem, dass wir alle nicht genau erklären können, was da passiert. Meine Vermutung ist, dass die Dichte wie Du schon erklärt hast jenseits der 4%-5% „tödlich ist und wenn man sich innerhalb dieser aufhält im „vorgegebenen“ Maß aufhält. Jedoch habe ich schon einige Seiten besser platzieren können, obwohl ich die Dichte höher geschraubt habe (7%-8%). Ich vermute, dass es einen „branchenspezifischen Filter“ gibt, der das zulässt. Ob das so ist, habe ich bisher nicht festmachen können, aber Fakt ist, dass es speziell in hart umkämpften Branchen der Fall ist. Meiner Meinung nach gibt es nicht DIE Keywordddichte für alle Branchen, sondern G unterscheidet diese. Warum, weiß ich nicht, aber dass es so ist WEISS ich (bzw. habe ich erfahren).

SEO-united.de   
25. Juni 2009, 00:32

Hallo,

für SEOs gibt es `die´ Keyworddichte, sonst macht alles überhaupt keinen Sinn mehr. Natürlich greift bei Faktor x eventuell Faktor y stärker, wenn Faktor z usw., aber darauf kann man keine vernünftige Arbeit, geschweige denn eine Recherche aufbauen.

Genau wie jede `Wissenschaft´ braucht auch SEO Standards. Da Google uns diese niemals verraten wird, müssen wir (bzw. Sistrix) sie eben selbst herausfinden ;o)

Grüße

Gretus

Michael   
25. Juni 2009, 07:23

Ich halte eine Keyworddichte von >5% schon als Spamverdacht (früher oder später), man merkt es den Texten einfach an, dass sie unnatürlich sind. Wenn dann noch Keywords in URL und sonstigem gehäuft auftauchen, ist der Fisch für Google wohl geputzt.

„Normal“ und unauffällig sind Keyworddichten zwischen 2-4%.

Contentman   
25. Juni 2009, 07:32

Trifft ganz unsere Erfahrungen. Allerdings gilt ja nur für Longtail-Keywords. Ich nehme an, das waren keine Begriffe wie „iphone“ u.s.w.. Denn das ist ja klar, dass die Blockbuster-Keywords wie „News“, „iPhone“ und „Fussball“ nicht optimiert werden, indem sie möglichst häufig auf die Seite geschrieben werden. Aber für Longtail-Keys ist diese Onpage-Optimierung ziemlich erfolgreich.

Zum Thema „Content-Klopper“: Ich denke, bei der Erstellung des Textes ist es egal, wie „hochwertig“ der Text ist. Aber wichtig ist doch dann, dass die User die Seite vertrauenswürdig und attraktiv finden und auf den richtigen Button klicken. Oder? Und da haben „Content-Klopper“ große Schwierigkeiten…

eric

lennarz   
25. Juni 2009, 07:44

Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj (via @sistrix)

jr-ewing   
25. Juni 2009, 09:50

Bei der folgenden Abfrage:

http://www.google.de/search?hl=de&safe=off&num=100&q=site%3Asistrix.de%2Ftests%2Fkeyworddichte+&btnG=Suche&meta=lr%3Dlang_de&aq=f&oq=

krieg man allerdings bessere Ergebnisse. Also 5,5 und 3,7 was alles natürlicher aussieht. Vorausgesetzt die site Abfrage gibt auch die interne Rangfolge wieder.

Gruß Tom

Robert   
25. Juni 2009, 09:57

Hallo Johannes,

so ein ähnliches Ergebnis hab ich bei einem kleinen Test bekommen, der eigentlich die Bedeutung der LSO (http://www.h1h2h3.de/auswertung-zum-keywordtest-sportaktivitaeten) herausfinden sollte. Dabei ist als Nebenerkenntniss auch herausgekommen, dass es völlig Schnuppe ist, wie der Text geschrieben ist – Thema Relevanz – und dass sich am Ende nur die Texte mit hoher Keyworddichte durchgesetzt haben.

Robert

Simon   
25. Juni 2009, 10:00

Nunja, ich finde die Schlüsse die aus dem Test gezogen werden nicht ganz voreingenommen. Laut deiner Aussage ist „ein Wert zwischen 1,0% und 4,0%… innerhalb der sicheren Parameter“.

Wenn ich mir das Diagramm anschaue liegt eine KW-Densitiy zwischen 6%-7% auch in einem sehr sicheren Rahmen und rankt dabei erheblich besser. Eine gesunde KW-Density von 2%-4% ist schon länger ein guter Anhaltspunkt, nach diesen Auswertungen kann man die Dichte jedoch auch auf 6%-7% schrauben…

myxococcus   
25. Juni 2009, 10:28

Keyworddichte vom Internetflüsterer @sistrix glasklar durchleuchtet http://tinyurl.com/lbqqvj

Johannes   
25. Juni 2009, 10:35

C.Trautmann, ab einer Keyworddichte von 4,7% sind allerdings einige Seiten im Filter gelandet, deswegen eben die Empfehlung, nach diesem Test etwas unter dem Wert zu bleiben, 4 scheint mir da sinnvoll. Dass Texte mit einer höheren Keyworddichte besser ranken, habe ich ja auch geschrieben, die Gefahr, dass es daneben geht, steigt allerdings deutlich.

Johannes   
25. Juni 2009, 10:38

jr-ewing, ich glaube ehrlich gesagt nicht, dass die Sortierung nach „Site-Abfrage“ viel mit der „richtigen“ Sortierung zu tun hat. Dort wird nach meinem Gefühl eher nach dem (internen) PageRank sortiert.

imwt   
25. Juni 2009, 11:19

Ich würde nicht unterschreiben dass „allen klar“ ist, dass die Keyworddichte ein Faktor ist.
Da gibt es sicherlich so einige, welche der Meinung sind (oder waren) dass dem nicht so ist!

Simon   
25. Juni 2009, 12:21

Ich wollte die Aussage nicht generell Angreifen Johannes =). War nur etwas verwundert dass keiner diesen Aspekt aufgegriffen hat und zwischen den genannten Werten 6%-7% scheinen Verhältnissmäßig wenige im filter hängen geblieben zu sein. Ich würde diese Werte auch nicht als Empfehlung abgeben, möchte ich ein Projekt mal etwas keyworddichter ausstatten wäre dieser Rahmen für mich nach deiner Auswertung jedoch am sichersten.

Mo   
25. Juni 2009, 12:25

Jedes Mal wenn Google davon spricht, man sollte dies oder jenes unterlassen, sollte man nachdenklich werden.
Hinsichtlich der Keyworddichte hieß es auch kürzlich, was du in deinem Artikel schreibst.

Die Keyworddichte ist ein Bestandteil um das Thema eines Artikels zu bestimmen. Wenn diese zu gering ist, wie soll dann irgendein Algo vernünftig greifen? (unabhängig von anderen Faktoren)

André   
25. Juni 2009, 12:34

Hi Johannes,

danke für den aufschlussreichen Test. Den branchenspezifischen Gedanken von so finde ich interessant. Möglicherweise findet darüber hinaus auch noch das Projekt selbst Berücksichtigung, d.h. Projekte mit mehr Trust haben einen höheren Schwellenwert als 4,7%, während schwächere Projekte sich weniger erlauben können.

Um das Nachprüfen zu können, müsste aber natürlich ein umfangreicherer Test her. Lässt sich das Testdesign leicht übertragen? Falls ja, finden sich hier ja vielleicht ein paar Leute, die das mal auf ihren Projekten einsetzen. Weitergedacht könnte man auch zukünftige Tests auf diesem Weg spreaden. Quasi ein SEO Community Testlab. Oder bin ich jetzt zu naiv???

Lg
André

pixum_tal   
25. Juni 2009, 13:25

RT @sistrix: [Blog] Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj

CoachRoth   
25. Juni 2009, 14:18

RT @myxococcus: Keyworddichte vom Internetflüsterer @sistrix glasklar durchleuchtet http://tinyurl.com/lbqqvj – sehr lesenswert!

baynado   
25. Juni 2009, 14:26

RT @myxococcus: Keyworddichte vom Internetflüsterer @sistrix glasklar durchleuchtet http://tinyurl.com/lbqqvj – sehr lesenswert!

stefan   
25. Juni 2009, 15:59

Johannes,

zunächst mal: Toll, dass du nach wie vor die Allgemeinheit an deinen Überlegungen und Ergebnissen teilhaben lässt.

Dafür jetzt mein Input: Dein Test bezgl. der KD erfolgt – soweit möglich – unter Laborbedingungen mit nur einem zu veränderndem Faktor. Die Ergebnisse werden als normale Prozentwerte widergegeben.
Glaubst du (alle anderen dürfen die Frage auch gerne aufgreifen), dass es bei SEO-Tests sinnvoll ist, einen Faktor zu isolieren, die Ergebnisse zu abstrahieren und dann in das Modell zurückzuführen? Und ja, ich meine die Frage ernst.

Meine Frage zielt
a) auf die Rangfolge der einzelnen Faktoren untereinander ab sowie
b) auf eine mögliche Dämpfung/Verstärkung der Werte (die du in der Einzelbetrachtung bekommst) durch diese anderen Faktoren oder
c)worst case, auf eine mögliche Umkehr/Auslöschung der aus den Einzeltests abgeleiteten Regeln.

Wozu so viele Worte? Naja, den G-Algo werden wir ja vermutlich nicht zu sehen bekommen, aber vielleicht könnte man Testumgebungen dynamischer gestalten und erweitern (so du das nicht sowieso hast).

Ergebnis wären z.B. deine damals durchgeführten Tests zu Title, H1, etc.., aber in Kombination.
„Wie verhält sich die Keyworddichte, wenn der Title das Keyword enthält…?“ undsoweiter.
Die Kombinationsmöglichkeiten wären leider nahezu unendlich, man könnte sich aber auf die nachgewiesenermaßen „stärksten“ Faktoren beschränken.

Das ergäbe eine schöne Vektordarstellung.
Sieht dann wahrscheinlich so ähnlich aus wie der Algo 😉

proseed_GmbH   
25. Juni 2009, 16:59

Wie wirkt sich die Keyworddichte auf das Ranking in Suchmaschinen aus? http://tinyurl.com/lbqqvj Sehr lesenswert!

immoscoutseo24   
25. Juni 2009, 18:02

Guter Test, Johannes!

Eine Überlegung hierzu:

Keyworddichte ist ein Faktor, es könnte bereits oder bald ein weiterer Faktor hinzukommen: sinnvoller Einsatz des Keywords innerkalb eines Artikels.

Google arbeitet intensiv und (meiner Meinung nach) sehr erfolgreich an der Übersetzungstechnik. Das gelingt nur dann gut, wenn Sie es schaffen, den geschriebenen Sinn zu „verstehen“.

Es könnte also durchaus eine Übersetzungstechnologie auch zur Bewertung der Texte an sich herangezogen werden und in den Rank mit einfließen.

Ein Schritt richtung Quality up, Ron’s Content-Klopper down.

Grüße

Alex

moses3k   
26. Juni 2009, 11:54

Johannes, hör ma auf, die SEO-Nation verrückt zu machen und nimm doch endlich mal meine Einladung auf paar Frühlings- / Sommerröllchen + Bierchen an 🙂

Peacen,
Anh Tu

jackwiesel   
26. Juni 2009, 20:09

Es wäre hochgradig interessant zu wissen, ob bei den Seiten nach Platz 60 ausschliesslich die hohe Keyworddichte zur Filterung geführt hat, oder ob noch andere Faktoren qualitativ negativ auffallen. (9% bei 70 Worten Content kann mal passieren – 9% bei 500 Worten dürfte kaum noch einen lesbaren Text ergeben ohne am Verstand des Autors zu zweifeln)

Insgesamt scheint mir Dein Ergebnis sehr plausibel.

foxx4net   
27. Juni 2009, 20:55

Danke für den Test Johannes. Wie immer sehr aufschlussreich. Interessant wäre ein weiterer Test in Richtung Semantik. Evtl. sogar mit den bestehenden Seiten aus dem vorherigen Test?

pr_sniper   
28. Juni 2009, 19:31

Der Beitrag ist ein typisches Beispiel für Nebelkerzen.

Zuerst fällt auf, dass S. als öffentlicher Protegier der „Headline 2“ selbst die H1 verwendet. Verarschung der Leser.

Keyworddichte einer HTML-Seite? Oder jedes einzelnen Elements im Zusammenwirken? Verarschung.

Während eine Keyworddichte von 100% im Titel sehr gut sein kann (für Leser und Bots), wären 100% auf der gesamten Seite Spam. usw. usf.

Welche unterschiedliche! Bedeutung haben denn Headline, Fließtext, Bildbeschreibungen, Linktexte untereinander und zusätzlich der Platz des einzelnen Keywords in jedem Element?

http://www.abakus-internet-marketing.de/foren/viewtopic/t-68594.html#561469

Wie darf man dann alles in einer Suppe vermengen?

Schlimm, Sistrix.

Johannes   
28. Juni 2009, 20:23

pr_sniper, benimm‘ dich! Auf „Kritik“ in dieser Form werde ich jedenfalls nicht eingehen.

burseg   
29. Juni 2009, 11:38

Danke Johannes, enttäuschend deutliche Ergebnisse, die (wie so oft) im Widerspruch zu Googles eigenen Aussagen nach Relvancy, Content und Topic stehen.

Was ist eigentlich aus dem Google-42-Easteregg geworden? Wenn man ein Keyword 42x auf der Seite hat (nur HTML, nicht URL), wird man auf der 1. Ergebnisseite gezeigt. Hab ich lange nicht mehr getestet, aber wahr mal ziemlich lustig. Jemand das noch im Einsatz?

Lg C

Hans   
29. Juni 2009, 14:16

Ich kann pr_sniper nur recht geben. Hier wird leider – wie so häufig – nur mit Nebelkerzen geworfen. Anstatt auf die berechtigte Kritik einzugehen, spielt man dann die beleidigte Mina.

Schlimm, schlimm, das.

Johannes   
29. Juni 2009, 16:48

Hans, komischerweise sind es immer (!) die anonymen Kommentare, die mir sowas vorwerfen. Also mal Butter bei dir Fische: Was konkret soll eine Nebelkerze sein, was konkret möchtest du gerne geanuer/anders beleuchtet haben?

sonjagottschalk   
30. Juni 2009, 09:29

RT @sistrix Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj

sonjasuperrtl   
30. Juni 2009, 09:31

RT @sistrix Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit? http://tinyurl.com/lbqqvj #seo

heikegall   
30. Juni 2009, 12:36

Lese: „Keyworddichte: relevante SEO-Basics oder vernachlässigbare Vergangenheit?“: http://tinyurl.com/lbqqvj Ergebnis: ja und nein, #SEO

Martin   
30. Juni 2009, 15:20

Danke für die Mühe.

Paul   
1. Juli 2009, 13:36

Danke für die Untersuchung, dass bringt ja doch ein wenig Licht in die Sache. Doch ich stell mir nicht die Frage welchen Wert die Keyworddichte (0,1 -5%) annehmen soll. Ich würde noch die Untersuchung in der Richtung verfeinern wie das gesamte Projekt angenommen wird. Was wäre wenn ich auf einer Dom 5 Artikel bzw. eben Texte veröffentliche und jeder einzelne Artikel eine eigene Dichte besitzt zwischen 1-4 %. Eine weitere Dom. mit 5 Texte aber im Bereich 4-6%. Alle anderen Faktoren sollten möglichst gleich sein. Was würde dann passieren? Einzelne Artikel fliegen raus. Google bewertet die Seite als ganzes und bewertet nicht einzelne Texte!
Ich denke die Bereich 0,1-6 % sind möglich und können mit einem gewissen Risiko angewandt werden, abhängig zu den anderen Texten des Projektes.

pr_sniper   
5. Juli 2009, 17:54

@Johannes: Die völlig unterschiedliche Bedeutung der einzelnen Elemente einer HTML- Seite (Überschrift, Absätze, Bilder, Fließtext, Titel, Beschreibung, Keywords-Tag usw. usf.) im Kontext des Contents werden in der „Analyse“ negiert und ignoriert. Die „Studie“ über eine -allgemeine- Keyworddichte hat damit für das tatsächliche Ranking keinerlei Wert, wohl aber vernebelnden Charakter.

Beispielsweise könnte doch auf einer (theoretisch vereinfachten) Seite mit 100 unterschiedlichen Keywords ein einzelnes Key 5 mal vorkommen. Das wären 5% Keyworddichte für dieses Key.

Fürs praktische Ranking (einfach selbst testen) ist es dann doch aber ein extremer Unterschied, ob beispielsweise

a) das Keyword in der Headline, im Title, zu Beginn und Ende des Fließtextes und in einer alternativen Bildbeschreibung oder aber

b) im Keyword- Tag und viermal als Anker- Text vorkommt …

Nicos   
8. Juli 2009, 15:54

schöner Test, allerdings recht unbrauchbare Ergebnisse! Der Algorithmus besteht aus so vielen einzelnen Faktoren, die ineinander greifen, dass man den Einzelfaktor Keyword-Dichte zwar, wie von Johannes getan, analysieren kann, aber auch hier die anderen Faktoren wie Linkstruktur, Alter etc. immer mit betrachtet werden müssen! D.h. eine Seite mit größerer Linkstruktur und höherem Alter kann möglicherweise auch eine höhere Keyword-Dichte nutzen bei gleichem oder geringerem Risiko.

Jede Seite bringt andere Grundvoraussetzungen mit, was ja im Endeffekt den Wettbewerb verursacht. Bestpractice für die Analyse der Keyword-Dichte ist immer noch die Analyse ebendieser und der Linkstruktur der Wettbewerber in den TOP10 unter einem gewünschten Key. In Abhängigkeit der bestehenden Linkstruktur kann man zuverlässig auf die optimale Keyword-Dichte schliessen. Auch unter dem Aspekt, dass diese je nach Keyword-Cluster, Branche und Wettbewerb prozentual nach oben oder unter abweichen kann.

schlechte OnPageoptimierung (mangelnde oder zu hohe Keyword-Dichte) lässt sich immernoch mit mehr Links kompensieren!

Trotzdem interessant, DANKE Johannes!

Grüße
Nicos

Stefan   
13. Juli 2009, 13:04

Danke für die nette Zusammenfassung.
Ich persönlich würde auch keine unnatürlichen Keyworddichten einbauen, da Google es scheinbar als Spam erkennt. Natürlich ist für meine Begriffe etwas um die 2.5% …

Webdesigner   
20. Juli 2009, 22:57

Als Informatiker kann ich mir den Test nur so erklären: das Ranking im Test richtet sich nach der KWD da es keine anderen Messpunkte gibt. Zweitens werden die Seiten mit hoher KW Dichte nicht als „Spam“ deklariert, da sistrix.de ein gewisses Vertrauen genießt. Drittens frage ich mich, ob seitenspezifische Suchen mit „site:“ mit der globalen Suche vergleichabr sind. (?)

degia   
1. August 2009, 16:04

Mal ne andere interessante These, die zwar nicht fundiert ist, aber aus eigener Erfahrung aus einem Test mit zwei meiner Webseiten entstanden ist.

Vor einiger Zeit hatte ich für K3 Stadtführungen die Suchbegriffe „stadtführung münster“ optimiert. Kein allzu schweres Unterfangen. Zum Spaß hatte ich auf zwei Seiten mit etwa gleicher Backlink Struktur und gleichem PR Texte angelegt und aus diesen zunächst nicht auf die Seite gelinkt, sondern selbst den text gemacht, welches Ranking ich zu den Begriffen erreichen könnte udn welche Seite besser rankt. Die Keyworddichte war exakt gleich – nur thematisch unterschieden sich diue Webseiten massiv. Die eine war eine Marketingwebseite zum „Kanzleimarketing“, die andere ein Tourismus-Portal mit vielen themenrelevanten Beiträgen. Die Keyworddichte hatte ichj damals zunächst über 6 % angesetzt. Nach zwei Wochen fand ich den Eintrag auf der Marketingseite nichteinmal in den Top 40, obwohl es kaum Seiten gab, die solch einen Titel verwendet hätten. Mein Tourismus Portla rankte direkt und dauerhaft auf Platz 7. Ich würde sagen, dass thematisch verwandte webseiten mit eingehenden Links zu den Schlüsselworten und mehreren Beiträgen zu dem Thema druchaus jenseits der 4 % keyworddichte agieren können, thematisch fremde Seiten mit solchen Späßen eher sehr vorsichtig umgehen sollten. Natürlich ist dies kein repräsentativer Test und war lediglich eine Laune. Aber ich denke druchaus bedenkenswert und vielleicht auch einmal wert, intensiver beleuchtet zu werden, um genau Werte zu erhalten.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.