Kleine Seite, kleine Probleme – große Seite, große Probleme

Johannes Beus
Johannes Beus
31. Mai 2007
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

In SEO-Tutorials und Lehrgängen werden häufig die kleineren, übersichtlichen Seiten als Beispiel herangezogen: Startseite, ein paar Produkte, Kontakt, Impressum und Firmenbeschreibung – und das nicht ganz zu unrecht: Viele der „klassischen“, häufig auftretenden SEO-Problematiken sind bei kleinen Seiten deutlich einfacher zu handhaben oder erst gar nicht vorhanden. Wenn man nun aber bedenkt, dass bei De-Domains mit einem PageRank von 5 durchschnittlich schon etwa 5500 und bei einem PageRank von 8 sogar rund 200.000 Seiten pro Domain im Googleindex sind, dann sollte auch einen Blick für diese Problematiken entwickeln.

Ist die interne Linkstruktur ausgereift?

Wo bei kleinen Projekten eine einstufige, recht simpel gehaltene und auf allen Seiten vorhandene Navigation ausreichend ist, wächst das Problem mit steigender Seitenanzahl stetig. Mag Anfangs noch eine zweite Ebene der Navigation und eine saubere Sitemap ausreichend sein, so wird das bei Projekten, die über Jahre gewachsen sind und deren Seitenanzahl in die 10- oder sogar 100-tausende geht, doch deutlich komplizierter. Hier müssen Lösungen und Wege gefunden werden, dass die interne Verlinkung mit dem Wachstum der Seite skaliert und interne Gewichtungen der einzelnen Seiten und Rubriken entsprechend abgebildet werden.

Wie werden externe Deeplinks generiert?

Wer versucht hat, Linkbuilding für Projekte mit bis zu 100 Seiten zu betreiben, wird sich vorstellen können, dass dieses Unterfangen bei der zehnfachen Anzahl an Seiten schon extrem zeitaufwändig und bei der hundert- oder tausendfachen Zahl nahezu unmöglich wird. Zwar ist es so, dass die „Kraft“ der Domain im Google-Algorithmus offenbar eine, über die letzten Jahre zunehmende Rolle spielt und Unterseiten so auch ohne externe, eingehende Links ordentlichen ranken können – das Salz in der Suppe kommt allerdings von außen. Auch hier müssen Strategien entwickelt werden, um einen nachhaltigen Linkaufbau möglichst kosten- und arbeitsreduziert durchzuführen.

Welche Seiten müssen in den Suchmaschinenindex?

Die Zeiten, in denen das Credo „möglichst viele Seiten in den Googleindex drücken“ hieß, sind vorbei. Seit der Zweiteilung des Indexes in erste und zweite Klasse (alias „Supplemental Results“) muss sorgsam überlegt werden, ob wirklich für jedes Mitglied oder Produkt eine Vielzahl identischer und mehrwertlosen Seiten generiert werden müssen. Mit etwas Pech vertreiben diese Seiten dann die eigentlichen Trafficbringer aus dem ersten Index und sorgen so für Probleme.

Ähnliche Beiträge
Kommentare
Pelle Boese   
31. Mai 2007, 13:26

Schöner Artikel und vorallem ein prima Denkanstoß. Man sollte sich vor dem Start eines großen Projektes bereits Gedanken über die Linkstruktur machen. Bei den meisten Projekten kann man hierarchisch nach Kategorien vorgehen, jedoch muss dies möglichst vor, beziehungsweise während der Entwicklungsphase getan werden, damit hinterher die Möglichkeit besteht, neue Elemente in die Hierarchie einzufügen, ohne diese komplett restrukturieren zu müssen.

Eric   
31. Mai 2007, 14:00

Ich denke schon, dass es sinnvoll ist, viele Seiten in den Index zu bringen. Allerdings nur dann, wenn man wirklich guten und spezialisierten Content hat und dieser auch eine Google-Relevanz der Unterseiten rechtfertigt. Denn ich sehe in meinen Projekten immer wieder, dass der Traffic sehr stark auch über die nicht so frequentierten, eigentlich nicht so trafficstarken Keywords kommt. Kleinvieh macht auch Mist, oder mit anderen Worten: Longtail rules.
Bei einer Site mit 100 000 Unterseiten muss man aber sehr darauf achten, dass die Unterseiten jeweils sehr genaue, inhaltiche Profile haben und sich die allgemeinen Keywords den speziellen Keywords deutlich unterordnen.
Dann funktioniert das meiner Erfahrung nach sehr gut sogar.

Johannes   
31. Mai 2007, 14:05

Pelle, das Problem ist ja bei den meisten Seiten mit mehreren 100.000 oder Millionen Seiten im Index, dass diese nicht erst gestern konzipiert wurden sondern bereits sei $lange_internet_jahre online sind. Da hat jeder mal seine Finger dran gehabt und viel verschlimmbessert. Da wieder Struktur reinzubekommen, ist leider häufig gar nicht so einfach.

Eric, dass es sinnvoll ist, Contentseiten (!) in den Index zu bringen, ist glaube ich kein Thema. Jedoch ist es häufig so, dass irgendwann mal zu jedem Quatsch eigene Seiten generiert wurden. So hat dann jede „Verbindung“ zwischen zwei Mitgliedern eine eigene Seite – auch wenn der Content dort gegen 0 geht. Und diese Seiten sollten identifiziert und aus dem Index rausgelassen werden.

Marcus   
31. Mai 2007, 14:46

Wir haben die Erfahrung gemacht, dass es bei grösseren Seiten wichtig ist ein normales Wachstum der Seiten zu haben und dem Spider nicht gleich 10.000 fertige Seiten zum Start hinzuwerfen, sondern organisch zu wachsen.

Ziemlich wichtig ist bei grösseren Projekten auch, daß man regelmäßig ein Auge auf die Anzahl der indizierten Seiten im Index hat und unnötig indizierte Seiten (eventuell doppelte Inhalte oder Seiten mit wenig Content) per robots.txt rauswirft. Manchmal wird man selbst überrascht wieviele überflüssige Seiten im (Supplemental) Index sind, die dann das Ranking der wichtigen Seiten schwächen. Man muss mit Sicherheit nicht jede Seite eines Forums oder jedes Bild mit einer eigenen Seite im Index haben.

Pelle Boese   
31. Mai 2007, 17:29

Johannes: Dass dies nicht so einfach bei bestehenden Projekten anzuwenden ist, leuchtet mir durchaus ein. Wenn man jedoch ein so vermackeltes altes System hat, sollte man zumindest eine Neustrukturierung bedenken. Ich spreche natürlich vom Optimalfall. Realistisch muss man wohl leider davon ausgehen, dass – gerade bei den großen – nur selten Geld für einen kompletten Neuaufbau locker gemacht wird, bzw. die Angst vor einem solchen Schritt viel zu groß ist. Meiner Meinung nach lieber mit einer ordentlichen Struktur neu beginnen, anstatt eine schlechte Struktur aus welchen Gründen auch immer zu pflegen und zu erweitern. Der Nutzen für eine bereits prominent gelistete Seite sollte enorm sein, auch wenn man eventuell mit einem temporären Rückgang der Hits von Suchmaschinen rechnen sollte.

shopdoc   
5. Juni 2007, 09:44

Pelle: Grundsätzlich gebe ich dir recht, was den Neuaufbau angeht, aber das Problem liegt meiner Meinung nach nicht in den Kosten. Wenn man so viele Seiten im Index hat und nicht gerade ein Lexikon ist, kämpft man ohnehin schon mit dem Problem Duplicate Content. Das heißt, du musst die alte Struktur sauber per 301 in die Neue überleiten, um das Problem nicht noch zu verschärfen und möglicherweise ganz rauszufliegen. Dafür kannst du aber keine generellen Regeln festlegen, weil alte gewachsene und häufig völlig sinnfreie Struktur. Also: In Handarbeit (bestenfalls halbautomatisch) mehrere tausend Umleitungen erstellen – und zwar per php, weils mit htacces viel zu langsam ist.

Der zweite Punkt – die Angst – ist nicht zu unterschätzen. Wer will schon freiwillig die Verantwortung tragen, wenn die neuen Seiten nicht so gut ziehen wie die alten, der Umsatz ausbleibt und schlimmstenfallst ein paar hundert Leute arbeitslos werden.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.

Kostenlosen Testaccount jetzt aktivieren

Aktiviere jetzt deinen kostenlosen Testaccount für die SISTRIX Toolbox. Garantiert ohne Kosten und unverbindlich. Jetzt aktivieren!