Supplemental Index – Wie entkomme ich dem Google Hell?

In den ersten beiden Teilen haben wir gesehen, wieso es überhaupt eine Zweiteilung des Indexes gibt, wie man auslesen kann, wie viel Seiten des eigenen Projektes betroffen sind und welche Kriterien dazu führen können, dass eine Seite vom ersten in den zweiten Index rutscht. Nun ist es abhängig vom jeweiligen Projekt, ob man weitere Schritte ergreifen sollte oder, ob der Anteil an Seiten im Supplemental Index so gering ist, dass sie nicht weiter schaden. Sollten, wie bei dieser Domain, nur wenige und unwichtige Seiten dort liegen, so kann man sich entscheiden, keine Änderungen vorzunehmen und die Situation in Zukunft weiter zu beobachten. Wenn aber viele und wichtige Seiten in den Supplemental Index gerutscht sein, so besteht Handlungsbedarf.

Als erster Schritt muss erkannt werden, wieso die Seiten im zweiten Index gelistet werden. Die Punkte von gestern sollten dabei helfen, gemeinerweise können es aber auch mehr als ein Punkt und sogar beliebige Kombinationen dieser Punkte sein. Häufig ist es auch eine gute Idee, jemanden, der nicht so stark wie Sie selber in das Projekt involviert ist, einen Blick von außen draufwerfen zu lassen. Dass können befreundete Webmaster, Leser in den einschlägigen Foren oder auch fähige SEO-Consultants sein. Die so gefundenen Punkte müssen entsprechend „behandelt“ werden. Zu den gestern genannten Punkten hier einige Ideen, letztendlich ist dies aber ein sehr individueller, auf das jeweilige Projekt zugeschnittener Prozess:

Duplicate Content
Zuerst musst identifiziert werden, um welche Art von doppelten Inhalten es sich handelt. Wenn andere Seiten Ihre Inhalte unerlaubt übernehmen, so sollten Sie dagegen vorgehen. Je nach Wohnsitz des Betreibers kann dies von nicht ganz einfach über kompliziert bis zu unmöglich gehen. Aber auch für solche Fälle hat Google vorgesorgt und bearbeitet DMCA-Requests relativ zügig. Wenn Sie Inhalte syndizieren, sei es als RSS/XML-Feed oder anderweitig, so sollten Sie sich überlegen, welche und wem Sie diese Daten geben.

Sollten Sie Inhalte von Lieferanten übernehmen, die auch viele andere so bekommen, so müssen Sie sich gut überlegen, welche Daten Sie direkt übernehmen und welche einer Nacharbeit bedürfen. Sie bekommen extrem viele Daten, beispielsweise XML-Dateien von Affiliate-Netzwerken und das Überarbeiten und Ergänzen der Beschreibungen und Daten wäre zu aufwändig? Dann scheint Google sein Ziel ja erreicht zu haben. Die Zeiten, in denen Domainnamen auf den kommerziellen Charakter der Seite hindeuteten und als Content 10 Espotting-Links genug waren, sind bereits etwas länger vorbei.

Wenn Sie internen Duplicate Content haben, Blogbeiträge beispielswiese zu häufig anteasern, so müssen Sie versuchen, diesen zu reduzieren. Die Zahl der angeteaserten Beiträge pro Seite erhöhen, die Länge der Vorschau verringern sind erfolgversprechende Methoden.

Wichtig ist, dass Title- und Meta-Description-Tag für jede Seite individuell und unterschiedlich eingestellt werden. Es gibt viele Tools oder auch Publishing-Systeme, die dort als Standard häufig die gleichen Angaben eintragen. Stellen Sie dieses also entsprechend um. Bevor Sie bei den Meta-Tags gleiche Angeben haben, lassen Sie diese besser komplett weg – beim Title-Tag werden Sie nicht um die Arbeit herumkommen.

Schlechte interne Verlinkung

Wie in dem Teil von gestern schon angedeutet, so ist die interne Verlinkung und Linkstruktur eines der fundamentalen Themen der OnPage-Optimierung. Hier kann man viele und auch schwerwiegende Fehler machen, aber auch deutliche Vorteile zur Konkurrenz erzielen. So muss zum einen sichergestellt werden, dass alle Seiten durch die interne Verlinkung über kurze (Klick)-Wege von der Startseite erreichbar sind. Auch muss die Qualität und Quantität der internen Links ein Spiegelbild der Wertigkeit dieser Seiten sein. Mögliche Wege sind beispielsweise Sitemaps oder interne, kleine Themenhubs, die Seiten, die zu einem Thema gehören verlinken. Aufpassen sollte man dabei, dass diese Seiten nicht zu reinen „Linkwüsten“ verkommen. Die Regel, die Zahl von Links auf einer Seite bei etwa 100 zu begrenzen, kann dabei im Hinterkopf behalten werden.

Wenig bis kein Inhalt
Die meisten Projekte – besonders solche, die fertige Foren/Blog/CMS-Software benutzen – haben eine Reihe von Seiten, die keinen Mehrwert liefern. So hat häufig jedes Forenmitglied eine eigene Seite, auf der außer den letzten 5 bis 10 Beiträgen keine Informationen zu finden sind; Blogsysteme haben Paging-Optionen, die außer vielen Seiten keine Nutzen bringen und Content-Management-Systeme legen erstmal eine große Zahl von Standardseiten an, die nie wirklich mit Inhalt gefüllt werden. Gehen Sie diese Seiten durch und versuchen Sie, diese aus dem Index zu bekommen. Dies kann entweder mit der Robots.txt oder durch den Einsatz des Robots-Meta-Tags geschehen. Alternativ können Sie diese Seiten natürlich auch ganz löschen. Wie in einem anderen Beitrag bereits schon einmal erwähnt, sollte das Ziel heute nicht mehr darin bestehen, möglichst viele, sondern möglichst gute Seiten im Google-Index zu platzieren.

URL-Struktur
Wie in dem SEO-Tutorial geschrieben, ist die richtige und frühe Auswahl einer guten URL-Struktur extrem wichtig. Leider wird bei vielen fertigen Lösungen aber auch selber geschriebenen Webseiten der URL-Struktur nicht der Wert zugemessen, der ihr gebührt. Wenn Sie Projekte aus statischen HTML-Seiten erstellen, ist es im Prinzip noch recht einfach: Halten Sie sich an die gängigen Regeln (sprechende, kurze Dateinamen, Bindestrich als Trennzeichen) und Ihr Webserver und Google werden sich um den Rest kümmern.

Bei dynamischen Seiten wird es deutlich komplexer. Sollten Sie Parameter benutzen, so halten Sie deren Zahl möglichst gering und einfach. Auf keinen Fall dürfen Session-IDs in den Googleindex gelangen, auch sollten Sie alle Parameternamen, die an Session erinnern (sid, s, session) vermeiden. Wenn Sie mittels Mod_Rewrite oder ähnlicher Techniken „schöne“ URLs erzeugen, so achten Sie drauf, dass Ihre Seite nur unter einer Adresse verfügbar ist. Bei fertigen Lösungen sind die Seiten häufig sowohl unter der alten, mit Parametern als auch unter der neuen, sprechenden URL verfügbar und der Googlebot darf sich dann aussuchen, welche Seite er aufnimmt. Häufig entscheidet er sich dann entweder ganz gegen eine Aufnahme oder für den Supplemental Index.

Eingehende Links
Was für ein kleines, gallisches Dort der Zaubertrank, sind bei Suchmaschinen die externen, eingehenden Links. Beide können aus schmächtigen und unterlegenen Mitspielern des Marktes große und starke Kerle machen. Je größer die Anzahl und je höher die Qualität der Links, die auf Ihre Seite zeigen ist, desto mehr Vertrauen hat Google in Ihre Seite, dass die Fehler, die Sie machen, keine Absicht sind. Wenn Sie also versuchen, der Google Hölle des Supplemental Indexes zu entkommen, so kann es nur empfohlen werden, dass Sie sich begleitend um neue und gute – und damit meine ich keine Verzeichnis oder Artikelservice – Links bemühen.

Ich hoffe, in dieser dreiteiligen Serie ein paar – hoffentlich korrekte – Informationen zum Supplemental Index von Google vermitteln zu haben. Wer sich jetzt entscheidet, bei seinem seiner Projekte ein paar Änderungen vorzunehmen, sollte wissen, dass der Weg aus dem Supplemental Index deutlich schwieriger und langwieriger ist, als der Weg rein. Änderungen werden also nicht am nächsten Morgen ihre Wirkung zeigen – horten Sie genügend Kaffee, Tee oder Bier.

Teil I: Webseiten zweiter Klasse?
Teil II: Wieso hat es mich erwischt?
Teil III: Wie entkomme ich dem Google Hell?

Ähnliche Beiträge