Supplemental Index – Wieso hat es mich erwischt?

Wie gestern gesehen, hat nahezu jede Domain einen gewissen Anteil der Seiten im Supplemental Index. Ziel sollte es sein, diesen Anteil möglichst gering zu halten. Wer die Auswahl der Seiten im zweiten Index von Wikipedia durchgeht, wird sehen, dass Google die Erkennung von Seiten, deren Mehrwehrt gering ist, schon recht gut draufhat: Hauptsächlich Vorlagen, Artikel mit wenig oder woanders ebenfalls vorhandenen Inhalten oder Benutzerseiten rutschen dort hinein. Dies führt uns auch schon zu den Punkten, die dafür sorgen können, dass eine Webseite im Supplemental Index ist:

Duplicate Content
Duplicate Content oder auch zu deutsch doppelte Inhalte ist ein Thema, das seit Jahren aktuell ist und auch aktuell bleiben wird. Google hat – auch und besonders im Sinne des Kunden/Suchenden – kein Interesse daran, dass bei einer Suche die ersten Plätze von Seiten belegt sind, die alle die gleichen Inhalte anbieten. So wird der dritte Amazon-Partnershop oder die vierte Wikipedia-Kopie doch recht schnell langweilig und spätestens ab der zweiten SERPs-Seite, die mit Kopien belegt ist, wird der Suchende woanders weitersuchen. Google versucht also, diese Inhalte zu erkennen. Dabei geht es nicht nur um komplette Webseiten sondern auch einzelne Textauszüge können bereits Probleme bereiten. Obwohl sogenannter externer Duplicate-Content, also Inhalte, die auch auf anderen Domains vorhanden ist problematischer ist, so kann auch interner Duplicate Content – wenn ein gewisses Maß überschritten ist – zum Problem werden.

Besonders häufig und zugleich schwerwiegend ist Duplicate Content im Title- sowie im Meta-Description-Tag. Viele CMS-, Blog- oder auch Shopsysteme tragen dort häufig seitenweit die gleichen oder sehr ähnliche Daten ein. Da diese beiden Tags – für den Duplicate-Content-Filter – eine nicht zu unterschätzende Relevanz haben, kann dies schnell zu Problemen führen.

Schlechte interne Verlinkung
Die interne Verlinkung und Linkstruktur ist eines der am häufigsten vernachlässigten aber zugleich auch eines der komplexesten Themengebiete der Onpage-Optimierung. Ziel muss es sein, dass alle Seiten gut und auf kurzen Wegen erreichbar sind und die Zahl und Qualität der eingehenden, internen Links die Wertigkeit der Seite innerhalb des Projektes wiederspiegelt. Was sich zuerst einfach anhört, wird bei steigender Seitenzahl recht kompliziert und ist häufig ein Grund dafür, dass das Verhältnis zwischen Seiten im ersten zu denen im zweiten Index ungünstig ausfällt.

Wenig bis kein Inhalt
Seiten, die nur aus wenigen Worten Text und ansonsten dem üblichen HTML-Gerüst aus Navigation und Footer bestehen, sind häufig betroffen. Verständlich, bei so wenig Content wird die Chance, dass dies genau das ist, was gesucht wird, recht gering. Häufig sind dies Seiten, die gar nicht erstellt wurden, um weit vorne in den Suchmaschinen positioniert zu sein: Templates, Kontaktseiten, grafiklastige Seite oder auch Profilseiten von Mitgliedern eines Forums.

URL-Struktur
Google liebt statische HTML-Seiten. Die Inhalte werden nicht zu häufig geändert, sind meistens hochwertiger als dynamische, es gibt ordentliche, vom Googlebot auszuwertende HTTP-Header und die Wahrscheinlichkeit, dass Google sich in schlecht programmierten, dynamischen Datenbanken verrennt, ist nicht gegeben. Wie Google selber schreibt, hat die Anzahl der Parameter einer dynamischen Seite Einfluss darauf, ob eine Seite im ersten oder zweiten Index erscheint.

Eingehende Links
Wie so häufig im SEO-Bereich ist die Quali- und Quantität der eingehenden Links eine Möglichkeit die individuellen Grenzen für das eigene Projekt etwas zu verschieben. Die Aussagen „Die großen Seiten können sich viel erlauben“ kommt nicht von ungefähr und wer meint, mit drei bis vier Backlinks aus Artikelverzeichnissen einen kompletten Produktkatalog mit einem Umfang von einigen hunderttausend Seiten in den Index zu schießen, sollte sich nicht wundern, wenn ein Großteil der Seiten im Supplemental Index landen – sofern sie überhaupt aufgenommen werden.

Morgen geht es dann endlich ans Eingemachte – mögliche Strategien, um dem „Google Hell“ zu entkommen oder zumindest die Anzahl der dort gelagerten Seiten deutlich zu reduzieren.

Teil I: Webseiten zweiter Klasse?
Teil II: Wieso hat es mich erwischt?
Teil III: Wie entkomme ich dem Google Hell?

Ähnliche Beiträge