Supplemental Index – Wieso hat es mich erwischt?

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Wie gestern gesehen, hat nahezu jede Domain einen gewissen Anteil der Seiten im Supplemental Index. Ziel sollte es sein, diesen Anteil möglichst gering zu halten. Wer die Auswahl der Seiten im zweiten Index von Wikipedia durchgeht, wird sehen, dass Google die Erkennung von Seiten, deren Mehrwehrt gering ist, schon recht gut draufhat: Hauptsächlich Vorlagen, Artikel mit wenig oder woanders ebenfalls vorhandenen Inhalten oder Benutzerseiten rutschen dort hinein. Dies führt uns auch schon zu den Punkten, die dafür sorgen können, dass eine Webseite im Supplemental Index ist:

Duplicate Content
Duplicate Content oder auch zu deutsch doppelte Inhalte ist ein Thema, das seit Jahren aktuell ist und auch aktuell bleiben wird. Google hat – auch und besonders im Sinne des Kunden/Suchenden – kein Interesse daran, dass bei einer Suche die ersten Plätze von Seiten belegt sind, die alle die gleichen Inhalte anbieten. So wird der dritte Amazon-Partnershop oder die vierte Wikipedia-Kopie doch recht schnell langweilig und spätestens ab der zweiten SERPs-Seite, die mit Kopien belegt ist, wird der Suchende woanders weitersuchen. Google versucht also, diese Inhalte zu erkennen. Dabei geht es nicht nur um komplette Webseiten sondern auch einzelne Textauszüge können bereits Probleme bereiten. Obwohl sogenannter externer Duplicate-Content, also Inhalte, die auch auf anderen Domains vorhanden ist problematischer ist, so kann auch interner Duplicate Content – wenn ein gewisses Maß überschritten ist – zum Problem werden.

Besonders häufig und zugleich schwerwiegend ist Duplicate Content im Title- sowie im Meta-Description-Tag. Viele CMS-, Blog- oder auch Shopsysteme tragen dort häufig seitenweit die gleichen oder sehr ähnliche Daten ein. Da diese beiden Tags – für den Duplicate-Content-Filter – eine nicht zu unterschätzende Relevanz haben, kann dies schnell zu Problemen führen.

Schlechte interne Verlinkung
Die interne Verlinkung und Linkstruktur ist eines der am häufigsten vernachlässigten aber zugleich auch eines der komplexesten Themengebiete der Onpage-Optimierung. Ziel muss es sein, dass alle Seiten gut und auf kurzen Wegen erreichbar sind und die Zahl und Qualität der eingehenden, internen Links die Wertigkeit der Seite innerhalb des Projektes wiederspiegelt. Was sich zuerst einfach anhört, wird bei steigender Seitenzahl recht kompliziert und ist häufig ein Grund dafür, dass das Verhältnis zwischen Seiten im ersten zu denen im zweiten Index ungünstig ausfällt.

Wenig bis kein Inhalt
Seiten, die nur aus wenigen Worten Text und ansonsten dem üblichen HTML-Gerüst aus Navigation und Footer bestehen, sind häufig betroffen. Verständlich, bei so wenig Content wird die Chance, dass dies genau das ist, was gesucht wird, recht gering. Häufig sind dies Seiten, die gar nicht erstellt wurden, um weit vorne in den Suchmaschinen positioniert zu sein: Templates, Kontaktseiten, grafiklastige Seite oder auch Profilseiten von Mitgliedern eines Forums.

URL-Struktur
Google liebt statische HTML-Seiten. Die Inhalte werden nicht zu häufig geändert, sind meistens hochwertiger als dynamische, es gibt ordentliche, vom Googlebot auszuwertende HTTP-Header und die Wahrscheinlichkeit, dass Google sich in schlecht programmierten, dynamischen Datenbanken verrennt, ist nicht gegeben. Wie Google selber schreibt, hat die Anzahl der Parameter einer dynamischen Seite Einfluss darauf, ob eine Seite im ersten oder zweiten Index erscheint.

Eingehende Links
Wie so häufig im SEO-Bereich ist die Quali- und Quantität der eingehenden Links eine Möglichkeit die individuellen Grenzen für das eigene Projekt etwas zu verschieben. Die Aussagen „Die großen Seiten können sich viel erlauben“ kommt nicht von ungefähr und wer meint, mit drei bis vier Backlinks aus Artikelverzeichnissen einen kompletten Produktkatalog mit einem Umfang von einigen hunderttausend Seiten in den Index zu schießen, sollte sich nicht wundern, wenn ein Großteil der Seiten im Supplemental Index landen – sofern sie überhaupt aufgenommen werden.

Morgen geht es dann endlich ans Eingemachte – mögliche Strategien, um dem „Google Hell“ zu entkommen oder zumindest die Anzahl der dort gelagerten Seiten deutlich zu reduzieren.

Teil I: Webseiten zweiter Klasse?
Teil II: Wieso hat es mich erwischt?
Teil III: Wie entkomme ich dem Google Hell?

Ähnliche Beiträge
Kommentare
Avatar Tom   
6. Juni 2007, 14:54

Schöne Artikel-Serie! Hat sich eigentlich schon mal jemande mit dem Schicksal beschäftigt, dass AJAX Seiten ereilt? Wir arbeiten gerade an einem Umbau unserer Seite und die Startseite wird praktisch nur über AJAX bedient werden – aus Usability-Gründen.
Hat hier jemand schon einmal gute Strategien entwickelt, diese Google trotzdem schmackhaft zu machen?

Danke,

Tom

Avatar Lukas   
6. Juni 2007, 20:11

„Startseite wird praktisch nur über AJAX bedient werden – aus Usability-Gründen“ Das ist doch schon ein Widerspruch in sich.

Jede (vernünftige) Webseite sollte auch ohne AJAX gut zu bedienen sein. Nicht nur aus SuMa-Sicht. es gibt viele Menschen die Sehschwächen haben und einen speziell angepassten Browser benutzen oder gar einen Screenreader. Solchen Leute willst du also dein Projekt versperren?

Und jetzt komm mir nicht mit „Viel zu viel Aufwand“ o.ä. Solche Seiten sind sehr einfach zu realisieren.

Avatar Johannes   
6. Juni 2007, 22:19

Ich sehe aus SEO-Sicht derzeit auch wenig Möglichkeiten, AJAX-Seiten suchmaschinenfreundlich zu gestalten. Würde alles in Richtung Cloaking gehen …

Avatar Tobias   
7. Juni 2007, 01:11

Hi,

endlich ist spartipp.de raus aus diesem nervenden Supplemental Index. Zuvor konnte waren die besten Googleplätze so ca. 50…60. Die Ursache lag wohl schon lange zurück. Ich habe Google mehrmals nett angeschrieben und in den letzten Tagen die eingehende Verlinkung auf die Domain verbessert.

Avatar ordering cialis online   
6. August 2012, 08:06

Ich habe hierzulande aber auch diese Beobachtung gemacht. Wie heißt es doch: Wer schön sein will, muss leiden.Viele Grüße, KonstanzeP.S.: ich komme gerade von einer 4-stündigen FR-Sitzung

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.