Misstrauen gegenüber Google Sitemaps

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Google Sitemaps, jetzt seit über eineinhalb Jahren aktiv, scheint in letzter Zeit Quell für zahlreiche Spekulationen und Verschwörungstheorien geworden zu sein. Mal wird die Anmeldung bei Google Sitemaps mit PageRank-Verschiebungen in Verbindung gebracht, dann wieder werden dem Google-Tool Rankingsprünge angelastet.

Man sollte Google Sitemaps als das sehen, was es ist: Eine technische Schnittstelle, die es der Suchmaschine erleichtert, einen Überblick über alle vorhandenen Dokumente zu erhalten. Während der Googlebot bei Seiten, die keine XML-Sitemap anbieten die Struktur der Seite noch eigenständig durchforsten muss, so kann er mit der Sitemap den Crawlvorgang an beliebigen Stellen starten und die Wahrscheinlichkeit, dass alle Seiten erfasst werden, ist dadurch deutlich größer.

In US-Blogs wurde in letzter Zeit häufiger der Tipp gegeben, sich zwar bei den Google-Webmastertools anzumelden aber keine Sitemap einzureichen. Begründung war, dass durch Sitemaps Seiten in den Index kommen, die ohne diese Unterstützung nie gecrawled worden wären, da ihnen die interne und externe Verlinkung fehlt. Durch Sitemaps würden also Fehler in der internen und externen Linkstruktur eines Projektes verdeckt und somit schwieriger zu finden. Ein interessantes Argument, aber kein Problem von Sitemaps, sondern der Planung der Verlinkung.

Bei Nutzung von Sitemaps sollte also immer im Hinterkopf behalten werden, dass man dem Suchmaschinencrawler lediglich Hinweise auf (neue) Seiten gibt – Einflüsse auf das Ranking oder eine Garantie für die saubere Indexierung großer Projekte ist damit nicht verbunden. Eine saubere Planung neuer Seiten ist nach wie vor notwendig – Fehler darin sollte man aber bei sich selber und nicht bei Google Sitemaps suchen.

Ähnliche Beiträge
Kommentare
Avatar Georg   
28. Februar 2007, 18:48

Na ich denke die Meisten haben ein Problem damit, dass sie ihre Webseiten Verlinkungsstruktur bei mehreren Seiten preisgeben. So nach dem Motto: Google wertet Dich jetzt ab, da wir durch Deine Sitemaps wissen, dass „die“ und „die“ Seiten Dir gehören – Trustminderung, da nicht objektiv evtl.

Ansonsten sehe ich das aber auch so – Sitemap ist ein Hilfreiches Tool wer keine Seite zu verbergen hat. Man kann so schnell seine Seitenstruktur veröffentlichen und Crawling Fehler werden auch noch angezeigt.

Avatar Johannes   
28. Februar 2007, 19:25

Wenn Google alle Projekte eines Webmasters/einer Firma abwerten oder aus dem Index werfen will, so können die Verbindungen gut über andere Indizien (AdSense-Account, IP, Nameserver, Linknetzwerke, Whois-Daten, etc) herstellen – dafür wird Sitemaps nicht benötigt 🙂

Allerdings wird sowas nicht automatisiert passieren. Und damit sich jemand von Google deinen Projekten persönlich annimmt, muss man schon extrem negativ auffallen.

Avatar Georg   
1. März 2007, 08:40

Da gebe ich Dir Recht – kurz gesagt ist mir mal wieder bei der Diskusion Sitemap aufgefallen, dass es doch ein paar SEOs mit paranoider Neigung gibt …

Avatar Mario Fischer   
4. März 2007, 22:17

Eine Sitemap hochladen… Bringt das wirklich was? Sind die Seiten sauber per html verlinkt, dann findet sie Googy sowieso. Sind sie das nicht (javascript, Flash ect), nützt es herzlich wenig, wenn der Robot die Seite nun zwar findet und crawled – aber keinerlei Links drauf zeigen. Wir wissen alle, dass eine Seite ohne eingehende Links in Googles Augen nicht mal wert ist, drauf zu spucken… 😉
Eine Domain wird selbst bei manueller Anmeldung unter „URL hinzufügen“ seit etwa 1 Jahr noch nicht einmal mehr gecrawlt, wenn sei noch keine Inbound-Links hat.

Sitemaps hochladen halte ich persönlich also eher für ein Placebo. Aber Webmastertools (hieß früher Sitemaps) hat es in sich mittlerweile. Viele nützliche Infos einschließlich der Inboundlinks auf jede einzelne Seite – mit Datum! Wer´s noch nicht kennt – auf jeden Fall anschauen.

Avatar Johannes   
5. März 2007, 10:08

Mario, das ist ja auch das Argument, das ich in US-Blogs derzeit häufig lese: „saubere und ordentliche Seiten haben auch ohne Sitemaps kein Problem“.

Das mag für kleinere Projekte mit relativ wenig Seiten noch zutreffen und nachvollziehbar sein, wenn es aber an Seiten/Foren geht, die zehn- oder hunderttausende von Seiten haben, die in den Index müssen, so denke ich, dass man Google ruhig etwas Hilfe beim Erfassen aller URLs geben sollte – der Platz im Index ist begrenzt und wieso sollte man es dem Bot unnötig schwer machen, in dem man ihn durch zig Untermenues und Seiten crawlen lässt?

Avatar Mario Fischer   
5. März 2007, 17:10

Daran hab ich schon gedacht. Muss man aber meiner Ansicht nach differenzierter sehen. Gurgel nimmt ja nicht alle und beliebig viele Webseiten! „Schwache“ Domains haben auch bei vielen Seiten Probleme, da nützt auch das Sitemap-hochladen nix.
Eine Site mit niedrigem PR hat auch beim Hochladen einer 10.000 Seiten-Sitemap keine realistische Chance auf Crawling. Bei PR-starken Seiten werden nach meiner Erfahrung auch mehr Seiten in den Index aufgenommen bzw. der Crawler kommt bei ständig aktualiserten Seiten mehrmals täglich – auch ohne Sitemap.

Und ob Google bei 20.000 Seiten eine täglich automatisch generierte Änderung von 6 Seiten tatsächlich wahrnimmt…? Mag sein. Aber so richtige Erfolgsmeldungen von begeisterten Hochladern hab ich bisher noch nicht gefunden. Was aber nix heißen muss.

Avatar Thomas Matti   
14. März 2007, 15:21

Statt Zeit in Sitemaps zu investieren sollten sich viele lieber wieder mal ihren eigenem Content widmen.

Technische „Hilfskrücken“ wie die Sitemaps werden nach meiner Meinung am meisten von SEO’s genutzt die nichts auslassen was sie im Ranking weiterbringen könnte. Aber eben nur auf dem „Tech-Level“.

Sich Ideen für erfolgreiche Projekte auszudenken.
Und Weiterbildungen die einem die nötigen Inspirationen gibt und einem das erschliessen von neuen Möglichkeiten eröffnet gelangt damit immer mehr in den Hintergrund.

Mir soll’s recht sein wenn meine Mitbewerber an Sitemaps rumfummeln während ich eine neue Seite ins Leben rufe.

Avatar Uwe Reuland   
22. März 2007, 16:22

Zeitnah eine aktuelle Linkliste bereitzustellen ist sicher sinnvoll. Es gibt aber große Unterschiede bei den frei erhältlichen Sitemap-Generatoren, hinsichtlich der Funktionen und auch der Qualität! Viele können z.B. keine Java-Script links lesen! Kann jemand einen Generator empfehlen?

Avatar Aquaristik Freak   
25. März 2007, 17:55

Javascript Links sollte man sowieso nicht haben.

Schon mal GSiteCrawler verwendet ?

Avatar Pelle Boese   
14. Mai 2007, 14:26

Eine Sitemap anzulegen macht bei dynamisch generierten Webseiten sogut wie keine Arbeit. Innerhalb der Sitemap kann man sogar die einzelnen Seiten noch gewichten et cetera. Für mich macht dies durchaus Sinn. Ausserdem vergessen hier anscheinend viele semi-professionelle SEOs („Mir soll’s recht sein wenn meine Mitbewerber an Sitemaps rumfummeln während ich eine neue Seite ins Leben rufe.“) dass es auch Profis gibt die ihr Geld z.B. mit der Beratung anderer Unternehmen verdienen. Es wäre schon beinahe eine Schande, eine Sitemap NICHT mit in das Angebot aufzunehmen und vermutlich fragt heutzutage auch jeder Kunde danach. Ich jedenfalls benutze Sitemaps und habe durchweg gute Erfahrungen damit gemacht. Sowohl bei eigenen Seiten als auch bei Kunden.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.