Fallstudie: Warum stürzt stuttgart.de bei Google ab?

6. Mai 2013, 12:16

Das Stadtportal stuttgart.de gehört mit einem Rückgang von 65 Prozent zu den fünf Verlierern der Woche im SISTRIX Sichtbarkeitsindex. Schon in der Vorwoche war die Sichtbarkeit stark eingebrochen und seit dem 15.04.2013 ist der Sichtbarkeitsindex von 14,95 Punkte auf 2,79 Punkte (-81 Prozent) gefallen. Was ist los im Ländle?

SISTRIX Sichtbarkeitsindex stuttgart.de

Entwicklung SISTRIX Sichtbarkeitsindex stuttgart.de

Für ein offizielles und gut verlinktes Stadtportal mit exklusivem Content ist ein solcher Einbruch ungewöhnlich. Eine Google Penalty würde man daher nicht zu allererst als Ursache vermuten. Ein Blick auf die weggefallenen Keywords der letzten Woche zeigt, dass ein größeres Problem vorliegen muss, wenn stuttgart.de für Keywords wie z.B. „museum stuttgart“, „theater stuttgart“ und „schule stuttgart“ von Platz 1 komplett aus den Top-100 fällt.

Weggefallene Keywords stuttgart.de

Auszug aus der Liste der Keywords, bei denen stuttgart.de in der vergangenen Woche aus den Top-100 gefallen ist

Um die Website zu überprüfen, haben wir stuttgart.de daher mit dem SISTRIX Optimizer überprüft und 10.000 Seiten crawlen lassen. Bei der Optimizer-Auswertung fällt sofort die hohe Anzahl von 519 Serverfehler auf.

Auszug SISTRIX Optimizer Analyse stuttgart.de

Auszug SISTRIX Optimizer Analyse stuttgart.de

In der Detailansicht sehen wir, dass der Server sehr häufig den HTTP-Status-Code 503 (Service Unavailable) ausliefert. Ruft man eine einzelne dieser Seiten manuell auf, ist dieses Problem hingegen nicht zu beobachten. Dieses Verhalten des Servers scheint nur beim Crawlen einer größeren Anzahl Seiten aufzutreten. Es ist zu vermuten, dass auch der Googlebot auf die gleichen Probleme stößt. Das wäre auch eine plausible Erklärung dafür, warum stuttgart.de für seine ureigensten Keywords komplett aus den Rankings verschwindet.

Serverfehler stuttgart.de

Auszug aus der Liste der Serverfehler von stuttgart.de

Suboptimal ist sicherlich auch die Tatsache, dass man alle URLs sowohl mit http als auch mit https aufrufen kann und dass viele URLs zu viele Parameter beinhalten. Diese SEO-Schwächen liegen aber wahrscheinlich schon länger vor und dürften für den aktuellen Absturz nicht verantwortlich sein.

In der robots.txt von stuttgart.de wird eine lange Liste von Crawlern ausgeschlossen. Das bestätigt die Vermutung, dass die sparsamen Schwaben eventuell auch mit den 503-Statuscodes datenhungrige Crawler sperren wollen, dabei aber nicht die Auswirkungen auf die Google-Rankings beachtet haben.

Damit hätten wir einen ähnlichen Fall wie bei apple.com vor ein paar Wochen mit dem einzigen Unterschied, dass der Server dort bei intensivem Crawling 403- anstatt 503-Statuscodes ausgeliefert hat. Die Domain apple.com hat sich übrigens inzwischen wieder gut erholt und kratzt aktuell an der 200-Punkte-Linie im Sichtbarkeitsindex.

Dieser Beitrag hat 22 Kommentare

 
  6. Mai 2013, 12:29

Habt ihr die Schwaben mal angemailt und denen den Link zum Artikel geschickt?

 
Hanns Kronenberg
  6. Mai 2013, 12:41

@Sebastian: Du bist optimistisch, dass eine solche Mail dort den richtigen Ansprechpartner erreicht. Da jeder jeden über drei Ecken kennt, bin ich optimistisch, dass die Freunde in Stuttgart auch so auf den Artikel aufmerksam werden. Zu deren Verteidigung muss ich zudem sagen, dass sie im Vergleich zu Berlin, Hamburg und München auch mit einem extrem geringen Budget für die Website auskommen müssen. Zumindest war das vor ein paar Jahren der Fall.

 
Sebastian Gebert
  6. Mai 2013, 12:47

Och, einfach auf Facebook taggen.
Mal sehen was dann passiert 😉

 
Armin Ginschel
  6. Mai 2013, 12:56

Ich dachte, die Schwaben könnten alles außer Bahnhof und Hochdeutsch. SEO gehört wohl auch dazu. Als Stuttgarter schmerzt mich das dann doch.
Ich habe zumindest mal auf der Fatzebookseite von stuttgart.de einen Hinweis reingesetzt. Vielleicht kommt es ja irgendwo an. 😉

 
  6. Mai 2013, 13:11

vielleicht haben die Stuttgarter auch nur Praktikanten da sitzen?

 
  6. Mai 2013, 13:32

> Suboptimal ist sicherlich auch die Tatsache, dass man alle
> URLs sowohl mit http als auch mit https aufrufen kann

Hm, was ist daran denn problematisch? Und anders: Wie sollte man umgehen? 30x redirect von http auf https?

 
  6. Mai 2013, 14:13

Hallo Hanns,

letzte Woche habe ich die Domain zufällg im Tool unter den „Verlierern“ gesehen und habe mich schon etwas gewundert, weil ich ja selbst Stuttgarter bin 🙂

Wenn man jetzt handelt, dann kommen die Rankings wieder problemlos zurück. Ich vermute, dass SEO sowieso keine überaus relevante Einnahmequelle für die Stadt war/ist? Der Relaunch ist schon eine Weile her (ca. 1.5 Jahre?), da hat Google schon sehr lange gewartet, bis die Domain auf die Finger bekommen hat. Wenn das einem Affiliate passiert wäre, der direkt monetarisiert, dann wäre das fatal.

Andere Meinungen?

Liebe Grüße aus dem Schwabenland,

Tobias

 
Hanns Kronenberg
  6. Mai 2013, 14:24

@Tobias: Ich vermute, die 503-Problematik ist relativ neu und nicht schon seit dem letzten Relaunch vorhanden. Als Einnahmequelle ist der Traffic über Google für stuttgart.de wahrscheinlich nicht hochrangig wichtig, aber die Stadt hat sicherlich Interesse daran, die Informationshoheit für gewisse Themen zu besitzen, damit die Bürger nicht zu den falschen Öffnungszeiten in die Ämter kommen, die richtigen Unterlagen mitbringen, städtische Einrichtungen im rechten Licht erscheinen usw.

 
  6. Mai 2013, 14:47

Tatsächlich, wenn man im Browser einen Googlebot simuliert, bekommt man z.B. hier. http://stuttgart.de/item/show/378609/1/keyword/4937 einen 503er…

Wieso nur?

Da wäre ich ja lange nicht drauf gekommen! Zum Glück werden die das schnell wieder korrigieren können…

 
  6. Mai 2013, 15:09

Könnte es auch ein „Server-Virus“ sein, den ein Wettbewerber dazu benutzt, eine Seite bei Google zu kicken? Hättest ihr von Sistrix Euch nicht zufällig des Themas angenommen, würde so etwas vermutlich nicht auffallen…

 
  6. Mai 2013, 20:23

Würde sagen, der Screenshot zeigt alles. Daneben scheint da aber noch eine ganze Menge mehr nicht in Ordnung zu sein, wenn ich mir die URLs so anschaue: mit https und ohne, mit www und ohne, mit dynamischen Parametern und ohne…Canonical Tag ist auch net eingebunden, der hreflang ist auch völlig falsch integriert…

 
  6. Mai 2013, 20:24
 

[…] zeigt am Beispiel stuttgart.de, wie man mit Hilfe des SI Fehler aufspüren […]

 
  7. Mai 2013, 09:12

guten morgen zusammen! wir haben letzte woche einen ähnlichen einbruch bei http://www.immonet.de beobachtet. dort sind auch etliche gute rankings für die keywordkombis bank + stadt aus den SERPs geflogen wo sie oft in den top 10 aufgetaucht sind. auch ist eine reduzierung der indexierten seiten um 85% eine verrückte entwicklung. kann hier das gleiche problem vorliegen wie bei stuttgart.de? ich würde lügen wenn es mich mit projekten für andere immobilienseiten nicht freut aber wenn es mit ähnlicher problematik mehrere große seiten trifft bleibt die befürchtung, dass es auch andere große seiten erwischt. könnt ihr zu immonet.de evtl. eine ähnliche auswertung machen? mich interessiert ob es parallelen gibt.. vg florian

 
  7. Mai 2013, 10:20

Wird gerade weitergeleitet 😉

 
Hanns Kronenberg
  7. Mai 2013, 10:57

@florian: Ähnlichkeiten zu http://www.immonet.de kann ich nicht erkennen. Da hat der starke Aufwärtstrend kurz etwas geschwächelt, aber insgesamt ist die Entwicklung bei immonet.de seit Monaten sehr positiv.

 

[…] Die Sichtbarkeit kann zeigen wie gut oder schlecht sich die Rankings einer Domain in Google entwickeln. Anhand des Wertes kann man sich mit Wettbewerbern vergleichen (besonders gut durch den „Eigenen Sichtbarkeitsindex“ und durch Keyword-Sets die man individuelle in der Toolbox erstellt) aber auch technische Probleme frühzeitig erkennen. Die genaue Analyse eines technischen Problems ist damit zwar nicht möglich, aber hier kann der SISTRIX Optimizer helfen (siehe Stuttgart.de Fallstudie). […]

 
Thomas
  8. Mai 2013, 09:36

Habe eine Frage hierzu:
„dass die sparsamen Schwaben eventuell auch mit den 503-Statuscodes datenhungrige Crawler sperren wollen, dabei aber nicht die Auswirkungen auf die Google-Rankings beachtet haben.“

Meine Vermutung wäre ja, dass es dem Google crawler hilft, wenn man Ressourcen zum crawlen frei macht. Wirkt sich die Sperrung von Bots in so weit negativ auf das Ranking aus, weil u.U. viele Links wegfallen? Sollte man eher selektiv beim ausschließen von Bots ausgehen? Würde mich über eine Rückmeldung freuen =)

Grüße,
Thomas

 
Hanns Kronenberg
  8. Mai 2013, 12:36

@Thomas: Wenn der Googlebot Seiten nicht crawlen kann, kann er sie auch nicht in den Index aufnehmen. Seiten, die nicht im Index sind, können als Suchergebnis auch nicht mehr angezeigt werden. Google hat die Funktion seiner Suche inklusive Crawling und Indexierung hier sehr anschaulich dargestellt: http://www.google.de/insidesearch/howsearchworks/thestory/

Ich würde mir nicht allzuviele Gedanken über das selektive Aussperren von Bots machen. Eigentlich sind bei den heutigen Serverleistungen und Trafficpreisen Bots kein nennenswerter Kostenfaktor. Wenn Bots die Server überlasten, dann würde ich mir eher Gedanken über die Website-Architektur und weniger über die Bots machen. So kann man dann das Problem an der Wurzel packen und nicht nur die Symptome bekämpfen.

 
Thomas
  8. Mai 2013, 15:15

Also klar den Googlebot wollte ich nicht aussperren 😉 Hatte da mehr an diverse Content-Aggregatoren gedacht, die Websites crawlen und irgendwo sammeln… ihr kennt die Geschichte, sorgt halt für uninteressante Links und wie ich gemerkt habe auch schlechte Nachbarschaft (z.B. ein Reiseveranstalter für Thailand wird da auf den gleichen Seiten, wie Ü18 Seiten mit Thailand-Bezug gelistet).

Danke für die Rückmeldung,
Grüße Thomas

 

[…] wir in den letzten Wochen mehrere Verlierer (apple.com, stuttgart.de, sportschau.de) im SISTRIX Sichtbarkeitsindex näher beleuchtet haben, wollen wir uns heute auch […]

 
Viktor
  23. Mai 2013, 11:20

geht wieder aufwärts, ist also reparabel sofern man es schnell fixt….

 

Kommentare geschlossen

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.