Google Update? Starke Veränderungen bei der Anzahl indexierter Seiten

Hanns Kronenberg
Hanns hat Betriebswirtschaft mit den Schwerpunkten Marketing und Statistik in Münster studiert. Er beschäftigt sich seit über 10 Jahren mit dem Thema Suchmaschinen. Nach beruflichen Stationen in Leitungsfunktionen bei Unternehmen wie RTL, Deutsche Telekom, TOMORROW FOCUS, muenchen.de und meinestadt.de arbeitete Hanns bis zu seinem Wechsel zu SISTRIX als selbstständiger SEO-Unternehmensberater.
Artikel teilen
21. Juli 2017 9 Kommentare
Die Site-Abfrage bei Google (site:domain.de) liefert seit 1–2 Wochen für viele Domains deutlich geringere Werte. Bedeutet das, dass jetzt weniger Seiten indexiert werden?

Diese Woche bekamen wir eine interessante Support-Anfrage bezüglich der gesunkenen Anzahl indexierter Seiten bei mehreren Domains. Daher habe ich mir die Daten zu der Anzahl indexierter Seiten von einigen Domains angeschaut. Tatsächlich zeigen auffällig viele Kurven einen ungewöhnlichen Abfall der Werte in der aktuellen Woche.

Über 50 % Rückgang der indexierten Seiten

Die folgende Tabelle zeigt das Ergebnis meiner händischen (nicht repräsentativen) Prüfung einiger großer Domains. Wie man sieht, ging bei 15 von 20 Domains die Anzahl indexierter Seiten in den letzten Wochen deutlich zurück. Fast die Hälfte der untersuchten Domains hat über 50 Prozent der Seiten verloren.

Nr.DomainAnzahl indexirte Seiten laut Google Site-Abfrage  
Veränderung
03.07.2017
10.07.2017
17.07.2017
in Prozent
1heise.de
6.420.000
3.920.000
659.000
-89,74%
2zeit.de
3.160.000
2.890.000
729.330
-76,92%
3dastelefonbuch.de
10.200.000
7.260.000
2.660.000
-73,92%
4focus.de
2.760.000
2.270.000
800.000
-71,01%
5meinestadt.de
7.250.000
5.510.000
2.400.000
-66,90%
6chefkoch.de
3.710.000
2.690.000
1.250.000
-66,31%
7chip.de
1.560.000
1.510.000
577.000
-63,01%
8duden.de
1.070.000
1.050.000
505.000
-52,80%
9sueddeutsche.de
1.530.000
1.260.000
724.670
-52,64%
10wikipedia.org
182.330.000
156.830.000
132.000.000
-27,60%
11idealo.de
1.140.000
1.100.000
833.500
-26,89%
12welt.de
5.600.000
4.420.000
4.780.000
-14,64%
13ebay-kleinanzeigen.de
17.400.000
18.000.000
16.900.000
-2,87%
14twitter.com
1.138.330.000
1.117.140.000
1.110.000.000
-2,49%
15holidaycheck.de
1.150.000
1.130.000
1.130.000
-1,74%
16youtube.com
1.178.330.000
1.300.000.000
1.193.330.000
1,27%
17spiegel.de
3.990.000
4.020.000
4.090.000
2,51%
18wiktionary.org
22.700.000
23.600.000
23.900.000
5,29%
19ebay.de
46.330.000
42.610.000
59.100.000
27,56%
20facebook.com
2.731.430.000
2.556.670.000
3.950.000.000
44,61%

Welche Seiten sind betroffen?

Man kann das Phänomen scheinbar bei vielen News-Seiten wie z.B. heise.de, focus.de, sueddeutsche.de und zeit.de beobachten, aber auch bei Plattformen mir lokalen Informationen wie dastelefonbuch.de und meinestadt.de. Es gibt aber auch Gegenbeispiele wie spiegel.de, die sogar leicht zugelegt haben. Ein einheitliches Muster ist daher nicht deutlich zu erkennen und dafür ist die Stichprobe von n=20 sicherlich auch zu klein.

Was zeigt die Site-Abfrage eigentlich an?

Es es wichtig zu wissen, dass die Site-Abfrage bei Google nur eine grobe Schätzung der indexierten Seiten liefert. Google zählt die Seiten nicht wirklich durch, sondern schätz deren Anzahl mit einem Algorithmus. Dieser Algorithmus wurde von Google nicht darauf optimiert die Zahl möglichst genau zu schätzen, sondern möglichst schnell. Wichtiger als die Genauigkeit ist es für Google die Ergebnisseite in weniger als 0,5 Sekunden ausliefern zu können.

Daher sollte man die die Ergebnisse der Site-Abfrage immer mit Vorsicht genießen. Die Site-Abfrage liefert z.B. andere Daten als die Google Search Console, da dort ein anderer Algorithmus zur Bestimmung der indexierten Seiten verwendet wird. Wenn man aber die Werte mit anderen Domains vergleichen will, bei denen man keinen Zugang zur Search Console hat, bleiben einem nur die öffentlichen Werte der Site-Abfrage.

Wenn Google bei der Site-Abfrage die Anzahl indexierter Seiten falsch schätz, dann schätzen sie die Zahl relativ konstant falsch ein. Eine Veränderung der richtigen oder falschen Werte kann durchaus eine wichtige Bedeutung haben. Man sollte solche Schwankungen nicht einfach ignorieren.

Hin und wieder gab es aber auch in der Vergangenheit starke Veränderungen über viele Domains, die eher darauf hindeuteten, dass wahrscheinlich der Schätz-Algorithmus in irgendeiner Form geändert wurde. Das könnte auch jetzt der Fall sein.

Der Sichtbarkeitsindex der betroffenen Domains zeigt keine Auffälligkeiten

Die veränderten Werte der Site-Abfrage haben keinen erkennbaren Einfluss auf die Sichtbarkeit der Domains bei Google. Ohnehin bedeuten mehr indexierte Seiten nicht automatisch mehr Sichtbarkeit. Häufig ist weniger mehr. Seiten ohne (größeren) Mehrwert für die Suchmaschine gehören nicht in den Index bei Google. Die Indexhygiene ist ein wichtiges Thema, um das Index-Budget optimal zu nutzen.

Die Tatsache, dass keine auffälligen Veränderungen in der Sichtbarkeit der betroffenen Domains erkennbar ist, deutet darauf hin, dass Google tatsächlich nur den Schätz-Algorithmus geändert hat. Eventuell gibt es einen Zusammenhang zur aktuellen Überarbeitung der Search Console.

Was soll ich machen, wenn meine Domain betroffen ist?

Sollte die eigene Domain betroffen sein, ohne das Auswirkungen im Sichtbarkeitsindex erkennbar sind. sollte man sich keine großen Sorgen machen. Da viele Domains betroffen sind, ist es wahrscheinlicher, dass Google etwas geändert hat als das man selbst einen Fehler gemacht hat.

Es bietet sich an die Daten zur Indexierung in der Search Console zu überprüfen. Sollte es dort keine Auffälligkeiten geben, gibt es keinen Anlass zur Sorge.

Schreibt doch in die Kommentare, welche Beobachtungen ihr gemacht habt.

Benjamin Halmai
21. Juli 2017, 14:27

Hallo Hanns,

danke für deinen Beitrag. Das Phänomen das du beschreibst, konnte ich auch für zwei unserer Projekte nachvollziehen. Die Zahlen aus der Site: Abfrage differieren zwischen 20 – 40% zu den Angaben in der Search Console. Gleichzeitig konnte ich an einem Tag sogar eine Verdoppelung der Angaben aus der Site-Abfrage ausmachen. Einige Stunden später war alles wie zuvor. Ebenfalls kann ich keinen Abfall in der Sichtbarkeit unserer Projekte ausmachen, zumindest nicht in der Höhe wie die Zahlen der Site: Abfrage schwanken 😉
Na mal schauen ob die Darstellung der Site:Abrage dauerhaft so ungenau bleibt. Bisher hatten wir meist eine Entsprechung der Anzahl der Seiten die wir über die Sitemap kommunizieren.
Grüße
Benjamin

21. Juli 2017, 14:40

Hallo Hannes,

mir ist das auch bei unseren Online-Shops zum Teil aufgefallen.
zB http://www.skribo.at hat einen Abfall von 12k auf 3k URLs gehabt, in der Search Console sehe ich aber noch den Wert mit 12k indexierten Seiten.

LG,
Dominik

21. Juli 2017, 15:55

Hallo Hanns, hast du vielleicht auch Zahlen darüber vorliegen wie viele Seiten heise.de wirklich hat und was waren nur Print, Share – also einfach Duplicate Links. Ich schätze die Lage so ein, dass aufgrund des konstanten Sistrix Indes nur einzelne Seiten minderer Qualität ausgefiltert werden und den Index so schneller zu machen.

21. Juli 2017, 21:09

Bei meinen Onlineseiten fast 50% weniger indiziert. Bei google direkt habe ich allerdings nichts verloren.

Florian Erbach
25. Juli 2017, 09:23

Bei der „Site:xy.de“ Abfrage werden tatsächlich weniger Seiten angezeigt, bei „site:www.xy.de“ allerdings umso mehr. Ich glaube, dass die Abfrage im Moment einfach spinnt?

26. Juli 2017, 16:52

Hallo Hannes,

das ist in der Tat eine spannende Auffäligkeit. Das ist mir bei meinen Seiten auch aufgefallen. Komisch ist, das es bei den neueren kleinen Seiten keine Unterschiede gibt, sondern nur bei den Seiten, die schon länger betehen. Zumindest ist das bei mir so. Auch das was Florian schon geschrieben hat ist mir aufgefallen. Mit www bekomme ich deutlich mehr und dann passt das auch mit der Search Console besser zusammen.
Da hat wohl jemand am Algorithmus gespielt 🙂

Google wird das wahrscheinlich unkommentiert wieder ändern und alles ist gut.

LG
René

30. Juli 2017, 18:59

Lieber Hanns,

vielen Dank für diesen interessanten Beitrag. Auch von der SC ist man ja generell einiges an Abweichungen gewöhnt. Sind eben alles nur approximierte Werte.

Vor allem, da die Sichtbarkeit scheinbar nicht wirklich betroffen ist, sollte man sich über diese Auffälligkeiten keine größeren Gedanken machen. Aber dennoch interessant zu sehen.

Wenn ich feststellen würde, dass auf einmal 90 % weniger Seiten im Index sind … da verschluckt man sich beim Frühstück vor dem PC erst mal auf jeden Fall 😀

Allerdings kann ich mir spontan keinen Reim darauf bilden, warum die Zahlen zwischen den Domains so varrieren und vor allem wie der starke Anstieg bei Facebook zu Stande kommt.

Naja, Google lässt mal wieder viel Raum zur Spekulation 🙂

Liebe Grüße und einen schönen Abend,
Julius

8. August 2017, 15:03

Hallo Hannes,

vielen Dank für diesen informativen Beitrag. Ich arbeite bei einem Online Shop und auch wir sind von den Änderungen betroffen. Von Woche zu Woche werden es in allen drei Ländern unseres Shops weniger indexierte Seiten. Während für tausendkind.de der SI aber recht stabil ist, beobachten wir in den letzten 2-3 Wochen für tausendkind.at und tausendkind.ch allerdings auch einen Abfall der Sichtbarkeit. Kann irgendjemand vielleicht auch noch von nachträglichen Sichtbarkeitsverlusten berichten?

Viele Grüße
Vanessa

10. August 2017, 22:33

Ich habe im Januar schon gewarnt, das Google beim Update zu dieser Zeit die ganzen Blogs, Newsseiten und Foren sowie kleinere und mittelgroße Projekte mächtig viel Traffic gegeben hat und die Elite das abgezogen hat. Traffic den die Kleinen in den 2 Jahren zuvor verloren haben, wird nur vorübergehend sein, denn Google wird kein Interesse daran haben und setzen schon über Jahre auf Geld verdienen und passen das Ranking danach an. Ob das Branding jetzt wieder ein Monsterpush bekommen hat, weis ich nicht genau, spricht aber dafür.

Was z.B in der Liste hier auffällt das EBay und Facebook noch mal massiv nach vorn gespült wurden die letzten Tage. Facebook liegt nun bei 6.950.000.000 und ebay bei 112.000.000, beide haben sich etwas noch mal verdoppelt im Vergleich zum 17.01. und die Veränderung ist sicher noch nicht durch. Wiki liegt z.B. jetzt bei 108.000.000 und fällt somit hinter ebay zurück. Focus 799.000 ^^ Allerdings sieht man keinen Trafficverlust bei Focus, Heisse und co. Somit kann sein, dass die Siteabfrage auch defekt ist. Verluste müssen aber kleinere Seiten massiv alle hinnehmen. Bei mir wurde etwa 40% der Keywordpositionen abgezogen. Ich habe die Toppositionen auf der 1.Seiten sogar alle behalten, aber es wurden in den hinteren Seiten die Links bei mir massiv raus genommen. ^^ Trafficverlust im Vergleich zu Januar – Juni sind nun schon wieder 20%, hoffe nicht das ich noch mal 50% verliere wenn immer mehr Seiten aus dem Index verschwinden um sie vielleicht mit Facebook, Ebay und co. Zu ersetzen, weil dort was verkauft wird.