Was macht Google mit der site:-Abfrage?

Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.
18. März 2010 25 Kommentare

Seit dem Wochenende sorgt Google bei den Rückgabewerten der site:domain.tld-Abfrage für Verwirrung: sie liegen bei fast allen größeren Seiten auf einem deutlich niedrigeren Niveau im Vergleich zu den Werten der Vorwoche. So hat Wikipedia.org 72% verloren, Ebay.de rund 90% und Amazon.de laut der Daten gar 94% weniger Seiten im Index. Hier der Verlauf der durchschnittlichen Seiten im Googleindex der Top-1000-Domains laut SISTRIX Sichtbarkeitsindex in den letzten 12 Monaten:


Schön zu sehen, dass sich der durchschnittliche Wert im letzten Jahr deutlich gesteigert hat, sich in dieser Woche aber von 16,1 auf 8,6 Millionen fast halbiert hat. Über die Hintergründe kann man nur spekulieren. Wer für Verschwörungstheorien offen ist, dem könnte etwas wie „Caffeine, erster und zweiter Index“ weiterhelfen … wir werden sehen, wie sich das entwickelt. Update: auch Eric hat sich heute zu dem Thema Gedanken gemacht: Dramatisch fallende Seitenzahlen im Google-Index

Philipp
18. März 2010, 09:29

Hi Johannes,

kannst du schon nachvollziehen, ob sich dieser über den site-Befehl dargestellte Rückgang an indizierten Seiten auf die Sichtbarkeit der Top-1000 Domains ausgewirkt hat?

Die von Google in den Webmaster Tools genannte Zahl an indizierten Seiten bestätigt diesen Rückgang bei den von uns beobachteten Projekten übrigens nicht.

Gruß,
Philipp

18. März 2010, 09:29

Stimmt, die Zahlen sind deutlich in den Keller gegangen und liegen jetzt auch bei kleineren Seiten unter der Zahl der vorhandenen Unterseiten. In den letzten Wochen waren aber zumindest die auf der ersten Seite der site:-Abfrage angezeigten Zahlen („1-10 von ungefähr xxxx“) um ein Vielfaches größer als die tatsächlich im Index vorhandenen Seiten. Fiktives Beispiel: site:hallo.de – 1100 Ergebnisse. Parameter &start=980 angehängt – 358 Ergebnisse. Vielleicht hängt damit die Aufräumaktion zusammen, oder dieser mögliche „Messfehler“ bedingt den nur scheinbar starken Abschwung bei vielen Seiten.

18. März 2010, 09:30

Philipp, nein an den Traffic- oder Sichtbarkeitsindex-Werten der Domains hat sich nichts geändert. Es scheint also eher Darstellungssache der site:-Abfrage als ein Indexproblem zu sein.

18. März 2010, 10:03

Ich konnte ein ähnliches Phänomen schon seit einiger Zeit auf google.com beobachten, während google.de noch die alten, hohen Werte aufwies. Gestern wars je nach Server von google.de ob man viele oder wenige Seiten im Index hatte…

18. März 2010, 10:21

Auf Google.com habe ich schon seit einigen Wochen weniger (laut site: Abfrage) indizierte Seiten bei einigen Projekten festgestellt. Bei Google.de hingegen waren die Werte normal, bis zum letzten Wochenende…

Ich kann auch bestätigen das der Traffic dadurch _nicht_ zurück gegangen ist (natürlich der, der von Google kommt 😉 ).

Eventuell wurden Seiten aus dem Index geschmissen die zwar indiziert waren, aber keinen Traffic über die Suchmaschine erhalten haben (z.B. bei Seiten die auf den Positionen 100 – X ranken).

Vielleicht anonymiziert man die „site:“ Abfrage und spuckt nur ein bruchteil der Ergebnisse aus, wie bei der „link:“ Abfrage (warum auch immer). Dazu müsste natürlich mal jemand überprüfen ob und welche Seiten von einem Projekt im Index waren und jetzt nicht mehr sind.

18. März 2010, 10:33

das ist schon manchmal unglaublich wie da mit zahlen gearbeitet wird, ich hatte dies bei kleineren projekten in letzter Zeit auch oft festgestellt und dachte mir, jetzt stimmt was nicht, was sich aber dann wieder in zwei Wochen eingespielt hatte…

twicks
18. März 2010, 11:03

schon einmal site:ebay.de -589850890 eingegeben? dann hängt man nicht immer im cache sondern bekommt frische daten.

18. März 2010, 11:11

Bei der Bildersuche ist die Site:-Abfrage vor ca. vier Wochen geändert worden (siehe http://www.tagseoblog.de/neue-google-images-site-search-bildersuche).
Vielleicht ist es ähnlich. Irgendwie so: vorher hat Google alle Seiten aufgelistet, die von einer Domain im Index waren, und nun nur noch die, die auch extern verlinkt sind. Oder so…
Möglicherweise gibt es ja – ähnlich wie der neue „imagesite:“-Befehl – nun auch einen anderen „Site-Befehl“. So was wie „indexsite:“ oder so.

18. März 2010, 12:55

Ja ich denke auch an eine Anonymisierung. Häufig machen ja SEO Tools automatisierte Abfragen ohne Ende und Google will auf diese Art vielleicht den Riegel vorschieben.

Timo
18. März 2010, 13:21

wenn man verschiedene bekannte URLs in der Toolbox eingibt und dann eben über die site Abfrage bei google überprüft, stimmen die Daten nicht überein.
In der Toolbox steht z.B. bei der abakus-internet-marketing Seite eine ganz andere Zahl in der Toolbox als bei der site Abfrage.
Vielleicht waren die nur zum Zeitpunkt Deiner Abfrage anders. Ist mir übrigens bei mehreren Domains aufgefallen, dass Du nur ca. 10 % der indexierten Seiten diese Woche anzeigst.

18. März 2010, 13:24

Timo, den Beitrag oben hattest du aber schon gelesen, oder? Bei deinem Beispiel (abakus) zeigt die Site-Abfrage bei mir gerade 22k an, die Toolbox 29k – das liegt daran, dass der zweite Wert ein gleitender Durchschnitt ist und sich so erst in 1-2 Tagen dem ersten anpassen wird.

teena75
18. März 2010, 13:44

Aufgemerkt:
site:meinedomain.de geht immer noch mitm alten Wert, lustigerweise aber nur in kombi mit inurl:

„site:meinedomain.de“ war bei mir 2,1 Mio
„site:meinedomain.de“ jetzt: 36.000
„site:meinedomain.de inurl:meinedomain.de“ ist immer noch 2,1 Mio

tommy
18. März 2010, 16:22

bei mir ist seit dem wochenende wieder alles in ordnung.

ich hatte eine zeitlang bei einem projkt laut site:meinedomain.de fast 4x soviel seiten im index als das projekt eigentlich hat. seit dem wochenende bekomme ich wieder normale werte…

18. März 2010, 18:55

Komme gerade aus Spanien zurück und hatte fast einen Schlag bekommen, alle Domains Minus 90% und mehr.
Da klebte aber kurz das Hemd am Leib (-:
Auswirkungen erkenne ich aber auf Anhieb nicht, mit cache: ist alles noch da und Besucherzahlen scheinen auch konstant zu sein?!

18. März 2010, 19:44

Dieser Index Tanz!
Findet oft vor einem Change oder PageRank Update statt!
Mal sehen!

Max
18. März 2010, 21:10

Ja die indexierten Seiten sind auch bei einem meiner Projekte deutlich gefallen um etwa 50%

Dabei hat es den gesammten DC erwischt, alle originalen Seiten sind noch komplett im Index und die Rankings haben sich deutlich verbessert, was ich aber nicht unbedingt damit in Verbindung bringen möchte.

Fakt ist, bei mir ist nur der DC aus dem Index verschwunden, worüber ich auch nicht böse bin :), da ich bei dem Projekt nicht an die Robots.txt rann komme und auch keine canonicals zur Verfügung habe.

Meta Blogger

18. März 2010, 21:16

Zumindest habe ich nun eine Erklärung, warum die site-Abfrage seit dem Wochenende solche Werte auswirft. Am Ranking oder Traffic hat sich nichts geändert.

18. März 2010, 21:32

oh ja, mit der inurl-Kombination sind es jetzt 116 Mio. Ergebnisse. Ich hoffe, Ihr wolt alle bals umziehen. Mehrmals… 😉

Grüße, Alex

Max
19. März 2010, 13:51

So die Verschollenen seiten sind wieder da, tippt einfach site:www.domain.de ein. Unter site:domain.de sind immer noch die abgespeckten ergebnisse.

Meta-Blogger

19. März 2010, 21:54

Hi !
Bei mir erscheint – Webseite nicht gefunden wenn ich site:www.waschnussprofi.de
eingebe, oder nutze ich den falschen Browser ???
Gruß

21. März 2010, 23:01

ist aktuell nur die angezeigte seitenzahl,
ohne auswirkungen auf die serps.

beim manuellen prüfen einer domain kam mir der gedanke dass es auch wie die google-link-abfrage eine weitere „verschleierungstaktik für webmaster“ (und seo tools) sein könnte:
die domain ist eine test-domain ohne eigene inhalte aber mit 2 subdomains die insgesamt mehrere hundert seiten (im index) haben.

site: domain.tld = 144
site: sub1.domain.tld = 46
site: sub2.domain.tld = 100
(146.. hmh ..)

aber jetzt kommts:
site: sub2.domain.tld/verzeichnis1 = 81
site: sub2.domain.tld/verzeichnis2 = 29
site: sub2.domain.tld/verzeichnis3 = 118


lässt man sich die verzeichnisse einzeln anzeigen stimmt es wieder.

27. März 2010, 11:12

Sehr komisch, das Google Produkte wie Youtube gar keine Seiten verloren haben. Wollen Sie der Konkurenz schaden?

30. März 2010, 22:46

Ist da jetzt eigentlich was herausgekommen bei den Beobachtungen? Also diese Schwankungen bis zu 90 % sind schon heftig und auch irgendwie nervig. Selbst bei eigenen Abfragen kann man mehrmals am Tag verschiedene Werte erhalten.

4. April 2010, 10:53

Ich denke, der Hase liegt im PRupdate begraben, das gerade abgeschlossen wurde (zwei Wochen nachdem dieses Post erschienen ist).

Um das PR ordentlich durchzuführen, braucht google Rechenkapazitäten. Also sitzen die Herren am Konferenztisch und überlegen, wo man die erforderlichen Kapazitäten herbekommt und siehe da die zündende Idee: wir verkleineren kurzfristig den Index.

Wie gesagt, das update ist gelaufen und ich bin mir ziemlich sicher, dass die Werte sich in den nächsten Tagen bzw. Wochen normalisieren. Schließlich sagt google ständig, dass der Index ständig vergrößert wird. Lügen tun sie ja normalerweise nicht, nur 🙂 verschleiern.

30. April 2010, 16:13

Ich hatte auch große Probleme mit den Webmaster-Tools, insbesondere der Erfassung der Seiten der Sitemap. Die Anzahl der erfassten Seiten ging lfd. zurück – bis auf 0 indizierte Seiten. Nach ca. einer Woche war alles wieder beim alten. Mein Tipp bei solchen Erscheinungen – Ruhe bewahren und nichts unüberlegtes machen.