Index-Monster

Die Zahl der durch Google indexierten Seiten ist gerade bei Projekten, die hauptsächlich im Long-Tail-Bereich arbeiten enorm wichtig. Je mehr Seiten, also Content durchsuchbar ist, desto größer die Chance, zu einer Vielzahl unterschiedlicher Suchanfragen gefunden zu werden. Während es früher so war, dass Google jede Seite, die der Crawler finden konnte, in den Index aufgenommen hat, wird mittlerweile ein recht effektiver Algorithmus genutzt, der die maximale Anzahl indexierbarer Seiten an einer Reihe unterschiedlicher Signale bemisst. Ich habe mal geguckt, welche Seiten mir so einfallen, die extrem viele Seiten im Index haben und habe diese Tabelle erstellt:

#DomainSeiten
1yahoo.com339.000.000
2yahoo.co.jp171.000.000
3myspace.com136.000.000
4blogspot.com120.000.000
5ebay.com111.000.000
6youtube.com105.000.000
7msn.com86.200.000
8wikipatents.com (stark schwankend?)67.000.000
9amazon.com53.300.000
10amazon.de52.600.000
11ebay.de51.700.000
12flickr.com50.200.000
13alibaba.com49.200.000
14wordpress.com46.600.000
15live.com45.700.000
16aol.com45.100.000
17livejournal.com44.600.000
18rootsweb.com41.900.000
19meetup.com41.600.000
20amazon.ca41.400.000
43google.com25.600.000
46chefkoch.de23.300.000
81meinestadt.de13.000.000
99yatego.com10.900.000
114cylex.de9.740.000

Neben den ersten 20 gibt es noch 5 weitere, aus deutscher Sicht ganz interessante Einträge. Die Daten basieren auf der „site:domain.tld“-Abfrage und sind von gerade eben. Wer weitere Domains, die in diese Listen passen kennt, kann sie gerne in den Kommentaren posten.

Ähnliche Beiträge