Die Zahl der durch Google indexierten Seiten ist gerade bei Projekten, die hauptsächlich im Long-Tail-Bereich arbeiten enorm wichtig. Je mehr Seiten, also Content durchsuchbar ist, desto größer die Chance, zu einer Vielzahl unterschiedlicher Suchanfragen gefunden zu werden. Während es früher so war, dass Google jede Seite, die der Crawler finden konnte, in den Index aufgenommen hat, wird mittlerweile ein recht effektiver Algorithmus genutzt, der die maximale Anzahl indexierbarer Seiten an einer Reihe unterschiedlicher Signale bemisst. Ich habe mal geguckt, welche Seiten mir so einfallen, die extrem viele Seiten im Index haben und habe diese Tabelle erstellt:
# | Domain | Seiten |
---|---|---|
1 | yahoo.com | 339.000.000 |
2 | yahoo.co.jp | 171.000.000 |
3 | myspace.com | 136.000.000 |
4 | blogspot.com | 120.000.000 |
5 | ebay.com | 111.000.000 |
6 | youtube.com | 105.000.000 |
7 | msn.com | 86.200.000 |
8 | wikipatents.com (stark schwankend?) | 67.000.000 |
9 | amazon.com | 53.300.000 |
10 | amazon.de | 52.600.000 |
11 | ebay.de | 51.700.000 |
12 | flickr.com | 50.200.000 |
13 | alibaba.com | 49.200.000 |
14 | wordpress.com | 46.600.000 |
15 | live.com | 45.700.000 |
16 | aol.com | 45.100.000 |
17 | livejournal.com | 44.600.000 |
18 | rootsweb.com | 41.900.000 |
19 | meetup.com | 41.600.000 |
20 | amazon.ca | 41.400.000 |
43 | google.com | 25.600.000 |
46 | chefkoch.de | 23.300.000 |
81 | meinestadt.de | 13.000.000 |
99 | yatego.com | 10.900.000 |
114 | cylex.de | 9.740.000 |
Neben den ersten 20 gibt es noch 5 weitere, aus deutscher Sicht ganz interessante Einträge. Die Daten basieren auf der „site:domain.tld“-Abfrage und sind von gerade eben. Wer weitere Domains, die in diese Listen passen kennt, kann sie gerne in den Kommentaren posten.