Die Zahl der durch Google indexierten Seiten ist gerade bei Projekten, die hauptsächlich im Long-Tail-Bereich arbeiten enorm wichtig. Je mehr Seiten, also Content durchsuchbar ist, desto größer die Chance, zu einer Vielzahl unterschiedlicher Suchanfragen gefunden zu werden. Während es früher so war, dass Google jede Seite, die der Crawler finden konnte, in den Index aufgenommen hat, wird mittlerweile ein recht effektiver Algorithmus genutzt, der die maximale Anzahl indexierbarer Seiten an einer Reihe unterschiedlicher Signale bemisst. Ich habe mal geguckt, welche Seiten mir so einfallen, die extrem viele Seiten im Index haben und habe diese Tabelle erstellt:
# | Domain | Seiten |
---|---|---|
1 | yahoo.com | 339.000.000 |
2 | yahoo.co.jp | 171.000.000 |
3 | myspace.com | 136.000.000 |
4 | blogspot.com | 120.000.000 |
5 | ebay.com | 111.000.000 |
6 | youtube.com | 105.000.000 |
7 | msn.com | 86.200.000 |
8 | wikipatents.com (stark schwankend?) | 67.000.000 |
9 | amazon.com | 53.300.000 |
10 | amazon.de | 52.600.000 |
11 | ebay.de | 51.700.000 |
12 | flickr.com | 50.200.000 |
13 | alibaba.com | 49.200.000 |
14 | wordpress.com | 46.600.000 |
15 | live.com | 45.700.000 |
16 | aol.com | 45.100.000 |
17 | livejournal.com | 44.600.000 |
18 | rootsweb.com | 41.900.000 |
19 | meetup.com | 41.600.000 |
20 | amazon.ca | 41.400.000 |
43 | google.com | 25.600.000 |
46 | chefkoch.de | 23.300.000 |
81 | meinestadt.de | 13.000.000 |
99 | yatego.com | 10.900.000 |
114 | cylex.de | 9.740.000 |
Neben den ersten 20 gibt es noch 5 weitere, aus deutscher Sicht ganz interessante Einträge. Die Daten basieren auf der „site:domain.tld“-Abfrage und sind von gerade eben. Wer weitere Domains, die in diese Listen passen kennt, kann sie gerne in den Kommentaren posten.
Wenn man mal alle Wikipedia-Subdomains überpüft… 🙂
de.wikipedia.org, en.wikipedia.org, etc….
Da kommt bestimmt auch einiges zusammen.
Lg,
Macks
Macks, für die Top20 reicht es jedenfalls nicht und de.wikipedia.org alleine hat nur knapp über 1 Mio Seiten. Da müssen die noch viel schreiben 😉
Hab da noch einen kleinen Fav:
27.200.000 von deviantart.com
Shopping.com hat 18,6 Mio 🙂
imdb.com hat 38,1 Mio Einträge!
microsoft.com kommt auf 16,7 Mio Einträge.
Am meisten erstaunt bin ich eigentlich über die Anzahl der Einträge bei chefkoch.de 🙂
Du hast den kompletten Regierungs- und Universitätsbereich vergessen. Zum Beispiel:
harvard.edu 12.600.000
nasa.gov 9.640.000
Hallo Johannes,
da das Indexieren, wie Du schreibst im Long-tail Bereich wichtig ist, gib doch mal nen Tipp, wie ich Google dazu kriege auch in die untersten Ebenen zu spidern bzw. die Seiten dann auch anzuzeigen, wenn man nach den Keywords sucht… mittels Deeplinks ?
Hab da ne Last Minute Seite die rankt immer recht wechselhaft…. die Seite hat gut 4000 generierte Unterseiten, die zwar mit der „site:“ Abfrage aufgelistet werden, aber ansonsten wohl kaum gefunden werden ;-(
Kannst DU da helfen ?
Gruss und Danke!
Ordentlichen Content drauf, auch die Unterseiten aktuell halten, hochwertige (Deep)Links. Ja 🙂
Hi Pelle,
hhmmm…und dann gehts wie von selber ? Kann man den Google Bots zum „deepspidern“ zwingen 😉 ? „Hochwertige Deeplinks“…hast Du da nen paar übrig für mich, da ich da immer nen akuten Mangel habe !
gruss,
Mike
Mike, benutzt du Sitemaps? Die kannst du Google über das Webmastertool (www.google.de/webmastertools) zur Verfügung stellen und so alle deine Seiten bekannt machen.
Eine Garantie für eine Verlinkung ist das aber leider auch nicht.
Erstell auch eine eigene HTML-Sitemap, die du dann z.B. im Footer jeder Seite verlinkst.
Z.B. noch
Bebo.com mit 32,3 Mio Seiten
Digg.com mit 9,93 Mio
http://www.behaupte.es/
noch ein kandidat, der bald, bald auch ne ganze menge drin haben wird 😉
@adamp
stimmt nicht ganz google findet die seiten auch ohne. wenn diese genug links aufweisen kommt der crawler von ganz alleine. das gleiche gilt auch für seiten die du nie bei google anmeldest.