Index-Monster

Johannes Beus
Johannes Beus
14. April 2008
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Die Zahl der durch Google indexierten Seiten ist gerade bei Projekten, die hauptsächlich im Long-Tail-Bereich arbeiten enorm wichtig. Je mehr Seiten, also Content durchsuchbar ist, desto größer die Chance, zu einer Vielzahl unterschiedlicher Suchanfragen gefunden zu werden. Während es früher so war, dass Google jede Seite, die der Crawler finden konnte, in den Index aufgenommen hat, wird mittlerweile ein recht effektiver Algorithmus genutzt, der die maximale Anzahl indexierbarer Seiten an einer Reihe unterschiedlicher Signale bemisst. Ich habe mal geguckt, welche Seiten mir so einfallen, die extrem viele Seiten im Index haben und habe diese Tabelle erstellt:

#DomainSeiten
1yahoo.com339.000.000
2yahoo.co.jp171.000.000
3myspace.com136.000.000
4blogspot.com120.000.000
5ebay.com111.000.000
6youtube.com105.000.000
7msn.com86.200.000
8wikipatents.com (stark schwankend?)67.000.000
9amazon.com53.300.000
10amazon.de52.600.000
11ebay.de51.700.000
12flickr.com50.200.000
13alibaba.com49.200.000
14wordpress.com46.600.000
15live.com45.700.000
16aol.com45.100.000
17livejournal.com44.600.000
18rootsweb.com41.900.000
19meetup.com41.600.000
20amazon.ca41.400.000
43google.com25.600.000
46chefkoch.de23.300.000
81meinestadt.de13.000.000
99yatego.com10.900.000
114cylex.de9.740.000

Neben den ersten 20 gibt es noch 5 weitere, aus deutscher Sicht ganz interessante Einträge. Die Daten basieren auf der „site:domain.tld“-Abfrage und sind von gerade eben. Wer weitere Domains, die in diese Listen passen kennt, kann sie gerne in den Kommentaren posten.

Ähnliche Beiträge
Kommentare
Macks   
14. April 2008, 22:38

Wenn man mal alle Wikipedia-Subdomains überpüft… 🙂
de.wikipedia.org, en.wikipedia.org, etc….

Da kommt bestimmt auch einiges zusammen.

Lg,
Macks

Johannes   
15. April 2008, 09:08

Macks, für die Top20 reicht es jedenfalls nicht und de.wikipedia.org alleine hat nur knapp über 1 Mio Seiten. Da müssen die noch viel schreiben 😉

loptr   
15. April 2008, 09:27

Hab da noch einen kleinen Fav:
27.200.000 von deviantart.com

Özgür   
15. April 2008, 10:58

Shopping.com hat 18,6 Mio 🙂

Adam Parusel   
15. April 2008, 11:35

imdb.com hat 38,1 Mio Einträge!
microsoft.com kommt auf 16,7 Mio Einträge.

Am meisten erstaunt bin ich eigentlich über die Anzahl der Einträge bei chefkoch.de 🙂

Malte Landwehr   
15. April 2008, 17:42

Du hast den kompletten Regierungs- und Universitätsbereich vergessen. Zum Beispiel:
harvard.edu 12.600.000
nasa.gov 9.640.000

Mike   
16. April 2008, 17:30

Hallo Johannes,
da das Indexieren, wie Du schreibst im Long-tail Bereich wichtig ist, gib doch mal nen Tipp, wie ich Google dazu kriege auch in die untersten Ebenen zu spidern bzw. die Seiten dann auch anzuzeigen, wenn man nach den Keywords sucht… mittels Deeplinks ?

Hab da ne Last Minute Seite die rankt immer recht wechselhaft…. die Seite hat gut 4000 generierte Unterseiten, die zwar mit der „site:“ Abfrage aufgelistet werden, aber ansonsten wohl kaum gefunden werden ;-(

Kannst DU da helfen ?

Gruss und Danke!

Pelle Boese   
16. April 2008, 17:34

Ordentlichen Content drauf, auch die Unterseiten aktuell halten, hochwertige (Deep)Links. Ja 🙂

Mike   
17. April 2008, 00:18

Hi Pelle,
hhmmm…und dann gehts wie von selber ? Kann man den Google Bots zum „deepspidern“ zwingen 😉 ? „Hochwertige Deeplinks“…hast Du da nen paar übrig für mich, da ich da immer nen akuten Mangel habe !

gruss,
Mike

adamp   
18. April 2008, 10:33

Mike, benutzt du Sitemaps? Die kannst du Google über das Webmastertool (www.google.de/webmastertools) zur Verfügung stellen und so alle deine Seiten bekannt machen.
Eine Garantie für eine Verlinkung ist das aber leider auch nicht.

Erstell auch eine eigene HTML-Sitemap, die du dann z.B. im Footer jeder Seite verlinkst.

Stefan   
19. April 2008, 13:39

Z.B. noch
Bebo.com mit 32,3 Mio Seiten
Digg.com mit 9,93 Mio

luzie   
23. April 2008, 08:31

http://www.behaupte.es/

noch ein kandidat, der bald, bald auch ne ganze menge drin haben wird 😉

David   
8. Mai 2008, 10:44

@adamp

stimmt nicht ganz google findet die seiten auch ohne. wenn diese genug links aufweisen kommt der crawler von ganz alleine. das gleiche gilt auch für seiten die du nie bei google anmeldest.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.

Kostenlosen Testaccount jetzt aktivieren

Aktiviere jetzt deinen kostenlosen Testaccount für die SISTRIX Toolbox. Garantiert ohne Kosten und unverbindlich. Jetzt aktivieren!