Rückblick auf Google Mayday

Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.
25. August 2010 25 Kommentare

Dieses Jahr gab es bei Google zwei größere Veränderungen, die Auswirkungen auf das Ranking hatten: Google Caffeine und das Mayday-Update. Bei ersterem hat Google die Infrastruktur erneuert, um den geänderten Anforderungen an Größe und Geschwindigkeit gerecht zu werden; eine Änderung des Ranking-Algorithmus ist dabei nicht erfolgt. Bei dem Mayday-Update (das seinen Namen wegen der Einspielung um den 1. Mai hat) sieht es anders aus: hier hat Google den Algorithmus angepasst, um bessere andere Suchergebnisse zu präsentieren. Die Änderungen hatten hauptsächlich Auswirkungen auf den Longtail, also jene Keywords, die einzeln zwar eher selten gesucht werden, in ihrer Summe aber bei vielen Seitentypen einen Großteil des Traffics ausmachen können. In der Toolbox haben wir neben den wöchentlich aktualisierten Daten auch eine Datenbasis, um diesen Longtail abzubilden. Sie besteht aus über 10 Millionen Keywords und wird monatlich auf den aktuellen Stand gebracht. Die folgenden Daten beziehen sich auf eben jene Quelle.

Wenn Google in den letzten Jahren größere Änderungen am Algorithmus vorgenommen hat, so ging das häufig in die Richtung, dass der Domain-Trust, als das Vertrauen, das Google in die Qualität dieser Domain hat stärker gewichtet wurde. Das erhöht zwar nicht unbedingt die Qualität der einzelnen Treffer in den Top-10, verringert aber die Wahrscheinlichkeit, dass grobe Ausfälle dabei sind. Um das zu testen, habe ich in der ersten Tabelle die Anzahl der unterschiedlichen Domains in den Top-3, Top-10 und Top-100 vor und nach dem Update ausgewertet:

Anzahl unterschiedlicher Domains

Vor Mayday Nach Mayday Veränderung
Top-3 1.787.059 1.776.188 -0.7%
Top-10 3.523.332 3.677.257 +4,3%
Top-100 12.489.205 11.712.946 -7,3%

Leider ergibt sich kein klares Bild: in den Top-3 gab es fast keine Änderung, in den Top-10 sind nach dem Update sogar mehr unterschiedliche Domains vertreten. Nur in den Top-100 sind nach Mayday deutlich weniger Domains zu finden, als zuvor. Vielleicht hat Google also bei diesem Update an der Trust-Schraube gedreht, allerdings hatte das eher auf den hinteren Plätzen Auswirkungen – auf den relevanten Positionen der ersten Seite scheint man andere Signale zu nutzen.

Die nächste Auswertung zeigt die Gewinner des Mayday-Updates in absoluten Keyword-Zahlen. Dabei habe ich versucht, die Liste auf diejenigen Domains zu beschränken, bei denen die Verschiebungen recht wahrscheinlich auf Mayday zurückzuführen sind und nicht ein allgemeines Wachstum der Domain zeigen:

Gewinner

# Domain Vorher Nachher Gewinn
1 facebook.com 896.242 2.067.189 1.170.947
2 youtube.com 2.491.556 3.067.692 576.136
3 wikipedia.org 4.095.198 4.560.067 464.869
4 gutefrage.net 1.976.237 2.349.367 373.130
5 yahoo.com 2.707.498 3.025.174 317.676
6 wordpress.com 1.696.246 1.941.639 245.393
7 markt.de 312.879 508.875 195.996
8 apple.com 427.187 619.440 192.253
9 amazon.com 901.884 1.080.874 178.990
10 yopi.de 823.524 997.778 174.254
11 stern.de 398.104 543.696 145.592
12 zeit.de 403.154 530.112 126.958
13 suchen.de 372.214 473.450 101.236
14 faz.net 473.143 574.302 101.159
15 meinestadt.de 902.981 983.849 80.868

Und direkt noch die gleiche Liste, dieses Mal aber mit den Verlierer-Domains aus dem Mayday-Update:

Verlierer

# Domain Vorher Nachher Verlust
1 ebay.de 3.635.851 2.645.512 990.339
2 preisvergleich.de 933.573 321.894 611.679
3 germanblogs.de 684.718 155.053 529.665
4 wikio.de 944.819 454.452 490.367
5 folkd.com 666.508 183.144 483.364
6 oneview.de 813.825 346.051 467.774
7 websitewiki.de 641.226 220.494 420.732
8 yatego.com 1.249.758 855.726 394.032
9 shopping.com 1.248.120 915.624 332.496
10 yigg.de 320.992 3.882 317.110
11 berlinonline.de 586.298 269.459 316.839
12 quoka.de 964.070 662.460 301.610
13 hotfrog.de 1.258.969 1.016.121 242.848
14 libri.de 577.631 344.868 232.763
15 linkarena.com 256.489 26.748 229.741

Wenn ich die Listen mit meiner „gefühlten“ Qualität der Inhalte auf den jeweiligen Domains abgleiche, so scheint Google mit diesem Update erfolgreich gewesen zu sein. Projekte mit eigenem Content sind nun im Longtail stärker vertreten, solche mit eher dünnen Inhalten, die häufig auch nicht einzigartig sind, zählen zu den großen Verlierern. An welchen Stellschrauben aber konkret gedreht wurde, ist weiter unklar. Ich könnte mir vorstellen, dass Google im Longtail wieder etwas stärker auf die Bewertung von Onpage-Faktoren setzt, aber auch die Einbeziehung (seitenweiter) Faktoren wie die Bouncerate oder Verweildauer auf der Domain ist nicht ausgeschlossen.

25. August 2010, 13:04

Eine sehr interessante Auswertung.

Danke!

25. August 2010, 13:22

Vielen Dank! Ich bin wirklich verblüfft, wie gut sich deine Zahlen mit der emotionalen Einschätzung decken, die ja sehr viele SEOs davon hatten.

Und was mich auch ein wenig beruhigt: Nicht nur ich rätsle herum, was Google denn eigentlich da eigentlich genau gemacht hat….

Grüße
eric

25. August 2010, 13:45

Tatsächlich eine interessante Auswertung – mit geht es dabei aber wie Eric, was genau Google da macht weiß ich nicht. Mal abwarten, was die nähere Zukunft noch so mit sich bringt.

25. August 2010, 13:46

Wow, sehr spannend!

Ich kann mir auch gut vorstellen, dass im Long Tail die onPage-Faktoren stärker gewichtet werden, gerade in Sachen Umfang und Einzigartigkeit von Inhalten.

Ich beobachte bei Domains, die noch sehr wenig Trust, aber relativ viel Content, gerade für den Long Tail haben keine Verluste, eher Verbesserungen.

Die wirklichen Verlierer von Mayday sind nach deiner Auswertung ja auch hauptsächlich generierte/aggregierte oder sehr dünne Seiten.

Vielen Dank für die Einblicke 🙂

Gordon
25. August 2010, 14:05

Ich hätte erwartet, das auch die großen trusted Domains etwas im Longtail zugunsten themenspezifischeren und kleineren Domains verlieren. Das ist zumindest mein subjektiver Eindruck, der sich aber nicht so ganz mit der Gewinner-Tabelle deckt. Vor dem Mayday-Update, so mein Eindruck, war der Longtail-Bereich ein regelrechter Einheitsbrei aus den immer gleichen Riesen-Content-Portalen. Zudem passen suche.de, meinestadt.de, facebook.de, ebay.de und germanblogs.de nicht ganz in das Schema.

25. August 2010, 14:49

Mahlzeit,

was mich mal tierisch freut ist das ein paar Bookmark-Dienste unter den Verlieren sind. Es wäre mal an der Zeit, die von Google großflächig auszusortieren oder sie komplett aus den Faktoren zu streichen. Wirklich sinn macht ja nur eine Handvoll der Dienste … Der Rest ist doch lediglich ein Produkt von uns selbst und dem teilweise verbreiteten Spam-Wahn

25. August 2010, 19:31

Vielen Dank für diese Auswertung! Ich bin mir noch nicht ganz sicher, wofür die Vorher / Nachher Zahlen stehen. Ist das die Anzahl der Keywords für die die jeweiligen Seiten gefunden werden können?

cavalorn
25. August 2010, 21:39

100 Punkte für’s Mayday-Update. Die meisten Seiten, die bei den „Verlierern“ genannt werden, sind da auch zu Recht.

25. August 2010, 21:50

Jan, ja genau, das ist jeweils die Anzahl der Keywords.

26. August 2010, 00:00

ich habe mich gefreut, mich eben auf Platz 10 der Gewinner zu sehen 🙂
Vom reinen subjektiven Empfinden der SERPS her würde ich ebenfalls sagen, dass im Longtail eher nicht nur die OnpageFaktoren heraufgesetzt wurden, sondern eher aktiv der dort eher störende Domaintrust herabgesetzt wurde. Das würde erklären, warum einige thrusty Domains bei den Verlierern sind.
Warum Yopi gewonnen hat (übrigens wirklich nur im Longtail) liegt, denke ich, eher an solch profanen Signalen wie Content/Navi Ratio, höherer semantischer Qualität des Contents usw.

apropos Updates: seit caffeine ist das Crawling volatiler geworden: mal viel pro Tag, mal wenig – hat das noch jemand beobachtet?

viele Grüße, Markus

Gordon
26. August 2010, 10:03

@MarkusK: Denke nicht das nur der „störende Domaintrust herabgesetzt wurde“. Denn wir erklärst du dir dann den Zugewinn bei suchen.de, meinestadt.de und Facebook.com. Meine erste These war auch, das vor allem Portale betroffen sind, die ihre Duplicate Detail-Seiten nur durch ihren Trust in den SERPs halten konnten. Allerdings ist hier meinestadt.de das beste Gegenbeispiel. Auf der anderen Seite gibt es allerdings auch viele Domains bei denen das genau so der Fall ist wie z.B. yigg oder infopirat oder andere.

26. August 2010, 12:13

@MarkusK
„hat das noch jemand beobachtet?“… ja, kann ich bestätigen, wir haben ebenfalls Tage, da geht kaum was und andere, da ist ordentlich was los. Mich würde interessieren, ob dies auch mit der Seitengeschwindigkeit zu tun hat.
@MarkusK -> ich vermute mal, dass Ihr recht wenig Performanceprobs habt. Auch ich vermute es hängt mit den Absprungraten + der Verweildauer zusammen.

@Gordon -> Meine erste These war auch, das vor allem Portale betroffen sind, die ihre Duplicate Detail-Seiten nur durch ihren Trust in den SERPs halten konnten. > das ist ganz sicher einer der Faktoren… evtl wirklich kombiniert mit der Absprungsrate/ Verweildauer.

26. August 2010, 12:19

Vielen Dank für die Analyse. Also ich kann nur sagen das dieses Update viele unserer Websites gepusht hat.

..war ein toller Mai 2010 😉

Gordon
26. August 2010, 13:14

@oak: Könnte man vermuten, aber die Absprungrate/Verweildauer von z.B eBay.de ist alles andere als miserable. Gerade eBay.de ist einer der Seiten in Deutschland mit der höchsten Verweildauer überhaupt. Bei den ganzen Shopping-Seiten kann man zumindest unterstellen, das Google sich hier im Zuge des MayDay Updates noch ein ganz anderes Problem vom Hals geschafft hat. Ciao hat ja bereits Klage eingereicht.

26. August 2010, 13:23

@Gordon „noch ein ganz anderes Problem vom Hals geschafft“
Ja, zu dieser Art der „Filterung“ der Mitbewerber… äh Seiten hab ich mir auch gedanken gemacht, nur wieso betrifft dies dann nur einige der Seiten und was viel wichtiger ist nach welchem Schema (nennt google „Algo“).

Ich wollte gleich mal evtl. etwas testen… einfach mal 10.000 longtail Keywords in den index pumpen… das weiß man eigentlich recht fix, ob es diesen Trustrank für unterseiten einer stärkeren Domain immer noch gibt. früher war das zumindest immer so und seiten wurden automatisch gut gerankt auch ohne massenhafte interne links… wobei wir uns eher auf ein und 2 wort kombis konzentriert haben.

28. August 2010, 11:19

Ich frage mich immer wieder, warum gutefragenet mit zu den gewinnern zählt, es ist doch das neue Mister Wong, sackt schön die Beiträge ein und entfernt die Links der User, bzw stellt diese auf Nofollow um und wird dafür belohnt o.O^^

29. August 2010, 14:54

Sehr interessanter Beitrag, vielen Dank!

29. August 2010, 14:56

Gutefrage.net ist aber definitiv hilfreich für sehr viele Suchenden.;-)

29. August 2010, 23:14

Wie Du schon sagst ist das Ergebnis eindeutig/zweideutig. Schaut man sich die Preisvergleichsseiten an, so fällt auf, dass einige deutlich verloren haben und andere teiweise gut an Top Ten Platzierungen gutmachen konnten. Warum? Keine Ahung!

31. August 2010, 05:50

Meine Gebete sind erhört worden .Dieser Dreck von Ebay mal zu den Verliererseiten zu sehen hat mir schon den ganzen Tag versüsst .Danke für diese Interessante ind informative Auswertung.Leider kann ich mit meinen Seiten keinerlei veränderungen sehen im gegensatz zu ohne Caffein.Vielleicht dauert das nur ein bisschen bis Google alles erfasst hat

31. August 2010, 11:56

Guten Morgähn,

erst einmal ein großes DANKE für diesen Artikel. So lässt sich doch super in (m)einen Dienstag starten, auch wenn die Nacht mal wieder ein wenig kurz war konnte ich doch alles gut verstehen. Obwohl die Fakten ja direkt vor mir liegen, bin ich immer noch nicht genau dahinter gestiegen was G da eigentlich macht, kann mich aber nur der Äußerung von Lars anschließen. Ich muss schon schmunzeln wenn ich sehe welche Bookmarkdienste nun nicht mehr so gut aussehen.

31. August 2010, 22:17

„…Gutefrage.net ist aber definitiv hilfreich für sehr viele Suchenden.;-)
…“ Das ist unbestritten der Fall. Was mich nur nachdenklich macht, ist das Halbwissen, welches dort teilweise verbreitet wird. Da die Antworten nicht fachlich geprüft werden, kursiert dort so viel Hören-Sagen und halbgares Wissen, dass man in manchen Fällen echt vorsichtig sein sollte, die Antworten umzusetzen.

2. September 2010, 14:20

Sehr gelungener Beitrag. Wirklich guter Einblick in die Arbeit Googles, die uns als SEO’s ja tagein tagaus mit Fragen überhäuft. Da kommt der Beitrag gerade recht.
Wirklich sehr guter und hilfreicher Artikel mit tiefen Einblicken und viel Informationen, auch zwischen den Zeilen.
Immer weiter so!

http://seosuisse.ch/
23. Juli 2012, 00:41

Google is now taking best care of their users. Because in this high competitive market Google is the only one who can challenge anyone.

Suchmaschinenmarketing
23. Juli 2012, 00:45

One more thing, Google is trying to catch up everything belong it’s power. Google buying most popular site and increasing their customer day by day.

Suchmaschinenmarketing