Google reduziert die Ergebnis-Diversität

Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.
19. Juni 2012 33 Kommentare

In den letzten Wochen hat Google Änderungen an der Zusammenstellung der Ergebnislisten vorgenommen. Ich habe auf Basis unserer Daten versucht rauszufinden, was Google da eigentlich genau macht und welche Auswirkungen es auf Suchende als auch auf SEOs hat. Vorneweg noch kurz der Hinweis, dass Google uns aktuell mit Pseudo-Transparenz überhäuft: monatlich werden lange Listen irgendwelcher Algorithmus-Anpassungen veröffentlich, der reale Einfluss ist in der Regel marginal. So wurde unter dem Google-Codenamen „Venice“ eine Änderung angekündigt, die Häufigkeit und Platzierung von Local-Universal-Boxen verändert. Als Folge wird seit Wochen in der SEO-Branche von einem „Venice“-Update geredet, das Einfluss auf die organischen (!) SERPs habe. Abgesehen davon, dass Google in der Tat an der lokalen Auslieferung mancher Keywords spielt, täte es der Branche gut, analytische Trennschärfe vor marktschreierisches Gehabe zu stellen und Google nicht noch in der Verbreitung maximaler Verwirrung zu unterstützen.

Früher galt bei Google das Gesetz, dass maximal 2 Treffer eines Hostnamens in einer Ergebnisseite auftauchen. Google hat bereits vor Jahren eine Ausnahme davon gemacht und lässt seit langer Zeit bei sehr starken Markensuchen auch mehr Treffer von einer Domain zu – hier ergibt das in der Regel für den Suchenden auch durchaus Sinn. Seit rund 3 Wochen weicht Google dieses Verhalten allerdings zunehmend auf. Zur Veranschaulichung hier die durchschnittliche Anzahl unterschiedlicher Domains in den Top-100 Treffern der von uns untersuchten Keywords:


Deutlich zu sehen, dass sich die durchschnittliche Anzahl von Domains in den Top-100-Treffern während der letzten 3 Wochen von 84 Domains auf nur noch 62 Domains reduziert hat – immerhin mehr als ein Viertel weniger. Um dem etwas genauer auf den Grund zu gehen, habe ich mir diese Auswertung mit den beiden entscheidenden Daten (diese Woche, vor 3 Wochen) noch für unterschiedliche Ergebnis-Seiten angesehen:


Hier ist schön nachzuvollziehen, dass es auf der wichtigen ersten Trefferseite kaum Veränderungen gab. Die größte Verschiebung gab es auf der 3. Ergebnisseite – hier werden rund 30 Prozent weniger unterschiedliche Domains gezeigt als vor dem Update während auf der erste Seite nur 3 Prozent weniger Domains gelistet sind. Um die Veränderungen besser nachvollziehen zu können und den Blick vom Gesamten auf Details zu lenken, habe ich mir 5 Keywords mit größerer Veränderung abgezeigt. Bei der Suche nach ‚Lottozahlen‘ waren vor 3 Wochen noch 89 unterschiedliche Domains in den Top-100, jetzt sind es gerade mal 50. Dabei ist es jetzt allerdings nicht so, dass große und etablierte „offizielle“ Verbreiter der Daten gewonnen haben, sondern zahlreiche Domains, von denen man das aus Qualitätsgründen nicht unbedingt vermutet hätte. Vergleichbare Daten gibt es zu Keywords wie „Reinigungskraft“, „Vorwahl“, „Virenschutz“ oder auch „Hauptstadtflughafen“ (wenn er denn mal fertig wird).

In der Bewertung der Algorithmus-Anpassung sind die direkten Folgen überschaubar – dadurch, dass es auf der ersten Seite nahezu keine Änderungen gab, dürften Auswirkungen auf den Traffic eher gering sein. Auf der anderen Seite trifft die Anpassung gerade Suchende, die in ein Thema tiefer einsteigen möchten und mit den ersten Treffern nicht zufrieden sind. Diesen hat Google in der Vergangenheit teils deutlich mehr Auswahl an unterschiedlichen Inhalten angeboten. Diese ist jetzt häufig nicht mehr vorhanden und das Blickfeld des Informationensuchenden engt sich damit ein. Gerade als Quasi-Monopolist in einer Rolle als Gatekeeper des Internets, der unter scharfer Beobachtung diverser Kommissionen und Ämter steht, ist das vielleicht kein so ganz überlegter Schachzug gewesen.

19. Juni 2012, 15:57

Diese veränderung ist mir auch bei einigen Keywords aufgefallen, besonders ab Seite 2-3 und zunehmend. Kann mir nicht vorstellen, dass dies ein Dauerzustand sein wird.

Monika
19. Juni 2012, 16:15

ich formuliere es mal so:

a)
ob sich die organischen SERPs geändert haben seit Venice oder nicht,
ist irrelevant,

weil ich seit Venice bei immer mehr Keys schlicht keine sogenannt organische SERPs mehr sehe, sondern nur mehr hochlokalisierte

d.h. above the fold/im ViewPort habe ich zuerst 2-3 Google Adwordsanzeigen
dann bis zu 7 lokale Ergebnisse (und die werden egal welches Key immer öfter angezeigt)
und dann erst die sogenannt organ. SERPs, sprich aus den Augen aus dem Sinn,
wie die 2te Seite bei Google 😉

b) die sogenannt organischen SERPs sehe ich , wenn ich unter google.com surfe,
aber bei mir daheim in AT sind sicher 80% aller Browser auf google.at

also was habe ich von organischen SERPs und deren Änderung oder Nichtänderung

ich versteh es nicht..

19. Juni 2012, 16:27

Irgendwie sehe ich keinen wirklichen Sinn bei dieser Änderung. Wenn man nach Marken „Apple“ sucht, dann kann ich die Reduktion der Anzahl der Domains schon verstehen, aber bei nicht-Markenbegriffen ist das ja eher zum Nachteil des Nutzers.
Ich glaube da wird Google wohl noch nachbessern.

19. Juni 2012, 16:35

Steht diese Analyse im Zusammenhang mit den Keyword-Verlusten zahlreicher Domains der letzten 2 Wochen? Du sprichst hier von 3 Wochen Zeitraum, würde also passen.
Bestes Beispiel dafür ist Amazon die vor 3 Wochen 50.000 mehr rankende Keywords hatten.

Ist die Analyse und Auswertung der Anzahl rankender Domains auf Basis der für den Sichtbarkeitsindex oder eines Testsets?

Hanns
19. Juni 2012, 16:57

@Julian: Deine Beobachtung ist genau richtig. Da jetzt weniger unterschiedliche Domains zu einem Keyword in den Top-100 angezeigt werden, haben viele Domains Ranking zu weniger Keywords in den Top-100. In den meisten Fällen wirkt sich das aber nicht nennenswert negativ auf den Sichtbarkeitsindex aus, da sie Rankings auf den hinteren Plätzen verloren haben. Diese hinteren Plätze haben kaum Gewicht für die Berechnung des Sichtbarkeitsindex.

Die Analyse bezieht sich auf das Sistrix-Keywordset von 1 Mio. Keywords, die wir wöchentlich für Deutschland abfragen.

Hanns
19. Juni 2012, 17:11

@Monika: Was Du beobachtest, ist eine verstärke Ausspielung der personalisierten Suchergebnisse aufgrund des lokalen Standortes. Das steht in keinem Zusammenhang zu Venice. Das Venice-Update wurde im Februar 2012 ausgerollt und veränderte die Integration und das Ranking von lokalen Universal-Search-Ergebnissen (auch eindeutig nachzulesen bei Google – siehe Link „Venice“ oben im Beitrag). Nur weil die Internetworld in einem Artikel behauptet, für die jüngste Steigerung der personalisierten Suchergebnisse wäre „Venice“ verantwortlich, stimmt das noch lange nicht. Es ist schlichtweg falsch.

19. Juni 2012, 18:26

Interessante Beobachtung, das mit den Änderungen auf den Folgeseiten. Danke dafür.

Zu dem Satz „Abgesehen davon, dass Google in der Tat an der lokalen Auslieferung mancher Keywords spielt, täte es der Branche gut, analytische Trennschärfe vor marktschreierisches Gehabe zu stellen und Google nicht noch in der Verbreitung maximaler Verwirrung zu unterstützen.“:
Ist es vielleicht so, dass man nicht mehr analytisch trennen kann, weil es überall anders aussieht? Der Unterschied in den lokalisierten Serps ist aus meiner Sicht frappierend, auch bei Begriffen, bei denen man keinerlei lokalen Bezug vermuten würde („Malerei“, „Kunst“, „Philosophie“ etc). Aus meiner Sicht ist das mehr als „bei manchen Keywords spielen“. Und die Änderungen sind mitnichten solche, die man augenscheinlich als „Universal-Search-Places“ bezeichnen könnte. Vielleicht könnt ihr diese Unterschiede einfach nicht messen?

Hanns
19. Juni 2012, 18:43

@Mißfeldt: Martin, das ist ja genau der Punkt. Was derzeit bei den personalisierten lokalen Suchergebnissen zu beobachten ist, steht in keinem Zusammenhang mit irgendeiner Universal-Search-Integration von Places. Daher ist es auch falsch in diesem Zusammenhang vom Venice-Update zu sprechen. Nennt das Update irgendwie, z.B. „36“, aber bitte nicht „Venice“. Wenn man das nicht sauber trennt ist die totale Verwirrung vorprogrammiert. Ich verstehe ja, dass man dem Kind einen Namen geben möchte. „Venice“ ist aber schon besetzt und steht für vollkommen andere Änderungen.

19. Juni 2012, 18:50

@Hanns: absolut einverstanden. Wegen der Nähe zum Thema „lokale Suche“ habe ich es plausibel gefunden, es als eine Art „Weiterentwicklung von Venice“ anzusehen. Aber stimmt: vielleicht ist das ein ganz anderes Update…

Hanns
19. Juni 2012, 18:57

@Mißfeldt: Es ist ganz sicher ein anderes Update. Schau Dir einfach mal die Liste von Google auf http://insidesearch.blogspot.de/2012/02/search-quality-highlights-40-changes.html an. Venice ist Punkt Nr. 26. Was in den letzten Wochen hier in Deutschland zu beobachten ist, entspricht aber eher Punkt 36 (der letzte Punkt in der Liste). Leider hat Google dem Update keinen offiziellen Namen gegeben.

19. Juni 2012, 18:59

Jepp! Das passt. Danke für den Hinweis. Ich habe offenbar nicht genau genug gelesen.

19. Juni 2012, 22:43

Hallo Hanns,

Gute Daten, danke dafür!
Was die Terminologie „Venice“ anbelangt, so habe ich seit meinem ersten Blogpost vor Monaten dazu stets die beiden in dem o.a. Blogpost angekündigten Updates (26 & 36) mit dem Begriff „Venice“ zusammengeworfen, was grundsätzlich auch Sinn macht, denn auf den Google Suchergebnisseiten kommen beide Algorithmen seitdem parallel zum Einsatz. Du hast diese Unterscheidung für Dich seit der SMX jedoch trennscharf gezogen, das ist aber bei dieser Debatte ein unwichtiger Punkt.

Wie von Monika korrekt hervorgehoben sehen SERPs je nach Nutzerstandort und Suchbegriff mal gravierend und mal weniger individuell lokalisiert aus. Das ist nicht abzustreiten und wirft die berechtigte Frage nach der Relevanz des derzeitigen Sichtbarkeitsindex auf, wie es von Martin mit „vielleicht könnt ihr es auch nicht messen?“ zugespitzt angedeutet wird, denn oftmals sind die organischen Positionen 4 bis 8 nun lokalisierte Web-Resultate, die ihr gewiss nicht erfasst. 

Was mich wirklich interessieren würde, wäre eine Statistik in der ihr den Abweichungsgrad der SERPs bei den zehn größten Städten als Nutzerstandort bei x-tausend generischen Suchbegriffen veranschaulicht. Dann weiß man mehr über die Aussagekraft der Toolbox Daten.

Letztendlich ist die Trennschärfe auch irrelevant zwischen den Updates, denn diese sind nun mal Everflux auf Crack. Am Ende ist nämlich die Lokalisierung der Web-Resultate auch ein Brand-Update, von dem lokale Firmen profitieren, was diese ganzen Labels tatsächlich unnötig macht… Aber man will ja dem Kind einen Namen geben 😉

Gruß,
Sebastian

P.S. Sicher rudert Google hier mit den Mehrfach-Domains zurück, etliche Suchergebnisse sind schlichtweg peinlich!

jakob
19. Juni 2012, 23:01

Ich kann die Beobachtung auch bestätigen. Für Keywords mit wenigen 1000 Konkurrenten gilt das aber schon länger. Das lässt sich insbesondere bei Namen feststellen. Aber auch bei einem Keyword wie „seo grundlagen“ kommen immerhin 15% der Suchergebnisse von einer einzigen Domain.

Hanns
19. Juni 2012, 23:22

@Sebastian: Ich halte eine scharfe Trennung von organischen Treffern und Universal Search Treffern sowie den damit verbundenen Updates für absolut unerläßlich, um gezielt SEO betreiben zu können. Es werden ja auch nicht Panda und Penguin in einen Topf geschmissen, nur weil es bei beiden irgendwie um Spam geht.

Eine gesonderte Erhebung in Großstädten finde ich hingegen weniger spannend. 70 Prozent der Einwohner in Deutschland leben nicht in Großstädten. Das wäre doch eine wenig repräsentative und verzerrte Darstellung. Die personalsierten ortsbezogenen Suchergebnisse haben keine große Auswirkung auf die Aussagekraft des Sichtbarkeitsindex. Die Chance in den SERPs gesehen und geklickt zu werden steigt mit jedem Positionsgewinn zu jedem Keyword, auch wenn nicht jeder Nutzer von Google exakt die gleichen SERPs ausgeliefert bekommt. Zudem gewichten wir für jedes Keyword getrennt das Suchvolumen und die Klickwahrscheinlichkeit pro Position.

Aber davon abgesehen sollten wir hier in den Kommentaren vielleicht mal wieder auf das eigentliche Thema des Blogposts zurückkommen. Die Anmerkung zu Venice war ja nur eine Randbemerkung.

Monika
20. Juni 2012, 02:20

ich sehe unter .de die absolute Häufigkeit einer Domain bei der Kombi seo grundlagen
unter .at (Seiten auf Deutsch) ist sie auch öfter da, aber bei weitem nicht sooft -und nicht auf Kosten von at Domains

und diese Kombi ist gut, weil die anderen Ergebnisse fast ident sind bis auf minimal Platzierungsänderungen

+++++++++++++++
ich werd mir angewöhnen zu schreiben „da wo ich mich aufhalte“
konnte ich Venice und dieses Pkt.36 Update kaum unterscheiden, weil es nicht zu unterscheiden war, weil zeitlich kaum getrennt und immer noch wechselnd ist 😉

werde Augen drauf werfen 😉 danke für die Recherche!

Sebastian Socha
20. Juni 2012, 10:20

Hallo Hanns,

Entschuldige, dass ich hier nicht so sehr auf das Thema des Blogposts sondern auf die Diskussion in den Kommentaren eingehe, aber so ist das nun mal mit der Kommentar-Kultur im Web – man diskutiert dort, wo die Diskussion stattfindet und dort baut die Diskussion auch die notwendige Relevanz auf.

Ich zitiere Dich mal:
„Die personalsierten ortsbezogenen Suchergebnisse haben keine große Auswirkung auf die Aussagekraft des Sichtbarkeitsindex.“

Was ist denn das für ein Unsinn?
Ohne Beweis dafür, glaube ich Dir diese blanke Behauptung als ein Kunde der SISTRIX Toolbox nicht.

Google doch bitte mal nach „Autohaus“ mit den beiden Nutzer-Standorten „Hamburg“ und „Köln“… da weicht bereits der organische Treffer No. 2 und No. 3 voneinander ab! Und das soll keinen Einfluss auf den Sichtbarkeitsindex haben? Was möchtest Du mir eigentlich weismachen?

Schau Dir diese beiden Screenshots hier an:
http://www.suchradar.de/magazin/archiv/2012/2-2012/google-places-integrationen.php

Und auch noch etliche weitere hier bei Martin:
http://www.tagseoblog.de/google-local-update-nicht-venice-was-passiert-da-genau

Wenn da die erste Google-Seite nach Nutzerstandort nicht massiv von anderen Nutzerstandorte abweicht, was dann?

Noch ein Zitat von Dir:
„Eine gesonderte Erhebung in Großstädten finde ich hingegen weniger spannend. 70 Prozent der Einwohner in Deutschland leben nicht in Großstädten. Das wäre doch eine wenig repräsentative und verzerrte Darstellung.“

Das ist ebenfalls unsinnig, denn es geht nicht um eine repräsentative Erhebung, um eine möglichst hohe Relevanz in Bezug auf die Wohnorte aller deutschen Nutzer zu erzielen, sondern es geht darum zu veranschaulichen wie sehr die erste Google Seite bei generischen Suchanfragen wie „Autohaus“ je nach Nutzerstandort am Beispiel von 10 deutschen Großstädten voneinander abweicht.

Für mich als Nutzer der Toolbox erwarte ich da von Euch ein wenig mehr Offenheit und Transparenz im Umgang mit diesem für Euch sicher auch kritischen Thema.

Gruß,
Sebastian

Hanns
20. Juni 2012, 11:36

@Sebastian: Wir hatten die Diskussion auch zu Deinem Beispiel Autohaus schon im Februar/März und die Auswertungen in der Toolbox entsprechend angepaßt, wofür wir viel positiven Zuspruch von zufriedenen Nutzern bekommen haben. Ich glaube, wir müssen die Dikussion nicht noch einmal komplett wiederholen. Mir ist kein anderer Tool-Anbieter bekannt, der sich auch nur annähernd so sehr darum kümmert, die ständigen Local-Search-Änderungen von Google zu berücksichtigen und die SERPs mit dieser Genauigkeit sauber auswertet.

Aus unserer Sicht sind möglichst repräsentative Erhebungen sehr wichtig. Sonst haben die Untersuchungen wenig Aussagekraft. Ich weiß nicht, warum Du das anders siehst. Dich interessieren als Local Search Experte wahrscheinlich lokal unterschiedliche Extrembeispiele zwischen Großstädten. Uns interessieren als Tool-Anbieter mehr repräsentative Erhebungen mit hoher Aussagekraft.

In Bezug auf die Auswirkungen auf den Sichtbarkeitsindex hat Jens das heute sehr treffend und gut zusammengefaßt: http://www.seo-scene.de/google/bashing-one-google-update-no-36-vulgo-venice-1941.html#comment-36711

Ansonsten freue ich mich über Kommentare zum eigentlichen Thema des Postings „Reduzierung die Ergebnis-Diversität“. Johannes hat sich bei der Auswertung viel Arbeit gemacht und ich finde die Daten hochspannend, um die aktuellen Veränderungen der Kennzahlen vieler Domains richtig verstehen und interpretieren zu können.

20. Juni 2012, 16:28

Beim ersten Ansehen der zweiten oben gemachten Auswertung wurde ich zunächst stutzig und dachte „Hm, na und?“ – gibt je eh nur 10 Plätze, die pro Seite zu verteilen sind, wo ist die Aussagekraft? Auf den zweiten Blick allerdings schon sehr interessant, wenn man die Frage stellt, warum Google auf den Seiten 2-x plötzlich weniger Domains und dafür mehr Unterseiten einrankt. Und es ist die Frage, was zuerst war: 1) Die Abwertung bisheriger Domains, und dadurch das Hochziehen von Unterseiten der übrig gebliebenen Domains oder 2) Die Aufwertung der Unterseiten bzw. die Entscheidung, mehr Unterseiten anzuzeigen, und daraufhin das Runterschieben von bisherigen Domains. Dazu müsste man sich einmal die verloren gegangenen Domains und die vorherigen Platzierungen ansehen. Ich tippe aber im Zuge der letzten Updates stark auf die 1) – was dann doch harten Auswirkungen zeigt.

@Hanns, kann dir und damit auch Jens Kommentar nur beipflichten – die Auswertung eines SEO-Tools sollte möglichst so weit repräsentativ sein, dass sich der „durchschnittliche Erfolg“ der Arbeit im SEO ablesen lässt. Inwieweit das dann mit den realen Daten zusammenhängt, ist ein zweiter Schritt der Analyse, die aber eher ins Feld der local search fällt und daher nicht vermischt werden sollte. Woher soll ich sonst ermitteln, ob mein Linkbuilding für die Lottozahlen erfolgreich war oder Google plötzlich einfach nur meine Seite als für Münsteraner besonders relevant gewertet hat.

20. Juni 2012, 16:58

Ein relativ frisches Video von Matt Cutts zum Thema Domain-Diversität http://www.youtube.com/watch?feature=player_embedded&v=AGpEdyIcZcU

21. Juni 2012, 12:20

Hallo Hanns,
wie immer liest man von Dir einen sehr fundierten und gut mit Argumenten untermauerten Blogpost. Ich habe gerade die Toolbox Werte unserer Portale geprüft und habe mich über einen recht starken Anstieg im Sichtbarkeitsindex von über 10% bei unserem wichtigsten Projekt gefreut. Einer der Konkurrenten hat innerhalb der letzten beiden Wochen sogar um 16% zugelegt. Der Rest der Konkurrenz ist gleichgeblieben oder gar leicht gefallen.
Auch prominente Seiten wie spiegel.de oder focus.de konnten in den vergangenen zwei Wochen den Sichtbarkeitsindex aussergewöhnlich stark steigern. Haben diese enormen Zuwächse bei einigen Seiten mit der Ergebnis-Diversitär zu tun? Kann es sein, dass nur wenige Seiten das „Privileg“ geniessen nun vermehrt in den Ergebnissen aufzutauchen?

Wär super, wenn Du da Licht ins Dunkle bringen könntest.
Danke
Martin
Haben diese S

21. Juni 2012, 16:40

Für mich kommt das jetzt etwas überraschend. Bei meinem ehemaligen Arbeitgeber, einer vertikalen Suchmaschine, haben wir damals Ergebnisdiversität als Qualitäts- und Monitoringmerkmal eingeführt. Unsere Idee war ganz klar, dass ein Suchender sowohl das beste Ergebnis als auch eine Auswahl an verschiedenen Möglichkeiten haben will.

Komisch, dass Google das anders zu sehen scheint.

Jule
21. Juni 2012, 16:44

Die Suchergebnisse nach dem aktuellen Thema „Zecken“ ist ab Seite 2, erst recht ab 3, ein Witz. Ich möchte die Kompetenz der hier so häufig auftauchenden Seite nicht schmälern, aber „Informationsvielfalt“ sieht anders aus.

22. Juni 2012, 01:33

Das ist mir auch in den letzten Wochen aufgefallen. Hatte mich doch schon sehr gewundert. Bin jetzt aber froh diesen Artikel sowie die ausführlichen Antworten bei euch gefunden zu haben.
Vielen Dank!!!

Jens
22. Juni 2012, 12:03

Hängt der Traffic Peak bei gutefrage.net auch mit dem letzten Update zusammen? Dann wären die Auswirkungen ja für einige wenige Domains doch deutlicher spürbar. Die Seite taucht für mich wieder erschreckend oft auf der ersten Seite auf.

Michael
22. Juni 2012, 13:50

Wenn ich sehe, dass bei der Suche nach „wikipedia“ in den TOP50 nur Ergebnisse von FÜNF Hosts (de, en, www etc.) auftauchen, stimmt die Diversifität einfach nicht mehr. Auch bei der Nischensuche nach „Zebra Kartendrucker“ sind nur 23 Hosts in den TOP50 vertreten.
Als User will ich doch nicht nur VON einem Brand etwas lesen, sondern ggfs. auch ÜBER den. So, wie es bei vielen Suchbegriffen jetzt ist, werden doch die vielen verschiedenen Suchintentionen der User überhaupt nicht abgebildet.
Google -> #fail

23. Juni 2012, 19:49

Ist es nicht auch logisch, dass einige Domains zu weniger Keywörtern ranken, wenn stattdessen mehr locale Treffer angezeigt werden? Sprich die Sichtbarkeit von Domains kann abnehmen, da locale Ergebnisse bevorzugt werden.

Mich würde interesieren ob man irgendwie interpretieren kann ob eine Domain eher auf dem absteigenden Ast ist, wenn sie „plötzlich“ bei weniger Keys rankt oder ob man so etwas eher als „Umverteilung“ sehen könnte? Bzw. was könnte der Grund sein, wenn eine Domain an Sichtbarkeit verliert, während Andere eher gewinnen, auch wenn es bei den Gewinnern weniger um Domains mit lokalen Ergebnisse geht?

Ich habe den Eindruck, dass Domains mit „mehr Trust“ wesentlich weniger verloren haben, als von Natur aus schwächere Seiten.

24. Juni 2012, 03:35

Hm, sorry schon spät. Habs gerade überflogen.
Mein erster Gedanke (weiß nicht ob der gut ist 😉 )
Selbst wenn mann große Brands wie Apple, Siemens, allianz, PetrolUmelt***

als die großen bezeichnet und diese den ganzen „sichtbaren“ Teil der organic search „wegnehemn2bzw. für sich beanspruchen ist das nicht milde ausgedrückt lnagweillig, die verschwörungstheoretiker werden auch wieder im Dreieck springen 😉

Dani
24. Juni 2012, 18:17

Ach du liebe Zeit, was ist denn da passiert?
Für meine wichtigen Keywörtern ranken nun etliche Unterseiten, die irgendwie was mit „Elmshorn“ zu tun haben, vor mir. Und wenn man die heutigen Gewinner anschaut, lauter Seiten die was mit Elmshorn zu tun haben.

Seltsam… was macht google da und für was soll das gutsein? Ich meine jemand, der ne Wohnung in München sucht, dem hilft ein Treffer für Wohnungen in Elmsholm nicht wirklich!

Danny
25. Juni 2012, 12:25

Keine Angst, die Rankings sind die Rankings für Anfragen aus Elmshorn 😉 Jemand der der in Elmshorn sitzt und ne Wohnung in München sucht wird nicht „Wohnung“ googlen sondern „Wohnung München“

26. Juni 2012, 15:26

Yeah i am still feeling the effect of this now.

29. Juni 2012, 10:17

Jetzt mal aus Nutzersicht: Diese Änderungen sind der absolute Schwachsinn. Ich finde nur noch selten beim ersten Versuch relevante Informationen. Ich habe bei mir die Ausgabe von 100 Ergebnissen voreingestellt. Manchmal erhalte ich von einer Domain deswegen über 30 Ergebnisse und nicht eins ist davon relevant.

Das liegt vor allen Dingen daran, dass Google total weich bei der Keywordauswertung geworden ist. Manche Keys werden vollständig ignoriert oder gegen völligen Unsinn ersetzt.

Sucht mal z.B. nach:
Flucard Dateiformate

Die „Flucard“ ist eine WiFi SD Karte und ich wollte wissen welche Dateiformate von dieser Karte unterstützt werden. Google findet aber, dass es zu wenig Ergebnisse zu dieser Kombi gibt und entscheidet, dass ich „Flurkarte“ meinte. Solche Beispiele erlebe ich jeden Tag und ständig muss ich Anführungszeichen nutzen, damit ich überhaupt was finde.

chrisaudio
4. August 2012, 12:06

So, wie Johannes die Daten analysiert und in Zusammenhang mit anderen Ereignissen oder relevanten Umgebungsbedingungen stellt, schlage ich vor auch diesen Bereich zu betrachten. Wir sprechen hier über Google, die in der Vergangenheit zwar oftmals augenscheinlich einen Schnitzer in der Search Quality hatten, der sich aber in über 90% der Fälle als Vorbereitung für eine andere Veränderung enttarnt hat. So z. B. die Einblendung der Universal Search Ergebnisse zur Animation Google Plus vermehrt zu nutzen, um personalisierte Ergebnisse zu fördern. Dies wiederum, um noch bessere Nutzungsdaten der User zu erhalten, denn der Cookie sieht dann auf einmal ganz anders aus 🙂 …

Nun sieht man sich mal die Bewegungen an und kann einen Rückschluß auf künftige Ereigisse finden. Es stehen ja einige neue Projekte bei Google in den Startlöchern.

[…] rund einem Jahr habe ich hier im Blog berichtet, dass die Anzahl unterschiedlicher Domains, die Google für die ersten 100 Treffer vieler […]