Panda-Update: erste Überlegungen

Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.
26. April 2011 39 Kommentare

Während wir in Kontinentaleuropa gespannt auf die Umsetzung des Panda Updates warten, kehrt in den USA sowie in England langsam etwas Ruhe ein. Dort sind die Anpassungen bereits durch und der Staub hat sich etwas gelegt. Für ein endgültiges Fazit des Panda-Updates ist es sicherlich noch zu früh, ich möchte trotzdem einige Überlegungen und Rückschlüsse zur Diskussion stellen.

Die Ursache hat das Panda-Update in Google Caffeine. Unter dem Stichwort Caffeine hat Google im letzten Jahr eine grundlegende Überarbeitung der Such-Infrastruktur durchgeführt. Seitdem können neue Seiten und Rankingsignale deutlich schneller in den Index aufgenommen werden, aber auch die Gesamtgröße des Google-Index hat massiv zugelegt. Und genau das wurde zum Problem für Google: dadurch, dass vor Caffeine nur eine begrenzte Anzahl an URLs von Domains mit Inhalten von zweifelhafter Qualität indexiert wurden, hat das wie ein natürlicher Filter gewirkt. Dieser Filter ist durch Caffeine nun weggefallen und etliche, qualitativ eher minderwertige Inhalte sind in den Index gekommen und werden folglich auch gefunden. Mit Panda möchte Google das Problem nun wieder in den Griff bekommen und Inhalte, die zwar nicht klar gegen die Spam-Richtlinien verstoßen, aber trotzdem nicht den Qualitätserwartungen von Google (und den Nutzern) entsprechen, aus dem Ranking verbannen.

Qype und YelpZu Domains, die von Panda betroffen sind, habe ich in den vergangenen Wochen einiges geschrieben. Das erste Panda-Update in den USA hat sicherlich für die meiste Aufregung gesorgt, aber auch die UK-Version sowie das Update in den USA liefern interessante Daten. Über mögliche Ursachen wird seitdem diskutiert: einige vertreten die Auffassung, dass Google den Anteil der Brand-Suchen heranzieht, viele glauben, dass Google die Qualität von Texten bewerte und wieder andere denken, dass eine Reduzierung der Anzahl von indexierten Seiten helfen könne. Da wir bislang noch keine Domain gesehen haben, die sich nachhaltig von Panda erholt hat, ist es etwas früh, Lösungen zu entwickeln. Ich persönlich glaube, dass Google eine Vielzahl von Signalen parallel auswertet. Wenn eine ausreichend große Anzahl dieser Signale für eine Domain eine zu große Abweichung vom Standard feststellen, schlägt der Filter zu. Interessant ist nun die Spekulation über mögliche Signale, die in die Bewertung der Domain einfließen. Aktuell scheint Google sich hierbei übrigens noch auf domain-weite Signale zu beschränken, wie der Kommentar eines Google-Mitarbeiters in den Support-Foren verrät:

„In addition, it’s important for webmasters to know that low quality content on part of a site can impact a site’s ranking as a whole.“

Für einen näheren Blick finde ich qype.co.uk sowie yelp.co.uk recht interessant: beide haben das gleiche Geschäftsmodell, doch Yelp blieb in UK von Panda verschont, während es Qype getroffen hat. Viele Daten der beiden Domains sind recht ähnlich, doch schaut man sich Verweildauer, PageView pro Nutzer und Bounce-Rate an, fallen Unterschiede auf. Im Folgenden übrigens mit den Alexa-Daten. Mit ist durchaus bewusst, dass man die Daten mit Vorsicht anfassen muss, in diesem Fall geht es aber um zwei sehr ähnliche Seiten und deren Unterschiede, daher müsste es funktionieren:

Qype.co.uk Yelp.co.uk
PV/User 3,15 4,39
Bounce % 61,7% 52,0%
Time on Site 2,6 min 4,8 min

 

Auffällig, dass Yelp hier bei diesen Metriken durchgehend besseren Werte erzielt. Auch bei vergleichbaren „Domain-Paaren“ (eine durch Panda betroffen, eine andere Domain nicht), habe ich häufig deutliche Unterschiede in diesen Kennzahlen gesehen. Hier zum Beispiel für Pricerunner.co.uk sowie Ciao.co.uk:

Ciao.co.uk Pricerunner.co.uk
PV/User 2,11 3,10
Bounce % 63,2% 47,6%
Time on Site 1,7 min 2,5 min

 

Bei diesen Werten würde ich übrigens nicht auf die absoluten Zahlen schauen, sondern eher auf die Abweichung der jeweiligen Domain im Vergleich zur Konkurrenz. Auch, wenn noch unklar ist, ob Google diese Werte in die Entscheidung über den Panda-Filter einfließen lässt, spricht aus meiner Sicht derzeit einiges dafür. Allerdings werden noch zahlreiche weitere Signale in diese Entscheidung einfließen.

26. April 2011, 13:47

Spannend finde ich, dass yelp das Original ist, welches eher durch qype adaptiert wurde. Oder nicht! Denke, der Mega Brand in den USA von yelp hilft hier ebenso wie eine lange Verweildauer der unterschiedlichen Nutzer in allen Altersgruppen. Just my 5 cents

26. April 2011, 13:51

Als sekundäre Signale sicher auch sehr spannend. Aber ein Kandidat für ein Primärsignal (wie es z.b. der Brand-Traffic sein könnte) reicht es wohl nicht da sich leicht Gegenbeispiele finden lassen:

kelkoo.co.uk (Gewinner, bzw. nicht verloren)
– PV/User: 2,76
– Bounce: 55,2%
– Time on site: 1.69s

twenga.co.uk (Verlierer)
– PV/User: 3,15
– Bounce: 51,9%
– Time on site: 2,1s

Natürlich kann hier auch die Ungenauigkeit von Alexa eine größere Rolle spielen. Google hat da sicher wesentlich genauere Daten zur Verfügung … Zustimmen würde ich auf jeden Fall, das beim Panda auf jeden Fall derartige Traffic-Signale eine Rolle spielen.

Johannes
26. April 2011, 13:59

Bert, ich glaube, dass Kelkoo hier kein gutes Beispiel ist. Die haben es ein paar Wochen vorher (mal wieder) in eine Penalty geschafft und so, wie ich das sehe, addiert Google die Penalties noch nicht. (http://www.sistrix.de/news/img?img=/blog/panda-kelkoo-twenga.png)

Loewenherz
26. April 2011, 14:24

Die Statistiken mögen eine Sichtbarmachung anderer Faktoren in Zahlenwerten sein wie GUI, Informationsarchitektur etc., die von QR manuell bewertet werden.

26. April 2011, 14:45

Bounce und Time on Site in Kombination mit Brandanfragen halte ich für die einfachste Lösung das Panda Update automatisiert laufen zu lassen.
Mal abwarten was sich in DE in der Richtung bewegt.

26. April 2011, 14:59

Nach meinen Erfahrungen sind Werte wie Bounce Rate und Time on Site schon jetzt interessante Rankingkriterien. Möglicherweise wurde deren Wichtigkeit mit Panda erhöht?
Ich finde allerdings die Werte der o.g. Domains nicht soooo schlecht. Spamprojekte haben da deutlich schlechtere Ergebnisse.

David
26. April 2011, 15:26

Hat schon jemand die Lade-Geschwindigkeit der Seiten verglichen?

Diese würde zwar nicht wirklich auf inhaltliche Qualität hinweisen, aber von Google wurde so häufig auf pagespeed hingewiesen, dass mich eine kombinierte Abstrafung für lahme Sites nicht überraschen würde…

@Johannes: wäre doch auch eine schöne zusätzliche Metrik für die Toolbox?

Sebastian
26. April 2011, 16:06

Hi Johannes,

Danke für die Anregung!

Ich habe mal Deinen Beitrag bei uns im Blog aufgegriffen und die Datenbasis für den deutschen Markt ein wenig erweitert:
http://goo.gl/JU6SQ

Gruß,
Sebastian

26. April 2011, 16:59

Ich halte eine hohe Bounce Rate definitiv für ein Signal, das beim Panda eine Rolle spielt(e). Aber nicht die generelle Bounce Rate über die gesamte Website, sondern nur die Absprünge von Besuchern aus Suchmaschine, zurück zur Suchmaschine. Denn hier kann sich Google sehr sicher sein, dass die gesuchte Information nicht ausreichend geliefert wurde oder die Seite einfach „abschreckend“ war. Andere Bounces kann Google etc. auch meines Wissens schwer messen … vielleicht noch wenn der User später nach ähnlicher o. gleicher Phrase sucht.
Das ist aber sicher auch ein genereller Rankingfaktor, der nun bei Panda eben eine größere Rolle (ge)spielt (haben kann), neben mehreren anderen.

Gruß,
Michael

Jonas
26. April 2011, 17:09

wie hoch ist denn die durchschnittliche Bouncerate bei Ecommerce Seiten? Ich finde 50% gar nicht so schlecht.

26. April 2011, 19:02

Hallo,

meiner Meinung ist eine schlechte Bouncerate lediglich das Resultat der für das Update verantwortlichen Eigenschaften betroffener Webseiten. Will sagen, alle betroffenen Webseiten haben wahrscheinlich eine hohe Bouncerate, nicht alle Seiten mit hoher Bouncerate sind aber vom Update betroffen.

Google hat ziemlich genau gesagt, warum es bei dem Update geht. Auf Grundlage eines Fragenkataloges wurde ein Algorithmus entwickelt, der wahrscheinlich eher Faktoren wie `Verhältnis Text zu Werbeanzeigen´, `Umfang des eigenen Inhalts´, `Anzahl weiterführender Links´ usw. enthält.

Grüße

Gretus

Andreas
26. April 2011, 19:25

Das stimmt, denn wictionary hat auch eine hohe bounce rate und kurze Verweildauer und ist einer der großen Gewinner

Michael
26. April 2011, 19:39

Bei solch nebulösen Rankingfaktoren wie „Pageviews/ Besucher“ würde ich mir von Google mehr Klarheit wünschen. So wie es jetzt ist, verliert man als Webmaster nämlich die Lust daran, innovative Ajaxoberflächen zu gestalten (Ajax verringert die Anzahl der Pageviews, oftmals gibt es dann nur noch einen pro Besucher). Bei ein bisschen mehr Offenheit in solchen Bereichen würde der Google-Algorithmus bestimmt auch nicht zu Grunde gehen.

Makkus
26. April 2011, 20:09

Ich verfolge mit Spannung die Panda-Analysen, weil ich nämlich auch so eine Farmer-Seite mein Eigen nenne, aber – man höre und staune – ich mich zu den Gewinnern zählen kann. Heutiger Webalizer sagt mir „130.000 Sites“.

Meine Alexa-Werte (Bounce- bzw. Per-User) sind absolut grottenschlecht, weil viele User halt nur die Informationen abrufen – und nichts weiter auf der Webseite veranstalten.

Jau – also eigentlich müsste ich der Mega-Verlierer sein. Nee – Wachstum, wie üblich. Ich würde mal sagen daß ich ein Stottern während des Aufschwunges gemerkt habe – das war aber alles.

Laut meiner Analyse liegt das an folgenden Faktoren:

– permanenter, linearer Content-Zuwachs
– kein Adsense seit ca. 1 Jahr
– extrem schneller Server mit ca. 20GB Cache-RAM
– selbstprogrammierter, sehr eng parametisierter Scraper-Blocker um Double-Content zu vermeiden

Ich denke mal, daß z.B. ein Hauptmerkmal die Analyse der angezeigten Werbeblöcke ist. Je mehr Anzeigen, desto eher Farmer. Wenn nun Inhalts-Gleichheit herrscht, gewinnt immer die Seite mit weniger Anzeigen.

26. April 2011, 21:45

Sehr interessant, ich tue mich mit der Analyse des Panda-Updates ja noch etwas schwer, aber das geht denke ich schon einmal in die richtige Richtung.

26. April 2011, 22:14

Also das die Bouncerate großen Einfluss auf das Ranking hat kann ich mir nicht vorstellen. Hat ja auch nichts über die Qualität der Seite zu sagen, wenn man nach einer Information sucht und die findet, dann gibts halt oft keinen Anreiz mehr auf der Seite zu verweilen.

Klaus Blömeke (hlag)
27. April 2011, 12:19

Pageviews, Verweildauer und Absprungraten halte ich für zu ambivalent, als dass es ein Rankingkriterium sein dürfte.
Auf der Suche nach Informationen dürfte die besser aufbereitete Seite in allen Fällen die „schlechteren“ Werte haben.

27. April 2011, 13:02

Hallo Johannes,

Super Info, das erleichtert die Orientierung ein bisschen.

Ich hätte dazu noch eine Frage: Woher hast du die Daten wie Bounce Rate und Time on Site? Soweit ich weiß, weiß das ja nur der Webmaster von den Seiten selbst? Das würde mich stark interessieren.

Danke!

lg,
Klaus

27. April 2011, 14:07

Ehrlich gesagt bin ich über die hier aufgeführten Vorüberlegungen etwas verwundert. Vermutlich sind die genannten Faktoren aus Sicht eines Blog-Betreibers relevant – aus Suchmaschinen-Sicht führt genau das Gegenteil zu besseren Suchergebnissen.
1. PV/User
Google versucht immer das beste Ergebnis zu finden, welches zu einer Suchanfrage passt. Findet der User die gewünschten Information genau auf der angeklickten Ergebnis-Seite, besteht nicht zwangsläufig die Notwendigkeit weitere Seiten dieser Domain zu öffnen.
2. Bounce Rate
Nach der Definition handelt es sich dabei um den „Anteil an Websitebesuchen mit nur einem einzelnen Seitenaufruf“ (Wikipedia). Hier greift die gleiche Begründung wie unter Punkt 1. Die gesuchte Information befindet sich auf der von Google gelieferten Seite, was für Google ein positives Signal darstellen sollte.
3. Time on Site
Je schneller die gesuchte Information vom User erfasst werden kann, umso besser.

Meiner Meinung nach haben folgende Faktoren eine grüßere Aussagekraft:
1. CTR – In Adwords spielt die CTR schon lange eine entscheidende Rolle. Warum sollte dies in organischen Ergebnissen anders sein?
2. Bereinigte Bounce Rate – Anzahl der Rücksprünge zur Google-Suchergebnisseite und Aufruf weiterer Suchergebnisse (siehe Michaels Kommentar oben).
3. Conversion Rate – Wurde die Suchanfrage durch das von Google gelieferte Ergebnis befriedigt?

Jonas
27. April 2011, 14:30

@Makkus : Ist das Panda Update denn überhaupt schon in Deutschland verfügbar?? Wenn ja seit wann??

publish enemy
28. April 2011, 09:43

@jonas nein

28. April 2011, 11:19

Die Vergleiche der Preis-Vergleicher finde ich ja besonders interessant und dein Kommentar bezüglich Kelkoo mit seinem Penalty (warum eigentlich und was haben sie denn überhaupt geändert, um wieder raus zu kommen ???) gibt mir irgendwie das Gefühl, dass der Panda nicht ganz so fair ist wie er sollte.

Du hast doch passende Daten, wie sieht es denn in der zweiten und dritten Reihe aus?

Nur deine beiden Grafiken hier im Post zeigen den Vergleich von jeweils eigentlich doch recht ungleichen Seiten, schließlich hat(te…) die eine Seite Ciao einen Fünfachen Sichtbarkeitswert als die andere Seite Pricerunner.

Bei Kelkoo zu Twenga würde ich jetzt auf den ersten Blick (Twenga kenne ich im Detail bei weitem nicht so gut wie kelkoo) auch keine so gravierenden Unterschiede sehen, die man rein aus der Frontendansicht solch ein unterschiedliches Verhalten rechtfertigen würden.

Trotzdem schön zu sehen, dass es die Preis-Vergleicher nun auch endlich erwischt, was gerade im deutschen Markt heftig werden könnte.

Ich schweife wieder ab – noch mal zurück zur Frage – wie sind denn die zweite und dritte Reihe betroffen, also jene Seiten, die eh schon immer im Bereich Kelkoo und Pricerunner lagen?
Könnte es nicht sein, dass der Panda erst ab einer bestimmten Größe (über Zeit) beisst?

David
29. April 2011, 00:11

@Jonas
Das Update bekommen eigentlich nur große Seiten.
Deshalb wird es für dich wohl nicht so schnell verfügbar sein.
Aber dein Hoster sagt dir bestimmt bescheid wenn du updaten kannst.
;-))

29. April 2011, 15:20

Ich kann mir das einfach nicht vorstellen, dass es so einfach sein soll. Mal schnell die CTR, die Bouncerate und die Verweildauer in einen Topf, umrühren und fertig ist das Panda. Ich bin mir relativ sicher, dass Contentmetriken eine wichtige Rolle spielen.

Die CTR sagt nichts über die Qualität einer Seite aus, sondern nur, ob Title und Desc gut getextet wurden bzw. zur Suchabfrage passen. In Verbindung mit der Bouncerate zurück zu Google kann man nur erkennen, ob die Suchenden auf der Zielseite fündig geworden sind oder nicht. Da Google him- oder herself aussucht, wer gelistet wird, sind sie zum großen Teil selbst mit verantwortlich! Wenn G. nämlich eine Seite auf 1 rankt, die da eigentlich gar nicht hingehört (aus welchen Gründen auch immer), dann ist die Bouncerate recht hoch. Folge: Die Seite fällt im Ranking zurück. Auch weil eine hohe Anzahl von Klickern wieder zurück zu Google bounced, bedeutet das noch nicht, dass gleich eine Contentfarm vorliegt.

Die Siteverweildauer: Meines Erachtens auch ein nicht soooo einfach auswertbares Signal. Sind 2 Min lang? Sind durchschn. 4 Seitenaufrufe pro Besuch viel oder wenig? Kommt doch wirklich auf die Art der Site an. Da wäre Wikipedia (bzw. ähnliche Sites) schon lange rausgeflogen, weil in der Regel immer nur 1 Seite gezielt aufgerufen wird.

Was mich sehr stutzig macht, ist die lange Zeitdauer, bis Panda nach D kommt. Wäre es nur ein Algo aus technischen Metriken, hätten wir es schon lange hier. Warum dauert es so lange? Wahrscheinlich, weil es erst lokalisiert -sprich: auf die deutsche Sprache angepasst- werden muss? Die ist nämlich ungleich komplexer aufgebaut als US oder British 😉 English.

Ein einfaches Zusammenziehen schon lange (!) vorhandener Signale zu einem Update – das wäre meines Erachtens viel eher gekommen (weltweit mein ich). Warum heißt datt Dingens überhaupt Panda? Schon mal einen Panda bei seinen Bewegungen zugeschaut? Ist gelebte Zeitlupe 😉

29. April 2011, 22:15

Ich kann mir sehr gut vorstellen, dass die Bouncerate und Verweildauer im Branchendurchschnitt maßgeblich sind. Viele Webseiten nutzen Google Analytics und wer Analytics etwas intensiver nutzt, weiß dass dort auch die Zahlen hinterlegt sind.

Wenn man diese Daten branchenspezifisch betrachtet und auswertet kann man schon gut innerhalb der Branchen vergleichen, welche Seiten die Nutzer interessiert.

29. April 2011, 22:45

Verdammt, die Benchmark Daten für eine Branchenvergleich sind ja im Google Analytics verschwunden. Weiß einer von euch, ob das schon länger so ist und warum die das entfernt haben?
Könnte das vielleicht etwa mit dem Panda Update zu tun haben?

Hier nochmal zur Erinnerung worum es mir geht.
http://googlesystem.blogspot.com/2008/03/google-analytics-benchmarks.html

Wigger
30. April 2011, 08:20

@Baynado interessant, wusste gar nicht dass es so etwas ma
Gab. ist ja auch aus 2008. Gelbe Seiten Verzeichnisse miteinander zu vergleichen ist socherlich moeglich, aber die verweildauer ist aus meiner Sicht nicht so interessant. dann haben qype und gutefrage.net z.B. Deutliche Vorteile da Sie Communitys haben. Noch n paar Klickstrecken einbauen und schon steht man besser als die Kokurrenz da. Da muss sicherlich im Detail genauer geschaut werden. was mir scheinbar seit gestern aufgefallen ist. bei lokalen resultaten sind auch mal us-ergenosse in englisch dazwischen, was ist da denn los ? Z.B. http://www.google.de/search?hl=de&client=safari&q=trattoria+dolce+vita&aq=f&aqi=g2&aql=&oq= Platz 3 bei mir, yelp usa, restaurant aus miami ? Geht da schon was los ?

30. April 2011, 17:28

Wenn ich doch künstlich Klickstrecken einbaue, was ja alleine wegen der PI schon sehr gerne getan wird, dann mag das zwar die Verweildauer auf der Domain erhöhen, aber auf die einzelne Seite herunter gebrochen wäre es ein extremes Indiz dafür, dass der Inhalt dort die Suchanfrage kaum beantwortet.
Würde aus dem bauch z.B. ehow perfekt passen, wo die Info pro Page oftmals gegen Null geht.

2. Mai 2011, 10:15

Würde sich Google nicht die eigenen Einnahmen vermiesen, wenn man die Verweildauer auf manchen Seiten als Qualitätskriterium für den Inhalt nimmt?

Also oft hat man es ja, dass man auf Seiten kommt da geht es zwar ungefähr um das was man sucht, aber so richtig das was man sucht sieht man in den nebenstehenden Google-Anzeigen. Und schon war ich zwar nur kurz auf der Zielseite, bin dann über eine Google Anzeige wieder weg, aber das ist ja viel besser für Google, als das ich lange auf der Zielseite bleibe!

2. Mai 2011, 15:51

Ich stimme Gretus und Holzmichael zu.
Mittlerweile wurde ja bestätigt, dass es hauptsächlich Seiten getroffen hat, die ohne wirklichen Mehrwert für den User dafür aber mit möglichst viel Adsense & Co. aufgebaut wurden.

Hierzu hat Gretus am WE ein wirklich interessantes Video der, auf der letzten Affiliate TactixX zum Thema „Search Roundtable – Entwicklungen im Bereich Suchmaschinen“, geführten Podiumsdiskussion gepostet.

4. Mai 2011, 17:09

Bislang wurden die negativen Signale nur separat behandelt. Es gab viele Seiten, die die negativen Faktoren bis kurz vor die kritische Grenze ausgereizt hatten, aber eben doch nirgends darüber getreten sind. Nach meiner Theorie hat Google das nun verändert: die negativen Faktoren – oder zumindest eine Teil – werden nach dem Panda-Update zusammen gewertet. Und damit reißen eine Reihe von Websites nun die Hürde, vor der sie bislang erfolgreich umhergehüpft sind.

13. Mai 2011, 18:41

Ich bin davon überzeugt, dass Panda langfristig dafür sorgt, die Spreu vom Weizen zu trennen. Wir sind selbst seit Jahren im Internet Marketing und Vergleichemarkt tätig. Dort gibt es so viele Webseiten, die sowohl inhaltlich, von der Qualität und vom Umfang einfach nur schlecht sind und hoffentlich, durch die neuen Standarts deutlich abgewertet werden. Umgekehrt erhoffen wir uns von hochwertigen Portalen wie unserem Aushängeschild Geld verdienen im Internet eine bessere Indixierung bzw. die Würdigung von seriösen und hochwertigen Inhalten, die den Lesern dazu auch noch kostenlos zur Verfügung gestellt werden.

Frank
16. Mai 2011, 16:14

Ist das eventuell schon ein Vorbote auf das Panda Update in Deutschland?

https://tools.sistrix.co.uk/domain/gutefrage.net/

Was meint ihr?

18. Mai 2011, 16:48

Hm, da wäre ich vorsichtig, die Entwicklung von deutschen Seiten bei ausländischen Google Versionen kann extrem vielfältige Gründe haben und setzt sich nicht zwangsweise im deutschen Index fort. Der Zeitliche Zusammenhang ist allerdings schon auffällig.

22. Mai 2011, 18:06

Die Daten von Alexa zeigen das die unser bei Qype schneller die Seite verlassen als bei yelp. Aber in diesem Fall bedeutet dies doch das der User seinen Pizza- oder Sushiladen bzw. die Informationen gefunden hat?

Henryk
24. Mai 2011, 19:22

@Holzmichel: Hervorragende Analyse. Ich bin ebenfalls davon überzeugt, dass CTR, bereinigte Bounce-Rate und Conversion-Rate bei der Positionierung eine zentrale Rolle spielen. Dazu kommt dann noch ein Qualitätsfaktor für den Content. Letztlich werden aber auch weiterhin andere Faktoren berücksichtigt.

Seonetworker
8. Juli 2011, 10:38

Hallo,

ist das Panda/Update schon in google.de angekommen?
Bei einen Kunden, der qualitativ hochwertigen Content hat, habe ich im Juni eine erhebliche Rankingsteigerung auf allen Ebenen im Vergleich zum Vormonat:
Ranked 1-3: 9
1st Page: 106 +60
2nd Page: 107 +45
3rd Page: 48 +24

Grüße aus Hamburg,

Seodorant
27. Juli 2011, 09:20

Hi,

das beobachte ich ebenfalls sowohl bei einigen Kundenprojekten als auch bei eigenen Seiten. Richtige Sprünge gabs da nach vorne, und viele Top 10-Seiten verschwanden von heute auf morgen.

Ist das schon der Panda, wie sieht das Allgemein-Bild aus?

Gruß

Hans
27. Juli 2011, 10:06

Hallo,

ich bin mir heute nicht sicher, ob das Panda/Farmer schon hier anfängt. Habe gelesen, dass das übersetzen in die deutsche Sprache doch recht kompliziert sein soll wegen der andersartigen Linguistik, und es daher Monate dauern kann, falls es überhaupt kommt. Das Panda/Farmer, Upgrade eher als Update, wird in den USA sehr kontrovers diskutiert.
Ein langjähriger Konkurrent auf Top1 bzw. Top2 mit den Kampfbegriffen ist plötzlich mehrere Plätze, zum Teil auf Top10 oder schlechter abgerutscht, letzte Woche Donnerstag, den 21.7. fing es an, krass wurde es am nächsten Tag.
Es sieht aber eher danach aus, dass entweder seine Linkboxen zum Linktausch auf den Onpage-Seiten oder sein Linkprofil von alten und sehr starken Links abgewertet wurden, da diese zum Teil von Footer aus Homepages oder von Seiten mit sieht vielen ausgehenden Links stehen?
Kann es also sein, dass Google jemand abstraft, wenn diese Linkboxen, nicht als Anzeige mit nofollow in den Links gekennzeichnet sind? Vielleicht glaubt Google, dass der Konkurrent Links verkauft hat und ihn daher abstraft, und sich dieser Sachverhalt auf das Ranking negativ auswirkt?
Hat jemand eine Idee? Die Domain ist aber Onpage ansonsten hochwertig und hat über 800 Link Rooting Domains. Wichtig ist ja, solche Fehler zu vermeiden, jetzt bin ich auf Top1 🙂

Grüße aus Hamburg,