Etwas ist faul im Staate Qype – Teil IV

Johannes Beus
Johannes Beus
13. April 2010
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

In den ersten drei Teilen dieser Serie habe ich am Beispiel von Qype gezeigt, wie man den Verlust von Google-Traffic analysieren kann. Von der Eingrenzung der betroffenen Webseitenteile über die Feststellung des konkreten Problems bis hin zur Auflistung möglicher Ursachen habe ich versucht, mein Vorgehen aufzuzeigen und zu erläutern. Jetzt, im vierten und letzten Teil kommen wir zu den Schlussfolgerungen aus der Arbeit. Dabei möchte ich voran schicken, dass ich keinen Kontakt zu Qype habe oder hatte – die Erkenntnisse basieren also komplett auf öffentlichen Daten. Im direkten Gespräch mit Webseiten-Betreibern lassen sich die Hintergründe von Veränderungen besser verstehen und damit auch treffendere Empfehlungen abgeben.

Um es kurz zu machen: ich glaube, dass interner Duplicate-Content ausschlaggebend für die Ranking-Penalty auf dem Place-Verzeichnis war. Die Penalty ist in meinen Augen durch den Google-Algorithmus ausgelöst worden und ist kein manueller Eingriff durch Google selber. Wie ich dazu komme?

Schauen wir uns dazu zuerst wieder den Sichtbarkeitsindex der Domain an. Den Verlauf der Geschichte kann man in drei Phasen einteilen: in der ersten Phase (auf dem Diagramm sinnvollerweise mit einer „1“ gekennzeichnet) nimmt die Sichtbarkeit über einige Wochen jeweils ab, allerdings nicht sprunghaft sondern eher konstant. Interessant ist nun die Auswertung der Ranking-Verteilung für diesen Zeitraum (hier zu sehen) – die Anzahl der Treffer auf der ersten und zweiten Ergebnisseite werden zwar weniger, allerdings in einem normalen Rahmen. Zu diesem Zeitpunkt gibt es noch keine Penalty, sondern Google wirft Seiten von Qype aus dem Index. In der zweiten Phase stabilisiert sich die Lage: die Anzahl gefundener Keywords bleibt weitgehend gleich; auch der Sichtbarkeitsindex ändert sich nicht. Die Rankingverteilung fluktuiert nur in Nachkommastellen. Interessant wird es jetzt in der dritten Phase: der Sichtbarkeitsindex springt auf einmal wieder stark nach oben – und zwar nicht, weil die vorhandenen Keywords besser ranken sondern weil wieder mehr Seiten in den Index kommen und damit zusätzliche Keywords (+20.000) gefunden werden. Und genau das scheint der Auslöser für die Penalty gewesen zu sein, die in der Folgewoche einschlug.

Um das zu verstehen, muss man sich in die Herangehensweise von Google versetzen: auch, wenn es natürlich schön wäre, so ist keine große Seite komplett frei von Fehlern. Gerade bei gewachsenen Webseiten schleichen sich immer mal wieder Probleme ein, doch Google hat einen Weg gefunden, damit umzugehen. Dazu wägt Google die Fehler, die eine Seite macht, gegen das Vertrauen, das Google in die Domain setzt, ab. Unter erstem Punkt werden so Sachen wie Duplicate Content zusammengefasst, die Währung für Vertrauen heißt bei Google „Links“. Wenn der Verhältnis zwischen Vertrauen und Fehlern kippt, dann schlägt die Penalty zu und die Seite verschwindet auf den hinteren Plätzen der Suchmaschine. Anschaulich zu sehen ist das zum Beispiel bei wissen.spiegel.de, einem Wikipedia-Clone: mal gewinnt die enorme Linkpower der Domain, mal schätzt Google das DC-Problem als zu groß ein.

Und genau das scheint mir bei Qype passiert zu sein: die Anzahl und Qualität der eingehenden Links hat offenbar nicht mehr ausgereicht, um die Onpage-Fehler auszugleichen. Massiver interner Duplicate Content in unterschiedlichen Facetten hat dazu beigetragen, die handwerklich schlecht gekauften Links haben das Verhältnis sicher nicht zum Besseren gedreht. An die beiden anderen Begründungen (verkaufte Rankings, Interessenskonflikt mit Google) glaube ich derzeit nicht, da ich den dazu nötigen, manuellen Eingriff in die Google-SERPs nicht erkennen kann.

Was sollte Qype nun ändern?
So kurz die Antwort ist, so kompliziert und zeitraubend wird die Umsetzung: Qype muss seine Seite in den Griff kriegen. Zahlreiche, offenbar historisch gewachsene URL- und Navigationsstrukturen müssen vereinheitlicht und verbessert werden, das Produkt- muss sich mit dem (vorhandenen?) SEO-Team überlegen, welche Inhalte unter welcher URL erscheinen sollen und das alles muss korrekt umgesetzt und kontinuierlich durch sinnvolle Methoden überwacht werden. Wenn diese Grundvoraussetzungen gegeben sind, kann Qype diese Penalty – da durch den Algorithmus gesetzt – ebenso schnell wieder loswerden wie sie gekommen ist. Legt man in Hamburg also einige Nachtschichten ein und trifft die richtigen Entscheidungen, kann der SEO-Traffic bereits Ende Mai wieder ganz anders aussehen. Viel Glück und Erfolg von meiner Seite.

Etwas ist faul im Staate Qype
Etwas ist faul im Staate Qype – Teil II
Etwas ist faul im Staate Qype – Teil III
Etwas ist faul im Staate Qype – Teil IV

Ähnliche Beiträge
Kommentare
sistrix   
13. April 2010, 08:45

Noch eine kurze Anmerkung: da ich ab heute auf einem Seminar in Altgriechisch für Fortgeschrittene in Rom bin, kann die Beantwortung von Fragen in den Kommentaren etwas dauern.

deepestblueandy   
13. April 2010, 10:47

Ich habe mir alle Teile durchgelesen und finde vorallem die Herangehensweise logisch dargestellt und vorallem einleuchtend.
Qype hat leider die Zeit nicht genutzt, wo der Trust Wert bei Google hoch und die Welt noch heil war. Hier hätte man meiner Meinung nach die stümperhaften Linkkäufe spätestens einstellen und sich dem Problem des Duplicate Content stellen müssen. Allerdings vermute ich, dass sich dahinter eine unterbudgetierung und Wertunterschätzung der SMO Abteilung versteckt und Qype jetzt schmerzhaft erkennen muss, dass man hier falsch kalkuliert hat.

@Jonas
Sehe das ähnlich. Viele der aus dem Index rausgeschmissenen Seiten waren in Bezug auf den Content minderwertig. Hier hat Google zumindest den für den empfehlungsuchenden Nutzer unschöneren Teil der nicht bewerteten Unternehmen ausgemistet.

Sebastian   
13. April 2010, 09:41

In diesem Sinne: τῆς χώρας ὀλίγην παντελῶς εἰργάζοντο
🙂

Ole   
13. April 2010, 09:46

Viel besser kann man eine Bewerbung für den Posten des neuen Inhouse SEOs bei Qype kaum formulieren! 🙂

Jan-Ole   
13. April 2010, 09:54

Statt in Rom sitzt er doch schon längst in Hamburg und muss Nachtschichten einlegen.
Gute Analyse!

omexperts   
13. April 2010, 09:56

Analyse, Bewertung und Handlungsempfehlung wie aus dem Handbuch … perfekt! Als Inhouse-SEO wahrscheinlich unbezahlbar (?).

Jonas   
13. April 2010, 10:01

Hi Johannes, sehr schöne Analyse. Ich denke nicht, dass Website nur zufällig gewuchert ist. Eine SEO-Strategie war wohl, den Long-Tail zu bedienen, indem man so viele Seiten wie möglich indexiert.

Darunter leidet u. U. die Qualität der einzelnen Seiten, irgendwann sieht man nur noch Adsense und keine Bewertungen mehr. Dies ist förderlich für das AdSense Konto (solche Seiten haben oft gute CTR), aber nicht für die Suchergebnisqualität. Hier gegenzusteuern macht vollkommen Sinn.

Die meisten wieder verlorenen Seiten wird keiner von uns im Index vermissen. Ich spreche von den Seiten, die keine direkten Bewertungen haben und das werden viele Shops, etc. sein (siehe http://www.qype.com/place/preview/de-3775535-konplott-mode-und-accessoires-gmbh-mitte-berlin#.

Loewenherz   
13. April 2010, 10:15

OMG, noch ein Altgrieche…
Dein Fazit deckt sich mit Beobachtungen zum Thema Trustlinks, muss diesen Artikel endlich mal schreiben.

Konkurrent   
13. April 2010, 11:21

und wenn es nun doch anders war? Ich finde diese Spekulationen etwas albern, da der Sichtbarkeitsindex oft mal ausschlägt. Daran jetzt Google-Filter oder ähnliches erkennen zu können kann funktionieren muss es aber nicht. Genauso wahrscheinlich sind Releasezyklen von qype.com wobei bei jedem Releasezyklus mehr und mehr kaputt gemacht wurde. Im Nachhinein kann sowas von außen nicht mehr nachvollzogen werden.

Würde man mich fragen was ich vermute würde ich ganz klar canonical sagen. Bei vielen anderen großen Webseiten sind ähnliche Dinge mit dem Einsatz des canonical-tags passiert. Der unwissende SEO hat dort viel zu viel Macht ohne das irgendjemand versteht was dort passiert.

franz enzenhofer   
13. April 2010, 12:13

tolle analyse, falsche schlussfolgerung

eine demotion (so nennen die google quality manager die ranking penalty) wird nicht durch internen doublicate content ausgelöst. dass qype die seite SEO onsite wise mehr unter kontrolle hat ist offensichtlich – dennoch lösen intern doub.content keine demotion aus.

ich würde einfach in richtung „overoptimization“ gehen.
* a lot of (automatic) keyword optimized pages (with not always good content)
* internal reuse of content in a non high quality way to mimic valuable content
* paid, spammy links
* offensichtliche SEO optimierung welche klar aussaget „sie wissen was sie tun“
war der auslöser.

auch wird eine subdir-demotion mittles eines mini-algorithmus vergeben, welche also eine editorielle / algorithmische lösung ist.

die lösung ist die gleiche: qype muss sich hinsetzen und ihre seite on- und offsite in ordnung bringen – und auf qualität setzen – danach das /places/ directory umbenennen und einen HTTP 301 redirect machen. traffic bleibt down aber nach 3 wochen ist dann wieder ein wachstum zu bemerken – wenns geklappt hat.

i love big scale SEO, so funny.

Franz Enzenhofer   
13. April 2010, 12:29

erratum:
>dass qype die seite SEO onsite wise mehr unter kontrolle hat ist offensichtlich
sollte
>dass qype die seite SEO onsite wise NICHT mehr unter kontrolle hat ist offensichtlich

Randolf Jorberg   
13. April 2010, 12:33

Franz: soll die subdir-demotion eine editorielle ODER eine algorithmische Lösung sein? Beides zusammen kann ja nicht sein. Und ich denke wir sind uns einig, dass sie algorithmisch ist…

Am besten man bleibt einfach bei der Lösung, dass jedes relevante piece of content nur unter EINER URL erreichbar sein sollte und schon hat man keinerlei Probleme mehr, außer die interne und externe Link-Power richtig zu verteilen…

LenardK   
13. April 2010, 12:43

tolle serie. hab auf einmal alles gelesen

Franz Enzenhofer   
13. April 2010, 12:45

mini-algorithms sind eine algorithmische / editorielle lösung des search quality teams. wenn ein part einer eigentlich wertvollen website (mit wertvollem content) nicht googles qualitäts kriterien entspricht (z.b.: zero result pages, ein spammy subdirectory, SERPads, paid onsite links via link networks, ….) wird schon mal ein maßgeschneiderter mini-algorithmus deployed.

schaut mir danach aus.

ein möglicher test für qype wäre es, die gleichen pages unter einem anderen subdirectory neu zu listen, den title und die headlines zu ändern und mittels sitemap.xml zu kommunizieren, die gleichen pages auch unter der alten URL (/places/) nochmals mittels sitemap.xml zu kommunizieren und zu schauen ob es significante crawling unterschiede gibt. (das würd mir als erstes einfallen um auf mini-algorithm zu testen)

für nähere information fragen sie bitte einen google quality manager ihres vertrauens.

Jonas   
13. April 2010, 13:09

@Franz Enzenhofer
das Verschieben vom Verzeichnis ist doch keine langfristige Lösung. Wie wäre es mit mehr Qualität auf den Unterseiten. Eine Bewertungsunterseite ohne Bewertungen hat keinen Nutzen und ist nur ärgerlich für die User.

Für die Suchmaschinen geht es inzwischen weniger darum, den größten Index zu haben, sondern den qualitativ hochwertigsten. Die AdSense-Abteilung hat hier bestimmt nicht mitentschieden 🙂

Ich bin mir auch sehr sicher, dass der Google Search Quality Manager deines Vertrauens hier nichts erzählen wird, wozu auch.

wwgseo09   
13. April 2010, 18:06

@franz
denke als Fakt kann man sagen, das es ein Penalty ist. Ob es nun nur DC ist oder ein Quaility Rater an einer Schraube mitgedreht hat, das können wir nicht wissen.

Das die Site Struktur ausser Kontrolle geraten ist und nicht mehr zeitgemäss ist, sehe ich auch so, aber auch den Zwang die entsprechenden Besucherzahlen zu liefern für die Investoren. Kann also durchaus gewollt sein.

Google versucht ja schon seit Jahren die Qualität der SERP’s auch im Longtail zu verbessern und zieht ab und zu mal die Schrauben etwas an. Das Seiten ohne Inhalte, die nur MFA sind, regelmässig rausfliegen, ist auch nicht neu.

Um mit dem Qualitäts-Anspruch Schritt zu halten, muss man eben auch Technisch mitziehen, in dem Unterseiten für Kommentare oder Bewertung, dann auch erst verlinkt werden wenn Inhalte vorhanden sind und eben nicht immmer existieren und nur mit Tokens gefüllt sind.

Gretus   
13. April 2010, 21:52

Hallo,

das hast Dich aber ins Zeug gelegt, das gibt auf der Pubcon ein extra Bier 😉

Grüße

Gretus

eine Frage   
14. April 2010, 04:23

eine Frage: Warum wird hier wegen einer reinen MFA-Site ohne Mehrwert für den Nutzer soviel Wind gemacht?

Maxim   
14. April 2010, 18:05

ja DC ist immer ein schwieriges Thema und drückt oft die Rankings, wenn es gehäuft aufkommt.

Nur ist es öfter recht schwierig den DC und die URL Strukturen in den Griff zu bekommen, so einfach wie es Randolf meint ist dann doch nicht, vorallem bei gekauften „non open Source“ Systemen.

Als Inhouse habe ich das Problem z.B. mit epages. Das System ist sehr gut, aber es erzeugt auch eine stattliche Menge an DC, die ich aber nur mit robots.txt, canonical tags und WMTs, zwecks löschen von Seiten aus dem Index, unter Kontrolle halten kann. Das ist ein ständiges hinterher kehren. Noch schwieriger bis unmöglich wird es dann, wenn die Firma, wie in meinem Fall, das System bei einem Anbieter hostet, der keinen Zugriff auf die robots.txt erlaubt, was mir die Arbeit ungemein erschwert.

Bei dieser Art der Problematik hat mans echt nicht leicht.

Im Falle Qype, denke ich, habe die die Möglcihkeit Ihr System zu editieren und können so, viel von dem DC beseitigen, wenn sie sich mal daran machen.

Jens   
14. April 2010, 21:18

@Maxim
Und wo wäre jetzt bei qype das Problem? Framework ist Rails. Lizenz: MIT
Redirect ist in einer Minute ohne htaccess erledigt.
Problem sehe ich eher im DC der vielen .tld.

Alternativ: Qype ist in einem Bereich tätig, wo Google auch aktiv ist. 😉

Oliver   
15. April 2010, 02:04

Klasse Artikelreihe. Habe den Vierteiler verschlungen und direkt an den Teamverteiler geschickt, inkl. unserem polnischen Mitarbeiter, der aber mit Google Translate nicht soweit kam…

Daumen hoch!

Maxim   
15. April 2010, 05:43

Mein comment war eher in Richtung von Randolf, dass man bei einem Seitenaufbau ohne DC bleiben sollte, er hat damit natürlich recht nur ist es eben nicht immer einfach das zu realisieren.

Was Qype angeht, so haben die naütrlich ein editierbares System, was ihnen meine beschriebenen Probleme erspart.

Im Falle Qype, denke ich, habe die die Möglcihkeit Ihr System zu editieren und können so, viel von dem DC beseitigen, wenn sie sich mal daran machen.

Ist also alles ok 🙂

Das mit der Konkurrenz stimmt natürlich, wäre auch nahvollziehbar. Es ist aber auch nicht nachweisbar und wenn es so wäre, dann ist sowieso alles, was wir alle an Ratschlägen geben könnten, hinfällig.

Randolf Jorberg   
15. April 2010, 17:54

Maxim, im Fall von Qype ist es aber nicht so, dass es ihnen schwer gefallen wäre den DC zu umgehen, sondern dass die GIER nach mehr Rankings dazu geführt hat, dass alles ziemlich gewuchert ist…

Übrigens glaube ich, dass die Penalty auf /place/ seit gerade eben geliftet wurde. Man vergleiche die Rankings auf http://skitch.com/fliks/n6p96/3gstore-qype-google-suche mit den aktuellen Rankings auf
http://www.google.de/search?hl=de&q=3gstore%20qype&meta= – auf einmal steht das /place/ Verzeichnis wieder vorne!

Maxim   
16. April 2010, 14:39

Hmm komisch, ich habe aber festgestellt, dass die Site Abfrage wiedermal weit weniger Seiten anzeigt und speziell in meinem fall ist wiedermal der Ganze DC verschwunden, bis auf 2 URLs.

Vieleicht sollte man nochmal die Werte der indizierten Seiten vergleichen. Ich bin mir sicher das da wieder ein ganzer Haufen fehlen wird, vieleicht sogar bis zu 70%.

idealo   
17. April 2010, 02:17

Die Bouncerate bei Alexa macht das noch mal schön plastisch
http://www.alexa.com/siteinfo/qype.com. Durch die aktuelle Abstrafung ist die Bouncerate auf den alten Wert zurück gegangen und damit wieder im grünen Bereich.

SloMo   
19. April 2010, 12:45

@idealo: Interessante These! Meinst Du, dass demnächst Sistrix.de und Welt.de das Schicksal von Qype teilen, nur weil die Leute meist schon auf der ersten Seite das finden, was sie gesucht haben?

osg   
22. April 2010, 18:23

Seit wann ist denn DC ein Abstrafungsgrund? Matt Cutts sagt doch selber das Sie DC nicht bestrafen sondern das nur eine Seite angezeigt wird.

Das Problem von DC ist das sich die Backlinks auf mehrere Seiten aufteilen.

Allerdings kann man abgestraft werden wenn man die Website künstlich ‚aufbläht‘ welches ja durch den DC passiert ist.

Cone   
23. April 2010, 14:10

Hallo Johannes,

bis auf die Link-Quellen finde ich Deiner Analysen sehr lobenswert. Ich finde aber das du manchmal die Schmerzgrenze überschreitest wie jetzt bei der Quellen-Angabe von den Links (genauso wie bei den „russenlinks). Es ist einfach nicht akzeptabel, das du hier über die Marketing-Strukturen fremder Seiten und bestimmt auch ohne deren Zustimmung Eigen-PR betreibst. Wir wissen alle, das man mit natürlichen Linkaufbau sogut wie nichts erreichen kann. Es sei den man heisst Twitter, Facebook oder Google. Wenn du hier den Ratgeber spielst, dann kannst du uns bestimmt auch sagen, wie man ein Portal wie Qype mit natürlichen Linkaufbau stärken kann ohne dabei von Portalen wie gutefrage.net, myvideo.de und co. (die sich reichgekauft haben) ausgelacht zu werden.

LG
Cone

Cone   
23. April 2010, 14:21

PS. Bei den Verlagen ist es nicht viel anders. Sie haben das Kleingeld und die Ihre Kanäle womit Sie neue Projekte stärken. Jedes „Furtz“ was Sie in die Welt setzen kommt gut an (zumindest bei Google), weil Sie von Ihren unzähligen Projekten aus es verlinken. Diese Möglichkeit hat aber nicht jeder.

sistrix   
23. April 2010, 14:21

Cone, zum einen habe ich keine Quellen angegeben, sondern lediglich Screenshots von unvorteilhaften Einbindungen gezeigt. Wenn du den betreffenden Absatz etwas aufmerksamer gelesen hättest, wär dir aufgefallen, dass ich dort Vorschläge für besseres Linkbuilding gemacht habe (die eingetragenen Seiten/die Nutzer mehr dafür einspannen). Ich finde es schade, dass du so einen Kommentar nicht mit deinem echten Namen abgibst.

Cone   
23. April 2010, 16:20

Auch wenn du glaubst im Recht zu sein, solltest du mit Kritik umgehen können.

Das ist für mich die Quelle:
http://www.google.de/search?hl=de&client=firefox-a&rls=org.mozilla%3Ade%3Aofficial&channel=s&q=%22Unser+Bundeshauptstadt+-+Sch%C3%B6ne+Pl%C3%A4tze+in+Berlin!%22&meta=&aq=f&aqi=&aql=&oq=&gs_rfai=

Jeder der sich 14 Tage mit SEO beschäftigt hat kann es herausfinden. Es geht hier aber vielmehr um Google. Das die darüber Bescheid wissen lässt sich nicht streiten, aber wenn es Publik wird und sie nicht Handeln, das ist wiederum was anders.

„Google reagiert allergisch auf alle Versuche, organische Rankings direkt zu verkaufen.“

Sorry, aber das ist Bullshit. Wenn das so wäre, dann wären Portale wie Gutefrage.net, sueddeutsche.de, Myvideo.de oder all die anderen Verlagsportale weg vom Fenster.

Solange die Conversions (sowohl Adsense als auch Adwords) stimmen und die Seitenbetreiber sich nicht Dumm verhalten (BMW und Co. lässt grüssen), dann passiert da nichts. Das solltest du schon wissen.

„Wenn du den betreffenden Absatz etwas aufmerksamer gelesen hättest, wär dir aufgefallen, dass ich dort Vorschläge für besseres Linkbuilding gemacht habe“

Du schreibst wie man es nicht machen sollte, aber wo steht es, wie man es machen sollte – vor allem bei so nem grossen Projekt? Konkurrenz schläft nicht und Qype verkauft auch kein SEO-Tool.

Ich will Dir nicht zu nahe treten, aber Vielleicht gibt es Dir etwas zu bedenken, das man manche Sachen einfach für Sich behalten und sich nicht wie „Googles Anwalt“ benehmen sollte. Stellt Dir mal vor es wäre Dein Projekt und Johannes II macht es auf ein sehr gut besuchtes Blog Publik.

PS. Wenn mein Name Dir nicht gefällt, dann ist das Dein Problem, aber so heisse ich und vor paar Monaten hattest du auch über mein Projekt ziemlich gelästert – Stichwort: Authority-Link! „Ist nur eine Frage der Zeit, bis Google die Seite abwertet“- so hast du überall geschrieben bzw. kommentiert.

Tja nichts ist passiert. Im Gegenteil! Wir stehen heute besser da als vorher.

so what!

marc   
26. April 2010, 23:32

Hallo zusammen,
Hallo Johannes,

ich bin gerade sehr dankbar, deinen Beitrag hier gefunden zu haben. Gute Arbeit. Ich betreibe ein Forum. Das Forum rankt nach wie vor perfekt. Seit exakt dem gleichen Datum als auch qype gefallen ist, stellte ich fest, dass bei mir alle Unterverzeichnisse nicht mehr ranken. Bei Eingabe eines direkten Satzes welcher so nur bei mir zu finden ist, werde ich viel zu weit hinten gelistet. Mir war klar, dass ein Filter vorliegen muss. Nur warum? Ich hab natürlich auch sofort die robots.txt, noindex usw. gecheckt..es war alles ok! Weiterhin habe ich über wmt einen testcrawl gemacht und Status 200 zurück bekommen.

Nun suche ich jetzt seit fast 4 Wochen nach dem Fehler. Ich habe einige Links auf meine Verzeichnisse gesetzt…bringt alles nix.

Da ich genau das gleiche Problem habe und da bei mir kein DC oder Linkkauf in Frage kommt, muss es etwas anderes sein.

Womöglich ist es wirklich ein Filter welche Seiten die zu wenig Inhalt haben herunterstuft. Dieser hat bei mir und qype und evtl. vielen anderen gegriffen (nur merken die es nicht) Bei mir sind aber alle Verzeichnisse betroffen. Ich habe seit 2 Wochen alle Verzeichnisse mit noch mehr content ausgestatet aber es hat bisher nichts geholfen.

Ich denke das was Franz geschrieben hat, könnte am ehesten Hinkommen..zu wenig Content. Das was Idealo / slomo geschrieben hat mit der Bouncerate aber auch. Alles was es in meinen Verzeichnissen gab, gab es auch auf meiner startseite bzw. woanders. Die Absprungrate war dort wohl wirklich sehr hoch.

Fragen:

1. Ist der Filter von qype geliftet?
2. sollte ich komplett auf einen neuen ordner umziehen mit 301

sistrix   
26. April 2010, 23:41

marc, bei Qype läuft es seit dieser Woche offensichtlich wieder rund und die Penalty scheint verschwunden. Schauen wir mal, was die nächsten Wochen so zu bieten haben.

Den Umzug würde ich nicht empfehlen: vorher solltest Du Dir über die Ursachen der Penalty klar werden und diese beheben.

marc   
28. April 2010, 18:02

Hallo,

danke für deine Antwort. Wenn aber nur die Verzeichnisse betroffen sind, dann kann man doch davon ausgehen, dass es mit einem Verzeichnis zu Problemen gekommen ist und nicht aufgrund vom Linkbuilding? Es sei denn, man hätte die Verzeichnisse mit schlechten Links versorgt, was aber bei mir nicht der Fall ist. Die Hauptdomain rankt ja noch. Klar, googles wege sind unergründlich aber es leuchtet mir nicht wirklich ein warum man Verzeichnisse mit einer Demotion belegt und die Hauptdomain lässt…ich bin ja froh drüber nur muss ich natürlich den Fehler finden und den suche ich dann in den Verzeichnissen selbst…oder?!

Thomas Nahr   
26. Februar 2013, 07:59

Guten Morgen,
Hab euren Bericht aufgesogen, es war interessant wie Du die Auswertungen interpretierst. Wobei auch viel Erfahrung und geschichtlicher Hintergund wichtig für die Einschätzung ist. Ganz verstehen tue ich es trotzdem nicht, bis dato bin ich immer davon ausgegangen das gopogle & qype doch irgendwie gemeinsame Sache machen! Analytics ;0) Hier erscheint qype neben Facebook und co.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.