IndexWatch 2014: Verlierer

2. Januar 2015, 10:00

Nachdem wir uns bereits gestern die Gewinner-Domains im Jahr 2014 angeschaut und analysiert haben, widmen für uns heute den Verlierern im SISTRIX Sichtbarkeitsindex. Dies sind jene Domains, die nicht so viel Glück mit den verschiedenen Google-Algorithmen hatten und in den vergangenen 12 Monaten teils deutlich in ihrer Sichtbarkeit auf dem deutschen Suchmarkt verloren haben.

Berücksichtigt wurden auch hier alle Domains, die mit mindestens 5 Punkten im SISTRIX Sichtbarkeitsindex in das Jahr 2014 gestartet sind. Die Tabelle zeigt die 50 größten Verlierer (prozentual). Die Top-100 Verlierer nach prozentualen und absoluten Werten habe ich hier in einem Google Doc hinterlegt.

Verlierer 2014 im SISTRIX Sichtbarkeitsindex
# Domain Veränderung Daten
1 feed-reader.net -94,51%
2 similarsites.com -90,98%
3 panasonic.de -88,54%
4 odir.org -86,37%
5 hilfreich.de -86,05%
6 stadtbranchenbuch.com -84,93%
7 eazel.com -83,05%
8 3suisses.de
(beendete Geschäft in DE)
-82,83%
9 jamba.de -81,26%
10 musicload.de -81,16%
11 wer-kennt-wen.de
(Geschäftsbetrieb eingestellt)
-80,93%
12 oldapps.com -80,61%
13 nokia.com
(In microsoft.com integriert)
-79,96%
14 movie4k.to -79,60%
15 cosmiq.de -79,43%
16 ksgemeinde.de -78,52%
17 yatego.com -78,18%
18 bmj.de -77,76%
19 softonic.de -76,60%
20 geburtstagswuensche.co -76,55%
21 webcamgalore.com -76,51%
22 xmarks.com -76,25%
23 getdigital.de -74,87%
24 verkehrsmittelvergleich.de -74,57%
25 nh-hotels.de -73,10%
26 rexbo.de -71,72%
27 flugplandaten.de -71,46%
28 formblitz.de -71,36%
29 animaatjes.de -71,35%
30 ciao.de -71,29%
31 spielkarussell.de -71,26%
32 forium.de -71,19%
33 endress.com -71,12%
34 paradisi.de -70,51%
35 fettspielen.de -70,39%
36 peoplecheck.de -69,98%
37 about.com -69,65%
38 genios.de -69,08%
39 erfahrungen.com -68,42%
40 firmenwissen.de -67,33%
41 myspace.com -67,25%
42 hugoboss.com -67,11%
43 wasistwas.de -66,68%
44 sparwelt.de -66,65%
45 berliner-adressen.de -66,52%
46 fussball.de -66,43%
47 e-recht24.de -66,24%
48 goal.com -65,58%
49 blau.de
(Pressemitteilung)
-64,05%
50 webwiki.de -63,99%

Blaue Briefe: Google tadelt Richtlinien-Verstöße

Links, Linknetzwerke, Spam, Webspam, manuelle Penalties und verbesserte Qualitäts-Filter sind die Stichwörter, welche mit einem Sichtbarkeitsverlust vieler Websites im vergangenen Jahr einhergingen.

Bereits Anfang Januar fragte Johannes im Blog, ob Spam eine legitime SEO-Taktik sei. Denn in den USA tadelte Google zuvor eine große Marke öffentlichkeitswirksam. Sie war mit ihren Optimierungen über das Ziel und die
Google-Richtlinien hinaus geschossen.

Hanns griff eine Woche später das Thema wieder auf und stellte fest: Bezahlte Links, Spam und Fake-Accounts sind keine Erfindung der SEOs.

SEO-Deutschland stand im Januar vergangenen Jahres also thematisch schon im Zeichen der manipulierten Links. Da verwunderte es eigentlich niemanden so recht, als Matt Cutts offiziell Links in Gastbeiträgen den Kampf ansagte.

Seitenbetreiber, welche gegen Googles Richtlinien verstießen, liefen fortan Gefahr mit einer manuellen Penalty belegt zu werden.

Google beließ es jedoch nicht bei einer bloßen Kampfansage und nahm wenig später ein deutsches Linknetzwerk ins Visier. Nach rund 6 Wochen wurde auch der Name des Linknetzwerk bekannt.

Wer ist eigentlich wmt@nreply@google.com?
– Ein blauer Brief von Google. Wirkt wie eine Eisdusche!– (Gelesen in der Website Boosting Ausgabe 01-02.2015).

 
Umfang und Dauer einer manuellen Maßnahme können variieren. Dabei spielt es keine Rolle, ob diese aufgrund von unnatürlichen ausgehenden oder eingehenden Links durch einen Google Quality Rater verhängt wurden.

Google ging weiter gegen derartige Netzwerke vor und nahm später noch zwei weitere Plattformen hoch.

Somit sind bei einigen Verlierer-Domains sicherlich auch manuelle Penalties für die Verluste im Sichtbarkeitsindex verantwortlich. Von außen hilft oftmals ein Blick auf die Rankingverteilung einer Domain, um die händische Abstrafung durch Google zu erahnen. Besitzt oder besaß eine Website keine Rankings auf der ersten oder gar den ersten vier Suchergebnisseiten, so ist eine manuelle Penaltie sehr wahrscheinlich.

Qualitäts-Filter verbessert und verfeinert

Viele Domains gewannen in den vergangenen zwölf Monaten aufgrund Googles neuem Panda Update. Und wo einige gewinnen, da müssen andere auch verlieren. Google zeigt halt nur 10 Treffer pro Seite an.

So waren Aggregatoren wie feed-reader.net (1), similarsites.com (2), softonic.de (19) und Portale, wie stadtbranchenbuch.com (6) sowie Websites mit dünnen bzw. aus Sicht des Algorithmus minderwertigen Inhalten, wie z.B. geburtstagswuensche.co (20), die Leidtragenden des vergangenen Jahres.

Immer mit dem Ziel die Qualität der Suchergebnisse weiter zu erhöhen, verwehrt der Filter, welcher schon Mitte 2013 zum Bestandteil des Ranking-Algorithmus wurde, bereits abgewerteten Domains, wie z.B. yatego.com (19), ciao.de (30) oder myspace.com (41), weiterhin gute Rankings und somit die Aussicht auf Traffic über die organische Suche.

Neues Webspam Update – aka Penguin

Vielfach beworben und endlich im Oktober vergangenen Jahres ausgerollt – das neue Penguin Update 3.0, auch bekannt als Webspam Update. Gefühlt vielen die Auswirkungen des neuen Algorithmus stellenweise schwächer als gehofft aus und teilweise erreichte es den deutschen Suchmarkt mit Verzögerung.

Wir haben zwar einen eigenen Ereignis-Pin für das Penguin Update 3.0 in der SISTRIX Toolbox gesetzt, doch Google ist auch hier scheinbar wie beim Panda Update dazu übergegangen, einen kontinuierlichen Bewertungsprozess der Links durchzuführen – bzw. versucht es zumindest.

Dies erschwert natürlich die Identifikation des Updates. So schön eindeutig wie bei der Domain fettspielen.de (35) ist es daher leider nicht immer. Eine manuelle Überprüfung auf minderwertige Backlinks der eigenen Website ist für eine treffliche Analyse demnach Pflicht. Unsere neue Link-Rating Analyse kann hierbei unterstützend und zeitsparend wirken.

Auf der Liste der Verlierer nach absoluten Werten findet sich z.B. das Portal gofeminin.de, welches über zahlreiche harte Ankertexte von minderwertigen Quellen verfügt. Ob diese allein für den Rückgang der Sichtbarkeit verantwortlich sind? Gut möglich, dass es sich hierbei um ein Zusammenspiel mehrere Algorithmen handelt.

Im Zuge der von Google unternommenen Anstrengungen für bessere Suchergebnisse waren es turbulente Zeiten für Suchmaschinenoptimierer und Webseitenbetreiber. Die Presse fragte daher: „Macht Google jetzt das Internet kaputt?„.

Längerfristiger Trafficverlust durch Relaunch und anderweitige Ereignisse

Bewusst habe ich einige Domains mit einem größeren Relaunch in der Auswertung gelassen, denn dessen Erfolg könnte längerfristig betrachtet sicherlich interessant sein. Spätestens in zwölf Monaten ziehen wir hierzu wieder Resümee.

Panasonic (3) legt seine bis Januar letzten Jahres eigenständig geführte deutschsprachige Website unter der ccTLD panasonic.de mit seiner international ausgerichteten generischen .com Top-Level-Domain zusammen und vereinheitlicht somit seinen Markenauftritt.

Eine algorithmische Penalty „wandert“ auch bei einem Domainumzug mit. Meist aber etwas zeitversetzt, denn Google benötigt ein wenig Zeit, um alle Signale einer neuen Domain zu sammeln und zu verarbeiten.
Schön zu sehen ist das an dem Beispiel der Domain teilesuche24.de, welche zu rexbo.de (26) wurde.

Die Kinderwebsite wasistwas.de rutschte nur durch einen aus SEO-Sicht missglückten Relaunch Ende Dezember auf die Jahres-Liste der Verlierer. Hoffentlich dauert es kein ganzes Jahr, um an den alten Erfolg anknüpfen zu können.

Im Zuge des Relaunch von fussball.de (46) ging man mit einem hohen personellen, technischen und wirtschaftlichen Aufwand an die Herausforderung, aus dem erfolgreichen bestehenden Auftritt das Portal und die digitale Heimat des Amateurfußballs zu machen, hieß es im entsprechenden Infoschreiben des DFB.
Langfristig möchte man auf fussball.de durch qualitativ hochwertige redaktionelle Inhalte die
besondere Faszination Amateurfußball transportieren. Hoffen wir, dass sich der bereits erkennbare Aufwärtstrend im Sichtbarkeitsindex auch dieses Jahr fortsetzt und alle Zielsetzungen erreicht werden.

Dies wünschen wir natürlich auch euren Projekten und Websites! In diesem Sinne: Auf ein erfolgreiches Jahr.

Dieser Beitrag hat 6 Kommentare

 
  2. Januar 2015, 18:30

Hallo, wollte erst mal danke sagen für dein super Artikel und auch fragen kann man eigentlich die eigentlich herausfinden weswegen man Abstraft wurde und wie lange die Abstrafung dauert.

 
  3. Januar 2015, 10:26

Wenn man sich den Text durchliest, dann kommt mir als Nicht-SEO schon die Frage auf, was darf man überhaupt noch?! Wenn Google alle Methoden doch irgendwann für ungültig erklärt bzw. diese nicht mehr duldet. Bisher dachte ich immer Gastbeiträge seien vollkommen in Ordnung und jetzt werden auch diese von Google beanstandet. Am Ende bleibt wohl nur eins und zwar sich mittel- bis langfristig von Google lösen und auf andere Trafficquellen umsteigen, oder sehe ich das falsch?!

 
Jonathan
  22. Januar 2015, 12:38

Hallo,
@Patrick: Das ist vor allem dem Linkspamming in Foren und Blogs geschuldet. Viele dieser Betreiber haben das NoFollow nicht gesetzt und den Spammern „freie Hand“ beim Black-Hat Seo gelassen. Und da ist es dann nur logisch, dass Google solche Seiten abstraft. Immerhin würde sich wohl kaum ein Offline-Händler bereit erklären im eigenen Laden Werbung für die Konkurrenz zu machen oder diese sogar dabei unterstützten 😉

Für Google ist es sehr wichtig das der Content das ist was überzeugt. Natürlich sind Links von relevanten Seiten hilfreich die Seite zu pushen, da diese nach wie vor sehr viel Einfluss ausüben. Aber Linkspamming ist eben das Problem mit welchem sich Google auseinander setzt. Die vielen Updates und Tipps die bspw. Matt Cutts gibt, die ausführliche Hilfe und die Google Richtlinien geben ja Tipps was man tun soll und vor allem darf. Und da ist einfach der Content das was zählt und zählen muss. Immerhin möchte ich das beste Ergebnis für meinen Kunden/Besucher und nicht für die Suchmaschine. Und ich denke genau solche Seiten wird Google in Zukunft identifizieren und dementsprechend profitieren diese auch davon.

Also Umsteigen oder zurückziehen aus der kostenlosen Kooperation mit Google sollte man sich auf keinen Fall. Ausser man ist nicht auf das Internet angewiesen. Der große Marktanteil von Google und vor allem das kostenlose Bereitstellen so vieler Dienste und Tools erlaubt es dem Unternehmen einfach ein paar Richtlinien aufzustellen an die man sich nun mal zu halten hat. Ist nichts anderes wie in einem Sportschützenverein bei welchem ich keine Panzerfaust benutzten darf, auch wenn das das Beste Ergebnis erzielen würde 😉

Viele Grüße

 
Jonathan
  22. Januar 2015, 12:55

Eine kleine Anmerkung habe ich noch.
Natürlich ist es sicherlich sinnvoll Wert auf eine SEO-freundliche Seite zu legen und diese auch dauerhaft zu optimieren, damit diese von den Crawling-Bots (besser) gelesen und indexiert werden kann.
Hanns Kronenberg hat hierzu einen sehr passenden Schlussatz verfasst:
„Eine suchmaschinenfreundliche und barrierefreie Gestaltung von Websites sowie eine marktorientierte Ausrichtung des Contents auf die Nachfrage der Nutzer von Suchmaschinen hilft das Web besser zu machen, nicht schlechter. “

p.s. Zu finden unter:
http://www.sistrix.de/news/bezahlte-links-spam-und-fake-accounts-sind-keine-erfindung-der-seos/

 
  25. Januar 2015, 00:02

Ein sehr ausführlicher Artikel, aber ich Frage mich was kommt als Nächstes nach dem der PageRank Update ausblieb, wie wird Google die Seiten bewerten? Weiter so, sehr hilfreich der Blog.

 
  29. Januar 2015, 09:57

Nachdem ich gehört habe das Google mittelfristig die Pagerank Anzeige nach außen hin entfernen möchte wird es sicher weniger „Gastbeiträge“ auf vielen Domains geben als bisher. Die 0815 Webmaster schauen ja immer noch auf den PR und mailen einen dann an ob sie einen Artikel mit Link bei einem verfassen dürfen.

 

Kommentare geschlossen

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.