Google Panda Update und User-generated content


19.08.2014 09:32 Uhr

In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

Google straft ein weiteres deutsches und europäisches Linknetzwerk ab


18.08.2014 10:46 Uhr

Am Wochenende tauchten bei Facebook zahlreiche Beiträge auf, dass aktuell viele Websites Benachrichtigungen über die Google Webmaster Tools (GWT) wegen Linkkauf und Linkverkauf erhalten haben.

Heute bestätigt Johannes Mehlem, Quality Rater bei Google, dass Maßnahmen gegen ein europäisches sowie ein deutsches Linknetzwerk eingeleitet wurden.

Abstrafung Linknetzwerke

Aufgrund der Menge an Beiträgen bei Facebook wäre es nicht überraschend, wenn es sich um große Linknetzwerke handelt.

[UPDATE 19.08.2014 - 10:44 Uhr]: Das in den Kommentaren zu diesem Post genannte Unternehmen Teliad hat sich inzwischen bei und gemeldet und uns eine Pressemitteilung geschickt.

Auswirkung negativer Nutzersignale auf das Google Ranking


13.08.2014 14:27 Uhr

Die Startseite der Domain hotel-bonn.de bietet ein sehr schönes Beispiel dafür, welchen Einfluss Nutzersignale auf das Google-Ranking zu einem bestimmten Keyword haben können.

Bei der Domain handelt es sich um eine uralte Exact-Match Domain für das Keyword “hotel bonn“. Die beiden Wörter “Hotel“ und “Bonn“ kommen auf der Startseite vor und sind ebenfalls in einigen externe Backlinks enthalten. Für Google gibt es also deutliche Rankingsignale die Website hotel-bonn.de für das Keyword “hotel bonn” relativ weit oben als Treffer anzuzeigen.

Schauen wir uns den Rankingverlauf der Domain für das Keyword an, so sehen wir ein stetiges Auf und Ab.

Rankingverlauf hotel-bonn.de zu dem Keyword "hotel bonn"

In gewissen Abständen ist die Domain für wenige Wochen in den Top 10 zu finden und verschwindet dann wieder für einen längeren Zeitraum von der ersten Suchergebnisseite. Zeitweise schafft sie es bis auf Platz 2 für die attraktive und umkämpfte Suchphrase “hotel bonn“.

Hotel BonnDas Problem ist, dass es bei der Website nicht um ein Hotel in der wunderschönen Bundesstadt Bonn geht, wie man eigentlich vermuten könnte. Vielmehr handelt es sich um die Seite eines Hotels in Baunatal am Stadtrand von Kassel. Es wird von einer Familie mit dem Nachnamen Bonn betrieben und heißt deshalb “Landgasthaus Hotel Bonn”.

Der überwiegende Teil der Google-Nutzer dürfte bei der Suche nach „hotel bonn“ ein Hotel in der Stadt Bonn suchen (User Intent). Ein Hotel 2,5 Stunden Fahrzeit von Bonn entfernt am Stadtrand von Kassel ist für die meisten Nutzer daher kein besonders guter Treffer für ihre durchgeführte Suche.

Treffer Hotel BonnViele Suchende werden erst gar nicht auf den Treffer klicken, weil sie im Snippet des Treffers bereits “Hotel und Landgasthaus am Stadtrand von Kassel“ gelesen haben. Ein weiterer Teil klickt ihn an, kehrt aber im Vergleich zu den anderen Treffern überdurchschnittlich oft zu Google zurück, um ein anderes Ergebnis auszuwählen (hohe Return-to-SERP-Rate).

Als Ergebnis kann man dem Google Algorithmus bei der Arbeit zuschauen. Aufgrund der vorhandenen positiven Rankingsignale testet Google den Treffer von hotel-bonn.de alle paar Monate in den Top 10 zu dem Keyword “hotel bonn“. Bei den Nutzern fällt der Treffer jedoch durch, so dass Google in für einige Zeit aus den Top 10 wieder entfernt.

Entsprechend volatil ist dann auch die Entwicklung des Sichtbarkeitsindex der Domain hotel-bonn.de

Sichtbarkeisindex hotel-bonn.de

Gerade weil das Beispiel so simpel ist, zeigt es sehr anschaulich, vor welchen Problemen Google und Websitebetreiber stehen, wenn Rankingsignale und User Intent nicht übereinstimmen. Stark schwankende Rankings können ein Signal sein, dass eine Website einfach die falschen Signale an Google sendet.

Google ergänzt Webmaster Guidelines: Creating pages with little or no original content


12.08.2014 11:37 Uhr

Heute hat Google die englischsprachigen Webmaster Guidelines im Bereich Qualitätsrichtlinien um den Punkt “Creating pages with little or no original content“ ergänzt.

Little or no original content

In dem verlinkten Dokument wird beschrieben, dass Google gegen Domains vorgeht, welche viele Seiten ohne erkennbaren Mehrwert für die Nutzer erstellen.

Als Beispiele werden genannt:

  • automatisch generierter Content
  • Doorway Pages
  • Content aus anderen Quellen wie Scraped Content oder Gastbeiträge mit geringer Qualität
  • Thin Affiliate Sites

Dass Google gegen solche Seiten vorgeht, ist nicht neu. Jetzt werden in den Webmaster Guidelines aber mehrere explizite Beispiele zusammengefasst

Zum großen Teil überschneiden sich die Beispiele mit den bereit existierenden Nennungen von “Automatically generated content“, “Doorway Pages”, “Scraped content” und “Participating in affiliate programs without adding sufficient value“.

Wirklich neu scheint nur der Punkt “Gastbeiträge mit geringer Qualität” (low-quality guest blog posts) zu sein. Solche Beiträge werden gerne für den (nervigen und schlechten) Linkaufbau erstellt. Eventuell schafft Google mit der Ergänzung der Qualitätsrichtlinien jetzt eine Grundlage, um auch die einbindenden Domains zu bestrafen, welche diese Gastbeiträge veröffentlichen.

In den deutschen Richtlinien für Webmaster ist der Punkt noch nicht enthalten, wird in den nächsten Tagen aber wahrscheinlich ergänzt.

SEO-Stammtisch in Bonn am 28.08.2014


11.08.2014 11:08 Uhr

SEO-Stammtisch in Bonn am 28.08.2014

Am Donnerstag, den 28.08.2014, findet als Warm-Up zu der bevorstehenden Messe dmexco und den in der letzten Jahreshälfte stattfinden SEO- und Online-Marketing-Konferenzen wieder ein SEO-Stammtisch in Bonn statt.

Ab 19 Uhr erwartet Dich eine lockere und gemütliche Runde von ca. 50 Leuten, die sich bei Speisen und Getränken unkompliziert kennenlernen, austauschen und vernetzen.

Einsteiger, Fortgeschrittene und “alte Hasen” sind gleichermaßen gern gesehen. Gemeinsam werden wir versuchen, unser solides SEO-Basiswissen zu gefährlichem SEO-Halbwissen zu veredeln.

Wenn Du Lust und Zeit hast, kannst Du Dich einfach über dieses Formular kostenlos und unverbindlich anmelden.

Ein paar Tage vor dem Stammtisch erhältst Du wie immer eine E-Mail mit allen Detail-Infos zum Stammtisch.

Wir freuen uns auf Dich!

Anteil von SSL-Treffern in Google-SERPs


08.08.2014 13:41 Uhr

Im Zuge der Ankündigung von Google, künftig Inhalte mit SSL-Zertifikat zu bevorzugen, habe ich mir den zeitlichen Verlauf des Anteils von SSL-Treffern in den Google-SERPs für Deutschland angesehen. Im folgenden Chart ist sowohl der prozentuale Anteil an SSL-URLs in den Top-100 (blau) als auch der Anteil verschlüsselter URLS in den Top-10 (grün) seit Anfang 2011 zu aufgezeichnet:

ssl-urls-de

Schön zu sehen, dass es 2011 nahezu keine Entwicklung gab: der Anteil lag anfang des Jahres bei 0,42%, gegen Ende 2011 bei 0,51%. Erst 2012 hat der Trend zur Verschlüsselung eingesetzt, so dass gegen Ende 2012 bereits 1% aller Inhalte über SSL ausgeliefert wurden. Die Verbreitung hat seitdem an Geschwindigkeit zugelegt. Mittlerweile werden in Deutschland mehr als 4 Prozent aller Google-Treffer verschlüsselt ausgeliefert. Die stärkeren Schwankungen im Verlauf stammen übrigens von der nur teilweise geglückten Umstellung von Facebook und Twitter auf HTTPS. In den USA ist eine vergleichbare Entwicklung wie in Deutschland zu beobachten, dort ist die Verbreitung allerdings noch ein Stück höher und es werden mehr als 5% aller Inhalte über HTTPS zur Verfügung gestellt.

Spannend wird nun die Verfolgung dieser Entwicklung: schafft Google es, durch einen eventuellen Ranking-Boost, dass deutlich mehr Webseitenbetreiber auf SSL umstellen? Ich werden mir in ein paar Monaten die aktuellen Zahlen ansehen und berichten.

Warum Google Inhalte mit SSL-Zertifikat bevorzugt (oder auch nicht)


07.08.2014 19:07 Uhr

Google hat heute bekannt gegeben, dass die Nutzung eines SSL-Zertifikates ein Ranking-Faktor ist. Inhalte, die über eine verschlüsselte Verbindung (HTTPS) ausgeliefert werden, erhalten durch den Google Algorithmus einen kleinen Bonus gegenüber ihren nicht-verschlüsselten Wettbewerbern.

In der SEO-Branche wurde bereits lange vermutet, dass die Verschlüsselung ein positives Signal für Google darstellt. Ähnlich wie bei der Nutzung von CDN-Anbietern wird der Aufwand für Einrichtung und Pflege eines SSL-Zertifikates in der Regel nur von Webseitenbetreibern unternommen, die auch entsprechend in hochwertige Inhalte investieren. Diese Korrelation hat Google (jetzt) auch erkannt und nutzt sie für die Sortierung der Ergebnisse.  weiterlesen...

Bewertet Google Links mit den Daten vom Chrome Browser?


06.08.2014 09:31 Uhr

Bewertung LinksAm 14. Februar 2012 wurde das Google Patent “Ranking documents based on user behavior and/or feature data” veröffentlicht.

Vereinfacht ausgedrückt handelt die Patentschrift davon, dass Links anhand des Nutzerverhaltens bewertet und gewichtet werden. Ein Link, der häufig von Nutzern geklickt wird, erhält mehr Gewicht als ein Link, der selten geklickt wird.

Das Patent stellt eine wichtige Weiterentwicklung des ursprünglichen PageRank-Algorithmus dar, der jeden Link auf einer Seite unabhängig vom tatsächlichen Klickverhalten noch gleich stark gewichtet hat. Aber wie kann man sich die Bewertung von Links aufgrund des Nutzerverhaltens konkret vorstellen und welche Daten kann Google dafür verwenden?

Auswertung des Nutzerverhaltens zur Bekämpfung von Link-Spam

Denkt man ein wenig über die Gewichtung von Links anhand des tatsächlichen Klickverhaltens nach, so ist das von Google eine sehr clevere Lösung, dem künstlichen Linkaufbau zur Manipulation der Suchergebnisse etwas entgegenzusetzen.

Gekaufte Links und Spamlinks werden tendenziell eher auf einer Seite versteckt. Sie stehen im Footer, in speziellen Boxen am Seitenrand oder sind sogar komplett unsichtbar gemacht worden. Doch wenn die Nutzer die Links kaum sehen und die Links auch in vielen Fällen nicht themenrelevant sind, werden sie diese Links auch nicht klicken. Entsprechend gering werden die Links dann nach den Ideen des Patents gewichtet.

Wenn gekaufte Links nicht versteckt werden, handelt es sich oft um künstliche Websites, die nur für den Linkverkauf erstellt wurden (z.B. Blogs auf Basis von Expired Domains). Wenn es dort keine echten Nutzer gibt, können diese auch keine verkauften Links klicken. Die dort verkauften Links sind dann praktisch wertlos.  weiterlesen...

IndexWatch 08/2014


05.08.2014 09:45 Uhr
Gewinner Juli 2014
# Domain Veränderung Daten
1 jobs.de +585,15%
2 chemie.de +457,76%
3 fashionid.de +229,08%
4 bodensee.de +132,93%
5 lindenstrasse.de +130,12%
6 pokerstars.eu +119,25%
7 outlook.com +93,83%
8 koelnerbranchen.de +87,83%
9 drwindows.de +86,15%
10 macuser.de +82,78%
11 prospektangebote.de +79,64%
12 internetworld.de +74,10%
13 faq4mobiles.de +57,02%
14 windows-7-forum.net +54,92%
15 mlp.de +52,49%

Der SISTRIX IndexWatch in der Ausgabe 08/2014 steht bereit.

In unserem monatlichen IndexWatch betrachten wir die Veränderungen auf dem deutschen Suchmarkt, hier die des Monats Juli 2014. Wir haben für euch die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex analysiert.

Starten wir mit den Gewinnern. Dies sind jene Domains, welche im Verlaufe des Monat Juli den größten Zuwachs im SISTRIX Sichtbarkeitsindex verzeichnen konnten.

Interessante Weiterleitung von Jobs.de

Mit einem satten Plus von 585% im SISTRIX Sichtbarkeitsindex ist die Domain Jobs.de der unangefochtene Gewinner im Juli. Wie kam es dazu?

Jobs.de profitiert von der eingerichtet Weiterleitung bei JobScout24.de. Bedeutet: jobscout24.de leitet fortan auf jobs.de weiter.

Vergleich im Sichtbarkeitsindex: Jobs.de gegen JobScout24.deAlle drei in der Grafik dargestellten Domains haben eine Geschichte. JobScout24 übernahm im Oktober 2004 die Domain Jobs.de und wandelte diese in eine Jobsuchmaschine um. Im September 2011 gab CarrerBuilder bekannt, JobScout24 zu akqurieren. Im Februar diesen Jahres gab man dann noch bekannt, dass JobScout24 die stärkste Marke unter den klassischen Jobbörsen sei. Aufgrund dieser Markenbekanntheit und der entsprechend guten SEO-Performance der Domain JobScout24, ist eine Weiterleitung auf die Domain Jobs.de doch eher verwunderlich. Wobei Jobs.de die natürlich schönere Domain darstellt.

  weiterlesen...

IndexWatch 07/2014


08.07.2014 10:00 Uhr
Gewinner Juni 2014
# Domain Veränderung Daten
1 iconosquare.com +1.535%
2 uefa.com +210%
3 medizinfo.de +319,16%
4 jobbörse.com +119,78%
5 viversum.de +116,56%
6 sms38.de +111%
7 onlinestreet.de +100,53%
8 interchalet.de +84,14%
9 xoops.org +77,26%
10 soehnle-professional.com +69,21%
11 ehow.de +68,53%
12 onlinekredit-sofort.de +67,11%
13 olimar.de +67,02%
14 openthesaurus.de +66,90%
15 getmobile.de +64,82%

Der SISTRIX IndexWatch in der Ausgabe 07/2014 steht bereit. Diesmal eine Woche später als gewohnt, aber immer noch rechtzeitig vor dem WM-Halbfinale Brasilien gegen Deutschland. Nebenbei: Das Spiel überträgt heute Abend um 22 Uhr das ZDF.

In unserem monatlichen IndexWatch betrachten wir die Veränderungen auf dem deutschen Suchmarkt, hier die des Monats Juni 2014. Wir haben für euch die Gewinner und Verlierer im SISTRIX Sichtbarkeitsindex analysiert.

Starten wir mit den Gewinnern. Dies sind jene Domains, welche im Verlaufe des Monat Juni den größten Zuwachs im SISTRIX Sichtbarkeitsindex verzeichnen konnten.

Analytics und Marketing-Lösung “iconosquare” größter Gewinner

Die nach eigenen Angaben die weltweit führende Analytics und Marketing-Lösung für die Plattform Instagram, iconosquare.com, des in Frankreich ansässigen Unternehmens Tripnity verzeichnet ein Plus von rund 1.535% im SISTRIX Sichtbarkeitsindex und ist damit der größte Gewinner.

Aufmerksamen Lesern unseres IndexWatch dürfte die Domain iconosquare.com bekannt vor kommen. Vor zwei Monaten, im IndexWatch 05/2014, tauchte sie als Folge eines Domainumzuges auf.

Sichtbarkeitsverlauf von iconosquare.com vs. statigr.am

Sichtbarkeitsverlauf von iconosquare.com vs. statigr.am

  weiterlesen...