Google Panda Update und User-generated content

Hanns Kronenberg
Hanns hat Betriebswirtschaft mit den Schwerpunkten Marketing und Statistik in Münster studiert. Er beschäftigt sich seit über 10 Jahren mit dem Thema Suchmaschinen. Nach beruflichen Stationen in Leitungsfunktionen bei Unternehmen wie RTL, Deutsche Telekom, TOMORROW FOCUS, muenchen.de und meinestadt.de arbeitete Hanns bis zu seinem Wechsel zu SISTRIX als selbstständiger SEO-Unternehmensberater.
19. August 2014 16 Kommentare

In den letzen Jahren waren Websites mit User-generated content wie Foren und Frage-und-Antwort-Portale häufig vom Google Panda Update betroffen. User-generated content besitzt nicht grundsätzlich eine schlechte Qualität. Aber ohne redaktionelle Pflege entsteht oft ein Wildwuchs, welcher die Qualität herunterzieht.

Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten, bei denen gerne zehn Personen zwölf verschiedene Meinungen vertreten, so dass der Nutzer noch dem Lesen der Lektüre noch mehr verwirrt ist als vorher.

Problematisch sind sicherlich auch Spam-Beiträge aus der Community und eine Vielzahl sehr ähnlicher Posts zu dem gleichen Thema, die sich sich inhaltlich überschneiden und gegenseitig kannibalisieren. Das sind nur einige Beispiele, warum User-generated content oftmals keine besonders hohe Qualität besitzt.

Besonders tragisch ist die Situation, wenn eine Website qualitativ wertvollen Content z.B. in Form von Fachartikeln besitzt und gleichzeitig einen wild wuchernden Bereich mit User-generated content auf der Domain vorhanden ist. Es kommt vor, dass der Panda Algorithmus dann die gesamte Website herabstuft und auch die Seiten mit dem hochwertigen Content plötzlich Rankings verlieren.

Einen solchen Fall hatten wir 2012 mit der Fallstudie zu netdoktor.de beschrieben (SEO-Analysen mit dem SISTRIX Sichtbarkeitsindex Seite 59 ff.). Als Lösung haben wir vorgeschlagen, dass netdoktor.de die Community-Inhalte deindexieren kann, oder sie auf eine zweite Domain auszulagert. Die zweite Domain könnte die Funktion einer „Bad Bank“ für schlechte Nutzersignale übernehmen (S. 72).

Diese Lösungsmöglichkeiten hat jetzt auch John Mueller im Google Webmaster Hangout bestätigt. Ihr findet seine Antwort im Video ab Minute 11:36 bis Minute 16:05.

John empfiehlt ein für die Website passendes System zu finden, um User-generated content mit geringem Mehrwert auszufiltern und auf NoIndex zu stellen. Sollte das aus irgendwelchen Gründen nicht möglich sein, sollte der User-generated content auf eine andere Domain ausgelagert werden, um die Website vor dem Panda Algorithmus zu schützen. Eine Auslagerung auf eine Sub-Domain ist nicht ausreichend, um einen sicheren Schutz zu ge­währ­leis­ten.

19. August 2014, 09:52

Sorry, aber ich mache meine Webseiten lieber für menschliche Nutzer als für dumme Google Algos. Nur weil Google ein Forum doof findet (im Gegensatz zu meinen Usern, die gerade die Meinungsvielfalt und die Möglichkeit, sich eine eigene Meinung zu bilden, zu schätzen wissen), soll ich diese mit einer neuen Domain verwirren?

Thomas
19. August 2014, 09:59

Demnach können echte Kommentare, aber mit einem geringem Mehrwert, einen guten Blog-Beitrag negativ beeinflussen. Richtig? Das kann es doch nicht sein.

Hanns Kronenberg
19. August 2014, 10:09

Wie im Artikel erwähnt kann User-generated content eine hohe Qualität besitzen. Wenn man aber jeden Spam-Beitrag, jeden Kommentar als eigene URL, jede Frage ohne Antwort und die fünfte Doppelung des Themas indexieren lässt, dann kann es sich negativ auf die Qualitätsbewertung auswirken.

19. August 2014, 10:21

Danke für den Hinweis zum Video. Wichtig finde ich, dass noch mal verifiziert wurde, dass Panda sitewide wirkt, auch wenn nur ein Teil der Inhalte low-quality sind. Insofern ist der Beitrag hier eine wichtige Erinnerung.

@Frank: ist doch für die User Deines Forums egal, ob die Seiten im Google-Index sind oder nicht. Aber wenn Du durch das Auslagern andere redaktionelle Inhalte in den Serps nach oben bringst, um so besser.

Die Frage ist doch, wie ein „System“ zum Erkennen von guten User-generated-content aussehen könnte. Bewertungssternchen unter dem Thread? Anzahl der Aufrufe? Manuelle Bewertung durch Moderatoren?
Das scheint mir das Hauptproblem zu sein.

Google fängt die Sache ja schon dadurch etwas ab, indem die „Doppelpostings“ zu einem Thema in einer Art Sitelinks angezeigt werden, z.B. bei guteFrage.net . Aber auch da ärgere ich mich häufig, dass man drei vier Ergebnisse durchklicken muss, ehe man eine befriedigende Antwort erhält.

19. August 2014, 10:28

Wem das soooo große Bauchschmerzen macht, der sollte benutzererstellte Inhalte bis zur Einstufung als „nützlich“ dynamisch nachladen …

Andreas
19. August 2014, 15:25

@karl kratz: und wie „dynamisch“ sollte dies aus technischer Sicht implementiert werden, damit ein Spider der modernen Generation dies nicht lesen kann (zum Nachlesen: http://googlewebmastercentral.blogspot.co.at/2014/05/understanding-web-pages-better.html)? Oder Darstellung per Java-Applet?

Oink
19. August 2014, 15:48

„Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten“
Dem stimme ich nicht immer 100% zu. Am besten lässt sich das aus Sicht von technischen Problemen erklären (Hardwareprobleme, Softwareprobleme, Programmierprobleme etc.). Wie oft stolpert man hier auf einen „Redaktionell“ verfassten Artikel, der im Kern keine Hilfe ist und eigtl. nur eins erreichen will: User auf die Seite locken. Oft sind bei technischen Problemen die Foren weit aus nützlicher, solang im Forenbeitrag nicht auf die GOSU (Google Suche) verwiesen wird. Manchmal haben auch die User Kommentare zu Artikeln oft schnellere und bessere Lösungen, als der Artikel selbst. Das nicht zu indexieren ist meiner Meinung nach ein größerer Verlust und schadet Google bei der Qualität der Treffer doch enorm. Ich weiß nicht wie ihr es sieht, aber meiner Meinung nimmt die Qualität bei speziellen Suchanfragen enorm ab. Vorkurzem hab ich z.B. nach einem jQuery Plugin gesucht und bekam ab Seite 5 Sexseiten gelistet, die einfach nur die Begriffe im Content irgendwo gestreut haben…

Hanns Kronenberg
19. August 2014, 16:14

Einen „“redaktionell“ verfassten Artikel, der im Kern keine Hilfe ist und eigtl. nur eins erreichen will: User auf die Seite locken“ würde ich aber auc nicht mehr als gut recherchiert und hochwertig bezeichnen. Umgekehrt kann User-generated content, wie bereits beschrieben, durchaus gut recherchiert und hochwertig sein.

Oink
19. August 2014, 17:04

Ist sicher von Mensch zu Mensch unterschiedlich. Hängt auch von den Erwartungen ab, also was man sucht. Ich merke es leider zu Hauf, das viel Müll oben landet, viel „Blabla“ um nix. Sprich, künstlich aufgebauschte Artikel. Ist auch die Zweckfrage, ob ein Artikel der viel Hintergrund und Nebenwissen liefert (schön strukturiert ist), besser ist, als einer der einfach auf den entscheidenden Punkt kommt und vllt. nur aus 200-300 Zeichen besteht und mir in Kürze meine gesuchte Lösung liefert.

Hagen
20. August 2014, 11:48

Ich bin auch verwundert, warum Google dies so sieht – insbesondere Meinungsvielfalt sollte eher ein Qualitätsmerkmal sein. Nicht nur, weil dies dafür spricht, dass eine Community aktiv (also attraktiv für den Nutzer) ist, sondern auch weil dies dann eben ziemlich sicher keine SEO Seiten sind, die nur mit entsprechend Keyword-gespickten „Fachartikeln“ Nutzer fangen wollen.

Eine Frage an Hanns: Ich beobachte seit Jahren den Sichtbarkeitsindex für einige große Foren. Ohne dass ich dies einem speziellen Update zuordnen kann, sinkt der Sichbarkeitsindex für die überprüften Foren seit Monaten kontinuierlich – obwohl diese Foren seit Jahren die Marktführer ihrer Themengebiete sind und auch keine „pösen“ Seo Sachen machen. Von Januar bis August hat sich bei den beobachteten Foren der SI halbiert (!) – und zwar bei allen gleichmäßig über die Monate verteilt. Die Nutzerzahlen sind jedoch nicht in gleichem Maße eingebrochen. Kann es sein, dass Google bei den Foren eher Longtails bedient und dafür Single-Keys anderen Seiten zuordnet – oder hat sich etwas in der Keywordstruktur des Sichtbarkeitsindexes geändert? Für mich steht außer Frage, dass Google speziell bei Foren etwas nachjustiert hat – ohne, dass ich jedoch von einem solchen Update gehört hätte. Was sagen Deine Zahlen bei Seiten mit ausschließlich User-generated-Content, kannst Du einen solchen Trend bestätigen?

Hanns Kronenberg
20. August 2014, 12:17

Hallo Hagen,

Google hat sicherlich nichts gegen Meinungsvielfalt. Sie versuchen die Qualität einzelner Beiträge und der gesamten Website algorithmisch zu erfassen und werten dazu die Nutzersignale aus. Letzendlich bestimmen also die Nutzer die Qualitätsbeurteilung. Das muss man akzeptieren.

Das Foren in den letzten Jahren zu den Verlierern dieser Entwicklung gehören ist auch meine Beobachtung. Im Longtail sind sie noch stark, da gibt es wahrscheinlich auch weniger Alternativen und Google hat da auch nicht so viele Daten. Eine Änderung der Keywordstruktur hat es nicht gegeben. Tendenziell wird Google die Treffer aussortieren, die eine unterdurchschnittliche Performance auf ihren Rankingpositionen geliefert haben. Daher ist es normal, dass die Sichtbarkeit stärker einbricht als die Nutzerzahlen.

Ich habe mir in diesem Beitrag dazu einmal ein paar Gedanken gemacht:
http://www.sistrix.de/news/regalplatzoptimierung-bei-google/

20. August 2014, 14:06

Hallo zusammen,

ich finde es richtig, dass Google hier etwas ‚ausdünnt‘. Ehrlich gesagt entspricht es auch meinen Erwartungen als Nutzer einer Community. In der Regel werden in einschlägigen Fachforen die wichtigsten Fragen täglich mehrfach gestellt. Meiner Ansicht nach aus reiner Faulheit der Fragesteller zu suchen. Ambitionierte Beantworter beantworten dann jedes Mal aufs Neue die Fragen. Nicht nur eine Frage der Qualität…Das Resultat: Ein und dieselbe Frage nebst Antwort taucht dann mehrere Seiten lang fast wie Spam in der SERP auf. Das nervt mich als Nutzer. Wobei ich ehrlich gesagt manchmal ‚User generated – Problemlösungen‘ effizienter und zielführender empfinde, als die etlichen (textlich aufgeblähte und keyword bespamte) Tutorials….

21. August 2014, 15:07

„Die Google Nutzer bevorzugen oft einen gut recherchierten und hochwertig geschriebenen Fachartikel anstelle von Community-Inhalten“

Natürlich bevorzugt jeder einen schönen Artikel wo alles Schritt für Schritt erklärt wird. Nur seit wann können damit ein Großteil der Suchanfragen beantwortet werden. Der angeblich bessere Content existiert doch in der Realität überhaupt nicht.

Und welches Recht nimmt sich Google heraus eine Seite global abzuwerten, nur weil sie eine Community enthält oder eine ist. Man tut hier so als gäbe es grundsätzlich keine Fachartikel innerhalb einer Community.

Es ist zwar nur eines meiner Mini-Foren, aber einfach mal ein Beispiel, das mir gerade einfällt. Ein Admin sucht wie er die E-Mailadresse eines Users in seiner MediaWiki Software anpassen kann:
https://www.google.com/search?q=mediawiki+user+bearbeiten

Mir gehört der passende Thread vom wiki-forum.de, aber der steht auf Seite 2. Warum?

Die erste Seite enthält „bearbeiten“ nur im Zusammenhang mit Nutzerrechten oder das Bearbeiten von Artikeln/Seiten innerhalb eines Wikis. Genau diese extrem weiche Suche hat die Google Ergebnisse verkommen lassen. Suchanfrage und Ergebnis passen überhaupt nicht zusammen.

Dass dann irgendwann noch das Blogs und Diskussionsforen bei dem Typfilter unter „mehr“ entfernt wurden, ist ja wohl eine eindeutige Diskriminierung dieser Seitentypen. Es spricht schließlich überhaupt nichts dafür eine versteckte Filteroption zu entfernen.

Ich selbst muss jedenfalls massiv mit „forum“ usw. in der Suchphrase nachhelfen um überhaupt noch meine gewünschten Ergebnisse zu erhalten und selbst durch den regen Einsatz von Anführungszeichen ist auch das kaum noch möglich.

21. August 2014, 16:43

Ich glaube unterm Strich muss man wirklich unterscheiden: user generated content ist nicht immer gleich. Ein gut moderiertes Forum verhindert in der Regel auch Spam-Beiträge und Link-Jäger. Grundsätzlich ist der Inhalt, der von anderen Nutzern kommt, doch eigentlich etwas Gutes. Man betrachte doch nur einmal diesen Beitrag: der Artikel selbst hat gerade einmal gut 300 Worte. Die ganzen Kommentare darunter (meine mal außen vor gelassen) über 1400! Oder anders gesagt: das Verhältnis von Content / user generated Content entspricht fast 1 zu 5 und alle hier geschriebenen Kommentare sind relevant und kein Spam. Besser kann ein Blog nicht funktionieren. 😉

21. August 2014, 18:25

Meine Foren sind spamlinkfrei, weil alle Links von neuen Usern automatisch nofollow sind. 20 Beiträge braucht ein User, damit seine Links normal verlinkt werden. Bis dahin fällt jeder auf, der einfach nur sabbelt um schlussendlich doch irgendwo einen Link zu platzieren.

Kein anderes mir bekanntes Forum nutzt eine solche Technik. Nicht mal Wikipedia lässt Trust zu und verlinkt nach z.b einem Jahr follow, was ich sogar mal vorgeschlagen hatte. Wenn dann verlinken alle direkt nur nofollow, was meiner Ansicht nach dem Sinn von gegenseitiger Verlinkungen widerspricht.

Und obwohl ich mir diese Gedanken gemacht habe, werde ich abgestraft. Nicht in Foren von Mitteilungen über das WMT, sondern eben durch den nachvollziehbaren Verlust von Traffic der letzten 12-18 Monate.

Ich wurde bisher nur von einem fremdem Webmaster über einen unnatürlichen Link informiert, der nicht mal einer war:
https://www.maxrev.de/google-beschwert-sich-ueber-unnatuerliche-verlinkung-die-natuerlich-i-t335497.htm

In meinen Augen kann man machen was man will. Communities und auch Blogs sind aktuell von Google unerwünscht. Vermutlich weil sie die einzige Quelle sind, wo man leicht Spamlinks sammeln kann.

[…] John Mueller hat in dieser Woche in einem Google Webmaster Hangout eine Methode vorgestellt, um User-gernerated-Content mit qualitativ niedrigerem Mehrwert für User herauszufiltern und auf Noindex zu stellen oder andernfalls sogar auf eine andere Domain auszulagern. Warum? Google bevorzugt gut recherchierte und hochwertig geschriebene Beiträge, statt wilddurchwachsener Community-Beiträge (die zweifelsfrei einen hohe Qualität haben können, jedoch in den Augen des Suchmaschinenanbieters oftmals zu inhaltlich thematischen Überschneidungen führen können). Befindet man sich als Webmaster in der Situation, dass man einen redaktionellen „Wildwuchs“ hat, besteht u. a. die Gefahr das der Panda Algorithmus von Google die gesamte Webseite herabstuft. Was man in Bezug auf User-generated-Content beachten sollte, erklärte am vergangenen Dienstag Hanns Kronenberg in: Google Panda Update und User-generated content. […]