Kommentar zu „Macht Google jetzt das Internet kaputt?“

In der vergangenen Woche erschien auf welt.de ein Artikel mit dem Titel „Neue Suchalgorithmen – Macht Google jetzt das Internet kaputt?“. Grundsätzlich befürworte ich einen kritischen Umgang mit der stetig wachsenden Marktmacht von Google. Dieser Beitrag strotzte jedoch derart vor Fehlern, dass man ihn nicht umkommentiert lassen kann.

Zitate:
„Die Änderungen tragen putzige Namen wie Panda oder Pinguin, doch mit ihnen macht Google ernst im ständigen Kampf gegen Werbe-Spammer und Suchmaschinenoptimierer (SEO).“

„Google kämpft einen ständigen Kampf gegen die SEO-Experten, setzt seit Jahren auf immer neue Kriterien, um den Spam aus den Suchergebnissen fernzuhalten.“

In dem Artikel werden Begriffe wie Werbe-Spammer und SEO-Experten mehrfach gleichgesetzt und als Synonym verwendet. Das ist grundsätzlich falsch. Es bringt eine ganze Branche zu Unrecht in Verruf. Google kämpft keinen Kampf gegen SEOs. SEO-Experten helfen Websites barrierefrei für Google zu gestalten. SEO-Experten kümmern sich darum, dass die Website-Anbieter die Sprache der Suchmaschinen-Nutzer sprechen. Die Suchmaschine kann auf diese Weise die Inhalte besser verstehen und bessere Suchergebnisse liefern. Das ist eine klassische Win-Win-Situation.

Ohne SEOs würde Bosch seine Waschmaschinen im Internet wahrscheinlich immer noch Waschvollautomaten nennen und nicht gefunden werden. Auch wüsste Google nicht, dass in Hamburg das „Kundenzentrum der Freien und Hansestadt Hamburg“ für Melde- und Ausweisangelegenheiten zuständig ist und für Suchbegriffe wie „Meldeamt Hamburg“ sowie „Einwohnermeldeamt Hamburg“ ein guter Treffer ist.

Folgerichtig kämpft Google nicht gegen SEO-Experten, sondern unterstützt sie bei deren Arbeit. Hier möchte ich exemplarisch nur drei Beispiele auflisten:

  1. Google Ratgeber „Einführung in die Suchmaschinenoptimierung
  2. Regelmäßige Google Hangouts mit John Mueller zur Beantwortung von SEO-Fragen durch Google
  3. Google Webmaster Tools

Richtig ist, dass Google gegen Webspam kämpft. Und das ist gut so. Auch wenn ein (großer) Teil der Spammer SEO-Techniken einsetzen, sind im Umkehrschluss nicht alle SEOs Spammer.

Der Artikel lässt aber nicht nur eine grundsätzliche Differenzierung zwischen SEO und Spam vermissen, es mangelt auch an Fachwissen.

Zitat:
„Panda sucht nach Link-Spam – und bestraft ihn durch Bedeutungsverlust der verlinkten Seiten in Googles Suchergebnissen.“

Hier scheint der Autor Panda-Updates und Penguin-Updates ein wenig durcheinander zu bringen.

Zitat:

„Doch auch Giganten im Netz verlieren durch Panda 4 erheblich an Sichtbarkeit: Ebay hat laut Searchmetrics über Nacht 50 Prozent seiner Sichtbarkeit bei Google verloren, die Ratgeberseite Ask.com sogar 70 Prozent – ein Desaster für die Betreiber.“

Bei Ebay ist hauptsächlich ein Verzeichnis mit Doorway Pages für die Verluste verantwortlich und hat praktisch seine komplette Sichtbarkeit verloren. Daher spricht vieles dafür, dass Ebay nicht vom Panda 4 Update betroffen ist, sondern zeitgleich eine manuelle Penalty für das Verzeichnis erhalten hat. Eine solche Maßnahme seitens Google wäre vertretbar, da die Seiten durchaus als Brückenseiten oder SERPs in SERPs interpretiert werden können und damit gegen die Google Richtlinien verstoßen würden. Wir haben das in einem Blogpost zum Panda 4.0 Update näher erörtert.

Von diesem Spam-Versuch seitens Ebay lässt sich der Autor aber nicht seine schöne Geschichte „Ebay steht zumindest indirekt in Konkurrenz mit Googles Shopping-Seiten“ kaputt machen.

Zitat:
„Selbst die Seite des Norddeutschen Rundfunks verlor 20 Prozent ihres Google-Ranks – warum das so ist, das bleibt Pandas Geheimnis.“

Auch hier wird Korrelation und Kausalität einfach gleichgesetzt und nicht weiter hinterfragt. Wenn die Website des Norddeutschen Rundfunks zeitgleich zum Panda 4.0 Update deutlich an Sichtbarkeit verliert, dann muss ja wohl das Panda Update dafür verantwortlich sein und der Beleg ist erbracht, wie ungerecht und voller Willkür dieses Update ist.

In der Tat gehört ndr.de nicht zu den Websites, die Google mit einem Panda-Update aus den Suchergebnissen entfernen möchte. Aber anstatt reflexartig die Qualität des Updates zu hinterfragen, sollte man zuerst die Prämisse hinterfragen und sich die Mühe machen, nach anderen Ursachen zu recherchieren.

Wenn eine solche Seite mit Qualitätsinhalten deutlich an Sichtbarkeit verliert, vermute ich den Fehler eher beim Websitebetreiber. Vielleicht hat er zu wenig auf SEO geachtet, weil der Branche immer wieder zu Unrecht so ein schlechter Ruf angedichtet wird. Meist passieren solche technischen Fehler dann, wenn es größere Änderungen auf der Website gegeben hat. Eine Recherche in Form einer Google Suche nach „Relaunch ndr.de 2014“ liefert dann auch in Sekundenschnelle die Erklärung für den Sichtbarkeitseinbruch von ndr.de. Seit dem 13.05.2014 ist der neue Webauftritt des NDR online. Ohne mir die Rankingverluste näher angeschaut zu haben, gehe ich davon aus, dass nicht ausreichend 301-Weiterleitungen von den alten URLs auf die neuen URLs gesetzt wurden. Manchmal können SEOs sehr hilfreich sein, auch für die Sichtbarkeit von Qualitätsinhalten in den Suchergebnissen und die Qualität des Webs.

Ich möchte an dieser Stelle nicht Searchmetrics einen Vorwurf machen, dass ndr.de in deren Verliererliste aufgetaucht ist. Searchmetrics schreibt eindeutige Warnhinweise bezüglich der vorläufigen Analyse und möglicher Fehlinterpretationen direkt über seine Daten. Die Beachtung dieser Hinweise hätte aber wieder eine schöne Geschichte beschädigt. Wo würde die Story bleiben, wenn Google mit dem Panda Update nicht eindeutig Unschuldige wie den Norddeutschen Rundfunk getroffen hätte?

Dieses Problem zieht sich leider durch den ganzen Welt-Artikel, ohne dass ich jetzt auf jeden Punkt eingehen möchte. Was der Autor Benedikt Fuest offenbar überhaupt nicht berücksichtigt, ist die Tatsache, dass es sich bei den Rankingveränderungen immer um ein Nullsummenspiel handelt. Was die eine Website verliert, müssen andere Websites gewinnen. Das Ziel von Google ist es, die Qualität der Suchergebnisse insgesamt zu verbessern. Es geht darum, schlechte Treffer durch bessere Treffer zu ersetzten. Davon profitieren zuerst die Nutzer und dadurch natürlich auch Google.

Was Qualität in den Suchergebnissen bedeutet, bestimmen übrigens zu einem immer größeren Teil die Nutzer selbst und nicht ein bösartiger und geheimer Algorithmus, der das Internet kaputt macht. Gerade das Panda Update wurde auf Grundlage von Bewertungen der Nutzer gegenüber Websites entwickelt. Die Fragenliste zur Beurteilung der Qualität von Websites wurde von Google veröffentlicht.

So bleibt am Ende die Frage, was will der Autor mit diesem Artikel Google eigentlich vorwerfen?

Darf Google kein Spam bekämpfen? Darf Google keine Spam-Links entwerten? Darf Google nicht versuchen die Qualität der Suchergebnisse zu verbessern? Sollen alte Websites ein Gewohnheitsrecht auf gute Rankings erhalten und sich nicht mehr dem fortschreitenden Wettbewerbs stellen?

Ich finde es gut, dass der Axel Springer Verlag eine öffentliche Diskussion um die Marktmacht von Google angestoßen hat. Solche Artikel wirken aber eher kontraproduktiv und sind kein gutes Argument für den Schutz des Qualitätsjournalismus.

Ähnliche Beiträge