Google Search Rater: Faktor Mensch in den SERPs

Johannes Beus
Johannes Beus
9. Mai 2019
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Seit jeher lässt Google die Qualität seiner Suchergebnisse durch sogenannte Google Search Rater für interne Zwecke bewerten. Nun gibt es Hinweise, dass diese Search Rater auch konkret Einfluss auf die SERPs nehmen.

Wenn es um die genau Rolle der Google Search Rater geht, ist Google eher zurückhaltend. Zwar sind die Search Quality Rater Guidelines, eine Art Arbeitsanweisung für diese Personen seit ein paar Jahren auch öffentlich verfügbar – welche genauen Auswirkungen ihre Arbeit aber hat, ist bislang ungeklärt.

Auf einer Seite, die Google im Rahmen der I/O-Konferenz veröffentlicht hat und bei der es eigentlich eher um Google News gibt, finden sich nun aber mehr Informationen. So schreibt Google dort:

Many of our approaches build on the ranking systems used by Google Search.

Weiter unten unter dem Punkt “Authoritativeness” dann:

To do this, our systems are designed to identify signals that can help determine which pages demonstrate expertise, authoritativeness and trustworthiness on a given topic, based on feedback from Search raters.

Als SEO wird bei der Aneinanderreihung von “Expertise, Authoritativeness and Trustworthiness” schnell die Abkürzung E-A-T und ein Bezug zu den letzten Google-Core-Updates herstellt. Allgemeine Meinung ist, dass Google bei diesen Updates erhöhte Aufmerksamkeit auf diese drei Themen gelegt hat.

Durch die oben zitierte Bestätigung wird nun auch klar, dass die Google Search Rater hierbei einen maßgeblichen Einfluss haben. Von Google beschäftigte Menschen und nicht Algorithmen sind die Grundlage zur Identifizierung und Einschätzung von Webseiten. Google wird, wie vermutet, diese Erkenntnisse durch einen Machine-Learning-Ansatz auf viele Webseiten übertragen – den ersten Schritt und die Definition der Ursprungsdaten stammt aber von Menschen.

Ähnliche Beiträge
Kommentare
Benny   
9. Mai 2019, 16:05

Würde mich ehrlich gesagt nicht wundern, wenn auch da noch Menschen am Werk sind. Bis dato kann Google eben nicht alles wirklich objektiv bewerten.

Mario Fischer   
9. Mai 2019, 20:42

Meiner Kenntnis nach fließen die Bewertungen der QRater wie folgt ein: Vereinfacht kann man sich das so vorstellen, dass es zwei Töpfe gibt. In Topf A werden alle Webseiten gelegt, die Rater mit „cool“ bewerten (in Wirklichkeit gibt es nat. mehr Faktoren, EAT etc) und in Topf B diejenigen, die „uncool“ sind. In den beiden Töpfen haben sich über die Jahre viele Mio. Seiten gesammelt und ständig kommen neue dazu. Google kann nun mit Methoden des Deep Learning drüberrumpeln und nach Signalen suchen, welche in Topf A (cool) statistisch relevant häufiger vorkommen als in Topf B (uncool). Finden die Algos was, sehen sich das die SearchAlgo-Builder an und prüfen, ob man diese Signal für das Ranking verwenden kann, welchen Anteil es hat, wie man es zusammen mit anderen Signalen tweakt etc. Auf diese Weise kann man hunderte oder tausende kleine Einzelsignale finden, die jedes für sich alleine nicht trennscharf sind – aber in Summe und sauber eingestellt, aber eben doch. Die Maschine findet Zusammenhänge/Korrelationen, die Menschen niemals auffallen würden. Der Mensch muss dann am Ende prüfen, ob die Korrelation auch eine valide Ursache hat. Alles in allem fließen daher meiner Ansicht nach nicht die Voten der QRater unmittelbar in das Ranking ein. Das macht auch keinen Sinn, denn die können max. vielleicht ein Milliardstel Promille aller Websites prüfen. Mittelbar fließt das nat. dann schon ein, aber in Form von herausgefilteten Signalen. Klingt das plausibel?