Google Search Console: Unterschiede und Grenzen

Google liefert in der Google Search Console interessante Informationen zum Ranking der eigenen Domain. Diese Daten unterscheiden sich prinzipbedingt deutlich von den Daten, die wir mit SISTRIX bereitstellen. Hier erklären wir die Unterschiede.

Als erster Anbieter haben wir im August 2015 die damals neue API-Schnittstelle der ehemals noch Google Webmaster Tools genannten Search Console für unsere Nutzer in SISTRIX integriert. Da sich sowohl die Methode der Datenerhebung als auch die Zielsetzung von Google Search Console und SISTRIX unterscheiden, kommt es regelmäßig zu Fragen der Vergleichbarkeit der beiden Datenquellen. Diese Fragen klären wir auf dieser Seite.

Keine Bestleistung ohne Benchmark

Topleistungen werden nur durch den direkten Vergleich mit Wettbewerbern erzielt. Es war kein Zufall, dass am gleichen Tag, als der erste Läufer die damals magische 10-Sekunden-Marke für den 100-Meter-Sprint durchbrochen hat, noch zwei weitere Läufer diese Marke ebenfalls unterboten haben.

Der Vergleich mit Wettbewerbern ist eines der Kernfeatures von SISTRIX. Wir zeigen dir, wie gut du im Vergleich zu deinen Wettbewerbern rankst. Denn nur so kannst du einschätzen, ob du aktuell besonders gut oder doch unterdurchschnittlich bist.

Dieser Benchmark fehlt in der Google Search Console komplett. Historisch bedingt zeigt sie Daten zu deiner Domain – aber keinerlei Informationen zum Umfeld. Du kannst also sehen, ob du heute mehr Klicks erhältst als vor 4 Wochen – nicht aber, ob dein Wettbeweber vielleicht zehnmal so viele Klicks generiert.

Unterschiede in der Datenerhebung

Die Methode zur Datenerhebung ist bei SISTRIX und Search Console grundsätzlich unterschiedlich. Google misst für die Search Console, wenn jemand eine Google Ergebnisseite aufruft. Wird eine Seite im betrachteten Zeitraum nicht aufgerufen, gibt es auch grundsätzlich keine Messung – und damit keine Daten.

Für SISTRIX verlassen wir uns nicht auf mögliche Benutzeraktionen, sondern messen die Rankings zu einem Keyword selber – regelmäßig und verlässlich. Aus diesem prinzipiellen Unterschied in der Datenerhebung resultieren viele der folgenden Punkte.

Gutes Wetter führt zu anderen Daten

Begründet durch die Methode der Datenerhebung, schlagen sämtliche Änderungen in der Nachfrage (also der Anzahl und Qualität der Suchen) direkt auf die Auswertungen der Search Console durch. Ist das Wetter in einer Woche besonders gut, werden weniger Klicks ausgewiesen – es gab aber häufig keinerlei Änderung im Ranking selber.

Neben dem Wetter können auch die Saison, Schulferien, Erwähnungen in bekannten Medien/Fernsehsendungen, Feiertage und zahlreiche weitere externe Faktoren Auswirkungen auf die gemessenen Zahlen haben. Die Search Console ist damit strukturell deutlich näher an einem Webanalyse-Tool wie Google Analytics als an einer SEO-Software wie SISTRIX.

Die Analyse von Ursache und Wirkung ist in einem komplexen Umfeld wie SEO elementar wichtig. Durch die zahlreichen externen Einflussfaktoren, die in die Google Search Console-Daten eingehen, wird diese Analyse allerdings deutlich erschwert oder sogar unmöglich.

Kein Vergleich von Mobile- und Desktop-Rankings

In den meisten Ländern hat die Anzahl der Suchen auf dem Smartphone mittlerweile die Anzahl der Desktop-Suchen überholt. Ein zuverlässiger Vergleich von Mobile- und Desktop-Performance ist deswegen (und weil Google auf einen Mobile-First-Index umschwenkt) die Grundlage einer zukunftssicheren SEO-Strategie.

Da sich das Nutzerverhalten zwischen Handy und Desktop deutlich unterscheidet, ist in der Google Search Console kein valider Vergleich möglich. Smartphone-Nutzer klicken zum Beispiel deutlich seltener auf die zweite oder gar dritte Ergebnisseite als es Desktop-Nutzer (noch) tun. Da die GSC-Daten allerdings auf diesem Nutzerverhalten basieren, können sie nicht als Grundlage für einen Vergleich dienen. In SISTRIX stellen wir sicher, dass Desktop- und Mobile-SERPs untereinander vergleichbar erhoben werden.

Keine zuverlässige Ranking-Verteilung

Die Ranking-Verteilung ist eine elementare Grundlage zur Erkennung erfolgreicher Content-Formate. Nur Inhaltsformate, die überdurchschnittlich häufig auf der ersten Google-Ergebnisseite ranken, sind es wert, weiterentwickelt zu werden.

Dadurch, dass Daten für die Search Console nur ermittelt werden, wenn auch ein Suchender auf die entsprechende Ergebnisseite zugreift, kann die Ranking-Verteilung auf Basis der Search Console-Daten nicht ermittelt werden. Es greifen schlicht zu wenige echte Nutzer auf die zweite, dritte oder gar zehnte Trefferseite zu, als dass sich verlässliche Auswertungen ergeben.

Ein Beispiel für die gravierenden Fehleinschätzungen, die auf Basis der Search Console-Daten in diesem Anwendungsfall resultieren, zeigen wir in diesem Blogbeitrag aus September 2015.

Verfälschter Blick auf Probleme & Chancen

Prinzipbedingt misst Google nur die Keywords, mit denen man bereits erfolgreich auf der ersten Trefferseite rankt – nicht aber die eigentlich interessanten Keywords, bei denen es noch hakt. Hat man nicht das Glück, dass sich ein Google-Nutzer auf die achte oder neunte Trefferseite durchklickt, taucht dieses Keyword nicht in den Auswertungen der Search Console auf.

Rankings verloren – oder keine Besucher?

Ebenfalls prinzipbedingt unmöglich sind mit den Search Console-Daten Auswertungen zu Keywords, mit denen man erstmals neu rankt oder zu denen man nun nicht mehr rankt. Es ist jeweils beim Vergleichszeitpunkt unmöglich zu sagen, ob die eigene Seite nicht in den Treffer vertreten war oder ob es schlichtweg keinen Nutzer gab, der nach diesem Keyword gesucht hat.

Mit SISTRIX sind diese wichtigen Auswertungen möglich. Wir stellen sicher, dass für beide Datumspunkte inhaltlich und im Umfang vergleichbare Daten vorliegen.

Datenkonsolidierung vernichtet Transparenz

Seit 2019 konsolidiert Google die Daten der Search Console auf Basis der vermeintlich kanonischen URL des Dokumentes (Canonical URL). Google setzt also eine interne (und bei großen Seiten regelmäßig fehleranfällige) Abstraktionsebene über die ausgespielten Daten. Damit ist nicht mehr eindeutig klar, welche URL in den Suchergebnissen angezeigt wurde. In Folge können Konfigurationsfehler, Weiterleitungen, AMP-Umsetzungen und weitere Fälle nicht mehr eindeutig nachverfolgt werden.

Keywordzahlen nicht auf gleicher Basis

Die API-Schnittstelle der Search Console zählt (und liefert) Keywords jeweils als Kombination aus Keyword/Suchbegriff, URL, Device und Land. Alleine für den Begriff “sistrix” sieht das in unserem Interface damit aus wie auf diesem Screenshot: 130 “Treffer”. In SISTRIX zählen wir jedes Keyword hingegen nur einmal. In diesem, natürlich extremen, Beispiel liefern die GSC-Zahlen also 130 Zeilen während in den SISTRIX-Keywordtabellen nur eine Zeile (das jeweils beste Ranking für das ausgewählte Device & Land) aufgeführt wird. Ein Vergleich der Zahlen ist also unmöglich.

Durchschnittliche Positionen können verwirren

Die Positionsangaben in der Search Console weisen häufig Nachkommastellen auf. So ist es durchaus möglich für ein Keyword eine durchschnittliche Position von 2,6 zu erreichen. Diese Komma-Werte gehen auf Googles Zählweise der Ergebnisse zurück.

Google zählt die Ergebnisse, die einen Link auf die Zielseite enthalten, von oben nach unten durch und fährt dann bei weiteren Suchergebnis-Elementen, wie zum Beispiel Knowledge-Graph Einblendungen, fort:

Diese Zählweise ist aus Sicht einer Suchmaschine möglicherweise noch verständlich, aus der Perspektive eines Seitenbetreibers kann diese Zählweise jedoch zu Fehleinschätzungen verleiten.

Wenn die eigene Seite auf der organischen Position 1 rankt und es in den Ergebnissen nur noch einen Knowledge Panel als zusätzliches Element gibt, in dem die Webseite auch auftaucht, würde Google die Platzierung mit der durschnittlichen Position 6 anzeigen ((Pos 1 + Pos 11) / 2).

Daten werden verzögert ausgeliefert

Zwischen der Messung durch Google und Bereitstellung der gemessenen Daten in der Search Console oder über die API vergehen einige Tage. Man arbeitet also nicht auf tagesaktuellen Daten, um Veränderungen nachvollziehen zu können, sondern hat immer ein paar Tage Verzögerung zwischen dem echten Zeitpunkt der Änderung und dem Zeitpunkt, zu dem man diese Änderungen auch sieht. Auch kommt es regelmäßig zu Problemen in der Datenbereitstellung – die GSC ist für Google eben kein Produkt, mit dem Geld verdient wird, sondern ein notwendiges Übel, um weitere Regulierung zu verhindern.

Search Console Daten nicht vollständig

Die Google Search Console ist historisch gesehen ein Nachfolger der Referrer-Keywordinformationen – allerdings von Google aus Datenschutzgründen gefiltert. Leider gibt es zu Umfang, Ausmaß und Hintergrund der Filterung möglicher Keywords keine Informationen von Google. Auch ist unbekannt, ob die Filterung im Laufe der Zeit verändert wird. Es fehlen also in der Search Console, im Vergleich zur alten Lösung über den Referrer-String, Daten – unklar ist, wie viele und nach welchen Regeln.

Ein prägnantes Beispiel für dieses Verhalten liefert ein Tweet eines italienischen SEOs. In der Search Console einer Webseite werden 21% aller Klicks und 32% aller Impressions nicht korrekt gezählt und verfälschen damit die Auswertung.

Hintergrund: Entstehung der Google Search Console

Um verstehen zu können, wieso Google die Daten aus der Search Console in der aktuellen Form anbietet, sind Kenntnisse über die Entstehungsgeschichte der Search Console (ehemals Google Webmaster Tools) hilfreich.

Lange Zeit wurden die Ergebnisse der Google-Suche vollkommen unverschlüsselt (also ohne HTTPS) ausgeliefert. Als Folge davon konnte jeder Webmaster in seinen Webserver-Logfiles über ein Auslesen des Referrer-Feldes erkennen, nach welchem Keyword die Person gesucht hat, die gerade auf die Seite gekommen ist.

Mit der Einführung der SSL-Verschlüsselung Ende 2011 hat sich diese Situation geändert: ein zunehmend steigender Teil aller Google-Suchen wurden verschlüsselt durchgeführt. Im Zuge dieser Umstellung hat Google die Übergabe von Keyword-Informationen an die Webseitenbetreiber eingestellt. In den Auswertungen stand für diese Besucher nur noch “Not Provided”.

Begründet hat Google die Änderung damit, dass Suchende bei einer verschlüsselten Suche davon ausgehen, dass die eingegebenen Keywords vertraulich behandelt werden und nicht an Dritte übermittelt werden.

Um Webseitenbetreiber nicht völlig im Dunkeln tappen zu lassen, wurde der heutige Leistungs-Report in der Google Search Console eingeführt. Nach einer Filterung und Begrenzung der Keyword-Daten durch Google kann der Webmaster Informationen über seine Keywords einsehen.

Die Google Search Console ist damit aus Googleperspektive der Nachfolger des Referrer-Feldes der Webserver-Logfiles und damit funktional eher eine Erweiterung von Google Analytics als eine SEO-Software.

15.09.2020