Regalplatzoptimierung bei Google

12. Februar 2014, 09:32

Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam?

  1. Sie dienen einem bestimmten Ziel.
  2. Sie verfügen nur über ein begrenztes Platzangebot (Engpass)

Zeitschriftenregal

Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere Auswahl von Produkten anbieten und so mehr Kaufbedürfnisse befriedigen könnte. Ebenso könnte Google mit mehr als 10 organischen Treffern auf der ersten Suchergebnisseite mehr Suchanfragen zufriedenstellend beantworten (Searcher Satisfaction).

Sowohl Google als auch der Supermarkt stehen vor dem Problem das optimale Angebot für ein begrenztes Platzangebot auszuwählen. Während das übliche Vorgehen beim Supermarkt bekannt ist und zu den Grundaufgaben der Betriebswirtschaftslehre gehört, wird über das Vorgehen bei Google viel gerätselt. Es lohnt sich einen Blick auf die Auswahlentscheidung des Supermarktes zu werfen. Vielleicht lernen wir dabei auch eine ganze Menge über die Auswahl der Treffer bei Google.

Anmerkung: Selbstverständlich verfolgt auch Google das Ziel der Gewinnmaximierung. Betrachtungsgegenstand in diesem Beitrag sind die kostenlosen, organischen Treffer auf den Suchergebnisseiten. Wir gehen in diesem Beitrag aber vereinfachend davon aus, dass die organischen Treffer bei Google das Ziel der Nutzerzufriedenheit und die AdWords-Anzeigen das Ziel der Gewinnmaximierung verfolgen. Die Wechselwirkungen zwischen organischen Treffern und AdWords-Anzeigen sind nicht Inhalt dieses Beitrags.


Warum zeigt Google nicht einfach mehr als 10 Treffer an?

Auf den ersten Blick wäre es für Google am einfachsten die Zufriedenheit der Nutzer mit den Suchergebnissen zu steigern, indem sie mehr als 10 organische Treffer auf einer Suchergebnisseite (SERP) anzeigen. Google hat zur dieser Idee seine Nutzer befragt und bekam von diesen tatsächlich die Antwort, dass sie sich mehr Ergebnisse wünschen. Mehr ist mehr.

Laut der ehemaligen Vizepräsidentin Marissa Mayer führte Google daraufhin Tests mit 30 Treffern pro SERP durch. Der Umsatz und Traffic fiel bei diesem Experiment um 20 Prozent gegenüber der Variante mit 10 Treffern. Wie ist das zu erklären?

Google benötigte 0,4 Sekunden um eine SERP mit 10 Treffern zusammenzustellen und auszuliefern. Die Seite mit 30 Treffern benötigte hingegen 0,9 Sekunden. Dieser Unterschied von 0,5 Sekunden zerstörte die Nutzerzufriedenheit und führte zu einem neuen Engpass, der 20 Prozent Traffic kostete. Daher beschränkt sich Google bis heute auf 10 organische Treffer.

Grundsätzlich das gleiche Problem hat der Supermarkt. Er könnte theoretisch mehr Regale aufstellen. Aber eine solche Maßnahme würde die Gänge für die Kunden verengen und damit das gesamte Einkaufserlebnis stark beeinträchtigen. Somit ist auch das Angebot im Supermarkt durch ein bestimmtes Platzangebot limitiert.

Rechenaufgabe: Optimiere das Regal im Supermarkt

Nachdem der Engpass bekannt ist, schauen wir uns am besten ein einfaches Beispiel an. Nehmen wir an, in einem Supermarkt steht ein Regal mit Zeitungen und Zeitschriften. Das Regal verfügt über 10 Regalreihen, die mit Printprodukten gefüllt werden können. Dem Supermarkt-Manager stehen folgende Daten zur Verfügung.

Daten für die Regalplatzoptimierung im Supermarkt

Daten für die Regalplatzoptimierung im Supermarkt

Anmerkung: Der geneigte Leser mag mir verzeihen, dass ich in diesem Beispiel den in der Betriebswirtschaft korrekten Begriff „Deckungsbeitrag“ und nicht den umgangssprachlichen Begriff „Gewinn“ verwende. Ich kann nicht anders. Zur Erklärung: Gewinn = Deckungsbeitrag – fixe Kosten (Gebäudemiete, Personalkosten usw.).

Welche Änderungen sollte der Supermarkt-Manager bei bei der Zusammenstellung des Angebotes vornehmen, um zukünftig mehr Deckungsbeitrag mit dem Regal zur erwirtschaften? Sollte das Sortiment verändert werden? Kennst Du den richtigen Lösungsweg?

Lösung Rechenbeispiel

Die Lösung ist sehr einfach, wenn man einmal das Prinzip der Engpassoptimierung verinnerlicht hat. Das ganze System muss auf eine optimale Ausnutzung des Engpasses ausgerichtet werden, in diesem Fall auf die vorhandene Regalfläche.

Lösung Regalplatzoptimierung

Der Deckungsbeitrag pro Produktgruppe muss durch die Anzahl belegter Regalreihen geteilt werden, um den relativen Deckungsbeitrag pro Produktgruppe zu erhalten. Das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag >200 € wird erweitert und das Angebot von Produktgruppen mit einem relativen Deckungsbeitrag <200 reduziert.

Die entscheidende Kennzahl ist nicht der in Tabelle 1 angegebene Deckungsbeitrag pro Produktgruppe (Publikumszeitschriften, Fachzeitschriften usw.). Für eine Optimierung des Regals benötigen wir den Deckungsbeitrag pro Engpassbeanspruchung (relativer Deckungsbeitrag pro Regalreihe). Konkret fragen wir uns also nicht, wie viel Deckungsbeitrag die einzelnen Produktgruppen insgesamt erwirtschaften, sondern wie viel Deckungsbeitrag sie pro beanspruchten Regalfläche erwirtschaften. Dazu teilen wir den Deckungsbeitrag pro Produktgruppe einfach durch die Anzahl belegter Regalreihen und erhalten so den relativen Deckungsbeitrag. Wir alle kennen das Prinzip aus dem Online-Marketing, wenn wir mit Kennzahlen wie der Click-Through-Rate (CTR) arbeiten und eine Anzahl Klicks in ein Verhältnis zur Engpassbeanspruchung (Impression) setzen.

Relativer Deckungsbeitrag pro Produktgruppe

Im Schnitt erzielen die 10 Regalreihen einen Deckungsbeitrag in Höhe von 200 € (2.000 € DB : 10 Regale). Die Fachzeitschriften erzielen pro Regalreihe nur 150 EUR. Sie sind damit die unwirtschaftlichste Produktgruppe. Insgesamt erzielen sie nach den Publikumszeitschriften mit 450 EUR zwar den zweithöchsten Deckungsbeitrag. Allerdings belegen sie auch 3 Regalreihen und damit 30 Prozent des Engpasses. Sie erwirtschafte aber nur 22,5 Prozent des Deckungsbeitrages. Ein Teil dieses Regalplatzes könnte daher besser genutzt werden.

Die Comics erzielen insgesamt nur 300 EUR Deckungsbeitrag, aber sie belegen auch nur 1 Regalreihe. Sie sind mit einem relativen Deckungsbeitrag in Höhe von 300 EUR die wirtschaftlichste Produktgruppe.

Die Optimierung kann jetzt ganz einfach erfolgen. Das Angebot an allen Produktgruppen, die einen unterdurchschnittlichen relativen Deckungsbeitrag erwirtschaften (< 200 EUR), sollte reduziert werden zugunsten von Produktgruppen, die einen überdurchschnittlichen (> 200) relativen Deckungsbeitrag erzielen.

In unserem Beispiel sollte der Supermarkt-Manager also weniger Fachzeitschriften und weniger Zeitungen in das Regal stellen und den frei gewordenen Platz versuchsweise mit Comics und Publikumszeitschriften auffüllen. Eventuell lohnt es sich auch eine weitere Produktgruppe wie z.B. Taschenbücher anzubieten. Das langfristige Ziel ist den durchschnittlichen Deckungsbeitrag pro Regalreihe zu steigern.

Es gibt keine exakte Lösung, da der Grenznutzen der Produktgruppen unbekannt ist. Der Manager weiß nicht, ob er das Comic-Angebot um 10, 50 oder 100 Prozent steigern soll. Bekannt ist nur die Richtung. Es bleibt ihm nichts anderes übrig als sich durch Tests iterativ an die optimale Lösung heranzutasten. Nach der Umstellung des Angebots beginnt ein neuer Kreislauf mit neuen Daten.

In der Praxis sind diese Entscheidungsprozesse selbstverständlich komplexer, es liegen mehr Informationen, Daten und Optionen vor. Das Beispiel sollte aber bewusst einfach gehalten werden.

Wie lässt sich die Regalplatzoptimierung auf Google übertragen?

Theory of ConstraintsDas Prinzip der Engpassoptimierung, auch Theory of Constraints genannt, ist eine in der BWL weit verbreitete, praxistaugliche und erfolgreiche Methode. Sie wird nicht nur für die Verkaufsflächennutzung im Einzelhandel angewendet, sondern praktisch in der gesamten BWL (Produktion, Marketing, Supply-Chain-Management, Finanzen, Controlling, Projektmanagement usw.).

Die Abbildung des Trichtermodells rechts dient zur Illustration des Hauptsatzes der Theory-of-Constraints: „In jeder Wertschöpfungskette gibt es genau ein System, das die Leistungsfähigkeit des Ganzen bestimmt – ein eindeutiger Engpass“

Es wäre wenig überraschend, wenn auch Google das Rad nicht komplett neu erfindet und bei der Auswahl der Suchtreffer dieses grundsätzliche Prinzip anwendet. Es gibt einige Punkte, die dafür sprechen. Bevor wir uns dazu tiefergehende Gedanken machen, müssen wir kurz einen etwas größeren Bogen spannen und ein paar Informationen über die Google Suche und das Ranking zusammentragen.

Google kann nicht jeden Treffer für jede Suchanfrage einzeln bewerten

John Wiley, Lead Designer Google Search, sagte 2013, dass etwa 15 Prozent der täglichen Suchanfragen neu sind und noch nie zuvor an Google gestellt wurden. Das entspricht etwa 500 Millionen Suchanfragen pro Tag. Google hat in diesen Fällen schlicht und einfach keine Daten aus der Vergangenheit darüber, welche Treffer von den Nutzern für die spezifische Suchanfrage als gut empfunden werden und dem Ziel der Nutzerzufriedenheit, der Searcher Satisfaktion, am besten dienen.

Man kann nur erahnen, wie groß der Anteil Suchen ist, die zwar schon einmal durchgeführt wurden, aber so selten sind, dass Google über keinen ausreichend großen und aktuellen Datenpool für die Bewehrung einzelner Treffer verfügt. Ein Wert von 30–60 Prozent würde mich nicht überraschen.

Google kann zwar anhand einer OnPage-Analyse bestimmen, ob ein Treffer für eine bestimmte Suchphrase grundsätzlich als relevant erscheint, aber nicht beurteilen, ob der Treffer tatsächlich die Nutzer zufriedenstellt. Unter diesen Bedingungen ist Google dazu gezwungen weitere Signale auszuwerten, die eine möglichst gute Vorhersage erlauben, welche Qualität ein Treffer besitzt.

Links sind sehr wichtige Signale, haben aber ihre Grenzen

Nach der Auswahl aller relevanten Dokumente für eine bestimmte Suchanfrage beruht das Grundprinzip von Google auf dem PageRank-Algorithmus. Dabei handelt es sich um ein Verfahren eine Menge verlinkter Dokumente anhand ihrer Verlinkungs-Struktur zu bewerten. Jeder SEO weiß, wie wichtig Links auch heute noch für das Google Ranking sind.

Grundsätzlich funktioniert der PageRank-Algorithmus sehr gut und hat Google in kürzester Zeit zum Marktführer unter den Suchmaschinen werden lassen. Das Prinzip hat aber seine Grenzen.

Für einzelne Seiten liegen wenig Signale vor

Google kennt über 60 Billionen einzelne Seiten. Die deutliche Mehrzahl der Dokumente (URLs) im World Wide Web wird nicht von externen Websites verlinkt. Eine Domain wie ebay.de ist derzeit mir über 30 Mio. unterschiedlichen URLs im Google Index vertreten. Sicherlich besitzt nur ein relativ kleiner Bruchteil dieser URLs einen externen Link, zumal viele URLs nach Ablauf einer Auktion veraltet sind. Ähnliches trifft auf die meisten anderen Websites zu.

Daher muss Google im großen Umfang ebenfalls die internen Verlinkung einer Domain berücksichtigen, um Linkdaten zu jeder bekannten URL zu erhalten. Die interne Verlinkung lässt sich jedoch komplett vom Seitenbetreiber steuern und ist damit nur bedingt vertrauenswürdig.

Aber auch die externe Verlinkung wird seit Jahren durch bezahlte Links manipuliert und ist nur eingeschränkt vertrauenswürdig.

Google bewertet die Qualität ganzer Domains

Das Problem der mangelnden Daten zu jeder einzelnen URL kann Google abschwächen, indem die Qualität der dazugehörige Domain bewertet wird. Die Summe der Signale einer Domain inklusive aller URLs ergeben wesentlich mehr belastbare Daten zur Bewertung der Quelle.

Google Ranking
Folgerichtig spricht Google auch von „Website– und Seitenqualität“, wenn sie die Funktionsweise des Rankings erklären.

In SEO-Kreisen spricht man bei der Bewertung einer ganzen Domain durch Google auch von Domain Trust oder Domain Authority (Bewertung der Domain für ein bestimmtes Themengebiet wie z.B. „Gesundheit“ oder „Sport“).

Das grundsätzlich gleiche Problem trifft auch auf unseren Supermarkt-Manager zu. Er kann unmöglich jede einzelne Zeitschrift und jede einzelne Ausgabe testen und bewerten, um sein Sortiment zusammenzustellen. Zudem ändert sich die Qualität einzelner Produkte von Ausgabe zu Ausgabe. Er ist darauf angewiesen die Komplexität zu verringern, indem er anstelle von einzelnen Ausgaben z.B. Produktgruppen wie Publikumszeitschriften und Fachzeitschriften zusammenfasst, bewertet und deren Leistungsdaten miteinander vergleicht. Es sind beliebig weitere Dimensionen wie z.B. Preisgruppen und Verlage/Anbieter/Marken denkbar.

Google wertet zusätzlich das Nutzerverhalten aus

Es dürfte inzwischen in SEO-Kreisen unbestritten sein, dass Google nicht nur die Verlinkung auswertet, sondern in einer weiteren Stufe auch das Nutzerverhalten. Anhand der Linkdaten lässt sich ein erstes Set von relevanten und möglichst vertrauenswürdigen Treffern für die Top 10 zusammenstellen.

Deutlich bessere Suchergebnisse erhält Google, wenn auch die Interaktion der Nutzer mit den Suchergebnissen ausgewertet wird und zu einer Umsortierung der Suchergebnisse führen kann.

Es wäre nicht logisch und zielführend einen Treffer dauerhaft auf Position 1 anzuzeigen, wenn ein Treffer auf den Positionen 2–10 von den Nutzern beständig häufiger ausgewählt wird. Ebenso wäre es unlogisch eine Treffer dauerhaft in den Top 10 zu behalten, wenn er kaum von den Nutzern ausgewählt wird. Bei aktuellen Ereignissen und sogenannten Hot Topics sind seit Jahren historisch gewachsene Verlinkungen erst Recht kein brauchbares Signal. Man spricht in solchen Fällen auch von einem Reranking, also einer Neureihung der Suchergebnisse. Google hat dazu eine ganze Reihe von Patentschriften eingereicht, in denen sich Details zu den Überlegungen von Google nachlesen lassen.

Nutzersignale können Kriterien wie Content-Qualität, Website-Usability und Präferenzen (z.B. für Marken) berücksichtigen. Im Zweifel ist die „Abstimmung“ der Nutzer als wertvoller einzustufen, als das pure Vertrauen in Linkdaten. Gleichwohl sind die Linkdaten wichtig, damit eine Seite überhaupt bei der „Abstimmung“ zur Auswahl steht.

Welche Daten verwendet Google für die Auswertung des Nutzerverhaltens?

Es ist nicht bekannt welche Nutzerverhaltensdaten im einzelnen für das Ranking bzw. Reranking ausgewertet werden, wie Google die Searcher Satisfaction exakt definiert und wie einzelne Treffer aufgrund des Nutzerverhaltens bewertet werden. Denkbar sind Metriken, wie beispielsweise CTR, Clickstream-Daten, Verweildauer und Return-To-SERP-Rate. Die CTR wäre bei allen diesen Metriken zumindest der Ausgangspunkt.

Ebenfalls ist die Auswertung von Daten denkbar, die über den Chrome-Browser von Google gesammelt werden und praktisch für alle Domains zur Verfügung stehen. Weniger wahrscheinlich ist, dass Google Daten von Google Analytics auswertet. Zum einen wären die Analytics-Daten nur für Domains verfügbar, die auch tatsächlich Analytics verwenden. Laut den Daten von builtwith.com sind das nur 10 Prozent aller Websites, auch wenn bei den großen Websites der Anteil höher liegt.

Zum anderen hätte Google ein Glaubwürdigkeitsproblem, da offiziell immer verlautbart wird, dass die Analytics-Daten nicht für das Ranking ausgewertet werden. Der Chrome-Browser besitzt laut den Daten von StatCounter mittlerweile eine weltweiten Marktanteil von über 40 Prozent (Deutschland 26 Prozent). Damit dürften Nutzungsdaten zu praktisch jeder Website vorliegen. Als Datenquelle wäre er damit gegenüber Analytics die wesentlich besserer Alternative.

Entwicklung Marktanteile Web-Browser

Entwicklung Marktanteile Web-Browser. Inzwischen ist der Google Chrome Browser mit einem weltweiten Marktanteil von rund 40 Prozent Marktführer.

Zudem stehen Google selbstverständlich die Daten direkt aus der Google Suche zur Verfügung. In der Google Search Console zeigt Google die CTR zu einzelnen Suchanfragen und URLs an. Diese Daten werden also garantiert gemessen und ausgewertet.

Gehen wir für unser Beispiel vereinfacht davon aus, dass Google den „Zufriedenheitsbeitrag“ eines einzelnen Treffers anhand der CTR bewertet, auch wenn die Bewertung in der Realität sicherlich komplexer und ausgeklügelter verlaufen wird.

Beispiel CTR-Daten in der Google Search Console

Beispiel CTR-Daten in der Google Search Console

Die CTR wäre bei der Google-Suche in unserem vereinfachten Beispiel damit das Äquivalent zum relativen Deckungsbeitrag aus dem Supermarktbeispiel. Die CTR berücksichtigt bereits die Engpassbeanspruchung. Der Wert für die Anzahl Klicks wird im Verhältnis zu den Impressions (Engpass) betrachtet.

Grenzen der CTR-Daten

Wie weiter oben bereits beschrieben, liegen bei einer Vielzahl von Seiten nur wenige seitenindividuelle Daten vor. Das trifft nicht nur auf Linkdaten zu. Selbstverständlich betrifft es auch die CTR-Daten.

Man kann das sehr schön sehen, wenn man sich die CTR-Daten in der Google Search Console anschaut. Man kommt bei der Auflistung der Keywords und der einzelnen URLs relativ schnell an den Punkt, an dem Google in der Spalte „Klicks“ Werte unter 10 anzeigt.

Bei dem weiter oben dargestellten Daten einer großen Domain mit über 34 Mio. SERP-Impressions und mehr als 2 Mio. Klicks pro Monat, die ich mir für diesen Beitrag angeschaut habe, lagen die Werte von Suchanfragen mit weniger als 10 Klicks pro Monat bei etwa 50 Prozent. Allerdings zeigt Google in der Auswertung auch nur die populärsten Suchanfragen an. In dem Fall wurden nur 6 Mio. von 34 Mio. SERP-Impressions angezeigt, also rund 18 Prozent. Bei den meisten Suchanfragen besitzt Google also keine aussagekräftigen Daten zu Treffern einer einzelnen Domain.

Insgesamt wird unabhängig vom exakten Wert sehr deutlich, dass die CTR-Daten nur für relativ populäre Suchanfragen halbwegs aktuelle Daten zu einzelnen Treffern liefern können. Sie stoßen wie die Linkdaten bei einer Vielzahl von Suchanfragen schnell an ihre Grenzen.

Wie bewertet Google die CTR-Daten der gesamten Domain?

Es wäre logisch und sinnvoll, wenn Google die CTR-Daten der gesamten Domain berücksichtigt (bzw. die ausgeklügeltere, aber uns unbekannte Definition von „Searcher Satisfaction“). Diese Kennzahl könnte einen Bestandteil einer übergeordneten Metrik „Domain Trust“ bilden.

Der dahinter liegende Gedanke ist sehr einfach. Wenn eine Domain insgesamt überdurchschnittlich viel Searcher Satisfaction erzeugt, kann die Searcher Satisfaction über alle Google-Suchen weiter gesteigert werden, wenn relevante Treffer der Domain bei noch mehr Suchen noch populärer angezeigt werden.

Die Gründe, warum Nutzer die Treffer einer bestimmten Domain bei ähnlicher Relevanz gegenüber anderen Domains als zufriedenstellender empfinden, können mannigfaltig sein. Domainname, Markenpräferenzen, Ladezeiten, Content-Qualität, Sprachstil, Usability, (Un-)Aufdringlichkeit der Werbeeinbindungen, Qualität der Snippet-Optimierung und empfundene Vertrauenswürdigkeit sind hier nur einige Kriterien, die dabei in Frage kommen und von den Nutzern bewusst oder unbewusst durch ihr Verhalten bewertet werden.

Folgt man dieser Überlegung, wäre es im Sinne der Engpassoptimierung folgerichtig einer Domain mit einer überdurchschnittlich guten CTR zukünftig mehr Sichtbarkeit (SERP-Impressions) in den SERPs einzuräumen. Umgekehrt würde man die SERP-Impressions einer Domain mit unterdurchschnittlichen CTR-Daten so lange reduzieren, bis sie durchschnittliche Werte erreicht.

Diese Strategie wäre geeignet die Searcher Satisfaction insgesamt zu steigern, so wie der Supermarkt-Manager aus unserem Beispiel den Deckungsbeitrag seines Regals steigern kann, indem er den Anteil überdurchschnittlich wirtschaftlicher Produktgruppen erhöht.

Die Sichtbarkeit von Domains entwickelt sich in Trends

Die Sichtbarkeit einer Domain verläuft nicht generell linear, sondern ist ständigen Schwankungen mit Aufs und Abs unterworfen. Auf diese Weise bilden sich recht eindeutige Gipfel und Täler im Sichtbarkeitsindex. Die Richtung der Gipfel und Täler definiert einen Trend. Von einem Aufwärtstrend spricht man, wenn eine Serie sukzessiv höherer Gipfel und Täler zu beobachten ist. Umgekehrt liegt bei einer Serie von sukzessiv niedrigeren Gipfeln und Tälern ein Abwärtstrend vor. Eine Abfolge von gleich hohen Gipfeln und Tälern definiert hingegen einen seitwärts gerichteten Trend. Eine ausführliche Beschreibung der Trendanalyse erhält man in unserem kostenlosen Buch „SEO-Analysen“.

Die folgende Grafik zeigt als Beispiel den Aufwärtstrend von apotheken-umschau.de und den Abwärtstrend von netdoktor.de über einen langen Zeitraum von mehreren Jahren.

Beispiele Trends in der Entwicklung der Sichtbarkeit

Während der eine Wettbewerber über eine sehr langen Zeitraum innerhalb des Trendkanals ständig Sichtbarkeit gewinnt, verliert der andere Wettbewerber zunehmend an Sichtbarkeit bei Google.

Das vorgestellte Modell der „Regalplatzoptimierung“ wäre geeignet solche Trend zu erklären. Eine Domain mit überdurchschnittlich guten Werten für die Searcher Satisfaction erhält schrittweise immer mehr Sichtbarkeit. Sie darf den Engpass SERP-Impressions stärker auslasten. Dieses geschieht so lange, bis der Grenznutzen weiterer Impressions der Domain in den Suchergebnissen immer weiter abnimmt und die Domain insgesamt nur noch durchschnittliche Werte erreicht.

Erzielt eine Domain unterdurchschnittliche Werte, wird ihr Sichtbarkeit entzogen. Sie darf den Engpass nur noch in einem geringeren Umfang beanspruchen.

Zusätzlich bestimmen selbstverständlich weitere Faktoren wie Linkentwicklung, Contentaufbau, fortschreitende SEO-Optimierung, Umgestaltungen der Website, Google-Updates usw. die Entwicklung der Sichtbarkeit. Das Modell der „Regalplatzoptimierung“ würde aber sehr gut erklären, warum sich bei so vielen Domains die Sichtbarkeit oftmals über einen langen Zeitraum in vielen kleinen Schritten anstatt in wenigen Stufen in eine bestimmte Richtung entwickelt.

Was bedeutet das für die Praxis?

Um es ganz klar zu sagen, das Modell der „Ragalplatzoptimierung“ bei Google ist nur eine theoretische Überlegung und an keiner Stelle belegt. Es ist aber sehr hilfreich, wenn man ein funktionierendes Modell der Mechanismen des Google-Algorythmus im Hinterkopf hat, um einzelne Entwicklungen zu verstehen. Hält man das Modell für plausibel und folgt dem Gedanken, ergeben sich daraus insbesondere zwei Stellschrauben für die Praxis:

  1. Optimierung der Leistung: Alle erfolgreichen Maßnahmen zur Steigerung der Searcher Satisfaction einer bestimmten Domain steigern ihre Sichtbarkeit in Form von mehr und besseren Rankings.
  2. Optimierung der Engpassbeanspruchung: Indexierte Inhalte, die nur eine unterdurchschnittliche Performance bei der Searcher Satisfaction erzielen, schmälern die Gesamtperformance der Domain und reduzieren damit die zukünftige Sichtbarkeit der Domain in den Suchergebnissen von Google. Daher sollten Seiten mit einer schlechten Performance Google erst gar nicht angeboten werden (<meta name=“robots“ content=“noindex“>). Der Engpass „Impressions“ in den Suchergebnissen bei Google sollte möglichst nur von Seiten mit einer guten Performance beansprucht werden, um von Google zukünftig einen höheren Anteil der Engpassbeanspruchung zugewiesen zu bekommen.

Während über die Optimierung der Leistung ständig geschrieben und geredet wird, bleibt die Optimierung der Engpassbeanspruchung oftmals unbeachtet. Konkret geht es darum, welche Inhalte man von Google indexieren lässt und welche nicht. Viele erfahrene SEOs berichten von ihren Beobachtungen, dass es sich sehr positiv auf die Rankings auswirkt, wenn man nur Seiten mit tatsächlich wertvollem und einzigartigem Content indexieren lässt und weniger wertvolle Seiten deindexiert. Auch diese Beobachtungen ließen sich mit dem Modell der „Ragalplatzoptimierung“ erklären.

9 Tipps für die Optimierung der Engpassbeanspruchung in der Praxis

Zum Schluss möchte ich noch 9 Tipps für die Optimierung der Engpassbeanspruchung „SERP-Impressions“ auf den Weg geben.

  1. Prüfe regelmäßig die CTR-Daten in der Google Search Console. Man sollte in Bezug auf die CTR die Stärken und Schwächen der Domain kennen.
  2. Sind die Stärken erst einmal bekannt, produziere mehr Inhaltsseiten von dieser Art.
  3. Überlege bei Suchanfragen und Seiten mit schlechten CTR-Werten, ob die Seite auf die richtige Suchphrase optimiert wurde. Eventuell beinhaltet eine Seite tollen Content, wird aber aufgrund falscher Signale einfach nur bei den falschen Suchanfragen angezeigt. Schau Dir die Treffer (Überschrift, Description, URL) und Inhalte der anderen Seiten an, die für das Keyword in den Top-10 stehen und überprüfe, ob sie die Suchanfrage eventuell besser beantworten. Versetze Dich in die Lage des Suchenden und versuche seine Bedürfnisse zu verstehen.
  4. Setze Seiten mit schlechten CTR-Daten und Inhalten ohne nennenswerten Mehrwert auf NoIndex, um die restlichen Seiten zu stärken.
  5. Noch besser ist es, wenn ganze Gruppen von Seiten identifiziert werden, die man bedenkenlos auf NoIndex setzen kann. Müssen bei einem Shop wirklich alle Seiten mit Sortier- und Filterergebnissen des Angebots in den Index? Bei zalando.de darf Google z.B. die Seite „Herren Business Schuhe“ indexieren und auch die gefilterten Ergebnisse „Schwarze Herren Business Schuhe“. Die Seiten mit den gefilterten Ergebnissen für „Schwarze Herren Business Schuhe aus Leder“ stehen jedoch auf NoIndex, da es sich um eine weniger explizit nachgefragte Eigenschaft handelt und die Trennschärfe zu den beiden anderen Seiten verloren geht. Macht es bei einem Branchenbuch Sinn alle 3.500 Branchenkategorien auch bei einem kleinen Ort indexieren zu lassen, bei dem es weniger Einwohner als Branchenkategorien gibt? Gehören Seiten mit veralteten Inhalten wie z.B. abgelaufenen Kleinanzeigen wirklich in den Index? Eine klare und sachlogische Trennlinie für die Indexierung ist sehr hilfreich,, um den Engpass nicht unnötig mit weniger wertvollen Inhalten zu beanspruchen.
  6. User-Generated-Content (UGC) ist günstig und daher eine tolle Sache, Qualität und Mehrwert sind jedoch meist sehr durchwachsen. Daher erhalten z.B. Foren und Frage-und-Antwort-Portale im Durchschnitt eher schlechte Nutzersignale. Hier sollte ein wirksames System eingeführt werden, um nur Seiten mit wertvollen Inhalten indexieren zu lassen. Die Auswahl kann redaktionell erfolgen oder automatisch z.B. durch ein Bewertungssystem, bei dem die Nutzer über die Qualität einzelner Inhalte abstimmen können.
  7. Wie immer Google auch die Searcher Satisfaction definiert, die CTR-Werte sind wahrscheinlich ein Teil davon. Die CTR lässt sich durch eine zielgerichtete Gestaltung der Treffer (Titel, Description, URL) steigern. Ein Treffer sollte Relevanz, Mehrwert und eine Handlungsaufforderung kommunizieren. Berücksichtige bei der Gestaltung der Meta-Description das AIDA-Prinzip
  8. Behalte die Anzahl indexierter Seiten im Auge und finde die Ursachen für stärkeren Veränderungen heraus, um eventuell gegensteuern zu können.
  9. Vermeide Duplicate Content.

Dieser Beitrag hat 28 Kommentare

 
  12. Februar 2014, 09:41

Hallo Hanns,

habe es jetzt nur überfliegen können, aber ich bin fest der Überzeugung, dass Google die 10er Unterteilung braucht, um die besucherspezifischen Daten (CTR usw.) eben doch von Ergebnisseite zu Ergebnisseite unterschiedlich bewerten zu können. Matt Cutts hatte ja neulich das Gegenteil behauptet, wobei es doch eigentlich klar ist, dass ein Besucher der zweiten Seite wahrscheinlich schon genervt ist und deswegen anders klickt einfach!?

Womöglich bietet Google in Chrome irgendwann die `fließenden´ Serps an, dann mit Mousetracking oder so. So, nun aber erst mal lesen genau, ist ja voll lang der Artikel #lol

Grüße

Gretus

 
  12. Februar 2014, 10:33

Hallo Hanns,

Danke für den ausführlichen Artikel. Wenn du schreibst, dass die CTR als Faktor bei der OnPage-Optimierung berücksichtigt werden sollte und empfiehlst, Seiten mit schlechten CTR zu optimieren oder auszuschließen, dann mal eine kleine Sistrix-Frage: Könntet ihr die Daten (vergleichbar mit der Google Analytics Schnittstelle) nicht im Sistrix importieren?

Keine Ahnung, ob die API der Google Webmaster-Tools das hergibt…

Viele Grüße,

Matthias

 
  12. Februar 2014, 10:50

cg., Berlin, 12. Februar 2014. Zum Beitrag von Hanns Kronenberg: Exzellent vorbildlich und beispielhaft geschriebener Fachartikel, wie man seine eigene Internetseite am Beispiel einer Zeitschriftenauslage optimieren sollte.

Christian Geng
Redaktion Frühnachrichten

 
Hanns Kronenberg
  12. Februar 2014, 11:00

@Matthias: Ein guter Vorschlag, wir werden das prüfen.

 
  12. Februar 2014, 11:27

@Matthias, Hanns: Lustigerweise hatten wir das gestern beim Mittagessen auch diskutiert. Derzeit hacken wir uns das selbst grob zusammen. Die API der Webmastertools gibt das nicht her. Aber Google hat ein Skript veröffentlicht, um sich die Daten selbst aus dem Interface zu scrapen. *doh*

 

[…] Hanns hat gerade einen spannenden Artikel veröffentlicht, in dem es um “Website-weite” Faktoren geht. […]

 
Andre
  12. Februar 2014, 15:33

Die Darstellung der Beiträge auf mobilen Endgeräten ist unzumutbar. Absprung!

 
  12. Februar 2014, 16:05

Der Artikel ist wirklich aufschlussreich und verständlich. Erneut gibt Hanns wichtige Hinweise zur Optimierung der eigenen Seiten für Google. Danke für die Bestätigung meiner Vermutung.

Andre seinem Hinweis kann ich nur zustimmen. Macht die Seite doch bitte endlich mal responsive 😉

Gruß Thomas

 
  12. Februar 2014, 16:25

Top, wenn man „out of the box thinking“ so perfekt auf den Punkt bringt!

 
nk
  12. Februar 2014, 20:54

„Warum zeigt Google nicht einfach mehr als 10 Treffer an?“

Weil der Autor seine Googlesuche nicht entsprechend konfiguriert hat? Also meine Google-Page zeigt 100 Ergebnisse und keine „Sofortergebnisse“ und von langsam ist da überhaupt nichts zu spüren. Wohlgemerkt ohne super-duper-fast-DSL. Das Argument halte ich für vorgeschoben.

 
Hanns Kronenberg
  13. Februar 2014, 06:27

@nk: Das subjektive Empfinden eines einzelnen Nutzers ist nicht sehr aussagekräftig. Die Zahlen zu dem Experiment von Google findest Du hier auf Seite 7 von 28 http://assets.en.oreilly.com/1/event/29/Keynote%20Presentation%202.pdf

 
Robert
  13. Februar 2014, 07:44

Klasse Artikel Hanns!

 
Hanns Kronenberg
  13. Februar 2014, 09:09

@Andre und @Thomas Frohnert: Sorry, da war eine Klasse im Blog zerschossen. Jetzt sollte es auch auf mobilen Geräten gut zu lesen sein. Bitte einmal ausprobieren.

 
  13. Februar 2014, 18:24

Warum lädt Google nicht einfach weiter Ergebnisse, wenn man runterscrollt? Das habe ich ja sogar auf meinem Blog…

 

[…] Kronenberg hat vorgestern einen sehr lesenswerten Artikel mit dem Titel “Regalplatzoptimierung bei Google“ im Sistrix-Blog veröffentlicht. Hanns beschreibt an Hand des betriebswirtschaftlichen […]

 

[…] Hanns Kronenberg hat einen spannenden Beitrag mit dem Titel „Regalplatzoptimierung bei Google“ am vergangenen Mittwoch auf dem Sistrix-Blog veröffentlicht. Er widmet sich darin den Gemeinsamkeiten von Googles Suchergebnisseiten und Regalen eines Supermarktes. Der Beitrag basiert auf einer theoretischen Überlegung, die so in der Praxis keinesfalls belegt ist. Dennoch hilft diese Herangehensweise dabei, das komplexe System des Google-Algorithmus und die daraus folgenden Entwicklungen besser zu verstehen. Diese sind zum einen die Leistungsoptimierung und zum anderen die Engpassungsbeanspruchung. Einfach ausgedrückt: Seiten, die eine schlechte Performance haben, sollten Google auch nicht angeboten werden. Hierzu gibt er neun Handlungsempfehlungen, die die Optimierung hinsichtlich der SERPs-Impressionen begünstigen sollen. Mehr dazu sowie Argumentationen warum der Suchmaschinenanbieter nicht einfach mehr als nur zehn Suchergebnisse anzeigt, findet Ihr im folgenden Beitrag. Bringt ein wenig Zeit mit für den ausführlichen Artikel: Regalplatzoptimierung bei Google. […]

 
  14. Februar 2014, 09:40

Sehr interessanter Artikel, Hanns!
Zum Beispiel apotheken-umschau.de vs. netdoktor.de ist noch zu sagen, daß der Abstieg von netdoktor.de bekannterweise ruckartig am Panda-DE-Tag 8.8.2011 begann.
An diesem Tag hat Google also plötzlich andere/strengere Maßstäbe bei der quantitativen Beurteilung der Content-Qualität angelegt. Davon hat sich netdoktor.de nie wieder (ganz) erholt.

Aber dann eine (teilweise) plötzliche Heilung an einem Tag Mitte 2013, was m.E. nicht ganz zu Deiner CTR-Theorie passt: Der Content (und die CTR) war ja am 22.7.2013 nicht plötzlich viel besser… sondern Google hat an einer Schraube gedreht und offenbar manche Gesundheits-Domains (wie auch onmeda.de) zugunsten von anderen (kleineren) Domains „begnadigt“.

Es fliesst m.E. doch eine kräftige Portion manuelle Google-Willkür (oder Zufall) bei den Algorithmus-Updates ein…

 
  14. Februar 2014, 11:23

Was ich in dem Zug noch spannend finde, ist das eigentliche Beispiel mit dem Zeitschriftenregal. Ich würde sogar behaupten, dass hier nicht mal die Anzahl der Reihen entscheidend ist. Denn es gibt eindeutig einen Platz, der klar im Fokus ist und wohl für den meisten Umsatz sorgt: http://sw.de/wp-content/uploads/2014/02/zeitschriftenregal-eyetracking-analyse.jpg

Auch solche Aufmerksamkeits-Gesichtspunkte sind natürlich für Google relevant, warum sonst wird ständig am Layout der SERPs und Ads gefeilt.

 
  14. Februar 2014, 12:30

[…] Was haben ein Zeitschriftenregal im Supermarkt und die Google-SERPs gemeinsam? In beiden Fällen gibt es nur begrenzten Platz für das Angebot bzw. die Suchergebnisse. Warum Google nur zehn Suchergebnisse pro Seite anzeigt, wie die Suchmaschine entscheidet, welche Seiten zu einer Suchanfrage ausgespielt werden und warum man sich gut überlegen sollte, welche Inhalte man tatsächlich indexieren lässt, erfahrt ihr im Blog von Sistrix. […]

 
  15. Februar 2014, 08:43

Und was ist mit den Kunden, die die Fachzeitschriften brauchen, die jetzt nicht mehr im Regal stehen.

Der Kunde wird gezwungen ein anderes Geschäft aufzusuchen und springt dadurch vielleicht sogar vollständig ab. Daher gehören auch Produkte ins Regal mit denen man Verlust macht.

 
  17. Februar 2014, 08:58

[…] Regalplatzoptimierung bei Google – Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam? Sie dienen einem bestimmten Ziel und sie verfügen nur über ein begrenztes Platzangebot (Engpass). Weiter… […]

 
  18. Februar 2014, 14:44

Danke Hanns für diesen wertvollen Artikel. Auch ein toller Vergleich mit den Zeitschriften.

 
Christian
  18. Februar 2014, 19:11

Tolle Idee und gut geschrieben 🙂

 
Thomas
  22. Februar 2014, 09:40

Hallo Hanns,

danke für den Artikel. Soll man dann auch gleich anfangen, Seiten wir Kontakt, Impressum, AGB etc. zu deindexieren, die vor allem ja auch meist in der 2. Ebene liegen? Diese Frage war für mich nie ganz geklärt …

VG,
Thomas

 
  27. Februar 2014, 19:49

Danke für die ausführliche Darstellung. Bleibt abzuwarten, wie hier die weitere Entwicklung verläuft, wenn Google das Thema ausbaut.

 

[…] #SEO – Hanns Kronenberg überträgt das betriebswirtschaftliche Konzept der Regalplatzoptimierung auf die Google Suchergebnisse und erklärt, warum es unter Umständen manchmal besser sein kann, Seiten mit einer schlechten Performance gar nicht erst von Google indexieren zu lassen: Jetzt lesen! » http://bit.ly/1dksGvf […]

 
  11. März 2014, 07:26

Lieber Hanns,

Gratulation zu einem hervorragenden Artikel. Sehr wertvoll finde ich die Statistiken und verlinkten Patente, die ich für einen anstehenden SEO-Vortrag verwerten werde. Sorry für alle Kommentare, die ich nicht gelesen habe. Für den Artikel habe ich glatte 18 Minuten gebraucht. Bin ich langsam geworden, oder ist der einfach so lange?! 🙂

Liebe Grüße aus Stuttgart,

Tobi

 

[…] Interessante Analyse der Erstehung der SERPs anhand der Verteilung von Zeitschriften in einem Regal im stationären Handel im Blog von Sistrix. […]

 

Kommentare geschlossen

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.