SISTRIX Sichtbarkeitsindex

· 13. April 2009 · 14 Kommentare
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Da ich ja bereits einige Diagramme mit dem SISTRIX Sichtbarkeitsindex hier im Blog genutzt haben (im letzten Posting beispielsweise) und auch der monatliche IndexWatch auf diesen Daten basiert, möchte ich ein paar Worte zu diesem Wert, den Ideen dahinter und dem Wege der Erstellung schreiben, so dass die Angaben transparenter werden.

Grundidee war, dass das reine Sammeln und Darstellen einiger Keyword-Positionen in der Regel kein realistisches Bild über den Erfolg oder Misserfolg einer Domain den in den (Google)-Serps bieten kann. Entweder ist die Zahl der Keywords, die man beobachtet zu gering oder – und das ist in meinen Augen weit häufiger der Fall – werden „falsche“ Keywords eingepflegt: der Seitenbetreiber hat andere Vorstellungen von den Suchbegriffen, als die Suchenden und so wird am „Markt vorbei“ beobachtet.

Um dieses Problem zu lösen, war die Überlegung, eine (größere) Anzahl von Keywords regelmäßig zu beobachten und aus den Ergebnissen einen Indexwert zu bilden. Für den SISTRIX Sichtbarkeitsindex nutzen wir dafür eine Keywordbasis von einer viertelmillionen Keywords mit den jeweils ersten 100 Ergebnissen – also 25 Millionen Datenpunkte. Die Keywords sind so ausgewählt, dass sie einen guten Durchschnitt über das Suchverhalten in Deutschland bilden: die großen „Blockbuster“ wie ‚kredit‘ oder ‚immobilien‘ sind ebenso dabei, wie Suchbegriffe aus dem (extremen) Longtail und alles zwischen diesen beiden Extremen. Ein kleiner Teil der Keywords wird regelmäßig anhand aktueller Trends und Ereigbnisse bestimmt – so werden dann auch zeitweise sehr trafficstarke Suchen wie ‚Wahlen USA‘ abgebildet.

Je nach erwarteter Klickrate auf den unterschiedlichen Positionen (hier wird zwischen den Keywords differenziert, da Navigationssuchen wie ‚ebay‘ auf der ersten Position eine deutlich höhere Klickrate als beispielsweise informationsgetriebene Suchen haben) und Suchvolumen auf diesem Keyword wird dann für jeden der 25 Millionen Datenpunkt ein gewichteter Wert gebildet. Die Summe dieser Werte ergibt schliesslich den SISTRIX Sichtbarkeitsindex. Wir hatten überlegt, weitere Werte wie beispielsweise den Klickpreis des Keywords im SEM-Bereich ebenfalls in den Indexwert einfließen zu lassen, haben nach Versuchen allerdings davon abgesehen, da diese Werte zum einen nicht sauber erhoben werden können und sie zum anderen die Aussagekraft des resultierenden Indexwertes in eine (häufig ungewollte) Richtung verschiebt.

Das Schöne am SISTRIX Sichtbarkeitsindex ist nun, dass er mit einem Blick ermöglicht, den Erfolg einer Domain (oder Subdomain) in den SERPs zu beurteilen sowie die Entwicklung (wir erheben die Daten mittlerweile seit gut über einem Jahr) zu beobachten. Zur Verdeutlichung, hier einige Beispiele: Yigg verhaut den Relaunch, Webnews hat kurzzeitig ein Duplicate-Content-Problem, kriegt dies aber wieder in den Griff (Diagramm). Die „Personensuchmaschine“ Yasni.de startet mit einigem zeitlichen Vorsprung, der Konkurrent 123People.de kann in den letzten Monaten und Wochen allerdings stärker wachsen und hat Yasni in der Sichtbarkeit mittlerweile überholt (Diagramm). Beim Start der SISTRIX Toolbox hatte ich vergessen, große Teile der Subdomain tools.sistrix.de für Suchmaschinen zu sperren – Google war schnell, hat mir nach Indexierung auch reichlich Traffic gebracht aber ich habe die Seite dann doch aus dem Index geworfen (Diagramm). Die Anwendungsmöglichkeiten dieses Indexwertes sind vielfältig und ich habe auch schon einige Ideen im Hinterkopf, die ich in den kommenden Wochen realisieren werde.

Ähnliche Beiträge

Wie große Webseiten aus den SERPs verschwinden

In den letzten Wochen und Monaten haben zwei, in den SERPs zuvor recht präsente Projekte den Betrieb eingestellt: lycos.de und lexikon.meyers.de. Mich hat nun interessiert, wie schnell Google bei so umfangreichen Seiten reagiert und die SERPs entsprechend anpast. Bei Lyocs.de hat man alle Inhalte von www.lycos.de entfernt und durch eine […]

Johannes Beus
13. April 2009
IndexWatch 03/2009

Kinder, wie die Zeit vergeht. Der Monat ist mal wieder rum, die aktuellen IndexWatch-Zahlen liegen also vor. Los geht es wie üblich mit den Gewinnern des vergangenen Monats: Gewinner # Domain Veränderung 1 karstadt-reisen.de +1.000% 2 golocal.de +922% 3 kalaydo.de +221% 4 telewebber.de +210% 5 youbizz.de +146% 6 scinexx.de +130% […]

Johannes Beus
13. April 2009
Wie gehen Suchmaschinen mit XML-Sitemaps um?

Seit sich Google, Yahoo und Microsoft 2006 auf das XML-Sitemap-Format geeinigt haben, gibt es regelmäßig Diskussionen über den (richtigen) Einsatz dieser Möglichkeit. Da eine aktuelle Veröffentlichung eines Google-Mitarbeiters in das Thema etwas Klarheit bringen kann, möchte ich sie hier zusammenfassen. In „Sitemaps: Above and Beyond the Crawl of Duty“ stellen […]

Johannes Beus
13. April 2009

Kommentare

dreisn20   
13. April 2009, 20:03

Eine Batch-Abfrage von URLs (z.B. mal flott alle eigenen Domains überprüfen, evtl. praktischer als über Dashboard) oder evtl. sogar als externe Anzeige in Form einer Extension (Firefox) wäre hier sehr wünschenswert, um die nette Anzeige noch effektiver zur raschen Überprüfung von Filtern und Co zu nützen.

Bin gespannt auf deine Ideen und was realisiert wird 🙂

Johannes   
13. April 2009, 21:05

dreisn20, die Toolbar-Geschichte ist in der Überlegung, Batch-Abfrage hört sich spannend ab, mach ich mir Gedanken zu.

Stefan   
13. April 2009, 21:20

Johannes,

vielleicht hab ich gerade einen Knoten im Gehirn, aber beim Index frage ich mich: Wie ist die Aussagekraft zu bewerten, wenn eine Seite/Portal wasauchimmer monothematisch ist. Muss ein Hasenzüchter-Portal z.B. gegen welt.de „anstinken“. Mir fehlt da gerade etwas die Erleuchtung…
Wenn das Ziel Monetarisierung heißt und ich alle Vermarktungskanäle (eCommerce lassse ich außen vor) betrachte, würde mich ein Benchmark der Branche/des Themenumfeldes mehr interessieren, als der Gesamtindex.
Wie gesagt: vielleicht hab ich grade nen Knoten 🙂

Johannes   
13. April 2009, 22:19

Stefan, du kannst Welt.de in absoluten Werten natürlich nicht mit dem „Hasenzüchter-Portal“ vergleichen – wie auch. Möglich ist es, die relativen Veränderungen zu vergleichen. Also beide Werte zu einem Zeitpunkt auf „100%“ zu setzen und die Kurven so zu vergleich. Wenn man das (wieso auch immer) denn möchte 🙂

dreisn20   
14. April 2009, 09:02

„Benchmark“ der Branche ist doch relativ einfach möglich, in dem man sich die jeweiligen Top-Konkurrenten in das Dashboard packt, oder? 🙂

Eric   
14. April 2009, 10:11

Wie oft werden die rankings abgefragt? Täglich? Wöchentlich?

netzhaeuter   
14. April 2009, 13:59

@sistrix Wie entsteht die „Gewichtung“ für die 250.000 Keywords? Von Hand? http://is.gd/saxX Nice Post, bringt Licht ins Dunkel

netzhaeuter   
14. April 2009, 13:59

@sistrix Wie entsteht die „Gewichtung“ für die 250.000 Keywords? Von Hand? http://is.gd/saxX Nice Post, bringt Licht ins Dunkel

Ronald   
15. April 2009, 09:56

Ich wollte mal höflichst darauf hinweisen, dass es den Beiträgen öfters an inhaltlicher Tiefe mangelt. Man lernt nicht wirklich was Neues. So würde mich beispielsweise interessieren, wie man es technisch handhabt, eine viertelmillion Keywords bei Google abzurufen, ohne von Google gekickt zu werden. Wenn ich mit meiner (einfachen) Monitoring-Software mehr als drei Abfragen gleichzeitig mache, kommt gleich die „Spezialseite“ (Stichwort: „Ihre Suchanfrage ähnelt automatisierten … usw“).

Gruß

Johannes   
15. April 2009, 10:02

Eric, wöchentlich

Ronald, tja, was soll ich zu dem Vorwurf mit der inhaltlichen Tiefe groß schreiben? Mach‘ doch selber ein Blog auf und vermittel uns allen da mehr inhaltliche Tiefe. Dass dich das Vorgehen interessiert, kann ich verstehen, du musst aber auch verstehen, dass ich zu den genauen Vorgehensweisen nichts schreiben werde, da dies ich mir dieses Wissen über längere Zeit (hart) erarbeitet habe.

specialFX   
16. April 2009, 14:06

Ich finde die Kritik ein wenig überzogen – oder die Erwartungen sind unerfüllbar. Der SI ist m.E. derzeit der einfachste und beste Seismograph im Netz über Sichtbarkeit in den SERPs. Auch wenn klar ist, dass der Long Tail darin niemals vollständig abgebildet werden kann – wie auch?? Bei 20-25% NEUEN Suchanfragen (lt. Udi Manber, 2007) an Google und bei steigender Länge der Suchphrasen (Entwicklung 2007:1,7 Wörter/Query => auf 2008:2,2)- kann das gar nicht gehen. Selbst 4,5,6 und 7-Wörter Suchanfragen steigen messbar an. Folglich werden Nischenthemen immer niedriger im SI repräsentiert sein als eine große News-Plattform. Bei 250.000 Begriffen können extreme Long Tail – Nischenbegriffe nur beispielhaft vertreten sein. Kleine Websites mit spezifischen Themen, aber immerhin paar hundert Besuchern / Tag schneiden damit im SI zu „klein“ ab, weil ihre Nische natürlich nicht vollständig abgedeckt werden kann. Auch große Seiten mit Branchenfokus, die im Long Tail sehr gut ranken geben im SI teilweise ein wesentlich schlechteres Bild ab als die Google-Referrer in deren Webstatistik. Insofern ist ein „Benchmark“ auch immer nur begrenz aussagekräftig, zumindest muss man dann den Index Verlauf mit hinzuziehen. Dennoch – ein Klasse Tool, das wertvolle Anhaltspunkte gibt, die man bisher nicht im Kiosk an der Ecke findet!

Mich würde noch interessieren: ist der SI „selbstlernend“?
* wird einen KW / eine Domain in der Toolbox gesucht, wird es dann automatisch in den SI der Folgewoche mit aufgenommen?
* Werden die „verwandten Suchvorgänge“ am Ende der SERPs mit aufgenommen?
* werden die aktuellen „Hot Trend“ Keywords laufen mit aufgenommen (gibt’s die überhaupt schon für DE :-/) ?

das würde ein Wachstum des KW Stamms zumindest teilweise beschleunigen im Sinne einer Anpassung an die User des Tools und die Nachfrage.

Johannes   
27. April 2009, 19:14

specialFX, er ist insofern selbstlernend, als das ein Teil der Keywords jeweils aus aktuellen Suchen gewonnen wird – wie jetzt beispielsweise „Schweinegrippe“. Keywords, die in der Toolbar gesucht werden, werden nicht automatisch aufgenommen, da dies ja dazu führen würde, dass man den Wert schnell verfälschen kann.

Thomas   
4. April 2011, 13:37

Hallo

Interessanter Beitrag und Gute Kommentare

Sam Gooch   
18. Mai 2012, 14:20

Hi,

Is the sistrix visibility index purely based on organic visibility or does it also incorporate other search signals such as adwords?

Thanks,

Sam

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.