Schöne neue Signal-Welt

· 29. Februar 2012 · 17 Kommentare
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Gerade haben wir uns daran gewöhnt, dass SEO neben der obligatorischen Auflistung aller Meta-Keywords auch noch aus Linkbuilding besteht, dreht sich die Welt weiter und Signale wie das Benutzerverhalten und Social-Media-Daten erobern einen Spitzenplatz in der öffentlichen Wahrnehmung. Als wäre das noch nicht genug, hat Google in Form monatlicher Blogpostings eine unvergleichbare Nebelmaschine geschaffen und schränkt die Sicht auf das Wesentliche damit regelmäßig erneut ein. Daran entspannen sich interessante Diskussionen in zahlreichen Blogs und Netzwerken. Mit diesem Posting möchte ich der Diskussion ein paar Punkte hinzufügen.

Auch, wenn das bei der Flut von neuen Features und Verticals manchmal etwas aus dem Fokus gerät, so ist Google doch weiterhin eine Volltext-Websuchmaschine. Ich möchte jetzt nicht so sehr auf den Grundlagen rumreiten, doch glaube ich, dass sie beim Verstehen von Zusammenhängen sehr helfen können. Der Google-Webcrawler durchsucht weite Teile des öffentlichen Interwebs und baut sich mit den dort gefundenen Worten einen eigenen Index auf. Kommt jetzt ein Ratsuchender vorbei, schlägt Google im ersten Schritt in diesem Index nach, auf welchen Seiten das gesuchte Wort überhaupt vorkommt. Je nach Suchanfrage kann das schon mal eine Liste von einigen Millionen URLs sein. Und erst jetzt, in einem zweiten Schritt, kommt der ominöse Algorithmus, mit dem wir uns tagtäglich beschäftigen, ins Spiel. Anhand einer vermutlich sehr langen Liste von Regeln und Abläufen sortiert Google diese Liste mit den gefundenen URLs und zeigt uns die ersten 10 Treffer an.

Um also überhaupt erst in die Auswahl für den Algorithmus zu kommen, müssen zwei Vorbedingungen erfüllt sein: zum einen muss die Seite von Google erfasst werden und auch im Index landen, zum anderen muss Google sie als relevant für die jeweilige Suche einstufen. Den ersten Punkt erreicht man in der Regel mit einer soliden Seitengestaltung: eine ordentliche Informationsstruktur und eine sinnvolle interne Verlinkung weisen dem Googlecrawler den Weg. Für den zweiten Punkt verlässt Google sich in über 99% aller Fälle auf einen ganz einfachen Indikator: das Wort (oder ein Synonym) ist auf der Seite oder im Titel der Seite zu finden. Und erst danach geht es an das Sortieren und Ranken der URLs. Wie passt jetzt also das Nutzerverhalten sowie Signale aus sozialen Netzwerken in dieses System?

Ich bin mir ziemlich sicher, dass Google diese beiden Signale derzeit nur im letzten Schritt, also beim Sortieren der Ergebnisse einsetzt. Und auch dabei ergeben sich offensichtliche Schwierigkeiten, die derzeit vermutlich verhindern, dass die beiden Punkt einen gewichtigen Stellenwert im Algorithmus einnehmen. Bei dem Nutzerverhalten ist es so, dass die Werte erst dann richtig Spaß machen, wenn sie in Relation zu dem jeweiligen Suchbegriff stehen. Also keine globale Absprungrate für eine Domain, sondern die Absprungrate der einen URL für das eine Keyword. Schaut man sich jetzt die Klickraten in den Google Ergebnissen an, wird schnell deutlich, dass die Nutzung hinter der ersten Seite massiv abnimmt. Google wird dort also nur sehr wenig brauchbare Nutzerdaten sammeln können und je weiter es in den Longtail geht, desto unzureichender wird die Abdeckung. Im Umkehrschluss bedeutet das allerdings, dass dieses Signal zwar dazu genutzt werden kann, ob eine Seite auf Position 3 oder 4 rankt (ReRanking), die grundlegende Entscheidung, ob sie überhaupt in die Top10 oder Top1000 gehört, kann so jedoch nicht getroffen werden.

Bei den sozialen Signalen ist die Situation noch etwas verfahrener: Google hat aktuell keine zuverlässige Quelle für diese Daten. Nachdem man den Vertrag mit Twitter über den Komplettbezug aller Tweets gekündigt hat, ist Twitter dazu übergegangen, alle URLs auf den öffentlich erreichbaren Webseiten durch einen eigenen URL-Shortener zu ersetzen und auf Nofollow gesetzt. Und auch das Verhältnis zwischen Facebook und Google ist nicht unbedingt als so gut zu beschreiben, dass Facebook dem Wettbewerber die nötigen Daten frei Haus liefert. Bleibt also Google+ als mögliche Datenquelle. Wir erheben die Signale für URLs ja bereits seit einiger Zeit und können dort aktuell keinen Trend erkennen, dass die Nutzung von Google+ zunimmt. Ein neuer Artikel von Spiegel Online hat beispielsweise 1.608 Erwähnungen bei Facebook, 227 Tweets und ganze 3 Google+-Votes. Nicht gerade das, was man als eine solide Basis für einen grundlegenden Teil des Algorithmus, der hinter der 95%-Einnahmequelle einer börsennotierten Firma steht, nennen kann. Wie kann man jetzt also den Einfluss dieser Rankingsignale auf den Google-Algorithmus bestimmen? Sobald Google öffentlich davor warnt, diese Signale nicht zu manipulieren, ist es an der Zeit, sich weitere Gedanken zu machen …

Ähnliche Beiträge

SEO-Qualifikation: wie sieht die Zukunft aus?
Obwohl es SEO als Thema bereits seit über zehn Jahren gibt und in den letzten Jahren auch einen Stammplatz im Marketingmix...
Johannes Beus
29. Februar 2012
SEO: gefühlter Handlungsbedarf
Wenn ich in meinen Twitter-Stream schaue oder mir das tägliche SEO-Update auf Seo.at abhole, habe ich zeitweilig das Gefühl,...
Johannes Beus
29. Februar 2012
Nutzung sozialer Netzwerke
SEO braucht regelmäßig neue Hype-Themen, damit es nicht langweilig wird. Irgendwann wurde jeder Link im Internet von allen...
Johannes Beus
29. Februar 2012

Kommentare

Benno   
29. Februar 2012, 11:48

Was nutzt ihr denn für Quellen zur Auswertung der Facebook und Twitter? Wenn ihr hier öffentliche Inhalte nutzt, hat Google doch mindestens die selben Daten zur Verfügung?

Johannes   
29. Februar 2012, 11:53

Benno, in dem Umfang, in dem Google das machen müsste, um eine halbwegs passende Abdeckung des eigenen Index zu erhalten (sowohl in der Breite als auch im zeitlichen Verlauf) hat eine Dimension, dass es nicht ohne Deal mit Twitter/Facebook geht. Natürlich kann Google die Daten von den öffentlich verfügbaren Seiten der beiden Dienste scrapen, aber ich glaube nicht, dass das für ein Unternehmen wie Google ein Weg mit Zukunft ist (siehe Vorgehen von Twitter dagegen).

Jens   
29. Februar 2012, 12:04

Sehr guter Post. Habe schon mal überlegt mit einige alten Hasen eine Einführung in grundlegende Suchmaschinentechnologie, Use-Cases etc zu geben. Das Geblubber im Moment ist unsäglich und kaum noch zu ertragen. Das „Likes sind die neuen Links“ ist fast schon so dämlich wie „SEO ist tot“.

BTW: Ich bin NICHT gegen Social Media. Der Kanal sollte aber nicht genutzt werden um „likes“ für ein Ranking zu generieren. Dazu ist der Kanal zu wichtig um ihn zu einem von 200 Rankingsignalen zu degradieren.

Jan   
29. Februar 2012, 12:13

Ich finde es gut, das du das mal klar gestellt hast. Wenn man sich so umhört, bekommt man das Gefühl ohne das Wissen über die neusten Updates über die Integration von Social oder irgendwelche Layout-Bewertungen in keiner Suchmaschine mehr mitspielen zu können. Das viele Webseiten aber sich lieber erstmal darum kümmern sollten, das die eine gut verlinkte Webseite mit relevanten Inhalten bieten sollten rückt da gerne in den Hintergrund.
Also: Back to the roots 😉

Dirk   
29. Februar 2012, 13:30

Tach!
Ich denke mal, dass Google+ auch weiterhin ein Randphänomen bleiben wird, auf das sich IT-begeisterte Personen stürzen, Facebook & Twitter sind massentauglicher und aufgrund ihrer Größe auch in den nächsten Jahren unantastbar.

Die Daten von Google+ sind also, wie (zumindest früher) bei Alexa der Fall, nicht unbrauchbar, aber eben für die Masse nicht repräsentativ. Aber besser schlechte Daten, als keine – man kann das ja entsprechend gewichten und Google sollte in der Lage sein, die Google+-Signale so zu bereinigen und normalisieren, dass sie brauchbar sind. Zumindest bei der Bekämpfung von simplem SPAM dürfte es allemal helfen.

Philip   
29. Februar 2012, 15:08

Endlich mal Klartext! Merci dafür. Auch in den Kommentaren wird deutlich, das Social Media nicht SEO-technisch degradiert werden darf. Die Optimierung der eigenen Inhalte für echte Menschen unter Berücksichtigung wirklich relevanter SEO-Kriterien ist immer noch die Basis für Sichtbarkeit und Ranking. Social Media und Nutzer-Daten als vollwertige Ranking-Signale? Diese Daten stecken noch in den Kinderschuhen. Schöne Grüße aus München, Philip Hoevels | Akademie der Wildner AG

Markus   
3. März 2012, 10:46

Back to the roots, das war das Stichwort (Stichwörter ;))!
Es wird lange, lange Zeit nix über Content und Links gehen. Um mobile seo wurde sich auch verrückt gemacht, meiner Meinung nach auch völlig überzogen. Genau so ist es bei den social signals. G+ ist eine weitere Datenkrake von Google und bestimmt nicht der ranking factor, wo man auf einmal Zeit investieren sollte. Aus Social Marketing sich sieht das natürlich wieder ganz anders aus!

Marco   
3. März 2012, 21:52

Interessanter Post, vor allem was die Bedeutung Google+ angeht.
Wenn ich mir die Statistik am Ende dieses Artikels anschaue (akutell 28 Facebook Likes und 18 Google +1), dann sieht die Welt ganz anders aus. Scheint so, als dass Google+ bei Webseiten-Betreibern/SEOs massiv stärker verbreitet ist als bei durchschnittlichen Surfern…

David   
3. März 2012, 23:51

Vielen Dank für den Post.
Vor allem für die Darstellung der Unterschiede von Signalen für unterschiedliche Keywords.

Die aktuelle Diskussion ist wirklich ermüdend geworden.
Was ich noch dazu fügen möchte ist, wofür Social Signals wirklich interessant ist, nämlich für News SEO, bzw. Event SEO.
Wir schon geschrieben, im Longtail ist es für Google nachwievor schwer aus Userverhalten und Social Signals etwas sinnvolles zu ermitteln, genauso auf Keywords die nicht gerne geliked werden.

Social Signals als Brandsignale auf Domainebene sind dann doch eher etwas was Google halbwegs hinbekommen könnte.

Bin gespannt was es zu diesem Hypethema auf der Campixx zu hören gibt. Hoffentlich wird das nicht eins der Hauptthemen. Und wenn doch, dann bitte nur auf der twitterwall 😉

mwitte   
9. März 2012, 12:19

Danke!!!
Mit das Beste was ich in letzter Zeit gelsen habe…

elke   
10. März 2012, 16:26

Danke, ein sehr aufschlussreicher Artikel 🙂

Michael   
13. März 2012, 21:08

Danke für den Artikel.
Viele überschätzen diese „Likes“ und was es da sonst noch gibt, glauben daran das man mit Google + und Facebookvotings das Ranking beeinflussen könnte, na hat auch seine Vorteile….. *g*

Ole   
14. März 2012, 16:20

Spinnt das System? Heute landen den ganzen Tag schon alte Artikel (wie dieser) im Feedreader. Die Vorschau ist dabei englisch.

Björn   
22. März 2012, 10:08

Na, da ist ja ganz schön Kommentar-Spam durchgekommen 🙂 Für mich verbleibt nach dem Artikel die Frage, warum Google den Twitter-Vertrag gekündigt hat. Ansonsten ein guter Artikel. Erinnert ein wenig an den anderen (ich glaube den davor?) der endlich ausgesprochen hat, was ich schon lange denke: Social Media braucht man in Deutschland in den meisten Nischen NICHT (wenigstens habe ich ihn so interpretiert) – denn SEO geht grds. immernoch genauso wie früher.

Michael Staudinger   
22. März 2012, 17:23

@björn: ich HOFFE wirklich du behältst mit dieser aussage recht

Sten   
24. März 2012, 10:49

Ich sehe das so wie Björn. Bei Facebook möchten sich gerade die, die die Like Funktion intensiv nutzen damit profilieren. Hipp sind dann Edelmarken, exklusive Reiseziele und eventuell noch gemeinnützige Vereine oder Veranstaltungen, also alles, um ein Image zu prägen. Der Betreiber eines Hämorrhoiden-Ratgebers wird wohl Likes in dieser Nische weder bekommen, noch benötigen. Und da muss das ganze dann auch tatsächlich auf Keywordebebene heruntergebrochen werden, da ein großes Gesundheits-/Beauty-Magazin eventuell schon über das Thema berichtet und zu anderen Beiträgen eventuell in Sozialen Netzwerken häufiger einen Like erhält. Man sollte es sicher im Auge behalten, aber Links bleiben zumindest vorerst weiterhin DAS Mittel für gute Positionen in den wichtigen Suchmaschinen.

Philipp Schade   
29. März 2012, 00:08

Prima Artikel, der mir aus der Seele spricht, was den Hype der Social Signals angeht. Es ist ja auch nicht der erste zum Thema.

Mit Social lässt sich definitiv Traffic generieren und Social ist für bestimmte Sachen wichtig. Das es aber so gehyped und heiß gekocht wird, begründe ich auch damit, dass sich von Agenturen einfach gut verkaufen lässt. Billige Praktikanten und ungeschulte Mitarbeiter können massenhaft FB, Twitter und Co. Accounts befüllen. Das bringt eine super Marge! Gescheite Links aufbauen ist viel schwieriger.

Schaut man sich die Vorher- / Nachher-Rankings auch bei massiven Social Aktivitäten an, wird man kaum einen Unterschied feststellen.

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.