Wohin entwickelt sich der Linkgraph?

Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Vor über zehn Jahren hat Google die Verlinkung zum zentralen Rankingkriterium gemacht hat – seitdem hat sich viel getan: der PageRank hat an Relevanz im Signalmix verloren, andere Faktoren wie „Vertrauen“ oder „Link-Diversität“ haben vermutlich gewonnen. Allerdings sind das alles Maßnahmen, die eher als Finetuning zu bezeichnen sind – grundlegende Veränderungen gab es in dieser Zeit nicht. Dabei würde dem Suchmarkt etwas frischer Wind bestimmt gut tun und die Marktanteile wieder etwas zugunsten eines fairen Wettbewerbs verschieben. Derzeit sehe ich drei mögliche Richtungen, in welche die Entwicklung gehen könnte:

Verlinkungen bleiben Haupt-Rankingkriterium – alles bleibt, wie gehabt. Der Linkgraph bleibt weiterhin das primäre Signal, Veränderungen gibt es lediglich in der Gewichtung und Teilaspekten. Dafür spricht, dass Google in den letzten Jahren seinen deutlichen qualitativen Vorsprung vor der Konkurrenz gehalten und teilweise sogar noch ausbauen konnte. Ein Ende der Entwicklung scheint also nicht in Sicht und auch zahlreiche neue Patente aus Mountain View deuten in diese Richtung.

Der Semantik gelingt der Durchbruch – seit Jahren wird der große Durchbruch regelmäßig angekündigt, so richtig tut sich allerdings nicht. Wolfram|Alpha hat kein neues Zeitalter eingeleitet, Powerset ist in Bing auf- und offenbar untergegangen. Sollte es in dem Bereich allerdings eine Wende geben, so könnte ich mir schon vorstellen, dass eine semantische Analyse von Webseiten qualitativ hochwertige Ranking-Signale hervorbringt und die derzeitige Rolle der Links (zumindest teilweise) ablöst.

Socialgraph als Gegenentwurf – als Facebook vor einigen Wochen den Link-Button in die freie Wildbahn entlassen hat, so hat das zwar in anderen Branchen für Aufsehen gesorgt, das Wissen um möglichen Auswirkungen auf die Suchmaschinenbranche scheint allerdings nicht so richtig in Deutschland angekommen. Im Prinzip geht es – wie bei Links – auch hier um Empfehlungen: Person A empfiehlt URL B. Zusätzlich hat der Socialgraph noch einige Vorteile: so scheint es durch niedrigere „Teilnahme-Hürden“ mehr Daten zu geben (ein Blogposting hier erhält bestimmt 50 Likes, aber nur 2 bis 3 Links) und die Empfehlungen können in Abhängigkeit zur Beziehung mit der fragenden Person gewichtet werden.

Persönlich glaube ich, dass wir noch einige Zeit mit dem Linkgraphen als primäres Ranking-Kriterium leben werden. Die Qualität der Ergebnisse hat sich über die letzten Jahre gesteigert und ist weiter in Entwicklung. Spannend finde ich den Socialgraph, allerdings wird noch etwas Zeit vergehen, bis wir dort erste Anwendungen und Ergebnisse sehen.

Ähnliche Beiträge
Kommentare
Avatar wendy   
18. Juni 2010, 16:58

sehe ich genauso. die links werden bleiben…

Avatar Tagesgeld News   
18. Juni 2010, 17:05

Das wäre super, wenn sich da langsam mal Qualität anstatt Masse an Links duchsetzt. Gerade im Finanz- und Versicherungsbereich ist leider die Qualität der Suchergebniss nicht gerade toll…

Avatar sistrix   
18. Juni 2010, 17:09

Die Links hier sind wirklich nofollow.

Avatar lars   
18. Juni 2010, 17:12

Moin,

ja der gute alte Link wird uns definitiv erhalten bleiben, vorerst jedenfalls. Im Moment besteht meiner Meinung nach halt kein „besserer“ Bewertungsfaktor für die Relevanz einer Seite seitens Google. Die Qualität einer Seite nur am Inhalt oder der CTR zu bewerten ist momentan nicht wirklich möglich & sinnig.

Was die Semantik angeht, da kann man Google’s Fortschritt ja schon gut an den AdWords begutachten – Denke da wird in nächster Zeit noch einiges kommen.

Der Open Graph ist schon eine lustige Sache, aber wie bei den meisten Trends oder Features aus Übersee hinken die Deutschen da ein wenig hinterher^^ Wenn man sich Label’s wie Levis anschaut, sieht man ja was möglich ist …

so, dass wars …

Avatar Jens   
18. Juni 2010, 17:27

Ganz klar werden die Links weiter dominieren, da aus meiner Sicht auch nur so die Popularität gemessen werden kann. Auch wenn es da natürlich auch immer mehr schwarze Schafe gibt…

LG Jens

Avatar samy   
18. Juni 2010, 17:36

Ich sehe es auch so – „dass wir noch einige Zeit mit dem Linkgraphen als primäres Ranking-Kriterium leben werden“. Es bleibt (bis auf weiteres) dabei, hole gute eingehende Links zum Web – aus guter Nachbarschaft und von der passenden Themaseite – dann geht es auch deinem Web gut (= Trafficbelohnung durch G).

Avatar Daniel Rüd   
18. Juni 2010, 17:40

Ich glaube nicht, dass der Socialgraph ein Gegenentwurf ist, vielmehr eine Ergänzung, insbesondere für Suchanfragen, bei denen der User aktuelle Ergebnisse erwartet. Für Suchanfragen, bei denen man vielleicht tiefer gehende Ergebnisse erwartet, die auch ruhig etwas älter sind, eignet sich der Linkgraph besser. Es hat also durchaus beides seine Berechtigung.

Avatar Matthias   
18. Juni 2010, 17:40

Ich wollte mal in Runde fragen, welche Signale bei einer semantischen Analyse eurer Meinung nach eine Rolle spielen könnte, da ich gerne ein paar Tools dazu programmieren würden. Vorschläge willkommen.

LG,
Matze

Avatar tobias   
18. Juni 2010, 17:42

Da hat das Google Search Quality Team einiges zu testen, bis sich im Bereich Social Graph größere Auswirkungen bemerkbar machen. Ich vermute, dass Links als Ranking-Kriterium noch einige Jahre festen Bestand haben werden.

We will see!

Avatar Stefan   
18. Juni 2010, 17:51

Die Semantik wird auch in den nächsten paar Jahren weitestgehend vernachlässigbar bleiben. Dass Links aber in z.B. 5 Jahren weiterhin das dominierende Kriterium sind, zweifle ich an. Klar, die werden nie wegfallen und nie unwichtig werden. Aber die soziale Komponente, ‚Sozialgraph‘, wird noch sehr, sehr viel mehr an Gewicht gewinnen. Google wird irgendwann z.B. auch auf die Idee kommen, in den sozialen Netzwerken die Influencer zu ermitteln und deren Wort sehr viel Gewicht beizumessen.

Links sind oder waren ja früher auch nicht mehr als Empfehlungen, wenn auch keine personenbezogene und sehr unpersönliche Empfehlungen. Wenn nun umso mehr Daten in dem Bereich zur Verfügung stehen, dann werden die auch immer stärker genutzt werden.

Avatar Peter B.   
18. Juni 2010, 17:54

Da würden sie auch den Bock zum Gärtner machen – nirgends wird so weitreichend und umfangreich manipuliert, wie im Social Media bereich. Hier – ganz vereinfacht gesehen – die ANzahl der „Likes“, „Shares“, „Retweets“ usw. mit ins Ranking einzurechnen, würde förmlich zum extremen Abusing einladen. Das wäre ja fast schon der vorprogrammierte Untergang der social networks.
Diese Art der „Rankingberechnung“ funktioniert noch lokal bei OneRiot bzw. (um hier auch ein deutsches Portal zu nennen) Rivva, aber sobald das ein ausschlaggebender Rankingfaktor wird, sehe ich schon die Leute mit ihren 150 Twitter-Accounts und ihren eigenen riesigen Freundesnetzwerken bei Facebook etc.
Hier würde es nur helfen, anhand von Aktivität und Popularität (usw.) eines Accounts innerhalb eines Social Networks eine Art Trust für jeweilige Accounts bei den Social-Networks zu vergeben/berechnen, ähnlich, wie es auch für Webseiten der Fall ist (und weswegen es sich nicht lohnt, 300 Domains zu registrieren und auf die zu supportende Domain weiterzuleiten, da man auf die 300 Domains einfach keinen Trust bekommt!). Dieser „Trust“ müsste dann neben der „Art der Verteilung“ mit in das Ranking einberechnet werden. Kurz: Es müsste versucht werden, den Leumund einer Person / Accounts innerhalb eines Netzwerkes zu berechnen / einzuschätzen.

Denke, dass das in den kommenden 5 Jahren auf keinen Fall möglich sein wird!

Ein weiterer Punkt der dagegen spricht ist, dass sich Google hier für eine gewisse Anzahl von Rankingfaktoren in einer Weise von Fremdquellen / Konkurrenten (z.B. CPC-Markt bei Facebook) abhängig machen müsste. Und das hat schon einen fiesen Beigeschmack (für Google).

Avatar Jojo   
18. Juni 2010, 19:34

Es bleibt abzuwarten, wie und wo der Socialgraph genutzt werden kann. Da braucht es dann auch erst einmal Zugriff auf die Daten und ob es so schlau wäre, die eigene Suchmaschine von Datenlieferungen anderer abhängig zu machen.

Avatar wingthom   
18. Juni 2010, 21:49

Facebook hat einen wesentlichen Vorteil: die Nutzer sind identifizierbar und damit lernt Facebook auf individueller Basis und nicht nur statistisch wie Google & Co. Zudem funktioniert der „Spam“-Filter direkt, die Verbergen-Funktion verhindert zu forsches Marketing. Der geschlossene Ansatz von Facebook sperrt Google aus: Google kann diese Signal-Quelle nicht auswerten, bleibt also auf dem Auge blind. Je mehr sich die Online-Nutzung in Facebook hinein verlagert, desto dümmer wird Google.

Facebook muss nur noch einen externen Index aufbauen, der greift, falls intern einmal nichts gefunden wird und das scheinbar grenzenlose Google-Wachstum ist Geschichte. Dann müssen die sich in Märkte wagen, wo echte Konkurrenz herrscht wie Hosted Applications, Business-Anwendungen, Online-Vertrieb von Produkten.

Wer sich im Markt zwischen Google, Microsoft & Facebook bewegt, für den wird es dann richtig ungemütlich.

Avatar Robert   
18. Juni 2010, 22:37

Grundproblematik ist, dass nur ein verschwindend geringer Nutzeranteil überhaupt einen (relevanten) Link setzen kann. Das ist dann auch noch branchenspezifisch sehr unterschiedlich. Damit ist die primäre Bewertungsbasis per se rudimentär und thematisch sehr ungleich verteilt.
Dass dies rein theoretisch nicht die beste Lösung sein kann, dürfte offensichtlich sein.

Avatar Sebastian   
18. Juni 2010, 23:49

Das groeste Problem beim Socialgraphi ist, dass er noch einfacher zu manipulieren ist (Stichwort PPC-Ilike arbitrage).

Avatar Loewenherz   
19. Juni 2010, 00:10

Jo, wenn ich sehe, was im Social Network Bereich an Manipulationen möglich ist – das toppt jegliches Linkbuilding. Da könnte man auch gleich Gästebuchspam wirken lassen. Insofern kann das keine Lösung sein. Ich sehe aktuell eher, dass Tante Goo versucht, Links noch besser zu filtern.

Avatar SloMo   
19. Juni 2010, 07:42

Der Social Graph ist ein Privacy-Problem. Bis jetzt hatten wir fast nur Google, dem niemand entgehen konnte. Ab sofort sammelt auch Facebook nicht mehr nur die Daten seiner direkten Anhänger, sondern auch die aller Webnutzer. Dem Like-Button sei Dank!

Ich denke, viele seriöse Website-Betreiber werden bewusst keinen Like-Button einbauen. Sollten diese Websites nun von Google wegen des unterversorgten Social-Graphs schlechter gelistet werden?

Das wäre das Ende des Individuums! 😉

Avatar Enno   
19. Juni 2010, 10:47

„Die Links hier sind wirklich nofollow.“ made my day. Danke auch für den interessanten Artikel!

Avatar sistrix   
19. Juni 2010, 11:08

Ich glaube ehrlich gesagt, dass Manipulationen am Socialgraph viel einfacher und eindeutiger zu erkennen sind, als dies bislang am Linkgraph möglich ist. Durch die Beziehungen der Personen untereinander und die Tatsache, dass vmtl. deutlich mehr Datenpunkte vorhanden sind, gibt es da mehr Möglichkeiten.

Avatar daniel   
19. Juni 2010, 13:49

auf meiner kleinen suchmaschine (beta.jeroume.de) wird anhand von Bewertungen gerankt, ähnlich zum like button. Ihr könnts auch ja mal ansehen.
Auf lange sicht werden Links wohl immer unwichtiger werden, da sie einfach zu leicht zu beschaffen sind, und von Nichtwebmasterusern auch nicht mehr als „Lob“ verklinkt wird da die eh alle nur noch Facebook etc haben.

Avatar Knut.barth   
19. Juni 2010, 14:07

das wird Friday Night aber freuen. Dann kann er ja einen dritten Teil seines SEO Buches aufsetzen.

Avatar Markus Merz | Hamburg St. Georg   
19. Juni 2010, 14:39

[OT]

> sistrix: „Die Links hier sind wirklich nofollow.“

Kicher 🙂

Avatar Hanns   
19. Juni 2010, 18:59

Der Socialgraph ist sicherlich eine interessante Ergänzung, die noch stärker genutzt werden kann und wird. Der Anwendungsbereich ist aber begrenzt. Zu vielen Themen und Keywords findet kaum Kommunikation in Social Networks statt. Wer twittert schon über Hämorrhoiden oder die Adresse der örtlichen Suchtberatung und klickt bei den Themen einen Button „I like it“. Der Socialgraph funktioniert wahrscheinlich nur bei Keywords aus Themenbereichen, die einigermaßen im sozialen Umfeld diskutiert und akzeptiert werden. Der Linkgraph greif da wesentlich weiter, auch durch interne Links.

Avatar Linkaufbau-Sasa   
19. Juni 2010, 20:12

Ich muss mich da Hanns anschließen. Die einzige allgemeine, globale Möglichkeit Suchergebnisse der Qualität nach zu bewerten, sind Links. Diverse andere Punkte sind hier auch schon angesprochen worden. Der Social Graph eignet sich kaum für alle Themen. Er ist auch über die Länder verteilt sehr unterschiedlich.

Wo ich aber durchaus großes Potenzial im Bereich Social Media sehe, dass ist im Content auf diesen Seiten. Bei Facebook kann man jetzt schon fröhlich seine Inhalte hochladen. Manche machen das auch schon sehr großzügig. Das bedeutet, dass es unter Umständen eine Verschiebung oder Duplizierung der Inhalte auch zu Facebook hin geben wird. Anzeichen dafür sind schon seit längerem zu beobachten.

Bevor Google den Linkgraph massiv devaluiert, ändert sich eher das Suchverhalten der Menschen. Ich vermute, dass wir gewisse Themen in Zukunft eher bei Facebook suche, als bei Google. Eine weitere Zersplitterung der Aufmerksamkeit sozusagen.

Auch das sog. Semantic Web (2001 (!)) halte ich weitestgehend für eine Ente. Wenigstens in der reinen Form, in der es von ihren Begründern und Befürworten angepriesen wird. Als ich 2000 mit dem Informatikstudium anfing, speziell weil ich mich so sehr für den Bereich Information Retrieval interessierte, glaubte ich wirklich, dass sich das SW sehr schnell etablieren würde. Es ist in der Theorie eine wirklich gute Idee. Das kommerzielle Web wird diese niemals wirklich aufgreifen. Jeder kocht zu gerne sein eigenes Süppchen in der Hoffnung irgendwann den Standard selbst definieren zu können. Das sehen wir immer wieder, zuletzt eben auch bei Facebook.

Auch wenn wir bald ein SW hätten, so bedeutet das doch lediglich, dass die Daten, also die Texte, Bilder & Videos in eine strengere Struktur gebracht würden. Ihre Qualität im Hinblick auf den tatsächlichen Inhalt würde auch weiterhin durch die Links bewertet.

Optimal finde ich das auch nicht. Sind doch die Links ledliglich ein Popularitätskriterium. Sie sagen jedenfalls nicht direkt etwas über die Qualität aus. Einfaches Beispiel: Nur weil etwas gut verlinkt ist, heißt das noch lange nicht, dass es auch wahr und/oder gut ist.

Ich würde also soweit gehen und behaupten: So lange eine Suchmaschine nicht dazu in der Lage ist, in allen relevanten Sprachen dieser Welt den Wahrheitsgehalt und die tatsächliche semantische Qualität (nicht nur die Struktur) eines beliebigen Inhaltes auch wirklich durch Algorithmen zu beurteilen, werden wir den Link als wichtigstes Rankingkriterium (wenigstens für die Evergreen-Begriffe) nicht mehr los. Diese Herausforderung ist für die Suchmaschinen jedoch in etwa so groß, wie die Programmierung eines Algos, der zuverlässig aus beliebigen Bildern, Audio- und Videodateien mit 100 %iger Sicherheit den textuellen Inhalt extrahiert. Hier sind wir (IMHO) durchaus noch hunderte Jahre von entfernt.

Ich denke aber auch, dass Google in der nächsten Zeit viel experimentieren wird und sicherlich eine Mischung aus deinen drei Thesen mit in die Rankingberechnung einbezieht. Im Algo wird bleiben, was die Benutzer dazu bringt, weiterhin Google zu benutzen und deren Anzeigen zu klicken. Wer weiß schon genau, was das sein wird? Ich bleibe so lange bei den Links 😉

Viele Grüße
Sasa

Avatar Militz & Balsmeier   
20. Juni 2010, 00:20

@daniel „Die Domain „www.beta.jeroume.de“ ist nicht verfügbar.“

OT
Auch mit Like Button und co. kann man spam betreiben. Fake Accounts und Bots sind auch hier an der Tagesordnung. Ausserdem muss man sich auch fragen „was“ hier verbereitet wird. Ich meine damit viele Informationen aus Social Netzworks nicht wirklich relevant sind. Ps. „Die Links hier sind wirklich nofollow.“ 10 von 10 Punkten! 🙂

Avatar Ups   
20. Juni 2010, 00:26

http://beta.jeroume.de/

Link geht doch. MyBad.

Avatar Markus Bauer   
20. Juni 2010, 09:16

Dass manche auch für die Zukunft auf Links als wichtigstes Rankingkriterium (also auf Linkaufbau) setzen, lässt schon der Nickname vermuten. 😉 Ich persönlich glaube an die Kraft der persönlichen Empfehlung. Beispiel: Wer den „richtigen“ Leuten folgt, findet mehr bei Twitter und sucht weniger bei Google. Dass Social Likes ähnlich leicht zu „manipulieren“ sind wie Links, sehe ich nicht als das große Problem. Bei Likes geht es noch weniger als bei Links um die Menge, sondern noch vielmehr darum, wo sie herkommen bzw. wer sie vergeben hat. Je näher mir jemand steht, desto relevanter das Like. Also in gewisser Weise wie Amazon (Wer – wie Sie – A gekauft hat, hat sich auch für B interessiert), nur 2.0, da die „Soziale Vernetzung“ bzw. die Vernetzungsstruktur schon vorab bekannt ist. Merkt die „breite Masse“, wie vorteilhaft es sich auf Linkempfehlungen und Suchergebnisse auswirkt, mehr von sich preiszugeben, wird sie es tun (z. B. bei Facebook). Und selbst Google wird nicht umhinkommen, mehr „social“ zu sortieren bzw. individuell zu priorisieren – organische Ergebnisse UND Anzeigen. Das kann zwar noch dauern, ist m. E. aber klar absehbar.

Avatar doe   
20. Juni 2010, 16:20

Das ist mir klar das die Links nofollow sind – das stört mich nicht – ich kommentiere gute Beiträge einfach gerne.

Avatar Yannick   
20. Juni 2010, 23:04

Meiner Meinung nach wird sich der Wert von Links bzw. deren Gewichtung auch in Zukunft noch steigern. Zum Beispiel wird man mit HTML5 eine noch viel bessere Linkbewertung vornehmen können.

Wo die Links dann natürlich stecken (vielleicht ja auch gerade in den Sozialen Netzwerken) oder eben in Blogs und auf Webseiten (obwohl das dank Twitter immer weiter nachlässt) bleibt natürlich abzuwarten.

Ob man jedoch als Google wirklich einen Facebook „Like me“ Button als Rankingkriterium nimmt halte ich für sehr fragwürdig. Wie viele Trends gab es denn alleine in Deutschland? StudiVZ, MeinVZ, WKW? Gut Facebook und Twitter sind das erste globale Ding, wer jedoch garantiert uns das es so bleiben wird? Alles hat seine Hochphasen, auch Soziale Netzwerke werden irgendwann wieder an Relevanz verlieren, bzw. wird die Relevanz umgelagert.

Eine Möglichkeit wäre z.b. das Google einen eigenen „Like me“ Button bringt. G hat ja auch einen eigenen Linkverkürzer und einen eigenen Feed-Dienst… Alles Dinge mit denen man sehr gut die Relevanz von Inhalten „sozial“ messen kann ohne das man dies Preis geben muss 😉 Mit den Buttons sehe ich, wie oben ja auch schon mehrfach erwähnt, zu viele Möglichkeiten zu manipulieren und nein, ich glaube nicht das man diese Manipulationen sooo leicht aufdecken kann…

Eines bleibt jedoch bei allem gleich. Die Großen werden größer und die kleinen werden es immer, immer schwerer haben aufzuholen, man ist ja z.b. auch 15 Jahre zu spät dran…

Schau wa mal, ich sehe jedenfalls auch in HTML5 den nächsten richtigen Umbruch.

Avatar Volksbank   
21. Juni 2010, 08:32

Die Links werden in Zukunft unwichtiger werden, denn verschiedene Methoden den Nutzern direkt auf die Finger zu gucken werden verbessert. Facebook ist nur ein Teil davon. Semantische Ansätze sind a)teuer in der Entwicklung und b) noch nicht einsatztauglich.

Avatar Toni   
21. Juni 2010, 16:41

als Facebook vor einigen Wochen den Link-Button
–>
als Facebook vor einigen Wochen den Like-Button

😉

Links werden mit Sicherheit weiterhin ein wichtiges Qualitätskriterium bleiben, zumal es heute deutlich schwieriger ist, aus dem Nichts gute Links zu holen und ein komplett neues Projekt aufzubauen. Wer bereits viele Projekte besitzt, ist klar im Vorteil.

Vorstellen könnte ich mir auch, dass Google unter die Internet-Provider geht und günstige Tarife anbietet. Als Gegenleistung darf Google die anonymisierten Daten der Nutzer auswerten.

Avatar KONZ   
22. Juni 2010, 14:34

Danke für den Beitrag. Im ersten Satz ist ein Typo mit drin (ein „hat“ zu viel).

Avatar Webkatalog & Social Bookmark Eintragsdienst   
24. Juni 2010, 15:21

Gute links bekommt man heutzutage fast nurnoch in dem man was bezahlt oder halt stundenlang sucht und immer weiter probiert…

Avatar Musli18   
2. September 2010, 16:59

also ich sage auch das die links bleiben denn ohne links ist eine seite gleich null

Avatar skygod   
3. September 2010, 08:25

Ein guter Link bleibt ist das „Nonplusultra“ auch in der Zukunft.

Avatar Delly   
27. Januar 2012, 23:39

It’s wodnreufl to have you on our side, haha!

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.