Best of Blog

Seit über zehn Jahren gibt es das SISTRIX-Blog. Vom Nachrichtenblog zu verschiedenen Themen des Internets hat es sich mit Fallstudien, Analysen von Relaunches und Domainumzügen, als auch betriebswirtschaftlichen Analysen von Google & Co. zu einer umfassenden Wissenssammlung zum Thema Online-Marketing und ganz speziell der Suchmaschinenoptimierung entwickelt.
Wir legen viel Wert darauf, dass unsere Artikel nachhaltige Informationen und Erkenntnisse liefern und so nie “überholt” sind. Nachfolgend zeigen wir Dir unsere Top-Artikel aus den letzten zehn Jahren, die unseren Leser in der Vergangenheit dabei geholfen haben SEO noch besser zu verstehen und auch in Zukunft dabei helfen sollen.


SEO-Basics: Website-Relaunch niemals ohne Weiterleitungen

Im Lebenszyklus einer Website gibt immer mal wieder den Bedarf einer gestalterischen, aber manchmal einer inhaltlichen Veränderung. Diese Überarbeitung des Webauftritts, nennt man auch Website-Relaunch. Wenn man beim Relaunch allerdings an mehreren Stellschrauben gleichzeitig dreht, können sich schnell unliebsame Fehler einschleichen, die es dann aufwendig zu beheben gilt. Ein Klassiker dabei: Fehlende 301-Weiterleitungen von alten Inhalten zur neuen URL. Um diesen und weitere bekannte Fehler zu vermeiden, zeigen wir in einer Anleitung, wie ein Relaunch unproblematisch und sicher durchgeführt werden kann.

Vollständigen Artikel lesen

Fallstudie: Wieso hat hrs.de 90% Sichtbarkeit verloren?

Ende September 2014 fiel uns auf, dass das Hotel-Buchungsportal hrs.de fast 90% seiner Sichtbarkeit verloren hat. Grund genug für eine Analyse möglicher Ursachen für diesen hohen Verlust und damit sehr wahrscheinlich einhergehenden Rückgang an Traffic von Google. Wie wir herausfanden, hatte HRS seine URL-Struktur umgestellt.

Doch leider wurde diese Umstellung nur unvollständig durchgeführt, sodass einige interne Verlinkungen defekt waren und wichtige Weiterleitungen ins “Leere” führten. Im Regelfall kann Google mit diesen technischen Problemen umgehen, hat hier jedoch konsequent durchgegriffen. Mögliche Erklärungen für das harte Durchgreifen des Suchmaschinenriesen zeigt Johannes Beus im Blogpost.

Vollständigen Artikel lesen

Bewertet Google Links mit den Daten vom Chrome Browser?

Google reichte im März 2010 das Patent “Ranking documents based on user behavior and/or feature data” ein, welches beinhaltete, dass Links anhand des Nutzerverhaltens gewertet und gewichtet werden. Wir haben uns Gedanken darüber gemacht, wie Google das Nutzerverhalten überhaupt messen kann und sind auf eine interessante, versteckte Funktion in Googles eigenem Chrome-Browser gestoßen.

Hanns Kronenberg hat dabei herausgefunden, dass Chrome vorausahnt welchen Link der Nutzer höchstwahrscheinlich anklicken wird und daraufhin die möglichen Zielseiten im Hintergrund lädt. Damit trainiert Google einen Algorithmus, der die Klickwahrscheinlichkeit von Links bewertet und füttert sein Patent mit Daten. Wie das genau funktioniert, zeigen wir im Blogpost.

Vollständigen Artikel lesen

Regalplatzoptimierung bei Google

Google bietet auf jeder Suchergebnissseite 10 Treffer zu der eingegebenen Suchanfrage an. Mehr als 10 Treffer würden die Ladezeit erhöhen und die Nutzerzufriedenheit im Gegenzug verringern. Daher stellt sich für Google dasselbe Problem wie für Supermärkte oder Buchläden: die bestmögliche Anordnung der darzubietenden Waren, also die Optimierung des vorhandenen Regalplatzes. Die Regalplatzoptimierung bei Supermärkten folgt dem Schema: “Produkte mit hohem relativem Deckungsbeitrag pro Regalreihe dürfen mehr Platz beanspruchen, als Produkte mit geringem relativen Deckungsbeitrag pro Regalreihe”. Bei Google ist eine solche Aussage nicht so einfach zu treffen.

Allerdings ist sehr wahrscheinlich, dass hochwertige Inhalte und wichtige Domains mit einer hohen Anzahl Links und positiven Nutzersignalen bei der bestmöglichen Ausnutzung des Regalplatzes, also der SERPs, positiv berücksichtigt werden könnten. Deshalb sollten Webmaster nur diejenigen Seiten indexieren lassen, die interessanten und einzigartigen Content und damit viele positive Nutzersignale beinhalten. Wie Webmaster also nun optimale Ergebnisse für den begrenzten Regalplatz bei Google erzielen können, zeigen wir im Blogpost.

Vollständigen Artikel lesen

Risiko Domainumzug und Rankings bei Google

Sofern sich Webmaster dazu entscheiden ihre bestehende Domain auf eine neue Domain umzuziehen, müssen sie einige Dinge beachten um auch alle Rankings und die bestehende Sichtbarkeit mitziehen zu können. Hanns Kronenberg hat sich exemplarisch drei Domainumzüge angeschaut, die entweder auf einem Umzug der Top-Level-Domain oder einer Änderung des Domainnamens basieren.

Dabei war auffallend, dass die Domains längere Zeit benötigten um wieder ihre Ursprungs-Sichtbarkeit zu erreichen. Hanns spekuliert, dass es sich um einen Google-Schutzmechanismus handelt, der die Suchmaschine vor Spam bewahren soll. So vertraut Google der “neuen” Domain wieder, wenn die entsprechenden positiven Nutzersignale eingehen. Ein Beispiel für einen erfolgreichen Domainumzug und offizielle Aussagen von Googles Webmaster Trends Analyst John Mueller zeigen wir im Blogpost.

Vollständigen Artikel lesen

6 Punkte, die ein SEO vom erfolgreichen Relaunch von giga.de lernen kann

Das Technik- und Gamesportal GIGA konnte nach der Integration von macnews.de im November 2011 einen großen Zuwachs in der Sichtbarkeit verzeichnen. Kurz darauf, im Januar 2012, sank diese zuvor gewonnene Sichtbarkeit jedoch stetig ab und giga.de fand sich in einem Abwärtskanal wieder.

Der Grund war schnell gefunden: Das Portal führte einen Relaunch durch, der von großem Unmut der Leser begleitet war: das Design wäre unübersichtlich und die Leser hätten Probleme redaktionelle Inhalte und Werbung trennen zu können. Schnell wurde nachgebessert und so gewann die Domain wieder an Sichtbarkeit – den wiederkehrenden positiven Nutzersignalen sei Dank. Hanns Kronenberg hat auf dieser Basis sechs Learnings verfasst, die SEOs im Kopf behalten sollten um erfolgreiche Websites zu erstellen: So soll inhaltlich gesehen immer der Leser/Nutzer im Mittelpunkt stehen und die Inhalte sollten nach einem klaren Muster strukturiert sein, beispielsweise durch Themenseiten.

Technisch sollten SEOs unter anderem auf eine gezielte Indexierung achten, um Crawling- und Indexierungsbudget zu sparen und die interne Verlinkung intensivieren. Die weiteren Punkte stellen wir im Blogpost vor.

Vollständigen Artikel lesen

Fallstudie duden.de: Erfolg ohne gefährliche SEO-Tricks

Seit Ende Mai 2011 befindet sich die Internetseite des Dudens, duden.de, in einem stetigen Aufwärtstrend der Sichtbarkeit. Zuvor befand sich die Domain fast zwei Jahre in einem Seitwärtskanal, ohne merklichen Zuwachs an Sichtbarkeit. Wie kam nun dieser neue Trend zustande? Grund genug für eine Fallstudie, in der wir herausgefunden haben, dass duden.de kurz vor dem Anstieg der Sichtbarkeit die Bezahlschranke zu seinen Inhalten fallen gelassen hat.

Durch den Wegfall der Paywall auf duden.de kamen viele neue Verlinkungen und positive Nutzersignale hinzu, die Google entsprechend honoriert hat. Wie sich die Kostenloskultur auf die Wirtschaftlichkeit des Duden-Verlages entwickelt hat, zeigt Hanns Kronenberg in unserem Blogpost.

Vollständigen Artikel lesen

Wirft Google den Apple ITunes-Store aus den SERPs?

Im April 2013 verlor apple.com kontinuierlich an Sichtbarkeit. Dies lag vor allem an einem starken Abfall der Sichtbarkeit des Hosts itunes.apple.com. Zuerst dachten wir an eine Google-Taktik zur Bevorzugung des eigenen Angebotes mit dem Play Store, denn dieser hat im gleichen Zuge an Sichtbarkeit dazugewonnen.

Doch mit einer Analyse der HTTP-Statuscodes konnten wir Licht ins Dunkel bringen. Apple lieferte nach 50.000 Requests automatisch einen Fehlercode 403 (Forbidden) aus. Scheinbar ein Vorgehen um Scraper zurückzuhalten. So wurde scheinbar auch der Googlebot getroffen und beim Crawlen des Hosts itunes.apple.com behindert. Die vollständige Auswertung zeigen wir im Blogpost.

Vollständigen Artikel lesen

SEO-Basics: Interne Verlinkung optimieren

In den TOP-100 des SISTRIX Sichtbarkeitsindex, also den 100 Domains mit der höchsten Sichtbarkeit finden sich einige Kandiaten mit einer vergleichsweise geringen Domain-Popularität, aber einer sehr guten und internsiven internen Verlinkung. Warum? Wir haben uns einmal die Vorteile einer konsequent durchgeführten internen Verlinkung angeschaut und zeigen, dass diese durch eine fokussierte Leserführung nicht nur positive Nutzersignale hervorbringt, sondern auch so den Googlebot durch die Website führt.

Und mit einer starken internen Verlinkung, die nach Google-Vorgaben sogar mit harten Money-Keywords erstellt werden darf, bekommen auch Unterseiten einen Teil der externen Linkkraft. Diese wird nämlich auf diese Weise weitervererbt. Tipps und ein best practice zeigen wir im dazugehörigen Blogpost.

Vollständigen Artikel lesen