6 Punkte, die ein SEO vom erfolgreichen Relaunch von giga.de lernen kann

30. Oktober 2013, 13:41

Es gibt unzählige Beispiele für einen aus SEO-Sicht schlecht durchgeführten Relaunch, bei dem die betroffene Website einen große Teil der Rankings verliert. Um so schöner ist es, dass es mit giga.de ein Beispiel für einen bislang sehr erfolgreichen Relaunch gibt. Die Website des ehemaligen TV-Senders GIGA wurde im März 2011 von der Econa Internet AG übernommen. Econa hat sich darauf spezialisiert bereits profitable mittelgroße Websites mit gutem Conent aufzukaufen und weiterzuentwickeln.

Entwicklung Sichtbarkeitsindex giga.de

Entwicklung Sichtbarkeitsindex giga.de

Zuletzt führte giga.de Anfang April 2013 (Ereignis-Pin C) einen Relaunch durch. Der Sichtbarkeitsindex ist seit diesem Zeitpunkt von 6,8 Punkte auf über 45 Punkte gestiegen und hat sich damit mehr als versechsfacht. Insbesondere für Betreiber von Newsportalen und Blogs ist giga.de damit ein sehr interessantes Best-Practice-Beispiel, bei dem man sich einige SEO-Techniken abschauen kann.

In den letzten Jahren haben insbesondere drei Ereignisse die Entwicklung der Sichtbarkeit von giga.de stark beeinflusst.

A) Integration von macnews.de (Ereignis-Pin A)


Nach der Übernahme durch Econa konnte giga.de den langfristigen Abwärtstrend im Sichtbarkeitsindex durchbrechen und in einen Aufwärtstrend umwandeln. Eine richtigen Sprung nach oben gab es in der Woche vom 24.11.2011 (Ereignis-Pin A).

Übernahme macnews.de

Übernahme macnews.de

Zu diesem Zeitpunkt hatte Econa die im gleichen Jahr erworbene Plattform macnews.de auf giga.de überführt. Ebenfalls wurden 2011 die kleineren Portale macmagazin.de und maccommunity.de übernommen. Die Sichtbarkeit von macnews.de konnte weitestgehend auf giga.de übertragen werden. Mit dieser Aktion schaffte es giga.de in die Liste der SISTRIX IndexWatch Gewinner 2011 und wir haben darauf hingewiesen, dass solche Mergers & Acquisitions in Zukunft ein interessantes Wachstumsmodell im SEO-Bereich sind, um schnell mehr Links und mehr Content zu realisieren.

B) Relaunch giga.de Januar 2012 (Ereignis-Pin B)


Es ist noch kein Meister vom Himmel gefallen und mit dem Relaunch von giga.de im Januar 2012 mußte auch Econa erst einmal Lehrgeld bezahlen. Während technisch offenbar alles richtig gemacht wurde und ausreichend 301-Weiterleitungen gesetzt wurden, zeigt eine Lektüre der über 200 Kommentare zur Neugestaltung der Website deutlich, dass viele Leser sehr unzufrieden mit dem neuen Design waren. Sie empfanden die neue Website unübersichtlich und hatten teilweise Probleme Werbung und redaktionelle Inhalte zu unterscheiden. Man kann davon ausgehen, dass sich diese Unzufriedenheit auch in schlechter werdenden Nutzersignalen äußerte, die von Google gemessen werden können (z.B. CTR in den SERPs, Return-to-SERP-Rate usw.).

 Entsprechend bildete sich ab dem 16.01.2012 ein deutlicher Abwärtskanal im Sichtbarkeitsindex.

Abwärtskanal giga.de

Nach dem Relaunch 2012 bewegte sich der Sichtbarkeitsindex von giga.de in einem deutlichen Abwärtskanal zwischen der oberen Trendlinie und der unteren Kanallinie.

Der Zugewinn durch die Integration von macnews.de war schnell aufgebraucht und der Sichtbarkeitsindex fiel auf Werte aus der Zeit vor der Übernahme durch Econa. Dieser „langsame Tod“ ist häufig bei Websites zu beobachten, bei denen die Nutzersignale (z.B. durch zu starke Integration von Werbung, schlechte Usability, oder Content mit geringem Mehrwert) nicht mehr wettbewerbsfähig sind. Typisch für so eine Entwicklung sind auch stärkere Reaktionen der Sichtbarkeitskurve auf Panda-Updates von Google an die Grenzen des Trendkanals.

C) Relaunch giga.de April 2013 (Ereignis-Pin C)

Econa hat aus seinen Fehlern gelernt und bei einem erneuten Relaunch von giga.de im April 2013 (Ereignis-Pin C) sehr viele Dinge richtig gemacht. Die Sichtbarkeit bei Google befindet sich seither in einem steilen Aufwärtskanal.

Aufwärtskanal giga.de

Mit dem Relaunch 2013 hat giga.de die obere Begrenzung des Abwärtskanals durchbrochen. Der Sichtbarkeitsindex bewegt sich seit diesem Zeitpunkt in einem steilen Aufwärtskanal.

Einen interessanten Einblick liefert das Interview mit dem Leiter der Apple-Redaktion Sven Kaulfuss:

„Wir haben unsere Leser erhört. Sie waren mit dem Relaunch 2012 nicht zufrieden und haben das deutlich zum Ausdruck gebracht – entweder in den Kommentaren oder indem sie der Website ganz fern geblieben sind. Diese Kritik haben wir uns zu Herzen genommen und deshalb in den letzten Monaten an einem weiteren Relaunch gearbeitet.“

Der Relaunch hat aber nicht nur die Leser erhört, sondern auch dem Googlebot das Leben einfacher gemacht. Auf giga.de kommen viele zeitgemäße SEO-Techniken zum Einsatz, von denen ich fünf ausgesuchte Punkte gerne beleuchten möchte.

1) Den Nutzer in den Mittelpunkt stellen

Das Zitat von Sven Kaulfuss beschreibt bereit einer der wichtigsten SEO-Maßnahmen von giga.de, die Ausrichtung der Website auf die Bedürfnisse der Nutzer. In den letzten Jahren ist Google immer besser darin geworden Qualitätsfilter zu entwickeln, die Treffer mit schlechten Nutzersignalen aus den vorderen Suchergebnissen ausfiltern. Die Panda-Updates sind sicherlich die bekanntesten dieser Filter, aber auch die Google Page Layout Algorithm Updates un weitere unkommunizierte Verbesserungen der Google-Algorithmen und Filter kann man hinzuzählen.

Langfristig halten sich Treffer trotz bester Optimierung nicht in den Top-10, wenn die von Google gemessenen Qualitäts- und Nutzersignale gegenüber den anderen Treffern nicht wettbewerbsfähige Kennzahlen abliefern. Schließlich möchte Google seine Nutzer besmöglich zufriedenstellen, um die führende Suchmaschine zu bleiben.

Die klassischen Rankingfaktoren sind anfällig für SEO-Manipulationen. Zusätzliche Qualitätsfilter sind die logische Konsequenz. Den Bedürfnisse des Nutzers zu erkennen und eine zufriedenstellende Antwort zu liefern hat das SEO-Betätigungsfeld erweitert und wird endlich auch von Google belohnt.

2) Strukturierung der Inhalte mit Themenseiten


Gerade im Newsbereich und bei Blogs besteht immer das Problem, dass man eine Vielzahl von Artikeln bzw. URLs zu einem bestimmten Keyword besitzt, die sich inhaltlich überschneiden und gegenseitig ergänzen. Weder der Websitebetreiber noch Google könnten eine vernünftige Antwort geben, welcher dieser Seiten für das Keyword am besten oben stehen sollte. Jeder Artikel beleuchtet das Thema mit seinen eigenen Detailinformationen und hat seine Berechtigung.

Die Lösung sind hier Themenseiten, welche diese Artikel in einer Übersicht bündeln. Auf diese Weise läßt sich eine unstrukturierte Ansammlung von News und Beiträge in eine strukturierte Form bringen, die beständigere Rankings ermöglicht und von Google besser verstanden wird. In dem Beitrag „Themenseiten“ haben wir den Erfolg dieser SEO-Technik näher beleuchtet. 



Bei giga.de wurden die Inhalte nach Kategorien wie z.B. Downloads, Software, Spiele und Unternehmen strukturiert und für jedes Keyword in das passende Verzeichnis eine entsprechende Themenseite erstellt. Eine Analyse der Sichtbarkeitsentwicklung der einzelnen Verzeichnisse von giga.de zeigt den Erfolg dieser Maßnahme seit dem Relaunch 2013.

Entwicklung Sichtbarkeitsindex einzelner Verzeichnisse von giga.de

Entwicklung Sichtbarkeitsindex einzelner Verzeichnisse von giga.de



Auch die Umsetzung der Themenseiten ist bei giga.de überdurchschnittlich gut gelungen. Sie stellen oft nicht nur einer interne Suchergebnisseite dar, was Google als unerwünschte „SERPs-in-SERPs“ (Suchergebnis-Seiten als Treffer in den Suchergebnissen von Google) werten könnte. Vielmehr bieten sie oft eine echte Übersicht zum Thema mit Mehrwert für den Nutzer. So findet man z.B. auf der Seite zum iPhone 5s eine sehr ausführliche Beschreibung des Produktes, Fakten zum Produkt, Links zu den meistdiskutierten Artikeln, Tests, Tipps, ähnlichen Produkten usw.

Diese Seiten heben sich angenehm von den vollautomatisierten Themenseiten anderer Websites ab. Man merkt, dass man sich hier ein paar Gedanken über die Inhalte gemacht hat, was die Nutzer interessieren könnte, um sie tiefer in die Website zu ziehen und weitere Klicks zu erzeugen. Offensichtlich war man auch bereit darin etwas Arbeit zu investieren. Für den Suchbegriff „iPhone 5s“ steht giga.de mit seiner Themenseite übrigens derzeit auf einem guten Platz 5 bei Google (Rankingentwicklung anzeigen).

3) Intensive interne Verlinkung


Die Themenseiten müssen mit Links versorgt werden. Während man bei externen Keyword-Links schnell in einen Google-Filter geraten kann, hilft man mit internen Keyword-Links Google die Inhalte der Website besser zu verstehen. Davon macht giga.de ausreichend Gebraucht. Konsequent wird aus dem Content heraus jedes Keyword auf die passende Themenseite verlinkt, wenn es erstmalig auf einer Seite im Text erscheint. Häufig sind die Keywords auch schon im Anreißer eines Artikels verlinkt, so dass die Links bereits auf den Übersichtsseiten wirken.

 Der folgende Screenshot zeigt als Beispiel drei interne Keywordlinks am Angang des heutigen Artikels über Google+ Custom URLs.

Interne Verlinkung giga.de

Diese Technik erinnert insgesamt ein wenig an die interne Verlinkung bei Wikipedia und der SEO-Erfolg des Lexikons sollte jedem bekannt sein. Auch wenn Wikipedia diese Form der internen Verlinkung wahrscheinlich nicht aus SEO-Gründen umgesetzt hat, sondern weil sie ebenfalls für die Nutzer sehr praktisch ist und gerne angenommen wird. Diese sehr mächtige SEO-Technik haben wir in dem Beitrag „Interne Verlinkung optimieren“ für eine tiefere Auseinandersetzung mit dem Thema ausführlich behandelt.


4) HTML-Sitemap



Screenshot HTML-Sitemap mit beliebten Themen bei giga.de

Screenshot HTML-Sitemap mit beliebten Themen bei giga.de

Neben der unter Punkt 3) beschriebenen internen Verlinkung macht es eine Art HTML-Sitemap dem Googlebot sehr einfach, wirklich alle gewünschten Seiten schnell zu finden, deren Bedeutung und Inhalt anhand des verwendeten Linktextes zu verstehen und Linkjuice zu verteilen.



Im Header und Footer wird sehr intensiv auf beliebte Themen verlinkt und die Keywordlisten zu den einzelnen Themenseiten sind über eine A-Z-Liste mit Hunderten von Seiten leicht crawlbar.

Darüber hinaus gibt es weitere Übersichts- und Verteilerseiten, welche die Inhalte über verschiedene Kategorisierungen schnell zugänglich machen. Auf diese Weise kann sichergestellt werden, das auch wirklich alle gewünschten Seiten gezielt indexiert und mit einem Mindestmaß an PageRank versorgt werden.

Im Vergleich zu XML-Sitemaps bieten HTML-Sitemaps den großen Vorteil, dass sie (interne) Backlinks und damit Rankingsignale erzeugen. Die Seiten sollen schließlich nicht nur indexiert werden, sondern auch gute Positionen bei Google erreichen.

SISTRIX Optimizer giga.de

SISTRIX Optimizer giga.de

Für diesen Blogpost haben wir gestern im SISTRIX Optimizer für giga.de ein neues Projekt angelegt und bis heute hat er dort 47.432 Seiten gecrawlt.

Die Analyse bestätigt die Vermutung, dass die „Durchblutung“ durch interne Links bei giga.de sehr gut ist. So zeigt z.B. die Analyse der Klick-Ebenen, dass über 14.000 Seiten mit maximal 2 Klicks von der Startseite aus erreichbar sind. Das ist ein sehr guter Wert.

Die Analyse der internen Linktexte ergibt, dass auf den untersuchten Seiten beispielsweise 17.567 Links den Anchor-Text „iPhone 5s“ verwenden. Eine dermaßen intensive Verlinkung wie in den Punktn 3) und 4) beschrieben liefert Google natürlich wesentlich stärkere Signale als nur 1–2 Links von einer übergeordneten Seite, wie man es bei vielen anderen Websites häufig beobachtet.

Die folgende Tabelle zeigt einige Beispiele der am häufigsten verwendeten internen Linktexte bei giga.de mit der Anzahl gefundener Links.

Interne Linktexte giga.de

SISTRIX Optimizer: Beispiele Analyse der am häufigsten verwendeten internen Linktexte bei giga.de



5) Keyword-Recherche

Es werden nicht nur die sicherlich schwierigen Hauptkeywords wie z.B. „Google Chrome“ angegangen. Zu vielen Keywords gibt es Themenseiten, die z.B. noch einmal unterteilt werden in Tests, News, Artikel und Tipps und auf Detailseiten verlinken, die dann im Longtail ganz unterschiedliche Keywordkombinationen und verwandte Suchanfragen bedienen. Man merkt, dass hier viel Arbeit in die Keyword-Recherche geflossen ist.

6) Gezielte Indexierung

Ein Gärtner beschneidet Pflanzen, damit die ganze Energie in ausgesuchten Triebe fließt und diese besonders gut gedeihen, um so den Ertrag der Pflanze zu maximieren. Weniger ist hier oft mehr. Ähnlich sollte man bei den indexierten Seiten vorgehen und die Website regelmäßig auf das richtige Maß stutzen. Die Rankings der verbleibenden indexierten Seiten werden es einem danken. Man vermeidet damit nicht nur internen Duplicate Content, sondern kann auch verhindern, dass Inhalte mit weniger wertvollen Inhalten die Gesamtbewertung der Domain mit unterdurchschnittlich guten Signalen herunterziehen.

Seit dem Relaunch im April 2013 hat giga.de die Anzahl indexierter Seiten von rund 3 Mio. auf unter 1 Mio. heruntergefahren. Ein zwischenzeitlicher Anstieg der Anzahl indexierter Seiten im Zeitraum Juli bis August 2013 brachte den steilen Aufwärtstrend prompt ins Stottern. Erst als die Anzahl Seiten wieder unter 1 Mio. gesunken war, setzte der Aufwärtstrend wieder ein.

Anzahl indexierter Seiten giga.de

Anzahl indexierter Seiten giga.de im Zeitablauf

Die Kontrolle der indexierten Seiten gehört bei vielen Websites zu einem der am stärksten vernachlässigten Faktoren. Auch wenn die Werte nur eine grobe Schätzung von Google sind, sollte man sie ganz genau im Auge behalten und ungewöhnlichen Entwicklungen auf den Grund gehen. Weniger wertvolle Inhalte sollten durch NoIndex-Attribute gezielt deindexiert werden, um das Crawling- und Indexierungs-Budget seitens Google optimal einzusetzen und keine negativen Signale zu senden.

Bei giga.de hat man offenbar ein Auge darauf. So werden z.B. Verteilseiten wie diese, diese, oder diese richtigerweise von der Indexierung ausgeschlossen.

Fazit

Die erfolgreiche Entwicklung von giga.de zeigt sehr deutlich wie wertvoll gute Inhalte erst in Verbindung mit einer durchdachten Informationsarchitektur und einer nutzerfreundlichen Gestaltung der Website werden. In seiner täglichen SEO-Arbeit sollte man sich nicht zu sehr davon ablenken jeder kleine Husten von Matt Cuts stundenlang zu interpretieren und jedem der über 200 Rankingfaktoren die gleiche Aufmerksamkeit zu schenken.

Wesentlich fruchtbarer ist es viel Zeit mit der ordentlichen Pflege der Basics, einer durchdachten Informationsarchitektur und der Befriedigung der Nutzerbedürfnisse zu verbringen. Die Entwicklung von giga.de seit dem Relaunch im April 2013 veranschaulicht sehr beeindruckend, was für große Potentiale in vielen Websites schlummern, wenn man die richtigen und großen Hebel bedient.

[Update 30.10.2013 14.40 Uhr]
Ich habe gerade bei Skype die Info bekommen, auch winload.de zu Econa gehört und Mitte 2013 mit giga.de fusioniert wurde (siehe auch Wikipedia). Diese Übernahme ist natürlich ein wichtiger Faktor für den Aufwärtstrend nach dem Relaunch, der hier nicht unerwähnt bleiben soll. Die Domain winload.de hat im Zuge mehrerer Panda-Updates in den vergangenen Jahren viel Sichtbarkeit verloren. Es bleibt abzuwarten, ob diese Panda-Filter in Zukunft, wenn Google genug Daten gesammelt hat, auch bei den übertragenen Inhalten auf giga.de aktiv werden.

Integration winload.de

Integration winload.de

Dieser Beitrag hat 42 Kommentare

 
  30. Oktober 2013, 14:16

Wie sehr wirken sich eigentlich Schreibfehler im Content auf Suchbegriffe aus? (vlg.: PagRank 🙂 )
Vielen Dank für diesen Artikel – wird weiter verteilt!

 
Mike
  30. Oktober 2013, 14:42

Hallo Hanns,

kannst du bitte noch etwas mehr ins technische Detail gehen?
1) Übernahme von macnews und Co.
Wurde der Content von macnews auf giga.de übernommen und wenn ja, wurden die Seiten dann möglichst 1:1 auf die neue URL weitergeleitet?
2) Reduzierung der indizierten Seiten
Wie ist giga.de denn auf die schnelle 2 Millionen Seiten entfernt?
Durch massiven Einsatz von noindex und canonical oder wurden komplette Bereiche entfernt?
Und falls es bestimmte Bereiche nicht mehr gibt, wurden diese dann per 301 irgendwohin weitergeleitet oder wird dann dort 404 ausgegeben?

Wäre schön, wenn du dazu noch ein paar Infos bereitstellen kannst.

Gruß Mike

 
Hanns Kronenberg
  30. Oktober 2013, 14:50

@Mike:
1) So weit ich das verfolgt habe, wurde die Inhalte von macnews.de zuerst 1:1 auf eine Subdomain von giga.de weitergeleitet und erst mit dem Relaunch 2012 richtig in die Seite integriert.

2) 2 Mio. Seiten mit NoIndex zu entfernen ist nun wirklich kein Problem. Es dauert nur ein paar Wochen bis Google die Seiten wieder neu gecrawlt hat und die Anweisung findet. Für nähere Details müßte man in den alten Rankings wühlen und schauen, was der Server beim Aufruf der URLs heute antwortet oder mit giga.de sprechen 😉

 
Flo
  30. Oktober 2013, 16:14

Sehr schöner Artikel! Sehr lesenswert.

Wie sieht es denn mit den neuen Themenseiten bei giga.de aus? Handelt es sich hierbei nicht um Duplicate Content?

http://www.giga.de/smartphones/iphone-5

 
  30. Oktober 2013, 16:21

Neben macnews.de und winload.de wurden zwischenzeitlich auch die Domains androidnews.de, benm.at und macload.de auf giga.de umgezogen.

 
Hanns Kronenberg
  30. Oktober 2013, 16:44

@Frank:
Danke für die Info. Ich habe mir die Domains gerade angeschaut, die sind anscheinend alle 2011 umgezogen und hatten relativ wenig Sichtbarkeit. Hier die passende Auswertung dazu: http://next.sistrix.de/sl/8T6qW5Sq

 
Hanns Kronenberg
  30. Oktober 2013, 17:02

@Flo: Warum soll das DC sein? Du meinst http://www.giga.de/smartphones/iphone-5 ist DC zu http://www.giga.de/smartphones/iphone-5s/ ? Die beiden Suchphrasen „iPhone 5“ und „iPhone 5s“ sind ja durchaus unterschiedlich und es handelt sich auch in der Offline-Welt um unterschiedliche Produkte. Davon abgesehen will ich aber nicht ausschließen, dass es DC auf giga.de gibt und man findet auch noch einige Verbesserungmöglichkeiten. Der Optimizer hat alleine 65.694 Tipps hervorgebracht: http://www.sistrix.de/wp-content/uploads/2013/10/SISTRIX-Optimizer-giga.png

 
Flo
  30. Oktober 2013, 17:10

@Hanns: Danke für Deine Antwort! Ich meinte eher die Artikel, die auf der Seite http://www.giga.de/smartphones/iphone-5 angezeigt werden.

Artikel auf der Themenseite: http://www.giga.de/smartphones/iphone-5/#2243973

„Richtiger Artikel“: http://www.giga.de/deals/iphone-5-16-gb-fur-4900-euro-mit-allnet-flat/

 
  30. Oktober 2013, 19:09

Gut getrickst ist doch eigentlich nur halb gewonnen, oder?

 

[…] […]

 
Jan
  31. Oktober 2013, 09:53

Lesenswert! Im Endeffekt handelt es sich dabei doch um Themenseiten verschiedener Kategorien, wenn ich das richtig verstanden habe? Also Kategorie „iPhone“ bekommt einen informativen Einstiegstext und weiter unten sind alle Artikel, die entsprechend unter „iPhone“ abgelegt wurden, aufgelistet.

 
  31. Oktober 2013, 10:25

Servus! Echt cooler Case – sehr spannend zu lesen.
Was denkst du über deren Themen-Seiten wie http://thema.giga.de/s/a-game-of-thrones/ – > die haben da ja mächtig Ads Above the Fold -> ich würd mich das nicht trauen… mir wär die Gefahr in den Filter zu laufen viel zu groß.

lg Thomas

 
  31. Oktober 2013, 10:27

… und wenn mans ich die Keyword Verteilung ansieht, sieht das auch stark nach einem +10 Filter aus, den die aktuell noch haben. lg

 
Freddy
  31. Oktober 2013, 10:45

Interessant! Und wie kommt man aus diesem +10 Filter?

 
Hanns Kronenberg
  31. Oktober 2013, 11:05

@Thomas Rafelsberger:
http://www.giga.de/filme/a-game-of-thrones/ ist sicherlich die bessere Seite

 
Alexander Richter
  31. Oktober 2013, 11:52

Hi Hanns, echt schöne Case-Study.

Eine Frage stellt sich mir nur gerade. Wie meinst Du, kann sich die DeIndexierung von 2 Mio. Seiten positiv auf´s Crawler-Budget auswirken? Crawlen muss Google die Seiten doch trotzdem. Ich sehe das mittel- bis langfristig eher problematisch. Wenn ich eine Zeitung aufschlüge und auf jeder zweiten Seite stünde: „Sorry, die Seite brauchste nicht zu lesen, wir haben die nur beigelegt, damit die Zeitung dicker aussieht.“ würde ich die Zeitung schnell wieder aus der Hand legen und nie wieder kaufen.

Vielleicht hinkt der Vergleich etwas. Aber ich hätte an Googles Stelle auch keinen Bock, meine Ressourcen dafür zu verschwenden, mich ständig durch noindex-Seiten zu hangeln. Ich denke, ein sauberer 410 wäre bei so einer Aufräum-Aktion die bessere Lösung. Würde mich aber interessieren, wie Du das siehst.

LG Alex

 
Hanns Kronenberg
  31. Oktober 2013, 12:12

@Alexander Richter
Es gibt viele Seitentypen, die man den Nutzern durchaus anbieten möchte, die aber wenig Mehrwert für den Google Index haben.

Beispiele:
http://www.zalando.de/herrenschuhe-business-schuhe/_schwarz/?upper_material=Leder
http://branchenbuch.meinestadt.de/wiedenborstel/brkatl/100-95328-96318-96607?area=30

Dafür wäre eine 410 nicht geeignet und NoIndex ist die beste Lösung.

Laut John Mueller (Google), kann die Indexierung von Seiten mit minderwertigem Content die Rankings von Seiten mit hochwertigem Content negativ beeinflussen und das entspricht auch meinen Erfahrungen. 

(Quelle: Deutsche Webmaster Sprechstunden 02.11.2012 ab Minute 07:41: http://youtu.be/fkuwzzoMGHg)

 
Alexander Richter
  31. Oktober 2013, 14:14

Da geb ich Dir absolut recht. In Branchenbüchern und Shops ist das durchaus verständlich. Ich denke nur, dass es für redaktionelle Einzelbeiträge, wie Jahre alte News oder redundanten thin content nicht gilt. Jedenfalls hab ich mich dazu entschlossen, für unsere Seite demnächst die Radikal-Kur durch Löschen dieser Seiten anzustoßen.

Bin aber auch gespannt. 😉

 
Lars
  31. Oktober 2013, 17:32

@Hanns Was Flo wegen des Duplicate Content meint, ist die Auflistung der vollständigen Artikel am unteren Ende einiger Themenseiten (bspw. http://www.giga.de/smartphones/iphone-5/). Mir scheint aber, als würden sie die alten Artikel auch komplett von der Seite nehmen, wenn sie unterhalb der Landingpages eingesetzt werden.

 
Tom
  1. November 2013, 16:22

Hallo Hanns,
ich habe eine Frage zu Deinem Artikel. Bei Punkt 3 zur internen Verlinkung schreibst Du, ein Keyword sollte intern verlinkt werden, „wenn es erstmalig auf einer Seite im Text erscheint“.
Ist dabei wirklich so wichtig, dass es sich um die erstmalige Erscheinung im Text handelt? Wenn ja, warum?

@Lars: Das habe ich mich bzgl des Duplicate Content auch gefragt.

 
  2. November 2013, 13:07

wieviel prozent des aufwärtstrends wird durch die winload integration verursacht? mein tipp: 75%

 
  2. November 2013, 13:45

Hallo Hans,
wie immer sehr lesenwert! Aber warum wurde aus Deiner Sicht die Themen Sitemap auf Subdomain ausgelagert?
http://thema.giga.de/

 
  2. November 2013, 13:46

Sorry mein „Hanns“

 
  2. November 2013, 17:21

Sehr schöne Analyse, Hanns! Bei Sistrix werden doch immer die Hausaufgaben gemacht. 😉

Klar dürfte sein, dass winload.de der wesentliche Erfolgsfaktor war. Was ich etwas vermisst habe, ist ein Hinweis auf Authority. Davon hat das Projekt ja bei all der Konsolidierung mehr als genug im Gepäck. So eine „fette“ Site kann sich einiges erlauben und den Crawler auch mal im Zickzack durch endlose HTML-Sitemaps laufen lassen.

Nimm mal eine kleine Site und wende die intensive interne Verlinkung und das Themenseiten-Paradigma an. Das dürfte doch wohl direkt in den Keller führen, oder? Bleibt abzuwarten, ob der Panda wirklich noch übertragen wird oder ob die gute Redaktionsarbeit es abwendet. Mach‘ doch mal wieder ein Wettspiel draus 🙂

Grüße Tobias

 
Marcel
  3. November 2013, 13:12

Gute Fallstudie. Eine Frage zur Verlinkung: besteht bei der Anzahl an Links mit gleichem Anchor Text nicht die Gefahr einer Überoptimierung?

 
  4. November 2013, 09:22

[…] Was man vom Relaunch von GIGA lernen kann – Es gibt unzählige Beispiele für einen aus SEO-Sicht schlecht durchgeführten Relaunch. Um so schöner ist es, dass es mit der Seite giga.de ein Beispiel für einen bislang sehr erfolgreichen Relaunch gibt. Weiter… […]

 
Hanns Kronenberg
  4. November 2013, 09:28

@Tom:
„Wenn es erstmalig auf einer Seite im Text erschein“ hat den Vorteil, dass es der Nutzer gut nachvollziehen kann (kennt man von Wikipedia) und der Link wahrscheinlich mehr Gewicht bekommt (siehe http://www.seobythesea.com/2010/05/googles-reasonable-surfer-how-the-value-of-a-link-may-differ-based-upon-link-and-document-features-and-user-data/).

@Andy Lenz:
Da bin ich bei Dir, Winload hatte sicherlich den größten Effekt.

@Christian Paavo Spieker:
Keine Ahnung, welcher Gedanke dahinter steckt.

@Marcel:
Mir ist nicht bekannt, dass eine Website mal wegen der internen Verlinkung in einen Filter geraten ist. Wäre auch komisch, wenn Google ein Problem damit hätte, dass man intern eine Zielseite immer mit dem gleichen Linktext verlinkt.

 
  4. November 2013, 12:51

Wirklich cooles Beispiel für die gelungene Nutzung Tag-Seiten. Gerade bei einigen WordPress-Bloggern ist ja die Indexierung von Tag-Seiten als katastrophal verschrien.
Aber wenn ich mich an die Regeln halte (Nur Snippets der Artikel anzeigen, Tag-Beschreibungenstexte im Template einplanen und keine allzu standardisierten Meta-Daten verwenden, intern verlinken), kann ich mir echt den Ärger sparen, dass sich meine neuen Artikel zu einem Keyword jede Woche mit dem Kampf in den Top10 abwechseln.

Gut geschrieben.

 
  4. November 2013, 16:53

Hey, guter Artikel! Wirklich interessant zu sehen, was möglich ist. Allerdings schiebe ich auch viel auf Winload, denke dass der Zuwachs dadurch schon sehr stark ist.
Danke für die Analyse.

 
  5. November 2013, 07:27

Danke für die gute Recherche – wird natürlich geteilt !

 
  11. November 2013, 13:37

Hallo Hanns, ein sehr ausführlicher Artikel, den man so auch gut Kunden gegenüber verwenden kann. Wiki würde ich aber nicht als SEO-Best-Practice bewerten – die Seite hat einfach trust ohne Ende!

 
  13. November 2013, 22:26

[…] 6 Punkte, die ein SEO vom erfolgreichen Relaunch von giga.de lernen kann – Für mich der wichtigste Punkt: “Den Nutzer in den Mittelpunkt stellen” – machen immer noch viel zu wenige. […]

 

[…] hat Hanns Kronenberg in seinem Sistrix Blog vor 14 Tagen geschrieben. Hier berichtet er über den erfolgreichen Relaunch des Internetportals giga.de und wie diese es schafften ihren Sichtbarkeitsindex zu […]

 
  14. November 2013, 17:03

Wenn man die Charts aller übernommenen Portale (ja, da sind noch mehr) übereinander stapelt, wird schnell klar, dass das alles andere als eine Erfolgsstory ist.

Ich hatte damals schon darüber gebloggt und das Konzept hinterfragt. Die treuen Leser sind damals regelrecht „Amok“ gelaufen in den Kommentaren. Ohne, dass seitens der Betreiber angemessen darauf reagiert wurde.

Wenn man sein Stammpublikum vergrault, hilft auch keine Onpage-Optimierung. Jedenfalls nicht dauerhaft und nachhaltig. Die dadurch schlechteren Signale werden das Portal imho wieder einholen.

 
Michael
  18. November 2013, 10:52

Sehr interessanter Artikel!

Was hat es allerdings mit den Themenseiten auf sich bzw. was ist da jetzt so neu/unterschiedlich zu ganz normalen Kategorienseiten wie zb bei WordPress?

 
  8. Dezember 2013, 10:44

Sehr gut…. schon fast ein SEO Tipps Beitrag.

 
  8. Dezember 2013, 22:28

Die Geschichte mit den Themenseiten sollte man sich wahrscheinlich einmal genauer ansehen, ist ja nicht nur für SEO sondern auch für die User gut!

 
  3. Januar 2014, 14:25

[…] winload.de für den Anstieg verantwortlich sein. Wir haben die Fallstudie ausführlich im Oktober in diesem Artikel […]

 
  20. Februar 2014, 10:13

Wirklich spannender Bericht – und gut zu lesen!

 
  20. März 2014, 13:09

Toller Artikel mit interessanten Fakten. Schön zu sehen, dass gut strukturierte Userfreundlichkeit belohnt wird.

 
  17. Juli 2014, 11:18

Hi Hanns,

bin leider eben erst über diesen Artikel gestolpert, hat sich aber definitiv gelohnt 😉

ich möchte dennoch noch einmal die Frage von Flo (30. Oktober) aufgreifen, da ich mich auch gerade gefragt habe, wie die Jungs bei GIGA Duplicate Content vermeiden: Die ganzen Artikel, die auf den Themenseiten unter „Alle Artikel zu …“ gelistet sind, tauchen doch bestimmt alle noch einmal als einzelne Beiträge irgendwo im Blog oder so auf …

Beispiel von Flo:

a) Artikel auf der Themenseite: http://www.giga.de/smartphones/iphone-5/#2243973
b) „Richtiger Artikel“: http://www.giga.de/deals/iphone-5-16-gb-fur-4900-euro-mit-allnet-flat/

 
  30. Juli 2014, 07:28

Wiki würde ich aber nicht als SEO-Best-Practice bewerten – die Seite hat einfach trust ohne Ende!

 

Kommentare geschlossen

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.