SEO-Tool: Starke Unterseiten finden

Johannes Beus
Johannes Beus
28. Mai 2010
Johannes Beus
Johannes Beus
Johannes Beus ist Gründer und Geschäftsführer von SISTRIX.

Frisch aus dem SISTRIX Labor möchte ich euch ein kleines Tool vorstellen und gleichzeitig um Feedback bitten. Das Tool soll die 25 stärksten Unterseiten einer Domain ermitteln. Dazu schaut es sich die Backlinks einer Domain mit der jeweiligen, konkreten Ziel-URL an und wertet sie nach Anzahl und Qualität aus. Das Ergebnis wird dann nach Stärke der URLs sortiert ausgegeben.

Recht gut funktioniert das bereits bei großen und mittelgroßen Domains. Bei eher selten verlinkten sind häufig nicht ausreichend Daten vorhanden, um sinnvolle Ergebnisse zu ermitteln. Mögliche Anwendungsfälle für die Auswertung sind vielfältig: so kann man beispielsweise nachsehen, von welcher Unterseite man am liebsten einen Link hätte oder Fehler in der (selber gesteuerten) Verlinkung erkennen. Bei seo-united.de zeigen recht viele Links auf „seo-united.de/blog“ – dies ist aber eine 301-Weiterleitung auf „/blog/“. Da man wohl davon ausgehen kann, dass durch die Weiterleitung etwas Linkjuice verloren geht, wäre es für die Zukunft besser, die Links einheitlich auf die korrekte URL zu setzen.

Das Tool ist bis auf weiteres kostenlos nutzbar, also schaut es euch an, gebt ein paar Domains ein und wenn die Resultate groß von den Erwartungen abweichen, würde ich mich über Feedback (entweder hier in den Kommentaren oder per E-Mail) freuen.

Ähnliche Beiträge
Kommentare
Constantin   
28. Mai 2010, 08:53

Hallo,

witziges Tool mit guten Möglichkeiten! Für die entsprechende Aktion müssen wir dich aber leider abmahmen. Du verstehst das sicher. 😉

Liebe Grüße,
Constantin

Jan-Ole   
28. Mai 2010, 09:30

Da muss ich jetzt auch gleich testen…
Dank Dir!

Seouxindianer   
28. Mai 2010, 09:33

Hi,

läuft schnell durch bei den Seiten mit ca 300 indexierten Pages und liefert auch wirklich die Pages als bevorzugte Ergebnisse aus, die mehr Backlinks haben. Mit dem Grünen Balken stimmen die Listungen jedoch nicht überein, was ich bewertungsfrei anmerken will.

Ausgehende Links der Einzelpages wurden auch oder nicht miteinkalkuliert? (Stichwort: Linkjuice Abgabe intern extern)

merci fürs free tool,
seoux

René   
28. Mai 2010, 09:40

Hättet ja auch eure Domain nehmen können … http://www.sistrix.de/news ist auch nur ein Redirect auf http://www.sistrix.de/news/ *duck.and.hide* 😉

Petra   
28. Mai 2010, 09:54

Hi,
schönes Tool. Danke dafür!

Überlege schon, was man damit alles machen kann 🙂

LG

Gretus   
28. Mai 2010, 09:56

Hallo,

wirklich nützliches Tool, wobei man anmerken muss, dass die von außen (!?) am meisten verlinkte Unterseite nicht gleichzeitig immer auch die z.B. für einen Linktausch beste Unterseite ist.

Wenn ich einen `allgemeinen´ Link von Dir haben wollte, könnte man ergänzend auch unter http://bit.ly/9fe4Q7 , wenn ich einen Link mit LT `SEO´ auch unter http://bit.ly/d3oYmo gucken.

Dennoch aber ein wirkliches sehr gutes Tool, hoffentlich bleibt es kostenlos 🙂

Grüße

Gretus

Loewenherz   
28. Mai 2010, 10:16

Sehr schön, danke Johannes. Ich konnte bei einem Projekt doch glatt noch eine starke Unterseite finden, bei der aufgrund eines Relaunchs samt leider notwendigem URL-Wechsel kein 301er existiert.

Viktor Dite   
28. Mai 2010, 10:25

wie funktioniert das Tool?
bei meiner Domain sind die stärksten Seiten oft 404 ?!?!

sistrix   
28. Mai 2010, 10:30

René, nein das muss ein komplett anderer Fall sein, kann man gar nicht vergleichen! 😉

Viktor Dite, wir schauen uns an, welche URLs deiner Domain besonders häufig und von besonders „wertvollen“ anderen Seiten verlinkt wird. Wenn da jetzt 404-Seiten auf deiner Domain dabei sind, ist es an der Zeit, das zu ändern und die URLs entweder per 301 umzubiegen oder passenden Content unter den URLs zu hinterlegen.

Manolo   
28. Mai 2010, 10:49

Sollte doch eigentlich das selbe sein wie Cempers SSPT ? Ich bekomme aber völlig unterschiedliche Ergebnisse.

seonaut   
28. Mai 2010, 11:35

@manolo Kommt schon auf das Bewertungsmuster an. Aber ohne getestet zu haben sieht es beim Christoph realistischer aus.

sistrix   
28. Mai 2010, 11:44

Manolo, ich kenne den Wert und wie er sich zusammensetzt leider nicht.

seonaut, wie geschrieben, ich würde mich freuen, wenn Du konkret sagen könntest, wo die Werte Deiner Einschäzung nach noch nicht stimmen. So ist es etwas schwer, das zu verbessern …

Stefan   
28. Mai 2010, 11:44

Ich bin etwas irritiert über die Ergebnisse z.B. bei auto-motor-und-sport.de
Dazu eine Anmerkung/Frage: Über welchen Zeitraum werden denn die Links berücksichtigt? Denn gerade bei redaktionellen Portalen ist es (durch den ständigen Themenwechsel) so, dass aufgrund der automatisch gesteuerten Teaserinhalte die Zahl & Qualität der internen Links zu einer Unterseite sehr stark schwanken kann. Bsp: Eine einzelne News kann heute extrem viele und morgen fast keinen internen Link mehr bekommen. Mit Index-/Standardseiten verhält es sich wieder anders. Kannst du das event. herausfiltern, Johannes? Betrachtungszeitraum erweitern?

Jan-Ole   
28. Mai 2010, 11:50

@Stefan
Das scheint mir auch en Stolperstein zu sein. Sobald man Portale oder Magazine betrachtet kommt man ziemlich ins grübeln und die vermeintlich starken Seiten.

sistrix   
28. Mai 2010, 11:53

Stefan, es ist so, dass nur externe, eingehende Links herangezogen werden. Die interne Verlinkung wird aktuell (noch?) gar nicht beachtet. Bei der auto-motor-und-sport.de ist es so, dass zum Beispiel der dritte Treffer (http://redir.ec/EfXN) von einer Menge Spamseiten verlinkt wird: http://redir.ec/3D2J

Ich werde mir mal Gedanken dazu machen, wie man sowas besser ausfiltern kann.

stefan   
28. Mai 2010, 11:59

Johannes, dann hatte ich das zum Teil falsch verstanden. Ich hatte diesen Satz nicht nur auf die externe Verlinkung bezogen:
„oder Fehler in der (selber gesteuerten) Verlinkung erkennen.“

Das wäre nämlich in der Tat „mein“ Anwendungsfall – untersuchen, ob die interne Verlinkung klappt und diese monitoren. Vielleicht kannst du das Tool ja sogar mit drei Ansichten aufsplitten: Ranking nach intern/extern/beide – das würde den Nutzen (für mich) stark steigern 🙂

Sluter   
28. Mai 2010, 12:58

Man kann sehr schön am Ergebnis sehen, das noch Arbeit für das Linkbulding für Unterseiten zu erledigen ist! 😉
Bei so Seiten wie z.B. sistrix.de sieht die Verteilung recht „gesund“ aus. Aber bei so manchen Seiten beginnt die „stärkste“ Unterseite gerade mal mit z.B. 6% – Tendenz fallend – und das ist dann auch noch eine 301 Subdomain… 😉
Was mir auffällt, ist die auseinander gehende Schere von Top-Seiten in der Analyse und diesem Tool. Das bedeutet: eine super aufgerufene Seite (Seitenaufrufe und/oder Einstigsseite) muss nicht gleich die bestverlinkte sein…

benjamin   
28. Mai 2010, 13:47

Ausgehende Links der Einzelpages wurden auch oder nicht miteinkalkuliert? (Stichwort: Linkjuice Abgabe intern extern)

chris   
28. Mai 2010, 14:19

feine Sache. Was mir aber grad noch eingefallen ist: Es wäre hilfreich, wenn man nicht nur Domains, sondern auch in Verzeichnissen nach starken Seiten suchen kann. Gerade bei großen Seiten, die Unterordner für die Sprache nehmen und alle Inhalte technisch auf einer .com liegen ist das Ergebnis extrem verfälscht. War zumin. bei meiner Ex-Firma grad eben der Fall 😉

Justus   
28. Mai 2010, 14:20

Hi,
ich finde die „Ausbeute“ ein bisschen zu gering, d.h. die Anzahl der ausgegebene URLs ist mir zu gering.
Ich hatte mehr Ergebnisse erwartet, wie etwa hier -> http://tinyurl.com/3abhcfk

Cool wäre es wenn man auch Unterverzeihnisse ala sistrix.de/news/ eingeben könnte. Fortführend wäre es auch denkbar die internen Links zu zählen. D.h. hat eine Unterseite A mehr Links als eine andere B, so ist sie für google wichtiger.

Ich hoffe Du kannst meine etwas wirre Erklärung verstehen.

Mirco   
28. Mai 2010, 14:31

Zwar gibt es noch Differenz bei den ermittelten Daten bei Portalen oder Magazinen aber im großen und ganzen finde ich, es ist ein gelungenes Tool geworden. Deswegen Danke dafür. Zu den Wünschen nach mehr Daten und Features kann ich nur sagen einem geschenkten Gaul schaut man nichts ins Maul 😉 Zudem ist es ja auch ein „kleines Tool“.

Mirco

Stephan   
28. Mai 2010, 15:00

Schick wäre es, wenn noch der http-statuscode der Zielseite angegeben würde, also evtl. vorhandene 404, 301, 302 etc. schnell erkennbar wären. Dies nur als kleiner Vorschlag. Danke fürs Tool!

x4d   
28. Mai 2010, 16:27

Heyho,

vielen Dank erstmal für das Tool. Ist eine nette, kleine Spielerei, auch wenn nicht viele Daten (außer die Prozentangaben) zu sehen sind.
Bei manchen von mir getesteten Websites zeigt er jedoch oft Unterseiten zweimal an. Vielleicht könnte man dort noch die Bugs beheben?

Gruß

lois   
28. Mai 2010, 18:23

gut wie berechnet er die %? intern und extern gewichtet?

sistrix   
29. Mai 2010, 09:47

benjamin, doch schon. Die Anzahl von ausgehenden Links auf den Seiten ist schon ein Faktor.

chris & Justus, ich glaube, dass Unterseiten so bald technisch nicht möglich sind, behalte das Thema aber im Hinterkopf. Zu den internen Links: um (bei großen Seiten) auch nur ein halbwegs brauchbares Bild über die interne Verlinkung zu erhalten, müssen sehr, sehr viele Seiten der Domain gecrawled werden. Ich könnte mir vorstellen, dass das dem Seitenbetreiber häufig nicht wirklich passt.

x4d, hm, kann ich mir (rein technisch) gerade nicht vorstellen. Bist Du Dir sicher, dass es keine Fälle sind, wo am Ende ein Slash fehlt, die Endung mal .hml und mal .html ist oder die URL in unterschiedlichen Groß/Klein-Schreibweisen vorkommt?

lois, die stärkste Seite bekommt 100%, die folgenden dann jeweils eine auf die erste Seite bezogen entsprechend niedrigere Prozentzahl.

Thorsten_Eder   
29. Mai 2010, 14:53

Hallo Johannes,
ich finde das Tool 1A – hat mir gleich eine uralte URL geliefert (muss eine zu einem früheren Conrad Shop sein), die massig Backlinks hat und ins Leere läuft.
Danke für über 100 neue Backlinks ;).
Gruss
Thorsten

B.Hellmuth   
31. Mai 2010, 13:37

Moin,
nettes Tool, aber etwas ähnliches gibt es bereits kostenlose von SEOmoz.org unter Toolbox ;o) Euer Tool hat glaub ich noch Probleme. Checkt mal Domains wie tui.de, neckermann.de, Dertour.de ;o)

XAVA   
31. Mai 2010, 14:47

Hallo,
Klasse Tool aufjedenfall, konnten gute Ergebnisse damit erzielen. Optisch noch ausbaubar.
lg Dan

Tom   
1. Juni 2010, 16:23

Vielen Dank für das super Tool!

Stefan Koch   
2. Juni 2010, 17:36

Ich habe das Tool gerade mit einem Projekt, an dem ich mitarbeite, ausprobiert und bin dabei auf eine Verbesserungsmöglichkeit gestoßen. Man sollte noch explizit nach Subdomains suchen lassen oder diese auch ausschließen lassen.
So wird z.B. im Moment jede Subdomain (egal ob „www“ oder „abc“) abgeschnitten und dann werden alle Subdomains einer Domain eingeschlossen. Hier wäre es schöner, wenn man sagen könnte „Gib mir nur http://www.example.com“ oder „nur foo.example.com“ und im besten Fall natürlich auch noch „nur example.com ohne jegliche Subdomain“.

Seitenreport   
4. Juni 2010, 17:08

Bei mir liefert das Tool bereits recht brauchbare Aussagen, die fast durchgängig mit der Wirklichkeit übereinstimmen. Danke!

Der einzige (größere) Fehler, den ich entdecken konnte, war (bei mir), dass die „Unterseite“ seitenreport.de (ohne www.) recht hoch gewichtet wird (was an dieser Stelle nicht richtig ist). Dürfte aber nur ein Schönheitsfehler sein, der recht schnell behoben sein sollte.

Bin gespannt, wie sich das Tool entwickeln wird.

Danke und Grüße, Matthias

Deep_Thought   
5. Juni 2010, 23:12

Tool funzt prima! Danke!! Hoffentlich bleibt die Anwendung weiterhin kostenlos?!
🙂

jannis   
18. Juni 2010, 09:53

He Johannes, tolles Tool, sowas habe ich bisher bei Sistrix noch vermisst. Möchte Chris beipflichten: Eine Beschränkung der Auswertung auf bestimmte Verzeichnisse wäre extrem sinnvoll – und sollte eigentlich auch unkompliziert zu machen sein, oder? Auch die von Stefan vorgeschlagene Aufteilung nach interner Verlinkung/externer Verlinkung/beide fänd ich spannend!

joguesch   
5. Juli 2010, 14:13

Hallo,
das ist ein gutes Tool.
Es ist Interessant damit zu arbeiten.
Danke

dobrock   
20. Juli 2010, 15:46

Gutes Tool, danach suche ich schon eine Zeit.
Eine nette Ergänzung wäre noch die PR Anzeige der jeweiligen Unterseite.

Dominik   
2. Dezember 2010, 17:18

Wenn ich die hinterlegte URL aufrufe, bekomme ich einen 404er…Tool schon wieder eingestellt? 🙁

MarkusKohlmueller   
18. Januar 2011, 18:26

Hi Johannes,

schau mal in die Kommentare – der von Bla 25.06.2010 um 13:23 Uhr sieht komisch aus 🙂
Ich schließe mich der Frage meines Vorredners an: gibts das Tool noch?

Gruß Markus

TripleX   
31. Januar 2011, 16:32

Hallo,

ich suche auch nach dem Tool ist die snun kostenpflichtig weil der Link auf eine 404 Seite verlinkt, und das seit Monaten…schade

Die Kommentarfunktion wird 30 Tage nach der Veröffentlichung des Beitrags deaktiviert.