Suchmaschinenoptimierung
Technische Mängel einer Website sind Erfolgsverhinderer. Der SISTRIX Optimizer erkennt die Schwachpunkte in der Onpage-Optimierung und liefert Lösungsvorschläge. Sortiert nach Wichtigkeit, für schnelle Erfolge.
Der Webseitencrawler des SISTRIX Optimizer überprüft deine Seiten regelmäßig und automatisch auf vermeidbare Fehler. Verständlich erklärt zeigen wir dir, wie du diese Schwachpunkte beheben kannst.
Das Internet ist dynamisch: die meisten modernen Webseiten setzen auf JavaScript. Der Crawler des SISTRIX Optimizer basiert daher auf der gleichen Technologie wie der offizielle Googlebot – für den besten Onpage-Audit.
Zusammen schneller zum Ziel: in deine Projekte kannst du Kollegen aber auch Kunden einladen. So seid ihr alle immer auf dem gleichem Stand und könnt euer Ziel gemeinsam erreichen.
Niemand wartet darauf, dass deine Webseite fertig geladen ist. Mit der gleichen Technologie, die auch Google nutzt, messen wir regelmäßig die Performance deiner Seite und zeigen dir Schwachstellen auf.
Hat der Praktikant etwa gerade alle mühsam optimierten Webseiten-Titel gelöscht? Die Qualitätssicherung im Optimizer zeigt dir relevante Änderungen an deiner Seite auf einen Blick.
Nicht erreichbare Webseiten sind nicht nur für deine Besucher ein Problem – auch Google entfernt sie nach kurzer Wartezeit aus den Suchergebnissen. Der Optimizer überwacht die Erreichbarkeit jede Minute und warnt dich rechtzeitig.
Beginne noch heute, mit SISTRIX deine Rankings zu verbessern.
Wie lösche ich ein Projekt im Optimizer? Um ein Optimizer-Projekt löschen, klicke bitte auf "Projekt-Einstellungen" oben rechts in deinem Projekt und wähle im Anschluss den Reiter "Projekt" aus.
Dein Optimizer-Projekt kann dort jederzeit nach seiner Erstellung über den "Projekt löschen" Button gelöscht werden. Bitte beachte: Eine spätere Wiederherstellung des Projektes ist nach dem Löschen nicht mehr möglich. Projekte können vom Hauptnutzer des Accounts gelöscht werden. Bei Profilen wird der "Löschen" Button nicht angezeigt. |
Wie geht der Optimizer Crawler mit NOINDEX und NOFOLLOW um? Der Optimizer Crawler ist so angelegt, dass er den Googlebot so gut wie möglich beim Crawlen der Seite nachahmt, um euch alle möglichen Probleme aufzuzeigen. Bei er Frage wie wir mit den Angaben NOINDEX und NOFOLLOW auf Webseiten umgehen müssen wir zwischen den beiden Einstellungen unterscheiden: NOINDEXDurch das Setzten des Meta Robots Tags auf NOINDEX im Header der Seite -<meta name="robots" content="noindex"> - wird Google darum gebeten die gecrawlte Seite nicht in den Suchindex aufzunehmen. Damit Google den Tag sehen und auswerten kann, muss die Seite jedoch erst gecrawlt werden. Genau dies tun wir auch im Optimizer. Seiten mit NOINDEX im Header werden regulär gecrawlt und dann bei allen weiteren Auswertungen im Optimizer ignoriert. Wir zeigen euch alle Seiten mit NOINDEX im Hinweis "Nicht indexierbare Inhalte" an. Ihr könnt dann prüfen, ob das auch wirklich so gewünscht ist. Seiten die auf NOINDEX stehen werden von Google nicht in den Index übernommen und können damit auch nicht für das Ranking in Betracht gezogen werden. ![]() NOFOLLOWBei der NOFOLLOW Anweisung handelt es sich um einen Hinweis an Google, dass einem einzelnen Link - wenn das Attribut rel="nofollow" im <a >-Tag des Links genutzt wird - oder allen Links einer Seite - wenn im Header der Seite<meta name="robots" content="nofollow"> steht - nicht gefolgt und damit auch kein Vertrauen darüber vererbt werden soll. Im Optimizer haben wir uns dazu entschlossen, Links mit NOFOLLOW zu crawlen und auszuwerten. Das hat zum einen damit zu tun, dass häufig Seiten, deren Links intern auf "nofollow" stehen, trotzdem von Google gecrawlt werden. Das liegt dann meistens daran, dass diese Seiten Links von aussen bekommen oder es intern doch einzelne Links gibt die nicht mit NOFOLLOW getaggt wurden. Zum anderen gibt es leider viele CMS Plugins die es Webmastern einfach macht, ungewollt Links auf NOFOLLOW zu stellen. Wir möchten die Webseite umfänglich crawlen und euch auf so viele mögliche Fallstricke hinweisen wie es uns möglich ist. Aus diesem Grund folgen wir internen Links die auf NOFOLLOW stehen und analysieren die dahinterliegende Seite, als ob sie regulär verlinkt worden wäre. Wir zeigen euch zudem die Warnung "Viele Nofollow Links", wenn wir zu viele interne NOFOLLOW Links finden. Es gibt keinerlei Vorteile interne Links auf NOFOLLOW zu setzen. ![]() |
Wie heißt der Optimizer-Crawler? Der Crawler für die Erfassung deiner Homepage im Optimizer nutzt standardmäßig folgenden User-Agent: Mozilla/5.0 (compatible; Optimizer; http://crawler.sistrix.net/) Du kannst den User-Agent in den Einstellungen deines Projektes unter "Onpage-Crawler: Experteneinstellungen" nach deinen Wünschen und Erfordernissen anpassen. Ab dem nächsten Crawl-Durchlauf nutzen wir fortan den von dir eingegeben User-Agent. ![]() |
Wo kann ich im Optimizer den Crawl manuell neu anstoßen? Du kannst im jeweiligen Projekt, oben in der blauen Navigationsleiste, auf das Onpage tab klicken um auf die Projekt-Onpage Information zu gelangen. ![]() Dort findet sich der grüne "Crawler neu starten" Button, über den man den Crawl manuell neu anstoßen kann. |
Kann der Optimizer auch Subdomains oder Verzeichnisse crawlen? Ja, der SISTRIX Optimizer kann nicht nur vollständige Domains mit allen Subdomains (Hostnamen) und Unterverzeichnissen crawlen, sondern auch einzelne Bestandteile. So kann bei der Projekterstellung angegeben werden, ob die Domain (*.sistrix.de/*), eine Subdomain (www.sistrix.de/*) oder ein Verzeichnis (www.sistrix.de/news/*) gecrawled und ausgewertet werden soll. Die Auswahl kann in den Projekt-Einstellungen (Einstellungen -> Projekt) geändert werden. Beachte dabei aber bitte, dass die zuvor erfassten Daten damit häufig nicht mehr für einen Vergleich mit dem aktuellen Crawl herangezogen werden sollten. |
Wie häufig läuft der Optimizer-Crawler? Der Crawler des Optimizers wird automatisch einmal pro Woche gestartet. Wenn seit dem letzten Durchlauf sieben Tage vergangen sind, startet das System den Crawler automatisch. ![]() Zusätzlich ist es möglich, den Crawler manuell neu zu starten. Unter dem Navigationspunkt „Onpage“ befindet sich dazu ein entsprechender Button. Diese zusätzlichen Crawls sind selbstverständlich kostenlos und wirken sich nicht auf die automatischen Crawldurchläufe aus. ![]() Es ist auch möglich, den Crawler anzuhalten. Gehe hierzu bitte in die "Einstellungen" des Projekts und auf "Crawler". Dort kannst Du die Crawler Option von "Aktiv" auf "Angehalten" stellen. Das ganze lässt sich natürlich jederzeit wieder Rückgangig machen. |
Kann ich einen täglichen Projekt-Sichtbarkeitsindex erstellen? Ja, im Optimizer kann der eigene Projektsichtbarkeitsindex, der auf Basis der im Projekt hinterlegten Keywords berechnet wird, täglich aktualisiert werden. Dafür muss mindestens ein Keyword des Projekts täglich gecrawled werden. In den Projekt-Einstellungen (Einstellungen -> Projekt) kann diese Option dann aktiviert werden. Wichtig: das tägliche Keywordmonitoring muss mindestens 7 Tage bestehen, bevor diese Option angezeigt wird. |
Wieso greift der Optimizer-Crawler jede Minute auf meine Seite zu? Eine Funktion des SISTRIX Optimizers ist eine regelmäßige Überprüfung der Erreichbarkeit Deines Projektes. Dafür rufen wir die Startseite einmal pro Minute auf, um sicherzugehen, dass die Erreichbarkeit durchgehend korrekt gemessen wird. Diese Zugriffe finden mit diesem Useragent statt: 'Mozilla/5.0 (compatible; SISTRIX Optimizer; Uptime; +https://www.sistrix.com/faq/uptime)' In den Projekt-Einstellungen (Projekt-Management > Crawler) kannst Du diese minütliche Überprüfung für jedes Projekt getrennt abschalten. Entferne dafür den Haken bei „Minütliche Erreichbarkeitschecks“ am Ende der Seite. |
Wie funktionieren die Tags im Optimizer? Mit Hilfe der Tags kannst Du Keywords sortieren und ordnen. Tags funktionieren dabei wie flexible Ordner: Du kannst einem Keyword beliebig viele Tags zuordnen und die Auswertungen im Optimizer anschließend auf Basis dieser Tag-Sammlungen vornehmen. Für alle Tags werden zusätzlich Tag-Sichtbarkeitswerte erstellt. Die Anzahl der möglichen Tags je Projekt richtet sich nach der Anzahl der Keywords in diesem Projekt. Die Staffelung ist wie folgt: 1 bis 100 Keywords: 25 Tags
101 bis 500 Keywords: 50 Tags
501 bis 1.000 Keywords: 100 Tags
Mehr als 1.000 Keywords: 200 Tags |