Crawling

Was ist die noindex Anweisung?

Mit der Noindex-Anweisung im Quelltextes einer spezifischen URL bittet man Suchmaschinen darum, diese Seite nicht in den Suchindex zu übernehmen. Was bedeutet „noindex“ und wann wird es benutzt? Mit der noindex-Anweisung informiert ein Webseitenbetreiber Suchmaschinencrawler darüber, dass eine bestimmte Unterseite einer Webseite nicht in den Index der Suchmaschine aufgenommen werden […]

Was ist der Mobile First Index?

Mit dem Mobile First Index nutzt Google Informationen, die auf der mobilen Version einer Webseite gefunden werden, um die Suchergebnisse zusammenzustellen. Was ist der Mobile First Index Mit dem Mobile First Index trägt Google der „mobilen Revolution” Rechnung und bewertet Suchergebnisse künftig ausschließlich anhand der Informationen, die auf der mobilen […]

Was ist die Breadcrumb-Navigation?

Breadcrumbs zeigen den Besuchern einer Webseite, wo genau sie sich innerhalb der Navigationsstruktur der Webseite befinden und welcher Weg dorthin geführt hat. Wozu ist eine Brotkrumen-Navigation nützlich? Mit der Breadcrumbs-Navigation weiß dein Besucher immer, wo genau er sich innerhalb der Seitenhierarchie befindet. Außerdem hat der Nutzer die Möglichkeit, schnell auf […]

Was sind die Bing Webmaster Tools?

Die Bing Webmaster Tools bieten Webseitenbetreibern Informationen zu ihren Webseiten direkt aus der Bing-Suche an. Der Umfang ist vergleichbar zur Google Search Console. Bings Search Console Microsoft bietet mit den Bing Webmaster Tools einen ähnlichen Dienst wie Google mit der Google Search Console. Die Bing Webmaster Tools bieten dabei die […]

Was ist eine App?

Die Abkürzung App steht für Application, also ein Computerprogramm. Während wir auf dem Desktop gewohnt sind von Programmen zu sprechen, hat sich auf Smartphones die Abkürzung App eingebürgert, unterstützt durch die Namensgebung der Angebote von Apple (App-Store) und Google (Google Play App Store). Apps aus Nutzersicht Apps sind überall. Sie […]

Unsere Seite wurde aus Versehen von der Indexierung ausgeschlossen, sind unsere Rankings damit verloren?

In den meisten Fällen wird die Antwort mit hoher Wahrscheinlichkeit „Nein, eure Rankings sind nicht verloren, wenn…“ lauten. Bei der Beantwortung dieser Frage kommt es jedoch sehr stark auf das „wann wurde die Seite ausgeschlossen?“ an. Wenn eine Seite nicht indexiert werden kann, kann Google diese Seite auch nicht als […]

Welche Suchoperatoren und Sonderzeichen kann ich in der Google Suchleiste nutzen?

Seit Jahren sind wir es gewohnt, von Google mit einer Suchleiste begrüßt zu werden, in die wir unsere Fragen, mit mehr oder wenig großer Genauigkeit und/oder grammatikalischer Korrektheit, eingeben. Da sich hinter diesem, auf den ersten Blick, simplen Eingabefeld ein Schatz an Suchoptionen versteckt, möchten wir die wichtigsten Möglichkeiten in […]

Crawling und Indexierung umfangreicher Webseiten

Sobald Webseiten den typischen Umfang einer privaten Homepage übersteigen, gibt es zahlreiche neue Herausforderungen. Eine davon ist, dass die vorhandenen Inhalte möglichst vollständig und aktuell in den Google-Index gehören. Was sich so einfach anhört, birgt gerade bei sehr großen Webseiten, deren Inhalte aus zahlreichen unterschiedlichen Datenbanken und von verschiedenen Zulieferern […]

Risiko Domainumzug und Rankings bei Google

Eigentlich sollte der Umzug einer Domain auf eine neue Domain relativ schadlos für die Google-Rankings verlaufen, wenn man sich konsequent an die Anweisungen hält. In der Praxis gibt es aber Beispiele, die einen vermuten lassen, dass Domainumzüge ein bedeutsames SEO-Risiko beinhalten. theguardian.com verliert 50 Prozent Sichtbarkeit Am 30. Juli 2013 […]

Wie bringe ich eine neue Seite möglichst schnell in den Google-Index?

Heutzutage ist Google im Auffinden und Indexieren neuer Seiten (URLs) recht flott. Je nach „Bekanntheit“ einer Website geht dieser Prozess mal schneller, mal langsamer von statten. Webmaster, welche die Google Search Console (GSC) nutzen, haben die Möglichkeit diesen Prozess zu beschleunigen und so manuell in den Indexierungsprozess seiner Webseite eingreifen. […]

Kann der Google-Bot Formulare ausfüllen und crawlen?

Generell versucht der Google-Bot Formulare auf einer Seite auszufüllen und abzuschicken, um neue Inhalte und URLs zu ermitteln, die ansonsten nicht direkt auffindbar sind. Dabei entscheidet Google im Einzelfall, ob ein FORM-Element auf einer Seite als nützlich angesehen wird und versucht dann mit einer geringen Anzahl an verschiedenen natürlichen, bzw. […]

Was muss ich bei der Erstellung einer Video-Sitemap beachten?

Eine Video-Sitemap ist die Grundlage, um Google notwendige Informationen über Deine Videoinhalte zur Verfügung zu stellen. Die Video-Sitemap ist eine XML-Datei und enthält die Metadaten, wie z.B. Titel, Beschreibung, Länge und Quelle deiner Videos. Videoinhalte können auf diese Weise schneller vom GoogleBot erkannt und indexiert werden. Google empfiehlt zudem, Videoinhalte […]

Einrichtung einer 301-Weiterleitung von nicht-www auf den www. Domainnamen

Um Probleme bei der Indexierung der eigenen Website durch den Google-Bot zu vermeiden und internen Duplicate Content aufgrund von URL-Kanonisierung (auf englisch „canonicalization“) auszuschließen, sollte auf den bevorzugten Domainnamen mittels einer 301-Weiterleitung verwiesen werden. Siehe hierzu auch: Meine Website ist mit und ohne www. aufrufbar. Ist das schädlich? Einrichtung einer 301-Weiterleitung […]

Meine Website ist mit und ohne www. aufrufbar. Ist das schädlich?

Google empfiehlt zur Vermeidung von internen Duplicate Content Problemen und der besseren Indexierung der Website durch den Google-Bot einen bevorzugten Domainnamen festzulegen. Entscheide also, über welchen Hostnamen Deine Domain bevorzugt aufgerufen werden soll. Ohne www. (http://domain.de/), mit www. Hostnamen (http://www.domain.de/) oder gar unter einem anderen Hostnamen wie z.b. shop. (http://shop.domain.de)? Der bevorzugte Domainname sollte in […]

Wie ziehe ich meine Website am gefahrlosesten auf einen neuen Domainnamen um?

Ein Wechsel des Domainnamen muss keine (langfristigen) negativen SEO-Folgen mit sich bringen. Sofern man den Umzug sorgfältig plant und korrekt durchführt, bleibt einem der gefürchtete Rankingverlust erspart. Um einen Domainwechsel durchzuführen, sollte die Adressänderung der Website Google in der Google Search Console (GSC) mitgeteilt werden und anschließend alle Inhalte der […]

Wenn ich eine XML-Sitemap habe, muss ich dann noch eine HTML-Sitemap bereitstellen?

Es ist durchaus empfehlenswert sowohl eine XML-Sitemap als auch eine HTML-Sitemap bereitzustellen. Eine XML-Sitemap dient als strukturiertes Inhaltsverzeichnis speziell den Suchmaschinen zur Auffindung neuer und auch tiefer verschachtelten Seiten, wobei eine HTML-Sitemap, welche vorrangig den Usern dient und damit der Nutzerfreundlichkeit (Usability) der eigenen Website zu Gute kommt, auch einen […]

Wie wichtig ist eine Sitemap für die Indexierung meiner Seite?

Eine Sitemap ist eine Liste aller Seiten (URLs) einer Website und dient Suchmaschinen als Übersicht der verfügbaren Inhalte sowie als strukturelle Grundlage, um den Aufbau einer Website (besser) zu verstehen. Stellt man Suchmaschinen eine Sitemap seiner Website in Form einer XML-Sitemap zur Verfügung, so können Unterseiten gefunden werden, welche andernfalls […]

Warum liefert eine Google-Suche mit dem Anführungszeichen-Operator manchmal mehr Ergebnisse, als die gleiche Suche ohne diesen?

Eine Google-Suche kann mit unterschiedlichen Suchoperatoren durchgeführt werden. Der Operator Anführungszeichen [ „keyword“ ] kann verwendet werden, um nach einem genauen Wort oder einer genauen Wortgruppe zu suchen bzw. zu filtern. Man spricht spricht in diesem Falle von einem „Exakt Match“, zu deutsch: „genaue Übereinstimmung“. Verwenden Sie Anführungszeichen, um nach […]

Warum schwankt die Anzahl der indexierten Seiten so stark?

Der aktuelle Verlauf der indexierten Seiten zeigt in der SISTRIX Toolbox eine auffällige Zackenbildung und unterliegt hohen Schwankungen. Die Anzahl der indexierten Seiten in der SISTRIX Toolbox Die Auswertung in der SISTRIX Toolbox zur Anzahl der indexierten Seiten erheben wir täglich und setzten immer dann einen neuen Datenpunkt, wenn eine […]

Wie kommen die unterschiedlichen Werte zu den indexierten Seiten bei der Google-Suche, der GSC und SISTRIX zustande?

Manchmal kommt es vor, dass die Kennzahlen aus einer Google site:-Abfrage, der Google Search Console (GSC) und der SISTRIX Toolbox nicht übereinstimmen. Die Daten einer Google site:-Abfrage und den der GSC lassen sich per se nicht miteinander vergleichen, da die Zahlen in der Search Console von Google gesondert berechnet werden. […]

Wie kann ich dem Google-Bot das Crawlen meiner Website verbieten?

Warum auch immer man Google verbieten möchte seine Website oder Teile davon zu crawlen, kann dies in der sog. robots.txt definieren. Google-Bot mithilfe der robots.txt aussperren Die robots.txt ist eine einfache Textdatei mit dem Namen „robots“. Sie muss im Hauptverzeichnis (root) einer Website abgelegt werden, um von den Suchmaschinen beachtet […]

Wie finde ich heraus, wieviele Seiten meiner Domain von Google indexiert wurden?

Google bietet zwei einfache Möglichkeiten, um die Anzahl der indexierten Seiten Deiner Domain festzustellen. Möglichkeit #1: die site:-Abfrage Durch eine einfache Suchabfrage mit dem sog. „site:“-Operator und Deiner Domain lässt sich die Anzahl der von Google indexierten Seiten ermitteln. In die Suchmaske von Google wird folgendes eingeben: site:www.meine-domain.de Das Ergebnis […]

Warum erscheint eine mittels robots.txt gesperrte URL in den Suchergebnissen?

Wird ein Verzeichnis oder eine bestimmte Seite einer Domain durch einen Eintrag in der robots.txt für den Zugriff durch einen Suchmaschinencrawler gesperrt, so wird dieser den Inhalt des Verzeichnis/der Seite nicht crawlen und indexieren. Durch diese Angaben in der robots.txt wird das Verzeichnis „ein-verzeichnis“ und die Seite „eine-seite.html“ für den […]

Wie kann ich eine URL meiner Website aus dem Google-Index entfernen?

Um eine bestimmte URL (z.B. die Seite http://www.domain.de/seite5.html) Deiner eigenen Website aus dem Google-Index zu entfernen, stehen Dir zwei Lösungswege zur Verfügung: Lösungsweg #1: der Wert NOINDEX des Meta-Elements Robots Füge dem Quellcode der Seite, welche nicht im Index auftauchen soll, das Meta-Element Robots mit dem Wert NOINDEX hinzu. Durch […]

Google-Index, Google-Bot & Crawler

Eine Website kann nur über die Google-Suche gefunden werden, wenn sie zuvor in den Google-Index aufgenommen wurde. Um sicherzustellen, dass (nahezu) alle im Web verfügbaren Websites über die Google-Suche gefunden werden können, crawlt (durchsucht) der Google-Bot täglich Milliarden von Webseiten auf der Suche nach neuen und aktualisierten Inhalten. Der Google-Bot […]

Kann ich Duplicate Content am Verlauf des Sichtbarkeitsindex erkennen?

Ja, ein etwaiges Duplicate Content-Problem kann sich sichtbar im SISTRIX Sichtbarkeitsindex niederschlagen, dadurch werden z.B. ein Großteil der Rankings der Website in Mitleidenschaft gezogen. Möglich ist, dass der SISTRIX Sichtbarkeitsindex ähnlich stark mit einer Art wiederkehrender “Zackenbildung“ auf sich aufmerksam macht. Ähnlich wie es auch bei der Anzahl der indexierten […]

Duplicate Content

Mit doppelten Inhalten ist gemeint, dass Inhalte gefunden wurden, die über mehrere URLs erreichbar sind. Dieser sog. Duplicate Content sollte unbedingt vermieden werden. Der Inhalt einer Seite darf immer nur über eine eindeutige URL erreichbar sein. Ansonsten stellt man Google vor das Problem, welche der URLs in den Rankings angezeigt werden soll […]