Indexierung

Was ist die URL-Länge?

Die URL-Länge zählt wie viele Zeichen in einer URL stehen. Eine URL darf bei verschiedenen Browsern verschiedene maximale Längen haben und hängt stark von der Konfiguration des bearbeitenden Web-Servers ab. Was ist die URL-Länge? Die Länge der URL gibt an, wie viele Zeichen in der URL eines Dokuments genutzt werden. […]

Was ist der User-Agent?

Der User Agent wird vom Browser bei jeder Anfrage an einen Webserver mitgesendet und soll Informationen über das genutzte System anzeigen. Es ist damit sozusagen das Namensschild des Browsers. Was ist der User Agent? Bei dem User-Agent handelt es sich um ein Feld im HTTP Protokoll, über welches eine mehr […]

Was ist die noindex Anweisung?

Mit der Noindex-Anweisung im Quelltextes einer spezifischen URL bittet man Suchmaschinen darum, diese Seite nicht in den Suchindex zu übernehmen. Was bedeutet „noindex“ und wann wird es benutzt? Mit der noindex-Anweisung informiert ein Webseitenbetreiber Suchmaschinencrawler darüber, dass eine bestimmte Unterseite einer Webseite nicht in den Index der Suchmaschine aufgenommen werden […]

Was ist der „Last-Modified“ HTTP-Response-Header?

Bei der Angabe des „Last-Modified“ handelt es sich um eine Information, die ein Server beim Abruf einer Seite mitschicken kann und welche Auskunft darüber geben soll, wann diese Seite zum letzten Mal aktualisiert wurde. Der Last-Modified Response-Header kann vom Server mitgeschickt werden um einem Browser die Information zu liefern, wann […]

Was war der Google Dance?

Beim „Google Tanz“ handelte es sich in den Anfangsjahren der Google-Suche um die sprunghaften Schwankungen bei den Rankings. Google stellte seine Selbstironie unter Beweis und veranstaltete viele Jahre lang ein tatsächliches Tanz-Event: den Google Dance. Was war der Google Dance? Während der ersten Jahre von Google kam es immer nach […]

Was sind die Google Richtlinien?

Die Google Webmaster Guidelines sind die Richtlinien, an die sich Webmaster laut Google halten sollen. Bei bewussten und unbewussten Verstößen kann es zu Rankingverlusten und Abstrafungen kommen. Was sind Googles Richtlinien für Webmaster Die Webmaster Guidelines von Google sind allgemeine- und spezifische Qualitäts-Richtlinien und sollen Webmastern ein Regelwerk an die […]

Was ist der Mobile First Index?

Mit dem Mobile First Index nutzt Google Informationen, die auf der mobilen Version einer Webseite gefunden werden, um die Suchergebnisse zusammenzustellen. Was ist der Mobile First Index Mit dem Mobile First Index trägt Google der „mobilen Revolution” Rechnung und bewertet Suchergebnisse künftig ausschließlich anhand der Informationen, die auf der mobilen […]

Was sind die Bing Webmaster Tools?

Die Bing Webmaster Tools bieten Webseitenbetreibern Informationen zu ihren Webseiten direkt aus der Bing-Suche an. Der Umfang ist vergleichbar zur Google Search Console. Bings Search Console Microsoft bietet mit den Bing Webmaster Tools einen ähnlichen Dienst wie Google mit der Google Search Console. Die Bing Webmaster Tools bieten dabei die […]

Was ist JavaScript?

JavaScript ist einer der Gründe warum sich Webseiten heutzutage in vieler Hinsicht wie reguläre Computerprogramme verhalten können, anstatt bloße Firmen-Broschüren im Internet zu sein. Mit JavaScript lassen sich viele hübsche und auch praktische Elemente, wie zum Beispiel Bilderkarusselle und automatisch nachladende Seiteninhalte, in eine Webseite einbauen. Google hat jahrelang Webseiten […]

Warum können Parameter einen Grund für Duplicate Content darstellen?

In vielen Fällen, in denen eine Seite mit internem Duplicate Content zu kämpfen hat, können URL Parameter Schuld an einem Großteil der Duplikate sein. Was sind Parameter Parameter sind Anweisungen die an die eigentliche URL einer Seite angehängt werden, um den Inhalt auf eine bestimmte Art zu beeinflussen. Einer der […]

Unsere Seite wurde aus Versehen von der Indexierung ausgeschlossen, sind unsere Rankings damit verloren?

In den meisten Fällen wird die Antwort mit hoher Wahrscheinlichkeit „Nein, eure Rankings sind nicht verloren, wenn…“ lauten. Bei der Beantwortung dieser Frage kommt es jedoch sehr stark auf das „wann wurde die Seite ausgeschlossen?“ an. Wenn eine Seite nicht indexiert werden kann, kann Google diese Seite auch nicht als […]

Welche Suchoperatoren und Sonderzeichen kann ich in der Google Suchleiste nutzen?

Seit Jahren sind wir es gewohnt, von Google mit einer Suchleiste begrüßt zu werden, in die wir unsere Fragen, mit mehr oder wenig großer Genauigkeit und/oder grammatikalischer Korrektheit, eingeben. Da sich hinter diesem, auf den ersten Blick, simplen Eingabefeld ein Schatz an Suchoptionen versteckt, möchten wir die wichtigsten Möglichkeiten in […]

Sollte die Homepage bei einer Site-Abfrage an erster Stelle stehen?

Die Site-Abfrage („site:sistrix.de“) zeigt indexierte URLs einer Domain im Google-Index an. Die Frage, ob die Reihenfolge, in der Google die Seiten einer Domain dort anzeigt eine Bewandtnis hat, wird regelmäßig diskutiert. Zuletzt hatte Matt Cutts vor rund vier Jahren ein Google Webmaster-Video zu dem Thema veröffentlicht. Seine Kernaussagen in dem […]

Crawling und Indexierung umfangreicher Webseiten

Sobald Webseiten den typischen Umfang einer privaten Homepage übersteigen, gibt es zahlreiche neue Herausforderungen. Eine davon ist, dass die vorhandenen Inhalte möglichst vollständig und aktuell in den Google-Index gehören. Was sich so einfach anhört, birgt gerade bei sehr großen Webseiten, deren Inhalte aus zahlreichen unterschiedlichen Datenbanken und von verschiedenen Zulieferern […]

Risiko Domainumzug und Rankings bei Google

Eigentlich sollte der Umzug einer Domain auf eine neue Domain relativ schadlos für die Google-Rankings verlaufen, wenn man sich konsequent an die Anweisungen hält. In der Praxis gibt es aber Beispiele, die einen vermuten lassen, dass Domainumzüge ein bedeutsames SEO-Risiko beinhalten. theguardian.com verliert 50 Prozent Sichtbarkeit Am 30. Juli 2013 […]

Regalplatzoptimierung bei Google

Welche zwei Dinge haben eine Suchergebnisseite von Google und ein Regal im Supermarkt gemeinsam? Sie dienen einem bestimmten Ziel. Sie verfügen nur über ein begrenztes Platzangebot (Engpass) Der Engpass begrenzt jeweils die Leistungsfähigkeit des ganzen Systems. Der Supermarkt könnte mit mehr Regalfläche mehr Geld verdienen, da er dann eine größere […]

Wie bringe ich eine neue Seite möglichst schnell in den Google-Index?

Heutzutage ist Google im Auffinden und Indexieren neuer Seiten (URLs) recht flott. Je nach „Bekanntheit“ einer Website geht dieser Prozess mal schneller, mal langsamer von statten. Webmaster, welche die Google Search Console (GSC) nutzen, haben die Möglichkeit diesen Prozess zu beschleunigen und so manuell in den Indexierungsprozess seiner Webseite eingreifen. […]

Content-Syndication nutzen & richtig umsetzen

Begriffsdefinition Content-Syndication Unter Content-Syndication ist die Mehrfachverwendung von medialen Inhalten zu verstehen. Artikel, Interviews, Blogbeiträge, Studien sowie jede Form von Text zählen genauso zu diesen medialen Inhalten, wie z.B. Infografiken, Videos, Podcasts usw. Jemand der Content-Syndication betreibt stellt seinen Inhalt, dessen Urheber man ist, Dritten zur Wieder- oder Weiter-Verwertung zur Verfügung. So verfasst […]

Kann der Google-Bot Formulare ausfüllen und crawlen?

Generell versucht der Google-Bot Formulare auf einer Seite auszufüllen und abzuschicken, um neue Inhalte und URLs zu ermitteln, die ansonsten nicht direkt auffindbar sind. Dabei entscheidet Google im Einzelfall, ob ein FORM-Element auf einer Seite als nützlich angesehen wird und versucht dann mit einer geringen Anzahl an verschiedenen natürlichen, bzw. […]

Was muss ich bei der Erstellung einer Video-Sitemap beachten?

Eine Video-Sitemap ist die Grundlage, um Google notwendige Informationen über Deine Videoinhalte zur Verfügung zu stellen. Die Video-Sitemap ist eine XML-Datei und enthält die Metadaten, wie z.B. Titel, Beschreibung, Länge und Quelle deiner Videos. Videoinhalte können auf diese Weise schneller vom GoogleBot erkannt und indexiert werden. Google empfiehlt zudem, Videoinhalte […]

Können PDF-Dateien meiner HTML-Seiten zu einem Duplicate Content Problem führen?

Technisch gesehen handelt es sich um internen Duplicate Content, wenn der gleiche Inhalt als HTML-Datei und PDF-Dokument auf Deiner Website zur Verfügung steht. Externer Duplicate Content kann entstehen, wenn z.B. in einem Onlineshop bei jedem Produkt das Benutzerhandbuch des Herstellers als PDF-Dokument zum Download hinterlegt wurde, welches auch auf der […]

Einrichtung einer 301-Weiterleitung von nicht-www auf den www. Domainnamen

Um Probleme bei der Indexierung der eigenen Website durch den Google-Bot zu vermeiden und internen Duplicate Content aufgrund von URL-Kanonisierung (auf englisch „canonicalization“) auszuschließen, sollte auf den bevorzugten Domainnamen mittels einer 301-Weiterleitung verwiesen werden. Siehe hierzu auch: Meine Website ist mit und ohne www. aufrufbar. Ist das schädlich? Einrichtung einer 301-Weiterleitung […]

Meine Website ist mit und ohne www. aufrufbar. Ist das schädlich?

Google empfiehlt zur Vermeidung von internen Duplicate Content Problemen und der besseren Indexierung der Website durch den Google-Bot einen bevorzugten Domainnamen festzulegen. Entscheide also, über welchen Hostnamen Deine Domain bevorzugt aufgerufen werden soll. Ohne www. (http://domain.de/), mit www. Hostnamen (http://www.domain.de/) oder gar unter einem anderen Hostnamen wie z.b. shop. (http://shop.domain.de)? Der bevorzugte Domainname sollte in […]

Wie ziehe ich meine Website am gefahrlosesten auf einen neuen Domainnamen um?

Ein Wechsel des Domainnamen muss keine (langfristigen) negativen SEO-Folgen mit sich bringen. Sofern man den Umzug sorgfältig plant und korrekt durchführt, bleibt einem der gefürchtete Rankingverlust erspart. Um einen Domainwechsel durchzuführen, sollte die Adressänderung der Website Google in der Google Search Console (GSC) mitgeteilt werden und anschließend alle Inhalte der […]

Wenn ich eine XML-Sitemap habe, muss ich dann noch eine HTML-Sitemap bereitstellen?

Es ist durchaus empfehlenswert sowohl eine XML-Sitemap als auch eine HTML-Sitemap bereitzustellen. Eine XML-Sitemap dient als strukturiertes Inhaltsverzeichnis speziell den Suchmaschinen zur Auffindung neuer und auch tiefer verschachtelten Seiten, wobei eine HTML-Sitemap, welche vorrangig den Usern dient und damit der Nutzerfreundlichkeit (Usability) der eigenen Website zu Gute kommt, auch einen […]

Wie wichtig ist eine Sitemap für die Indexierung meiner Seite?

Eine Sitemap ist eine Liste aller Seiten (URLs) einer Website und dient Suchmaschinen als Übersicht der verfügbaren Inhalte sowie als strukturelle Grundlage, um den Aufbau einer Website (besser) zu verstehen. Stellt man Suchmaschinen eine Sitemap seiner Website in Form einer XML-Sitemap zur Verfügung, so können Unterseiten gefunden werden, welche andernfalls […]

Wann ist die gemeinsame Verwendung der Meta-Robots Werte NOINDEX und FOLLOW sinnvoll?

Die Werte des Meta-Elements „robots“ werden nur von den Crawlern der Suchmaschinen interpretiert. In den meisten Fällen werden die Werte „INDEX“ und „FOLLOW“ verwendet, um den Crawler anzuweisen, die vorliegende Seite in den Index aufzunehmen und allen auffindbaren Links zu folgen. Durch diese Angabe im Quellcode wird die Seite in […]

Warum liefert eine Google-Suche mit dem Anführungszeichen-Operator manchmal mehr Ergebnisse, als die gleiche Suche ohne diesen?

Eine Google-Suche kann mit unterschiedlichen Suchoperatoren durchgeführt werden. Der Operator Anführungszeichen [ „keyword“ ] kann verwendet werden, um nach einem genauen Wort oder einer genauen Wortgruppe zu suchen bzw. zu filtern. Man spricht spricht in diesem Falle von einem „Exakt Match“, zu deutsch: „genaue Übereinstimmung“. Verwenden Sie Anführungszeichen, um nach […]

Warum schwankt die Anzahl der indexierten Seiten so stark?

Der aktuelle Verlauf der indexierten Seiten zeigt in der SISTRIX Toolbox eine auffällige Zackenbildung und unterliegt hohen Schwankungen. Die Anzahl der indexierten Seiten in der SISTRIX Toolbox Die Auswertung in der SISTRIX Toolbox zur Anzahl der indexierten Seiten erheben wir täglich und setzten immer dann einen neuen Datenpunkt, wenn eine […]

Wie kommen die unterschiedlichen Werte zu den indexierten Seiten bei der Google-Suche, der GSC und SISTRIX zustande?

Manchmal kommt es vor, dass die Kennzahlen aus einer Google site:-Abfrage, der Google Search Console (GSC) und der SISTRIX Toolbox nicht übereinstimmen. Die Daten einer Google site:-Abfrage und den der GSC lassen sich per se nicht miteinander vergleichen, da die Zahlen in der Search Console von Google gesondert berechnet werden. […]

Wie kann ich dem Google-Bot das Crawlen meiner Website verbieten?

Warum auch immer man Google verbieten möchte seine Website oder Teile davon zu crawlen, kann dies in der sog. robots.txt definieren. Google-Bot mithilfe der robots.txt aussperren Die robots.txt ist eine einfache Textdatei mit dem Namen „robots“. Sie muss im Hauptverzeichnis (root) einer Website abgelegt werden, um von den Suchmaschinen beachtet […]

Wie finde ich heraus, wieviele Seiten meiner Domain von Google indexiert wurden?

Google bietet zwei einfache Möglichkeiten, um die Anzahl der indexierten Seiten Deiner Domain festzustellen. Möglichkeit #1: die site:-Abfrage Durch eine einfache Suchabfrage mit dem sog. „site:“-Operator und Deiner Domain lässt sich die Anzahl der von Google indexierten Seiten ermitteln. In die Suchmaske von Google wird folgendes eingeben: site:www.meine-domain.de Das Ergebnis […]

Warum erscheint eine mittels robots.txt gesperrte URL in den Suchergebnissen?

Wird ein Verzeichnis oder eine bestimmte Seite einer Domain durch einen Eintrag in der robots.txt für den Zugriff durch einen Suchmaschinencrawler gesperrt, so wird dieser den Inhalt des Verzeichnis/der Seite nicht crawlen und indexieren. Durch diese Angaben in der robots.txt wird das Verzeichnis „ein-verzeichnis“ und die Seite „eine-seite.html“ für den […]

Wie kann ich eine URL meiner Website aus dem Google-Index entfernen?

Um eine bestimmte URL (z.B. die Seite http://www.domain.de/seite5.html) Deiner eigenen Website aus dem Google-Index zu entfernen, stehen Dir zwei Lösungswege zur Verfügung: Lösungsweg #1: der Wert NOINDEX des Meta-Elements Robots Füge dem Quellcode der Seite, welche nicht im Index auftauchen soll, das Meta-Element Robots mit dem Wert NOINDEX hinzu. Durch […]

Google-Index, Google-Bot & Crawler

Eine Website kann nur über die Google-Suche gefunden werden, wenn sie zuvor in den Google-Index aufgenommen wurde. Um sicherzustellen, dass (nahezu) alle im Web verfügbaren Websites über die Google-Suche gefunden werden können, crawlt (durchsucht) der Google-Bot täglich Milliarden von Webseiten auf der Suche nach neuen und aktualisierten Inhalten. Der Google-Bot […]

Kann ich Duplicate Content am Verlauf des Sichtbarkeitsindex erkennen?

Ja, ein etwaiges Duplicate Content-Problem kann sich sichtbar im SISTRIX Sichtbarkeitsindex niederschlagen, dadurch werden z.B. ein Großteil der Rankings der Website in Mitleidenschaft gezogen. Möglich ist, dass der SISTRIX Sichtbarkeitsindex ähnlich stark mit einer Art wiederkehrender “Zackenbildung“ auf sich aufmerksam macht. Ähnlich wie es auch bei der Anzahl der indexierten […]

Ist Duplicate Content verantwortlich für die starken Schwankungen bei den indexierten Seiten meiner Website?

Ist eine kontinuierliche Fluktuation bei der Anzahl der indexierten Seiten über einen längeren Zeitraum zu beobachten, so könnte dies durchaus aufgrund von Duplicate Content der Fall sein bzw. ein Anzeichen für diesen. Um die Ursache dieser Schwankungen zu untersuchen und ein etwaiges Duplicate Content-Problem zu erkennen oder gar ausschließen zu […]

Duplicate Content

Mit doppelten Inhalten ist gemeint, dass Inhalte gefunden wurden, die über mehrere URLs erreichbar sind. Dieser sog. Duplicate Content sollte unbedingt vermieden werden. Der Inhalt einer Seite darf immer nur über eine eindeutige URL erreichbar sein. Ansonsten stellt man Google vor das Problem, welche der URLs in den Rankings angezeigt werden soll […]