Google Crawling: Grundlagen und Bedeutung für SEO

Crawling ist der Prozess, bei dem Webcrawler (auch Bots oder Spider genannt) Websites besuchen und deren Inhalt abrufen und untersuchen.

In diesem Artikel erhältst du einen guten Überblick über das Thema Crawling. Klicke dich zu den detaillierten Artikeln durch, wenn du mehr über das Thema erfahren möchtest.

Wie funktioniert das Crawling durch den Googlebot?

Die Hauptfunktion von Webcrawler ist es, Informationen aus Webseiten auszulesen, zu analysieren und zu indexieren. Sie sind sind vor allem als Suchmaschinen-Crawler bekannt. Sie können aber auch für andere Funktionen eingesetzt werden, z.B. um fehlerhafte Inhalte ausfindig zu machen, um Webanalyse oder Data Mining zu betreiben. 

Google Search-Algorithmus als visuelles Schaubild

Der bekannteste Webcrawler ist der Googlebot von Google. Nur wenn er Seiten regelmäßig indexiert, tauchen sie (in ihrer aktuellen Form) in den Suchergebnissen auf. Allerdings verfügt Google nicht über unbegrenzte Ressourcen zum Crawlen von Webseiten. Die maximale Anzahl an Unterseiten, die der Googlebot crawlen kann, wird auch als Crawl Budget bezeichnet.

Nachdem eine URL erkannt wurde, besucht der Googlebot die Seite, um deren Inhalte zu erfassen. Dabei werden wichtige Entscheidungen algorithmisch getroffen:

  • Welche Seiten werden wann und wie oft gecrawlt?
  • Wie viele Seiten einer Website werden innerhalb eines Zeitraums abgerufen?

Google setzt dafür Milliarden von Anfragen pro Tag ein, verteilt auf viele tausend Computer. Ziel ist es, möglichst effizient aktuelle Inhalte für den Index bereitzustellen.

Wichtig: Google achtet darauf, Webseiten nicht zu überlasten. Wenn eine Website auf wiederholte Crawling-Versuche mit Fehlern wie HTTP-500 antwortet, reduziert Google automatisch die Crawling-Frequenz.

Was bedeutet Crawl Budget?

Das Crawl Budget bezeichnet die maximale Anzahl an Seiten, die der Googlebot auf einer Website innerhalb eines bestimmten Zeitraums crawlen kann. Die Höhe des Crawl Budgets hängt unter anderem von folgenden Faktoren ab:

Für kleine Websites mit wenigen hundert Seiten ist das Crawl Budget in der Regel kein entscheidender Faktor. Große Websites mit tausenden oder Millionen Seiten sollten jedoch ihr Crawl Budget aktiv optimieren, beispielsweise durch Reduzierung unnötiger oder doppelter Seiten, Optimierung der internen Verlinkung und Bereitstellung einer aktuellen XML-Sitemap

Mobile-Only Crawling und Mobile-First Indexierung 

Seit dem 5. Juli 2024 crawlt Google ausschließlich mit dem Googlebot Smartphone. Das Desktop-Crawling wurde vollständig eingestellt. Websites müssen daher sicherstellen, dass ihre mobilen Versionen vollständig erreichbar sind, alle wichtigen Inhalte enthalten und ohne Barrieren für mobile Nutzer und Bots verfügbar sind.

Wenn eine Website auf mobilen Geräten nicht geladen werden kann oder Inhalte nur auf der Desktop-Version verfügbar sind, werden diese Inhalte von Google nicht mehr indexiert.

Warum ist Crawling für SEO so wichtig?

Ohne korrektes Crawling durch den Googlebot können Seiten nicht indexiert werden. Damit bleiben sie unsichtbar in den Google-Suchergebnissen. Für SEO bedeutet das:

  • Alle wichtigen Seiten müssen crawlbar und indexierbar sein.
  • Technische Fehler wie Serverprobleme oder falsche robots.txt-Anweisungen müssen vermieden werden.
  • Unwichtige oder doppelte Inhalte sollten vom Crawling ausgeschlossen werden, um das Crawl Budget effizient zu nutzen.

Typische Probleme, die das Crawling verhindern können:

  • Serverfehler (z. B. HTTP 500)
  • Netzwerkprobleme
  • Blockierungen durch robots.txt oder fehlende Zugriffsrechte

Wie geht Google mit JavaScript und Rendering um?

Immer mehr Websites nutzen JavaScript, um Inhalte dynamisch zu laden. Der Googlebot rendert daher Seiten ähnlich wie ein moderner Browser mit einer aktuellen Chrome-Version. Dieser Schritt ist entscheidend:

  • Wenn wichtige Inhalte erst durch JavaScript nachgeladen werden und Google sie nicht rendern kann, bleiben sie unsichtbar.
  • Server-Side-Rendering (SSR) oder Hybridlösungen wie Dynamic Rendering können helfen, SEO-Probleme bei stark JavaScript-lastigen Seiten zu vermeiden.

Neues Crawling beantragen

Normalerweise crawlt Google neue Seiten eigenständig und ohne Aufforderung, sofern sie verlinkt und crawlbar sind. Wenn du kürzlich eine neue Seite veröffentlicht oder bestehende Inhalte aktualisiert hast, kannst du Google aktiv darum bitten, diese Änderungen schneller zu berücksichtigen. Dabei ist wichtig zu beachten: Du kannst nur für URLs eine Indexierung beantragen, die du selbst verwaltest.

Das Crawling nach einer Anfrage kann einige Tage bis mehrere Wochen dauern. Eine sofortige Indexierung ist nicht garantiert, da Google eingehende Anfragen nach eigenen Prioritäten verarbeitet. Hochwertige, nützliche Inhalte sowie etablierte Domains werden dabei bevorzugt behandelt. Du kannst den Fortschritt jederzeit über den Statusbericht zur Indexabdeckung oder das URL-Prüftool in der Google Search Console überwachen.

Methoden zur Beantragung eines erneuten Crawlings:

1. Einzelne URLs: Das URL-Prüftool verwenden

Mit dem URL-Prüftool kannst du eine Indexierungsanfrage für einzelne Seiten stellen. Voraussetzung ist, dass du Inhaber oder vollwertiger Nutzer der zugehörigen Property in der Google Search Console bist.

Wichtige Hinweise:

  • Für die Einreichung einzelner URLs gibt es ein Kontingent.
  • Mehrfache Anfragen für dieselbe URL beschleunigen den Crawling-Prozess nicht.

Diese Methode eignet sich besonders für kleinere Änderungen oder einzelne neue Seiten.

2. Viele URLs: Eine Sitemap einreichen

Wenn du eine große Anzahl neuer oder aktualisierter Seiten hast, empfiehlt es sich, eine Sitemap einzureichen. Eine Sitemap hilft Google, alle wichtigen URLs systematisch zu erkennen. Besonders nützlich ist eine Sitemap bei:

  • frisch veröffentlichten Websites,
  • umfangreichen Änderungen an bestehenden Projekten,
  • Websiteverschiebungen (Domainwechsel),
  • oder wenn du alternative Sprachversionen, Videos, Bilder oder Nachrichteninhalte veröffentlichst.

Eine gut strukturierte Sitemap enthält zusätzlich Metadaten, die Google helfen, spezielle Inhalte korrekt zu verstehen.

Fallstudien und relevante News

Erklärvideo von Google: How Search Works

Google erklärt in etwa fünf Minuten auf Englisch, wie die Suche auf Google funktioniert:

Die gleiche Frage gibt es zudem auf Deutsch in der „Frag doch Google“-Reihe auf dem Google Deutschland Youtube-Kanal: