Google-Index, Google-Bot & Crawler

Eine Website kann nur über die Google-Suche gefunden werden, wenn sie zuvor in den Google-Index aufgenommen wurde. Um sicherzustellen, dass (nahezu) alle im Web verfügbaren Websites über die Google-Suche gefunden werden können, crawlt (durchsucht) der Google-Bot täglich Milliarden von Webseiten auf der Suche nach neuen und aktualisierten Inhalten.

Der Google-Bot ist der Webcrawler (auch „Spider“ genannt) von Google. Crawling wird der Prozess genannt, durch den der Google-Bot neue und aktualisierte Seiten ermittelt, damit sie dem Google-Index hinzugefügt werden können.– Google Search Console-Hilfe

 

Google-Index, Google-Bot & Crawler

Google-Index, Google-Bot & Crawler

Webmaster können einen gewissen Einfluss auf den Google-Bot bzw. dessen Crawling-Prozess nehmen und somit bestimmen, welche Inhalte ihrer Website in den Google-Index aufgenommen oder aus ihm entfernt werden sollen.

 

Um dem Google-Bot das Crawlen und Verstehen der eigenen Website zu erleichtern, ist es wichtig auf eine gute OnPage-Optimierung samt solider Seitenstruktur (Sitemaps) und interner Verlinkung zu achten.

Videoerklärung von Matt Cutts / Google zum Thema (engl.)

How Search Works

The life span of a Google query is less then 1/2 second, and involves quite a few steps before you see the most relevant results. Here’s how it all works.

Related Topics