Das Crawling wird vom CrawlerEin Crawler ist ein automatisiertes Computerprogramm, welches Webseiten und deren Informationen durchsucht. Suchmaschinen-Anbieter verwenden Crawler um aus den Informationen von Milliarden an Webseiten einen Index aufzubauen. Aus diesem Index werden dann die Suchergebnisse gespeist. Mehr Information Mehr betrieben. Es beschreibt das Durchsuchen von Webseiten nach Informationen. Durch das Sammeln dieser Informationen können Suchmaschinen-Anbieter einen IndexIndex bedeutet aus dem lateinischen übersetzt so viel wie „Verzeichnis“. Es kann sich zum einen hierbei um ein Register handeln, welches man auch als Stichwortverzeichnis kennt, zum anderen aber auch wie beispielsweise bei Suchmaschinen um ein Datenbankverzeichnis, welches über Suchanfragen ab Mehr aufbauen, auf dem ihre Suchmaschine aufbaut. Der Index hält die passenden Suchergebnisse bereit, welche dann jederzeit abgerufen werden können. Mehr über das Thema findest du im Beitrag Crawling und Indexierung.