Als Spider (auch Robot, Bot oder Crawler genannt) werden Programme bezeichnet, mit denen die Suchmaschinen das Internet durchkämmen und die Inhalte von Internetseiten erfassen, um diese in den Suchmaschinen-Index aufzunehmen. Der Spider sucht Internetseiten entweder aufgrund der Anmeldung einer Seite auf oder weil er durch Verlinkungen auf die Seite gestoßen ist.