El més conegut és Google encara que també es troben aquí Altavista,
Alltheweb, Mamma, MetaCrawler i altres. Cadascun consisteix en un
programari i milers de servidors que rastregen tota la Internet baixant
i guardant totes les pàgines que troben. El text de cada pàgina és
"desarmat" i allotjat en una base de dades relacional. En un procés
òbviament molt més complex que ho ara explicat, es correlaciona cada
paraula (o grups de paraules) amb les adreces %[URL's] de les pàgines.
Quan el navegant pregunta mitjançant una o diverses paraules, els
servidors del spider situen aquestes paraules en les seves bases de
dades i informen el llistat d'URL's que responen a la consulta. O sigui
que això equival a una recerca en el text complet de la pàgina
emmagatzemada. Tot es fa electrònicament. Ja sigui trobar, baixar i
desarmar les pàgines com després trobar i informar les coincidències.
Perquè el navegant pugui conèixer de quin es tracta un cert link, el
spider li mostra una "descripció" que és un tros de text tallat de la
pàgina als voltants de les paraules clau que s'han utilitzat en la
recerca.