Programma in grado di seguire i collegamenti ipertestuali e di accedere alle pagine Web, senza controllo umano. Ad esempio i "ragni", spiders dei motori di ricerca e i programmi "harvesting" che estraggono indirizzi e-mail e altri dati dalle pagine Web. Un database di robot è mantenuto da Webcrawler.

Vedi anche: SPIDER, MOTORE DI RICERCA, DIRECTORY

Questo sito web utilizza i cookie per gestire l'autenticazione, la navigazione, e altre funzioni. Utilizzando il nostro sito web, l'utente accetta l’impiego di questo tipo di cookie sul dispositivo.

Visualizza la Privacy Policy

Hai rifiutato l'impiego dei cookie. Questa decisione può essere riconsiderata.

Hai dato il permesso all’impiego dei cookie. Questa decisione può essere riconsiderata.