Seo definizione - immagine di copertina

La definizione generica di crawler

Il crawler (in gergo SEO chiamato anche “spider”, “robot” o “web crawler”) è definibile come un software in grado di procedere alla scomposizione e all’analisi dei documenti presenti all’interno di un database: il procedimento avviene in maniera automatica, secondo metodologie differenti a seconda della tipologia di crawler e alle relative impostazioni di programmazione.

Nell’ambito dei motori di ricerca il crawler è “generalmente” quello script che svolge un lavoro di scansione e riproduzione dei documenti accessibili, ad esempio resi pubblici su internet, indirizzando la propria attività alla creazione di un elenco, da impiegare come base per mostrare i documenti, dopo una ricerca, secondo un dato specifico ordine, che varia a seconda della pianificazione del software.

La definizione di crawler nella SEO

In ambito SEO, il crawler è quel bot del motore di ricerca che provveda a scansionare l’insieme delle URL a questo accessibili, provvedendo all’analisi dei documenti web a cui portano tali URL e al loro raggruppamento.

Oltre a fare questo il crawler arriva alla classificazione dei documenti rilevati in una serie di elenchi, che verranno mostrati come risultati di ricerca.

I risultati variano a seconda degli input di ricerca impostati dall’utente ma anche per le impostazioni plurime basate sulle pertinenze e sui parametri rilevati dal crawler, e alla loro pertinenza verso la soddisfazione dell’intento di ricerca dell’utente.

Altri contenuti da leggere: