Seo definizione

La definizione generica di crawler

Il crawler è genericamente definibile come un software in grado di procedere alla scomposizione e all’analisi dei documenti presenti all’interno di un database: il procedimento avviene in maniera automatica, secondo metodologie differenti a seconda della tipologia di crawler e alle relative impostazioni di programmazione.

Nell’ambito dei motori di ricerca il crawler è usualmente quello script che svolge un lavoro di scansione e riproduzione dei documenti accessibili, ad esempio resi pubblici su internet, indirizzando la propria attività alla creazione di un elenco, da impiegare come base per mostrare, dopo una ricerca, i documenti secondo un dato specifico ordine, che varia a seconda della pianificazione del software.

La definizione di crawler nella SEO

In ambito SEO, il crawler è quel bot del motore di ricerca che provveda a scansionare l’insieme delle URL a questo accessibili, provvedendo all’analisi dei documenti web a cui portano tali URL ed al raggruppamento.

Oltre a fare questo il crawler arriva alla classificazione dei documenti rilevati in una serie di elenchi, che verranno mostrati come risultati di ricerca.

I risultati variano a seconda degli input di ricerca impostati dall’utente ma anche per le impostazioni plurime basate sulle pertinenze e sui parametri rilevati dal crawler, e alla loro pertinenza verso la soddisfazione dell’intento di ricerca utente.