Google: il robots.txt diventa uno standard?

Sviluppatori e SEO conoscono perfettamente l’importanza del robots.txt, si tratta infatti di un semplice file di testo in cui l’utilizzatore elenca i file e le cartelle che devono essere ignorati dai motori di ricerca. Il suo funzionamento è possibile grazie all’azione di un particolare protocollo per Internet che prende il nome di REP (Robot Exclusion Protocol).

Universalmente utilizzato e concepito circa un quarto di seconolo fa, REP è stato sempre considerato uno standard di fatto ma senza una vera e propria ufficialità. Ora Google vorrebbe rimediare a questo stato di cose facendo in modo che ai robots.txt siano associate delle specifiche riconosciute a cui i professionisti della Rete si debbano attenere.

Pubblicitร 

Per passare immediatamente alla fase pratica di definizione dello standard Mountain View ha già pubblicato sul code hosting di GitHub il codice sorgente del parser a cui fa riferimento il crawler di Google per interpretare le regole inserite all’interno del documento. Ora la palla passa nelle mani della IETF (Internet Engineering Task Force) che si occupa appunto di promuovere gli standard per il Web.

La storia del robots.txt inizia nel 1994 grazie al lavoro dell’informatico olandese Martijn Koster, il suo obbiettivo era quello di creare un sistema semplice grazie al quale indicare le risorse che, non partecipando al processo di indicizzazione, non sarebbero potute essere raggiungibile dagli utenti attraverso i risultati della SERP (Search Engine Results Page).

Il sistema concepito da Koster, rimasto sostanzialmente immutato nel corso degli ultimi 25 anni, prevede che tale file debba essere uploadato nella root del Web server per essere immediatamente raggiungibile dal parser tramite l’URL (d’esempio) "nomeadominio.com/robots.txt". Nonostante la grande diffusione nessuno fino ad ora si era reso protagonista di iniziative per la sua standardizzazione.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.
Articolo precedente
Articolo successivo

Leggi anche...

I siti web perdono traffico: l’impatto dell’IA di Google e ChatGPT

Negli ultimi anni, il panorama del traffico web ha...

Google Ricerca Live: l’intelligenza artificiale rivoluziona le ricerche in Italia

La ricerca online sta subendo una trasformazione radicale grazie...

Google Gemini: nuove interfacce e funzionalitร  in arrivo per l’assistente AI

Google sta attivamente sviluppando la sua app Gemini, apportando...

Gemini introduce la ramificazione delle chat, simile a ChatGPT

Google ha avviato i test per una nuova funzionalitร ...

Google rimuove lo strumento AI per consigli medici: cosa significa per la salute digitale

Google ha recentemente fatto sparire What People Suggest, un...

NotebookLM di Google: la nuova frontiera dei video animati con AI

NotebookLM di Google ha recentemente introdotto una funzione innovativa...
Pubblicitร