Tempo di Lettura: 2 minuti
E’ recente la notizia secondo la quale i 3 principali motori di ricerca, Google, Microsoft e Yahoo, supporteranno le Sitemap.
Per chi non lo sapesse la «Sitemap è una via semplice per un webmaster per informare i motori di ricerca circa le pagine dei propri siti disponibili per l’indicizzazione. Nella sua forma più semplice, un Sitemap è un file XML che elenca gli url di un sito con metadata aggiuntivi per ogni singolo url (quanto è avvenuto l’update, a quale cadenza avviene, quanto è importante la singola pagina nel contesto del sito web), così che i motori di ricerca possano indicizzare più intelligentemente il vostro sito» (via sitemaps.org)
Fino a ieri il nome era legato ad una tecnologia perlopiù ricollegabile a Google, visto che originariamente fu sviluppato da Google e offerto attraverso la licenza Creative Commons. La versione 0.90 del protocollo (dichiaratamente distribuito sotto licenza Creative Commons) trova invece una nuova dimensione nella piena implementazione da parte di Yahoo e Microsoft, imponendo così Sitemaps come uno strumento forzatamente da tenere in ferma considerazione.
L’accordo tra i tre motori, benchè cosa più unica che rara, non stupisce: il protocollo permetterà ai motori di affidare all’utenza una funzione di guida con i suggerimenti relativi ai vari siti web (chi conosce meglio un sito se non il relativo webmaster?) e le maggiorate performance conseguenti permetteranno ai web crawler dei motori di ricerca una maggiore e migliore indicizzazione del www (uno standard auto-determinato dal sicuro impatto sul web, a tutto vantaggio dell’intero sistema).
La piena compatibilità del protocollo con tutti i maggiori motori di ricerca determinerà giocoforza un’accelerazione ulteriore dell’adozione: l’aumento di informazione e strumenti in questo contesto porteranno infatti un maggior numero di siti e webmaster all’utilizzo del Sitemap come allegato fondamentale alla propria presenza online.
“Ci sono molti siti difficili da analizzare come gli store elettronici o quelli con URL generati dinamicamente. Google Sitemap ci permette di avere a disposizione un feed di tutti gli URL di un sito così da poterci accedere”.
Sitemap semplifica il web, ma non diminuisce, anzi aumenta, le attività di crawling dei siti. La scelta di rendere visibili o meno particolari file, contenuti o fonti di informazione da includere negli indici dei motori di ricerca, ad ogni modo, rimane sempre una prerogativa specifica del file robots.txt.
[via webnews e Punto Informatico]