Tempo di Lettura: 2 minuti
E’ recente la notizia secondo la quale i 3 principali motori di ricerca, Google, Microsoft e Yahoo, supporteranno le Sitemap.
Per chi non lo sapesse la «Sitemap è una via semplice per un webmaster per informare i motori di ricerca circa le pagine dei propri siti disponibili per l’indicizzazione. Nella sua forma più semplice, un Sitemap è un file XML che elenca gli url di un sito con metadata aggiuntivi per ogni singolo url (quanto è avvenuto l’update, a quale cadenza avviene, quanto è importante la singola pagina nel contesto del sito web), così che i motori di ricerca possano indicizzare più intelligentemente il vostro sito» (via sitemaps.org)
Fino a ieri il nome era legato ad una tecnologia perlopiù ricollegabile a Google, visto che originariamente fu sviluppato da Google e offerto attraverso la licenza Creative Commons. La versione 0.90 del protocollo (dichiaratamente distribuito sotto licenza Creative Commons) trova invece una nuova dimensione nella piena implementazione da parte di Yahoo e Microsoft, imponendo così Sitemaps come uno strumento forzatamente da tenere in ferma considerazione.
L’accordo tra i tre motori, benchè cosa più unica che rara, non stupisce: il protocollo permetterà ai motori di affidare all’utenza una funzione di guida con i suggerimenti relativi ai vari siti web (chi conosce meglio un sito se non il relativo webmaster?) e le maggiorate performance conseguenti permetteranno ai web crawler dei motori di ricerca una maggiore e migliore indicizzazione del www (uno standard auto-determinato dal sicuro impatto sul web, a tutto vantaggio dell’intero sistema).
La piena compatibilità del protocollo con tutti i maggiori motori di ricerca determinerà giocoforza un’accelerazione ulteriore dell’adozione: l’aumento di informazione e strumenti in questo contesto porteranno infatti un maggior numero di siti e webmaster all’utilizzo del Sitemap come allegato fondamentale alla propria presenza online.
“Ci sono molti siti difficili da analizzare come gli store elettronici o quelli con URL generati dinamicamente. Google Sitemap ci permette di avere a disposizione un feed di tutti gli URL di un sito così da poterci accedere”.
Sitemap semplifica il web, ma non diminuisce, anzi aumenta, le attività di crawling dei siti. La scelta di rendere visibili o meno particolari file, contenuti o fonti di informazione da includere negli indici dei motori di ricerca, ad ogni modo, rimane sempre una prerogativa specifica del file robots.txt.
[via webnews e Punto Informatico]
Una bella notizia devo dire ( che non sia solo Google a incentivare le sitemaps) per i siti dinamici soprattutto
Vorrei sottolineare però che nemmeno le informazioni di esclusione scritte in robot.txt sono imperative. Un motore può scegliere di indicizzare tutto quello che vuole… a meno che qualche script non glielo impedisca mantenendo realmente confidenziale il contenuto di una cartella. Dico giusto o dico sbagliato?
Ciao e complimenti per il blog e da un pò di tempo che seguo questo blog e lo trovo davvero interessante. Credo che sia una buona notizia il fatto che la Sitemap di Google diventi uno standard. Mi sa che lo segnalerò anche sul mio blog.
Ciao!
Grazie dei complimenti Giuseppe 🙂