Les principaux moteurs de recherche viennent d'annoncer (au salon SMX de Santa Clara la semaine dernière) une nouveauté au sujet du protocole Sitemap, qui permet de fournir un plan du site au format XML à Google, Yahoo!, Live, Exalead et Ask.com qui prennent tous en compte ce type de fichier.
Cette nouveauté du standard permet d'héberger un fichier Sitemap n'importe où, sur n'importe quel serveur, à partir du moment où l'adresse de ce fichier XML est indiquée dans le fichier robots.txt. Cette nouvelle fonctionnalité s'apparente à la fonction autodiscovery, mais jusqu'à maintenant, le fichier Sitemap devait se trouver à la racine du site web décrit. Ce n'est plus nécessaire et un fichier robots.txt présent à l'adresse www.site1.com/robots.txt pourra donc proposer une ligne de commande telle que :
Sitemap: http://www.site2.fr/sitemap.xml
ou :
Sitemap: http://www.site1.com/sitemaps/sitemap.xml
Une nouvelle fonctionnalité qui va certainement grandement améliorer la gestion et la maintenance des fichiers de ce type par les webmasters...
Des infos également à ce sujet sur les blogs pour webmasters de Google, Yahoo! et Live Search...
Bonjour. Je m’interresse a ce sujet justement mais je démarre. Savez-vous ou je peux trouver les principes de base avec une info mise à jour ?
Alors là, la nouvelle fera plus d’heureux parmis les Webmasters car ca va vraiment faciliter leur tâches.
Au moins les moteurs de recherche s’entendent sur une bonne base de « Easy Working ».
C’est plus que cooooooooooool ça.
c’est super ca j’avais plusieurs site dans un meme repertoire de script, ce qui me causait des probleme a ce sujet.