Les semaines et jours qui viennent de s'écouler ont amené plusieurs annonces concernant l'offre "Sitemaps", standard de plans de sites au format XML, facilitant l'indexation des sites web par les moteurs de recherche :
- C'est tout d'abord Google qui a lancé l'idée et proposé ensuite l'outil en français.
- Yahoo! l'a suivi en proposant ce standard sur son site de shopping.
- Microsoft a rejoint le groupe en travaillant officiellement avec Google et Yahoo! au développement du standard "Sitemaps" au sein d'un consortium.
- Entre temps, Google l'avait proposé pour son moteur de recherche sur les mobiles.
- Et il a remis ça cette semaine pour son site Google News.
Le système semble donc bel et bien lancé. Le fait que les trois pus grands moteurs de recherche de la planète se rattachent à ce protocole en fait un gage de succès. Les webmasters du monde entier vont donc devoir plancher sur ce standard pour voir leur site mieux pris en compte par les moteurs (rappelons que le système "Sitemaps" n'amène qu'une meilleure indexation quantitative d'un site web et ne joue pas sur le "ranking" des pages).
On peut d'ailleurs penser que ce standard va rapidement évoluer et que d'autres types de moteurs ou méta-moteurs (comparateurs de prix, moteurs audio, vidéo, blogs, etc.) vont s'en servir. Et pourquoi pas les moteurs intra-sites aussi, d'ailleurs ? Les applications possibles dans le futur pour ce protocole semblent d'ailleurs innombrables...
Autre évolution possible : le nombre de champs dans la structure XML qui décrit les pages. Actuellement, on trouve pour chaque page :
- L'url.
- La priorité d'indexation (entre 0 et 1).
- La date de dernière modification du document.
- La fréquence de mise à jour (depuis "hourly" jusqu'à "monthly") de la page.
Mais on pourrait tout à fait imaginer que l'on puisse rajouter des champs comme l'auteur, la date de création, la langue, voire des mots clés, une description, etc. En fait, on pourrait voir au travers de ce protocole une certaine évolution des antiques balises "meta"... Pourquoi pas ?
Actuellement il existe plusieurs solutions pour créer ces fichiers "Sitemaps" : soit manuellement (pour les petits sites) soit en passant par des scripts, des sites web ou des logiciels (il en existe de très nombreux, de qualité parfois inégale). Mais l'avenir passe également par des systèmes intégrés à des CMS (Content Management Systems) ou au serveur Apache, bref un outil intégré dans la structure même de votre serveur web et qui crééra le fichier "sitemaps" de façon transparente, au fur et à mesure de la création ou modification de vos fichiers sur le site... Gageons que des solutions complètes pour fournir aux moteurs des fichiers "Sitemaps" le plus à jour possible verront le jour prochainement. Là encore, les possibilités de développement sont enthousiasmantes !
Des outils statistiques devraient également se développer pour vérifier le nombre de fois où ce fichier est lu par les robots de Google et consorts et mettre en adéquation l'indexation de nouvelles pages, par exemple, dans l'index des outils de recherche.
Il semble évident, en tout cas, que le protocole "Sitemaps" va vite devenir un incontournable du référencement, et c'est une bonne chose car cela devrait permettre non seulement d'obtenir une indexation de site de meilleure qualité mais aussi, comme c'est déjà le cas aujourd'hui, d'avoir accès à bon nombre d'informations de la part du moteur sur la façon dont il référence nos pages. Et ça, c'est peut-être la meilleure nouvelle qu'apporte ce nouveau protocole !
L’intégration avance bien. Il existe par exemple un plug-in pour WordPress générant le fichier sitemap.xml ainsi qu’une notification à Google avec de nombreuses options…
Bonjour,
Comment se fait-il que sur ce Blog (et uniquement dans les billets et commentaires), pas sur ce formulaire, les é (&ecute;) sont tranformés en A+tilde e le sigle du copyright ? je n’ai pas ce pb sur les autres blogs.
Un autre point sur le sitemaps: certains logiciels génèrent un plan du site en html, qui permet d’avoir une version pour les moteurs qui n’ont pas prévu l’usage du sitemaps en XML.
Sitebases, the next protocol after Sitemaps
It can save the time and press for the search engine, also for the websites.
It can bring new search engine that named Search Engine 2.0.
Using Sitebases protocol, will save 95% bandwidth above. It is another sample for long tail theory.
In this protocol, I suggested that all search engine can share their Big Sitebases each other, so the webmaster just need to submit their Sitebases to one Search Engine.
And I suggested that all search engines can open their search API for free and unlimited using.
je cherche un logiciel de site map xml qui permettrait de donner le rang d’importance de la page. Merci
C’est sympa de vérifier son ortographe (comme dans le bouquin…) il y a tellement de fautes ici et là !
c’est pas toujours evident d’etre indexé rapidement, c’est un outil de se communiquer avec les moteurs de recherche et non d’indexation et surtout le probleme se pose pour les nouveaux sites.
Juste un petit mot.
1ere ligne, second paragraphe:
les trois pus grands – il manque un l 🙂 – sinon bon boulot pour la synthese sur les sitemaps. Le site officiel de G, Y! et M$ est: http://www.sitemaps.org/ je crois pas que tu l’ai donné.
Bjr
Le format XML permet de rajouter des champs supplementaires pour chaque page : priorité d’indexation, date de derniere MAJ, fréquence de MAJ… alors que le format TXT ne permet que de lister une suite d’urls…
Cordialement
Bonjour,
juste une question, le sitemap en .TXT est bien plus simple que le XML est il est bien pris en compte par google.
Pourquoi le xml?
Si les problèmes d’indexation disparaissent progressivement grâce au sitemap cela nous laissera plus de temps pour nous concentrer sur le positionnement.
Ce qui ne serait pas une mauvaise nouvelle 🙂