Yahoo! a dernièrement annoncé qu'il prenait en compte une nouvelle balise nommée "Robots Nocontent" qui permet aux webmasters d'indiquer aux moteurs quel est le contenu éditorial à l'intérieur d'une page, permettant ainsi de distinguer le "vrai" contenu par rapport à tout ce qui correspond à la charte graphique, les liens de navigation, etc.
L'intention est louable et très intéressante mais n'est-ce pas, également là, un aveu d'impuissance sur le fait que le moteur n'arrive pas lui-même à identifier ce contenu éditorial, ce que, à mo navis, Google arrive à faire (voir mon précédent post à ce sujet) aujourd'hui ?
Cela me rappelle les offres de "paid inclusion" ou de "trusted feed", bref de référencement payant (je reviendrai dans un futur post sur le terme de référencement payant, qui désigne souvent, de façon erronée selon moi, le monde des liens sponsorisés), qui permettent contre rétribution, chez Yahoo! et Voila, d'obtenir une garantie d'indexation et de rafraîchissement de certaines pages web. Bref, de payer pour demander au moteur de recherche de faire un boulot qu'il est déjà censé faire, en quelque sorte... Payer pour que le moteur travaille bien, est-ce vraiment logique ? On peut se poser la question...
Le débat se situe donc autour de cette question : le moteur de recherche doit-il s'adapter au site web ou l'inverse ? La problématique reste la même pour le Flash, par exemple : doit-on éviter de faire un site 100% Flash sous prétexte que les moteurs ne savent pas les prendre en compte de façon optimale ? N'est-ce pas plutôt aux spiders d'apprendre à lire le Flash ? Idem pour le Javascript, l'Ajax, etc.
Bien entendu, la question n'est pas tranchée mais elle est d'importance. Le débat reste ouvert pourtant on voit bien qu'il existe un vrai décalage temporel entre la façon de créer des sites web et la façon dont les moteurs les prennent en compte. Et ce délai reste constant au fur et à mesure de l'évolution du Web...
Alors, le webmaster doit-il, lors de la conception de son site, donner des indications au moteur sur la façon dont il doit le "comprendre" ou faut-il estimer que le moteur doit être capable de l'analyser par lui-même ? Toutes vos opinions, tous vos commentaires seront les bienvenus !
Bonjour,
A priori, cet attribut peut être utile pour les pages codées « à l’ancienne », par exemple de très longues pages faites de multiples tables imbriquées (la masse de code structurel étant alors importante).
Aujourd’hui j’ai plutôt l’impression que les prestataires intègrent la notion d’optimisation de page dès le développement de site, ce qui tendrait à minimiser son utilisation.
Quant au reste (le robot doit-il s’adapter et évoluer ou le développeur optimiser ?), cela fournit du travail aux référenceurs / développeurs 😉
Bonjour,
Je pense que les moteurs doivent s’adapter aux sites web et non l’inverse, il doit avoir le même oeil que l’humain, pour déceler la réalité de l’information définie.
Le flash est un autre problème, car c’est une technologie propriétaire, la question que je me pose est pourquoi Macromédia, n’a pas trouvé un système de sitemap, permettant aux moteurs de référencer correctement les animations Flashs?
En suivant la logique de ce post et du précédent, le fait d’insérer des balises nocontent permettrait, a contrario, d’indiquer à Yahoo les liens contextualités dont nous disposons. Il devient donc intéressant pour nous que nos partenaires usent de cette balise afin d’augmenter le pouvoir de nos liens chez eux. Tout ça reste valable si l’hypothèse soulevée s’applique également en Yahoo. (On tombe dans des hypothèses très conditionnelles à ce niveau là)
J’aurais, pour ma part, plutôt tendance à considérer que Yahoo a mis ça en place pour alléger ça base de donnée. Plutôt que de conserver l’intégralité de la page, Yahoo ne conserve que les mots susceptibles de faire sortir une page et exclu la fioriture. Donc, plus de pages indexées car plus d’espace libéré…