Yahoo! a lancé hier une nouvelle application permettant de mieux référencer les sites dynamiques. Au mois de mai, il proposait une balise meta intitulé "robots-nocontent" qui permet d'indiquer, en conjonction avec des balises comme "div", "p" ou "span", par exemple, aux robots que le contenu qui suit n'est pas le plus important dans la page et ne doit pas être indexé. Ces initiatives sont louables et indiquent un réel désir d'ouverture vers les webmasters et les référenceurs du côté du moteur de recherche. Mais ne nous demande-t-il pas de faire son travail, quelque part ?
Est-ce réellement aux webmasters d'indiquer au moteur comment indexer ses urls dynamiques ? Est-ce au référenceur de dire au moteur ce qu'il doit indexer ou non dans une page ? Ces initiatives me rappellent les offres de "paid inclusion" ou "trusted feed" qui, contre rémunération, permettent d'obtenir une garantie d'indexation (mais pas de positionnement) et de rafraîchissement de certaines pages d'un site. N'est-ce pas payer le moteur pour qu'il fasse ce qui n'est rien d'autre que son travail, finalement ?
La question n'est pas nouvelle : le moteur doit-il s'adapter aux sites web actuels ? Et dans ce cas, il est évident que le Flash et le Javascript, notamment, devraient être mieux "compris" par les spiders puisque la plupart des sites actuels, tendance "2.0" oblige, sont écrits en Ajax qui fait la part belle au JavaScript... Ou est-ce aux moteurs de "dicter leur loi" et aux éditeurs de sites de suivre ces recommandations, quitte à se brider pour être réactif par rapport aux moteurs ? Certainement un peu des deux, selon les circonstances et, comme souvent sur le Web et ailleurs, tout sera question de consensus et d'arbitrage...
Mais vos commentaires sont les bienvenus sur cette problématique...
En réponse au post de « 42 a dit… », je pense qu’il y a une différence importante avec les balises keyword et description car dans ce cas-ci on indique ce qu’il ne faut PAS référencer et pas ce qu’il faut. Et cela limite les abus.
Par contre je suis pas non plus pour et je rejoins Olivier dans son analyse, cela ressemble aux précédents essais de Yahoo et on connait les suites données…
Je trouve étonnant pour une grosse boite comme Yahoo ne pas réussir à faire des annonces qui soient vraiment utiles, nouvelles, innovantes,… comme le fait si bien un autre moteur, quel est encore son nom ?? 😉
La question peut être : qui apporte du trafic à qui ?
Même si Yahoo! n’est pas au ras des pâquerettes aux US comme en France, ils ont assurément beaucoup plus de travail à fournir que Google pour revenir, là où le leader en fournit pour accroitre son avance.
Je pense donc que c’est de la communication.
Avec 2 objectifs :
– le client : j’existe, tu as vu c’est intelligent ce que je fait, quelles innovations ! Tu pourrais en tirer avantage, demande bien à ton référenceur s’il optimise pour moi.
– les référenceurs, qui auront tendance à optimiser pour Google, en les incitant à penser 5 min de pus à Yahoo! dans leur travail.
L’influence des uns peut contraindre les autres, du moins dans les offres. 😉
En terme de SEO on sera donc pragmatique…
Débat déjà croisé sur ce blog et qui durera encore longtemps, j’imagine…
Personnellement, je m’inquiète surtout du nombre de rustines de ce genre à adopter si chaque moteur se met à proposer les siennes. Certes les 3 GYM sont parvenus à s’entendre sur le système sitemaps par exemple (ou sur les liens nofollow) et c’est heureux qu’ils aient su comprendre qu’ils ne pouvaient le faire qu’à 3. Mais qui des autres recommandations ?
Ne risque t’on pas de voir apparaître à terme un code surchargé par les balises propriétaires de chaque moteur, antithèse absolue de ce que semble pourtant être leur mot d’ordre « même contenu pour les moteurs et les internautes »…
Globalement je pense qu’il faut se restreindre aux standards édictés par des organismes « neutres ».. Le W3C, même en matière de référencement, apporte déjà sa pate à l’édifice mais existe-t’il une autorié similaire dédiée au SEO qui associerait moteurs, éditeurs Internett internautes pour standardiser les usages ?
Ce que je ne comprend pas, c’est que cela tend a revenir à ce que l’on faisait avec les balises Keyword et Description…
D’un autre coté, ça ne parait pas idiot d’indiquer aux moteurs le contenu « utile ». Malheureusement cela va forcément conduire à des détournements.
Non, franchement, le moteur devrait s’adapter aux sites et en réalité le métier de référenceur ne devrait pas exister, non ?