Google indique dans un de ses blogs comment il utilise la validation W3C pour tester ses propres sites. Cela veut-il dire que ce critère est pris en compte dans son algorithme de recherche ?...
Dans un article publié sur son site pour webmasters, Google indique comment il utilise et analyse la validation W3C pour tester ses propres sites en interne. Cette validation sert, selon la Webmaster Team, à réduire les erreurs potentielles qui pourrait gêner l'affichage et le rendement du site.
Pour cela, l'équipe a mis en place depuis deux ans un barème sous la forme d'une note pour chaque page d'un site, cette note allant de 0 (10 erreurs ou plus au validateur W3C dans le code HTML ou les feuilles de styles CSS) à la note maximale, 10 (aucune erreur). Au fil des années, le score moyen des pages testées en interne est passé de 5 à 7 environ, si on en croit le graphique reproduit ci-dessous :
Source de l'image : Google |
Bine sûr, il ne s'agit ici que de la validation W3C des sites de Google réalisés en interne. Cela signifie-t-il que cette validation est prise en compte dans l'algorithme de pertinence du moteur ? Non, certainement pas, rien, à l'heure actuelle, ne nous permet de l'affirmer, et ce ne serait d'ailleurs pas obligatoirement très logique. En quoi la compatibilité W3C d'une page pourrait-elle affecter la qualité du contenu qu'elle propose ?
Ceci dit, il est clair qu'il sera intéressant de regarder de plus près cette donnée si on veut fournir aux moteurs de recherche un code "propre", sans énorme erreur (du type d'une balise ouverte et non fermée), ce qui ne pourra que faciliter l'analyse du code HTML pour que le moteur puisse en faire ressortir le contenu éditorial et le "ranker" à sa juste valeur...
Articles connexes sur ce site :
- Novembre 2009 > Compatibilité W3C et référencement : quel impact ? (16 novembre 2009)
- Google pas compatible W3C ? (2 octobre 2009)
- A quand le W3C de la recherche sur le Web ? (29 mars 2006)
- La commande DOCTYPE est-elle importante pour le référencement ? (avril 2008)
- La commande Doctype et le référencement (octobre 2007)
La validation W3c mon pire cauchemar, mais de toute manière un jour où l'autre google le grand la rendra obligatoire ^^
La validation W3C est un gage de qualité, mais pas une certitude absolue en la matière. Un site entièrement valide peut avoir un code pourri tout comme un code très propre.
Ceci dit, en général, l'inté qui a du code valide, c'est en général plutôt bon signe.
Bonjour, si j'ai bien compris personne ne sait officiellement ce que Google utilise pour " noter " les sites internet et il n'y a pas de guide officiel à suivre pour obtenir un résultat de positionnement sur et définitif.
Pour ma part, pour les sites que j'optimise depuis plusieurs mois je fais attention à ce que le code soit le plus possible valide W3C pour obtenir un bon positionnement.
Si je ne m'abuse, il doit y avoir un tiers des éléments jaugés par le W3C qui sont importants pour le SEO.
Ce n'est pas anodin, mais ça n'est pas vital non plus.
Deux questions ont récemment été posées à Matt Cutts à ce sujet… et il y a répondu.
Je vous invite à les regarder, car en clair il y dit qu'on s'en moque du w3c : certes avoir une page w3c permet d'avoir une page plus propre qui va donc être plus rapide, et donc in fine influer sur le référencement, autant une page qui n'est pas valide ne va pas non plus être mise à l'écart…
Why doesn't google.com validate? http://www.youtube.com/watch?v=FPBACTS-tyg
Is HTML validation necessary for ranking? http://www.youtube.com/watch?v=2XlKn6I9rSc
Bonjour
A ma connaissance, Google n'a jamais dit que la validation W3C était un de ses critères de pertinence (alors qu'il a communiqué sur la vitesse d'affichage des pages).
D'autre part, je n'ai jamais réussi, au travers de tests, à prouver que la validation W3C était importante pour le ranking (je dis bien : pour le ranking).
Quelqu'un aurait-il une communication officielle de Google sur ce sujet ou des tests fiables qui seraient publiés en ligne ?
merci !
Olivier
ça fait des années qu'on le dit, le W3C est un des facteurs de classement. Une page W3C s'affiche plus vite, peut offrir une meilleur compatibilité entre les navigateurs, donne un meilleur accès aux contenu des pages aux robots des moteurs de recherche.
Bonjour Olivier,
Je crois que c'est un sujet à troll 🙂 Je vais tenté de faire court.
"En quoi la compatibilité W3C d'une page pourrait-elle affecter la qualité du contenu qu'elle propose ?"
Simplement parce que le web est ce qu'il est grâce aux standards… et à leur utilisation/exploitation.
HTML est un format de document au même titre qu'un Word, PDF.
Si un document est corrompu, mal formaté, comment peut-on espérer qu'il soit interprété, qui plus est correctement, voire simplement exploité (par exemple pour le stocker dans une base de données et le fournir à ses utilisateurs… lors d'une recherche ^^) ?
HTML a toutefois un avantage indéniable, c'est du texte donc un navigateur, ou un spider, pourra quand même traiter le document.
[C'est d'ailleurs ce qui s'est passé lors du lancement de Mozilla : ce navigateur interprétait stricto-sensus les standards, mais a été obligé d'être dégradé pour pouvoir afficher le web. L'équipe a été obligé d'effectuer ses propres traitements, un peu comme le mode "quirks" d'un certain IE… et peut-être comme le font certainement les spiders.]
La "compatibilité W3C" n'est pas seulement le fait qu'un document ait (ou pas) d'erreurs HTML. C'est le respect d'utilisation d'une technologie :
– URL pour localiser une ressource (de manière unique en indiquant un chemin, ce qui signifie que cette compatibilité W3C devrait nativement éviter les "duplications de contenus"),
– HTTP pour transférer l'information (avec un statut et des HDF correctement déployés),
– HTML pour structurer l'information avec un balisage adapté (et non la mettre en forme par exemple).
Limiter la compatibilité W3C à ne pas avoir d'erreur (= au simple fait que la structure du document soit viable) n'est qu'une étape (finale, en amont il est important de s'assurer que les balises HTML .
Bref, respecter les standards (en particulier sur le web, seule "industrie" a en avoir et ne pas les utiliser) va permettre, par exemple, d'améliorer la performance de vos pages (signal utilisé par Google non ?), leurs poids, leur délivrabilité, leur exploitation (interprétation/analyse) et retranscriptions aux utilisateurs par les user-agents comme des navigateurs graphiques (Firefox, Opéra), plages Braille, synthèses vocales, ou dans notre contexte, des spiders.
C'est donc gage de qualité et il semblerait que Google (par exemple) tente d'exploiter cette information comme signal pour évaluer la qualité éditoriale d'un site. Qu'en pensez-vous ?
Bonjour
La vitesse d'affichage me semble plus "logique", car un contenu qui s'affiche très lentement me semble proposer une certaine "dégradation de service". Ceci dit, jusqu'à maintenant, je n'ai jamais pu noter la moindre dégradation de ranking de la part de Google sur un site supposé lent, ou qui aurait connu des soucis techniques pendant un laps de temps…
Je pense que la vitesse d'affichage des pages est un critère très très mineur pour Google mais il reste un critère "visible" pour l'internaute. Ce qui n'est pas le cas de la validité W3C (sauf erreurs énormes qui empêcheraient l'affichage de la page ben sûr…).
cdt
Bonjour,
Si le résultat du test W3C n'est pas un facteur de qualité de contenu en quoi la vitesse d'affichage serait-elle une garantie ?
Il me parait évident aujourd'hui que si le test pagespeed est un des nombreux facteur du classement d'une page, il en est de même pour le test de validation du W3C.