Matt Cutts explique dans une vidéo que le moteur ne pénalise pas aujourd'hui un site dont le code HTML ne serait pas valide et comporterait des erreurs de syntaxe...
Matt Cutts a posté une nouvelle vidéo (1'47", tee-shirt beige), sur le thème Does Googlebot care about valid HTML? ou, en français, "Est-ce que le fait qu'un code HTML soit valide au sens du W3C a une importance pour Googlebot ?".
La réponse de Matt Cutts est claire : non, une page web peut avoir un code HTML non valide lorsqu'on le passe au validateur W3C et bien se positionner sur Google. Le moteur ne pénalisera pas un code HTML qui présenterait des erreurs de syntaxe. S'il faisait cela, une grande partie du Web serait pénalisée, selon Matt. Bien sûr, Matt Cutts rappelle qu'il existe tout un tas de bonnes raisons pour avoir un code 100% valide (maintenance, mises à jour, etc.). Mais, comme il le dit, "Google doit faire avec le Web tel qu'il est" et il se focalise avant tout sur l'information proposée en ligne et sa qualité, tout en indiquant que ce critère pourrait éventuellement, dans le futur, être pris en compte. Mais pour l'instant, il n'en est rien...
Que cela ne vous empêche pas cependant de produire sur vos sites web un code HTML de qualité. Qu'on le veuille ou non, cela facilitera toujours l'analyse de vos pages par les moteurs... Et les navigateurs !
A voir également, en complément de cette vidéo, notre question/réponse avec Google sur le thème : "Validation HTML/W3C et positionnement Google" qui donne des indications supplémentaires.
Source de l'image : Google |
Plutôt une bonne nouvelle quand on sait que quasiment 90% des site html comportent au moins 1 erreurs si ce n’est plus ne respectent pas les normes W3C…
Ca ne va pas faire plaisir aux agences de sites internet peu scrupuleuses qui vendent et font croire à leurs clients que leur code HTML est la clef pour un bon positionnement.
Arf Olivier, est-il possible de corriger le lien ANCRE et de faire apparaitre le code html?
Désolé, merci.
il est vrai que le nombre de sites web réalisés avec des syntaxes html erroné est impressionnant…
Dans le projet qui nous occupe, nous devons sans cesse developper des règles regex pour tenter de résoudre ces erreurs. Par exemple, on trouve des inventeurs de formulation de meta qui contiennent une foule d’éléments, et pas dans l’ordre, du type =
« meta content= »index,follow » lang= »fr-fr » description= »la description »; … etc
Même pour Google, ce genre de méta tag devient invisible dans les serps même si il est de la bonne longueur, car la règle finale applicable, c'est que si l'on detecte encore le signe = suivi d'un guillemet, il ne faut pas intégrer le contenu.
Idem pour les sites sous traités en chine … avec des caractères chinois …
Google ne prend pas en compte certaines syntaxes de formatage de liens et affiche des erreurs, par exemple « a href= »http://www.ndd.tld » rel= »nofollow » »l’ancre »/a » , syntaxe pourtant proposée par Dreamweaver CS6…
Bref, on aimerais quand même avoir l’avis du spécialiste SEO, Olivier, pour savoir si cette déclaration est vrai ou fausse. Il y a peu de temps, MC nous déclarait que le code html « moderne » était favorisé … Entre « sanction » ou « favoritisme », le résultat est le même non? …