Martin Splitt a dernièrement répété un point que les portes-parole de Google disent à l'envi depuis des lustres : les signaux d'UX (pogosticking, temps passé sur un site et autres) ne sont pas des critères de pertinence de l'algorithme du moteur, contrairement aux mythes qui perdurent envers et contre tous en SEO à ce sujet. Mais cela ne veut pas dire que Google ne les utilise pas par ailleurs (d'où certainement la confusion de certains)...
Martin Splitt a dernièrement redit pour la nième fois sur Twitter que Google n'utilisait pas dans son algorithme des variables ou critères comme le pogosticking (dwell time), le temps passé par un internaute sur un site web, son chemin de navigation, etc. signaux auxquels on peut ajouter le taux de rebond et autres serpents de mer que l'on retrouve pourtant souvent dans la littérature du SEO.
Google l'a très souvent répété, mais le fait que cela vienne de Martin Splitt, un googler tout ce qu'il y a de plus fiable au sein de la firme de Mountain View, lui donne un poids plus que respectable. Quand Martin Splitt dit quelque chose, c'est en règle générale irréfutable !
Tous ces KPI qui tiennent plus de l'UX que du SEO, ne sont effectivement pas des critères de pertinence pour donner une note de pertinence à une page, ce qui serait de plus stupide : en quoi un taux de rebond ou le temps passé sur un site web peuvent-ils être un reflet de la pertinence et de la qualité du contenu proposé par ce site et de la bonne correspondance entre ce texte et l'intention de recherche de l'internaute ? C'est juste lunaire…
Des critères pris en compte par ailleurs
Mais attention, cela ne veut pas dire que Google n'utilise pas ce type de critère et, là aussi, il l'a dit maintes fois. Le pogosticking ou autres critères venus de monde de l'UX sont très importants pour le moteur de recherche afin de donner des indicateurs aux équipes chargées de la conception de l'algorithme, afin d'améliorer ces système pour être plus pertinents à l'avenir. En cela, ils sont tout à fait comparables aux tests A/B réalisés par les Quality Raters. Et à ce jour, aucun Quality Rater n'a eu d'influence sur le classement d'un site web dans les SERP (encore un autre serpent de mer qui circule sur le Web, certains disant même que le QR peuvent pénaliser un site, un "privilège" qu'ils sont loin de détenir…).
On pourrait y rajouter le passage d'un site en HTTPS (pour la confiance de l'internaute lorsque le message "Site sécurisé" apparaît dans le navigateur) qui est à 99,9% neutre (ni positive, ni négative) en SEO. Tout référenceur sérieux sait également que l'influence du temps de chargement des pages sur le classement dans les SERP est quasi nulle (pour le ranking, mais pas pour le crawl, bien sûr).
Donc soyons clair : NON, l'algorithme de pertinence de Google, qui permet de créer les SERP, n'utilise pas de critère d'UX pour noter la pertinence d'une page par rapport à une requête donnée. Mais OUI, Google utilise ces indicateurs pour mener à bien ses investigations afin d'améliorer ses futurs algorithmes. Il y a une nuance et elle est plus qu'importante ! et c'est certainement cette nuance qui a créé la confusion dans l'esprit de certains...
Mais soyons clair : d'une façon générale, l'UX est un concept passionnant et capital pour un tas de sujets, d'ailleurs souvent connexes au SEO (transformation, navigation ou autre) mais cela n'aide strictement pas une page à être mieux classée dans les résultats de recherche. Ça, c'est un mythe qui a la peau sacrément dure !
Sur la prise en compte de l'UX par Google, nous vous suggérons de visualiser nos trois vidéos qui traitent de ce sujet :
Bon SEO et bon UX donc ! 🙂
Bonjour à tous. Olivier tu sais pertinemment depuis le temps que l’on tourne sur le web, que tout ce qui dit Google n’est pas parole d’évangile.
J’ai 2 cas concrets de vitesse et de crawl de pages sur les sites de 2 de mes clients avec qui je travaille depuis 2016.
Au début de notre collaboration ils étaient loin dans les serp pour 1, pourtant présent depuis 2009, et l’autre était un site tout frais confectionné avec mon webmaster.
Le premier le site avait une vitesse au delà des 6 secondes et une thématique qui orientait mal les visiteurs. Google lui même se perdait (analyses des logs).
Dans un premier temps avant toute action sur le contenu et sur la popularité interne ou externe, nous avons optimisé les images trop lourdes, le script et changé le serveur.
En 3 semaines il est revenu à la 14ème position sur le top keyword alors qu’il était totalement aux fraises à la 5ème page. De là nous pensions que cela allait encore monter. Ben non.
Donc nous avons analysé le parcours visiteurs.
Et nous nous sommes rendu compte un 24 décembre 2017 à 18h40 (je m’en souviens comme si c’était hier, j’étais dans ma voiture , devant Décathlon pour aller faire les courses de Noël… oui un peu à la bourre je le reconnais), que son site ne drainait pas les visiteurs ciblés (les pros) vers ces pages marketing et que les particuliers trouvaient un site qui ne correspondait pas à leur attente (donc taux de rebond puisque pas de bonne réponse à la recherche générée).
De là il a été décidé, ce soir en question, de refondre le site. En attendant que tout cela se fasse, je poussait en netlinking et en contenu. Je ne dépassais pas la deuxième page. 1 an et 17000€ de travaux plus tard, la nouvelle mouture sort enfin.
Je stop toutes actions de popularité et je ne garde que l’amenée de contenu. Fait du hasard ou pas, le nouvel tunnel d’orientation des clients amène un taux de visite plus important (but recherché) un temps de visite plus important et qui pour moi parait logique de meilleures réponses aux recherches de visiteurs sur Google, donc par conséquent plus de pertinence et donc une autorité certaine. Je ne parle pas aussi de la vitesse qui a été sacrément améliorée.
Ce qui va amener Google à repositionner le site sur la première page de son index 1,5 mois plus tard sur 35% des mots clés importants de la thématique dont le top keyword.
Pour le deuxième site, nous avons fait l’erreur d’écouter le client (insistant) et de mettre ces photos en très bonne définition sur son site avec un affichage zoom. Le site en était blindé. Nous avons dit au client que cela lui porterait préjudice pour son positionnement (bien sûr de par ma propre expérience et mon propre jugement)…. Le serveur en pouvait plus (serveur vps pro 4GO de RAM, 4 vcore, 2.7ghz).
Nous avons donc fait ce que nous avons pu en respectant, sans rechigner, les demandes du client. Le client est roi quand il « gueule » lool.
Nous avons donc fait notre travail d’amener de contenu de popularité etc….. En connaissant pertinemment les problèmes que causerait une optimisation de vitesse catastrophique.
Au bout de 6 mois point seo. Bon ben là autant dire que c’est parti en vrille. J’en ai pris plein la figure. 10 minutes plus tard, je calme le client en lui ressortant ses écrits concernant les photos et le serveur. De suite c’était plus doux la réunion.
Le client comprend que ses photos lourdes « pouvaient nuire ». Nous faisons le nécessaire à ce sujet, plus gros serveur, moins d’image et surtout moins lourdes. Avec toujours le même travail de contenu et de popularité, et juste les changements précisés plus haut, le site se positionnait 7ème sur un des 3 mots clé important la thématique est choisi par le client (précédemment totalement invisible) en l’espace de 2 mois.
Je n’ai pas la science infuse en terme de seo, je fais des erreurs, j’essaye de reste humble car nous ne connaîtrons jamais comment cela fonctionne, je ne dis en aucunement, Olivier, que ton article a raison ou tort, cependant de part mes deux expériences vécues dernièrement, et ayant les sites de mes clients encore positionnés aujourd’hui »hui, même mieux, et en ayant permis un remplissage de carnet de commande un peu plus conséquemment, je pense que, à mon humble avis, l’expérience utilisateur permet une meilleure visibilité des sites.
Merci Olivier, une belle mise au point je trouve. Je suis entièrement d’accord avec le fait que Google ne sait pas vraiment ce qu’il en est de son algorithme 😉 Pour moi, l’une des principales composantes de l’UX reste la vitesse d’affichage pour laquelle je veux bien croire qu’un site qui n’apparaît pas au bout de quelques secondes pose problème ; L’autre, c’est le fait que l’Internaute ait eu sa réponse ou qu’il soit totalement désespéré au point qu’il en ferme son navigateur (joke) Et si on me démontre que cela a un réel impact pour tous les autres, je ferai plus d’UX 😉
Voilà , avec la conclusion qu’actuellement, l’UX n’est pas un critère de pertinence Google.
Bonjour
Je suis très surpris que le pogosticking ne soit pas pris en compte du tout pour le ranking.
Ok pour le taux de rebond, mais le pogosticking implique, il me semble, que le user revient rapidement sur la SERP d’où il vient ET qu’il clique sur un autre résultat de Google.
Dans de nombreux cas (pas forcément tous, certes) c’est un indice qu’on n’a pas trouvé complétement ce qu’on cherche via le premier lien.
J’avoue que je pensais également que le temps de chargement des pages avait une influence, même mineure, sur l’algo de classement. Une page qui met 10 secondes à se charger n’est pas du tout déclassée par rapport à une page rapide, à qualité égale par aileurs ?
Merci
Entièrement d’accord. Google traque très bien le taux de clic, et surtout, un second clic sur une même SERP à un impact direct sur la SERP.
URL officielle ? Explications ? tests ? Je suis intéressé par plus d’infos à ce sujet ?
Concernant l’impact de la vitesse sur le classement, je suis en désaccord total, j’ai très largement boosté la vitesse de mes trois sites (passés de 20/100 à 70/100 en moyenne sur pagespeedinsight) et les effets sur le SEO ont été quasi immédiats.
Excellent témoignage, merci ! Ce qui serait vraiment bien, si vous avez un site web ou un blog, ce serait que vous écriviez un article sur le sujet pour nous expliquer comment vous avez fait, quels sont les leviers que vous avez actionnés pour améliorer le PS et comment vous avez mesuré le gain en SEO. Je peux aussi vous ouvrir les colonnes de mon site Réacteur si cela vous dit, car cela fat plus de 4a ans que je recherche un témoignage expliquant de façon « scientifique » un cas de gain SEO basé sur la web perf (bien sûr, il faut qu’aucune autre action n’est été mise en place sur le site sur cette période). Ca serait vraiment très intéressant. Partant ?
Oui, mais non. 🙂
Tout l’algo de classement de Google vise à une UX de recherche satisfaisante. Cela inclut une recherche sur Google et la satisfaction du besoin sur le site proposé par Google.
Et dans les faits, la pertinence EST un élément de l’UX.
L’autorité/popularité est un élément de l’UX.
Le temps de chargement EST un critère d’UX.
Bref, même si je comprends le besoin de clarification sur ces indicateurs « serpents de mer » qui ne disent en fait pas grand chose… Je ne partage pas cette généralisation à « critère d’UX » qui relève d’une mauvaise compréhension de ce que veut dire UX.
Tout est UX, tout est SEO. Et hop-là 😀
Sérieusement, le principal problème de l’UX, je pense, est que chaque personne qui en parle en a sa propre définition, ce qui ne facilite pas les échanges 🙂 Le PageRank, c’est de l’UX ? Alors là, je t’avoue Lionel qu’on ne me l’avait jamais faite, celle-là… ;-)))
Le PageRank, ce serait tiré par les cheveux… mais ça pourrait se démontrer avec un peu plus de courage. 🙂
Prenons l’exemple des avis clients que je peux intégrer sur mon site. C’est une preuve sociale, un élément rassurant, que j’utilises pour valider mon produit/service. C’est un élément qui améliore l’UX sur mon site.
Si Google décide de présenter ces avis/étoiles, et qu’il les utilises pour classer ses réponses, alors il utilise un critère d’UX.
Merci pour cet article.
Peux-tu stp détailler la nuance entre :
« NON, l’algorithme de pertinence de Google, qui permet de créer les SERP, n’utilise pas de critère d’UX »
« OUI, Google utilise ces indicateurs pour mener à bien ses investigations afin d’améliorer ses futurs algorithmes »
Si c’est pris en compte pour ses futurs algorithmes, cela veut dire que l’UX deviendra un critère de pertinence pour ses prochaines versions ?
Merci d’avance
Merci d’avoir fait le point, il semblerait que ça est été nécessaire après vos échanges sur LinkedIn 😅