Matt Cutts indique dans une vidéo que seulement 1% des requêtes sont affectées par le signal issu du temps de chargement des pages. 1 site sur 1 000 est concerné...
Dans une vidéo où il répond à la question "How does Google determine page speed?", Matt Cutts explique que seulement une requête sur 100 est touchée par le critère du temps de chargement (inférieur à 1,5 seconde selon Google) des pages web d'une façon notable.
Il ajoute ensuite que seulement 1 site sur 1 000 est réellement impacté par ce signal, ce qui est très faible et rejoint les analyses que nous pouvons faire au quotidien : pour l'instant, nous n'avons vu aucun site web en France ayant clairement amélioré ses résultats en réferencement après avoir amélioré ses temps d'affichage de pages et de réaction du serveur.
En revanche, il y a fort à parier que les internautes, eux, ont vu la différence et l'ont appréciée lorsqu'ils sont allés sur le site. N'est-ce pas là l'essentiel ?
Source de l'image : Abondance |
@Tatouage : Google – par la voix de Matt Cutts – a indiqué plusieurs fois dans des vidéos et des salons que le taux de rebond n'était pas un critère de pertinence de Google et je suis porté à le croire car, selon le type de page, le taux de rebond peut être très très différent et pourtant tout à fait satisfaisant… Le taux de rebond en lui-même ne veut rien dire si on ne le rattache pas à la page elle-même et son rôle dans le site web…
cdt
Est-ce que le fait d'accélérer la vitesse du temps de chargement ne permet pas également d'améliorer le taux de rebond ?
Le taux de rebond fait bien parti des critères d'optimisation on-page, n'est-ce pas ?
Dans le cas du temps de chargement, il ne faut plus raisonner en terme de sanction, de pénalisation.
Il est probable que ce critère est à l'oeuvre depuis plusieurs années.
Il est inclu dans une logique de crawl. C'est sans doute une des raisons pour lesquelles pour laquelle des super-sites Ecommerce avec des super SEO voient (voyaient) passer des petits sites tous simples devant eux.
Que Google lui donne une pondération plus forte est probable, vue sa volonté de faire monter le niveau de qualité du WEB.
En l'occurrence tous les critères mineurs avancés par les SEO au long des 10/15 dernières années deviennnent majeurs pour ceux qui suivent leur trafic au jour le jour.
Pour les autres, je les laisse interroger le marc de café des positions 🙂
David
Je ne comprend pas que cela fasse encore débat.
Le temps de chargement impacte le trafic, impacte les visites trackées.
Et je ne parle pas du temps de rebond ou de l'expérience utilisateur.
Si on réfléchit en terme d'économie d'énergie du spider :
plus la page est longue, moins le spider accordera de temps à la page.
Et s'il ne crawle pas TOUT le texte, nous perdons des variantes de mots-clés , donc de la longue traîne.
1/100 ou 1/1000 des sites, c'est ENORME.
Combien y-a-t-il de sites PRO par rapport aux sites persos, blogs, wiki et autres égopages.
Les sites PRO ce sont les plus complexes, avec des BDD derrière, avec des récupérations d'IP, de cookies …..
Alors maintenant, si votre site a 99% de disponibilité, êtes vous content ?
Si c'est oui, c'est que vous acceptez de perdre 3 jours de CA par an.
Votre DG est-il d'accord ?? Nous sommes les 99% 😉
David
Dommage pour l'évangélisation, je pense que cet article va être brandi par les agences web qui refusent systématiquement de mettre en place certaines optimisations de code. Pourtant, si les classements ne s'en ressentent pas forcément, améliorer les temps de chargement à tous niveaux d'un site, ainsi que son ergonomie, deviennent de plus en plus essentiels pour optimiser l'impact et les performances du SEO. Comment faire valoir le ROI d'une action SEO, si le site positionné perd son flux entrant à cause d'une mauvaise expérience utilisateur ?
Salut OA,
Je ne sais pas pour toi, mais j'ai eu un bond dans les demandes de devis suite à Caféine. Le surplus était uniquement des sites tombés au combat à cause d'une performance déplorable.
Je n'ai pas calculé le % et ça ne sera pas pertinent, mais le 0,1% annoncé par MC me semble largement sous-évalué.
Au fait, MC n'est pas en charge du spam chez Google ? Je veux bien qu'il en connaisse un rayon, mais on l'entend vraiment causer sur tout sauf du sujet qui le concerne… Puis surtout, il nous annonce toujours qu'il pleut, alors qu'on est déjà trempé sous l'averse.
Comme le dit @Raph SEO, il n'y a pas que les robotos, il y a l'expérience utilisateur et le fait qu'on ne consulte pas un site qu'avec de l'ADSL : mobile, tablette, etc. Tout ça doit nous amener à considérer la vitesse de chargement des pages comme un des critères déterminant la qualité des dév et de l'inté. Google nous pousse à produire du code de qualité, pour moi ça va dans la même direction…
hum, mauvaise traduction – pour un site sur 1000 "c'est un très gros problème", il s'agit là des sites à la limite du timeout.
Vous vous doutez bien que si une requête sur cent (hundred) voit ses positions bouger, c'est plus que 1/1000 sites qui est concernés par ce critère.
@Sylvain : en même temps on peut prendre le probleme de l'autre coté : si un site web qui était soit-disant pénalisé pour lenteur a amélioré son "score" a ce niveau et n'a vue aucun changement positif n'est intervenu, c'est que les conséquences sont moindres… Non ? 🙂
cdt
Est-ce que l'idée de départ n'était pas de pénaliser la lenteur plutôt que de récompenser la rapidité ?
Que des sites sur-optimisés du point de vue du temps de chargement (si toutefois cela a du sens de dire les choses de cette façon) n'en récoltent aucun retour quant à leur positionnement est une chose. Mais est-ce que des sites ont été impactés par des temps de chargement moins performants ? Et est-ce dans les mêmes proportions ?
Je suis tout à fait d'accord il est parfois bon de penser expérience utilisateur plutot que robots