Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : L'utilisation d'un CDN apporte-t-elle un « plus » en termes de SEO ? Peut-on bloquer la lecture des Sitemaps XML aux humains tout en acceptant les robots ? Peut-on répéter le nom du site web dans les attributs ALT vides par défaut ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
CDN et SEO |
John Mueller a indiqué lors d'un hangout avec des webmasters que, d'une façon générale, l'utilisation d'un CDN (Content Delivery Network) ne donnait pas spécifiquement de bonus en SEO et n'apportait pas d'effet positif en termes de visibilité. Sauf si votre site contient des millions de pages et que sa « web performance » est mauvaise, cela peut améliorer le crawl et l'indexation. Mais rien de plus (rien de façon directe pour le classement dans les SERP en tout cas). |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Cela peut bien sûr avoir un impact visuel pour les internautes en accélérant parfois (et parfois seulement) l'affichage des pages, mais effectivement, si apport il y a en SEO, il sera tellement infime qu'on peut penser qu'il ne sera même pas mesurable... |
Accès aux Sitemaps XML |
John Mueller a expliqué sur Twitter qu'il est accepté par Google que vos fichiers Sitemap XML soient bloqués à la lecture pour les internautes lambda et visibles uniquement aux robots des moteurs de recherche. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Cela a certes un côté logique, puisque ces fichiers sont conçus uniquement pour les moteurs de recherche, mais quel est l'intérêt réel de les bloquer pour les humains (sachant qu'il est toujours possible de crawler le site pour en récupérer les URL) ?... |
Atrributs ALT |
John Mueller a indiqué sur Twitter que ce n'était pas une bonne pratique de répéter à l'identique le nom d'un site web dans l'attribut ALT d'images qui n'avaient que peu de sens sémantique (puces, traits, etc.) ou tout simplement des images qui avaient par défaut un ALT vide. John a expliqué qu'en dehors du fait que ce type d'action n'avait pas de sens, l'effet en SEO sera nul. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Il est beaucoup plus efficace de s'en tenir aux bonnes pratiques SEO et aux recommandations W3C : toutes les balises IMG doivent avoir un attribut ALT, et celui-ci n'est rempli que pour les images ayant du sens (il sera vide autrement)... |
Goossips : CDN, Sitemap XML et Attributs ALT. Source : Google
Pour les attributs alt sur les éléments n’ayant pas de sens à apporter au contenu, aussi appelé images décoratives, je laisse le alt vide et j’ajoute l’attribut également l’attribut role= »presentation ».
Ceci dans le but que les navigateur pour les mal voyants ne lise pas le champ URL. Comme indiqué dans le W3C https://www.w3.org/WAI/tutorials/images/decorative/
Concernant le sitemap.xml, L’utilité pour les utilisateurs est effectivement nulle, cependant lors d’un audit, il est toujours intéressant de visualiser le delta sitemap / crawl afin d’analyser la performance du maillage interne et cibler d’éventuelles pages non découvertes.
Bonjour Olivier !
Merci à toi pour ce résumé. 🙂
Concernant l’affirmation relative au blocage de l’accès aux Sitemaps XML, « mais quel est l’intérêt réel de les bloquer pour les humains (sachant qu’il est toujours possible de crawler le site pour en récupérer les URL) ?… »
Il n’est pas toujours possible de crawler un site. Dans la plupart des cas, les deux (sitemaps et site) sont bloqués.
Bonne journée !
Pour le CDN, la réponse est plutôt logique. C’est effectivement pour le crawl et la vitesse d’affichage qu’on utilise en priorité les CDN. L’impact SEO est plutôt indirect.
Mais comme j’aime bien le répéter, c’est souvent de petits détails qui, ensemble, font la différence.
D’accord avec toi Jérémy, je pensais que le CDN avait plus d’importance que cela, mais il est vrai que mises bout à bout, toutes ces petites optimisations ne pesant pas grand chose à elles seules vont créer une synergie. Le diable se cache dans les détails dit-on !