Goossips : Cookies, Title, Sitemap XML, Dates et Temps de Chargement
Olivier Andrieu/17 Sep 2018 à 08h42
Temps de lecture : 4 minutes
Partagez l'article
Partagez sur vos réseaux
Ou copiez l'adresse
CopierCopié
Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Googel arrive-t-il à lire une page web qui impose l'acceptation des cookies ? Ajouter le nom du site à la fin de chaque balise Title est-il pénalisant ? Les URL contenues dans un fichier SItemap XML peuvent-elles être situées n'importe où dans le site ? Quelles dates Google affiche-t-il dans ses SERP (parfois) ? Quelle métrique utiliser pour le temps de chargement des pages ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Cookies
John Mueller a rappelé sur Twitter que Google ne pouvait pas crawler une page si l'affichage de cette dernière nécessitait l'acceptation de cookies par l'internaute.
Notre avis : Ce n'est pas nouveau et c'est assez logique. attention donc, pour votre site, à penser au cas des robots qui n'ont pas la possibilité d'accepter ces cookies.
Title
John Mueller a indiqué, toujours sur Twitter, que le fait d'ajouter le nom du site (nom de l'entreprise ou de la marque) à la fin de chaque balise Title des pages d'un site web ne posait absolument aucun problème.
Notre avis : Bien sûr. C'est ce que nous préconisons d'ailleurs :). Et, selon notre expérience, cela évite parfois que Google réécrive de son propre fait une partie du Title dans ses SERP.
SiteMap XML
John Mueller a expliqué lors d'un hangout que si un fichier Sitemap XML était soumis via un ping anonyme, les URL qu'il contenait devaient être présentes dans le répertoire (et les sous-répertoires) du fichier Sitemap. En revanche, si le Sitemap est soumis via la Search Console, les règles sont beaucoup plus souples : les URL peuvent correspondre à n'importe quel emplacement du site, voir même d'un autre site.
Notre avis : C'est exact, on le voit bien en analysant le contenu des Sitemap XML dans la Search Console. Mais même si les règles sont plus souples à ce niveau, on ne peut que vous conseiller d'être vous-même stricts dans la conception de vos Sitemaps XML pour ne pas faire n'importe quoi dans ce cadre. Vous y gagnerez du temps dans vos propres analyses par la suite.
Dates
John Mueller a donné lors d'un hangout une indication intéressante sur la date affichée dans ses SERP (notamment à gauche du snippet qui reprend la plupart du temps la balise meta "desctiption") : il peut s'agir soit de la date de publication, soit la date de dernière modification du contenu, en fonction du contexte. Par exemple, si le contenu a changé de façon importante, c'est la seconde option qui sera choisie.
Notre avis : C'est intéressant , car Google n'avait pas communiqué sur ce sujet jusqu'à maintenant, à notre connaissance. Mais qu'est-ce qui fait que Google passe d'une date à l'autre ? Quelle est la frontière entre les deux, et les signaux réellement pris en compte ? Nul ne le sait, en revanche ;-).
Temps de chargement
John Mueller a expliqué sur Twitter qu'une métrique intéressante, en termes de temps de chargement des pages, pouvait être de regarder la Search Console, zone "Exploration > Statistiques sur l'exploration" puis d'essayer d'avoir la courbe "Temps de téléchargement d'une page (en millisecondes)" qui oscille aux alentours des 100 ms. En fait, selon John, plus cette moyenne sera basse et mieux Google pourra crawler votre site, selon lui.
Notre avis : Une métrique intéressante. Mais notre expérience montre que l'objectif d'avoir des temps de téléchargement de plus ou moins 100 ms est extrêmement difficile à tenir dans le temps. En moyenne, on voit plutôt des statistiques supérieures à 500 ms dans cette zone de la Search Console. Sans que cela impacte le SEO en quoi que ce soit. Mais ce n'est pas une raison pour ne pas essayer de les baisser, ne serait-ce que pour le confort de l'internaute...
Olivier Andrieu était consultant SEO indépendant. Il a créé la société Abondance en 1996 et le site abondance.com en 1998. En 2023, il a décidé de prendre sa « retraite SEO » pour se consacrer à son activité de scénariste de BD à temps plein.
ActuMoteurs, la newsletter hebdo d'Abondance
Rejoignez nos 20 000 abonnés et recevez, chaque semaine, tous nos articles dans votre boite mail !
Les données transmises par le biais de ce formulaire sont uniquement destinées à Abondance. Elles ne seront en aucun cas cédées à des tiers. Vous pouvez vous désabonner à tout moment en cliquant sur les liens de désinscriptions présents dans chacun de nos emails. Pour plus d’informations, vous pouvez consulter l’intégralité de notre politique de traitement de vos données personnelles.
3 Commentaires
Philippe LAINE
sur 20 septembre 2018 à 12 h 19 min
Le point sur les fichiers Sitemap mérite peut-être un petit éclaircissement ?
« si un fichier Sitemap XML était soumis via un ping anonyme, les URL qu’il contenait devaient être présentes dans le répertoire (et les sous-répertoires) du fichier Sitemap. »
Je ne comprends pas très bien.
Est-qu’on parle de la façon dont le fichier sitemap est organisé ou du répertoire dans lequel il est rangé sur le site ?
J’aime bien l’aspect « notre avis ». Cela permet d’obtenir un avis sur une question précise. Et je suis rassuré pour le temps de chargement. Je suis effectivement absolument incapable sur aucun de mes sites, d’obtenir 100ms en moyenne sur cet indicateur. De toute manière, rien que le TTFB attend souvent déjà 100ms. Même la page index de google.fr a un TTBF de plus de 80ms généralement.
L'équipe Abondance vous propose d'analyser les performances SEO de votre site web.
Un audit chez Abondance c'est : ✔ Une analyse SEO complète orientée business
✔ Des recommandations concrètes et priorisées
✔ Livrées sur un rapport Notion simple à prendre en main
✔ Et une restitution orale pour tout vous expliquer
Calculez le prix d'un audit SEO grâce à notre simulateur et confiez-nous la réalisation de cet audit SEO. Une analyse sur-mesure qui sera réalisé par nos experts.
Le point sur les fichiers Sitemap mérite peut-être un petit éclaircissement ?
« si un fichier Sitemap XML était soumis via un ping anonyme, les URL qu’il contenait devaient être présentes dans le répertoire (et les sous-répertoires) du fichier Sitemap. »
Je ne comprends pas très bien.
Est-qu’on parle de la façon dont le fichier sitemap est organisé ou du répertoire dans lequel il est rangé sur le site ?
Là, c’est moi qui ne comprend pas 🙂 qu’entends-tu par « la façon dont le fichier sitemap est organisé » ??
J’aime bien l’aspect « notre avis ». Cela permet d’obtenir un avis sur une question précise. Et je suis rassuré pour le temps de chargement. Je suis effectivement absolument incapable sur aucun de mes sites, d’obtenir 100ms en moyenne sur cet indicateur. De toute manière, rien que le TTFB attend souvent déjà 100ms. Même la page index de google.fr a un TTBF de plus de 80ms généralement.