Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : faut-il abandonner la version desktop de votre site ? Pourquoi le signal lastmod du sitemap est-il si important ? Pourquoi devriez-vous bloquer les URLs inutiles avec le fichier robots.txt ? Comment récupérer des positions après la HCU ? Pourquoi vérifier la qualité des traductions confiées à l’IA avant de les indexer ?

Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂

La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.

N’abandonnez pas l’optimisation de la version desktop de votre site
À la suite de la transition vers l’index mobile first, John Mueller a tenu à apporter quelques clarifications en soulignant que si Google se concentre désormais sur l’indexation des versions mobiles des sites, il reste crucial de maintenir des versions desktop optimisées. Il recommande par ailleurs l’utilisation du responsive design pour éviter d’avoir à gérer deux versions distinctes.
Source : Search Engine Journal
Taux de fiabilité :
En effet, même si Google se focalise désormais sur le mobile, beaucoup d’internautes continuent de naviguer sur internet sur ordinateur. Par ailleurs, d’autres moteurs de recherche utilisent encore les versions desktop.

 

 

Les dates lastmod dans le sitemap doivent être correctes ou elles seront ignorées
Gary Illyes a expliqué que le signal « lastmod » présent dans les sitemaps est traité de façon binaire. Dit autrement, soit Google lui fait entièrement confiance, soit il l’ignore.
Source : Search Engine Journal
Taux de fiabilité :
Comme le précise Matt G. Southern, cette déclaration signifie que la précision des dates indiquées dans lastmod est essentielle. Si ces dernières sont incorrectes, Google peut en effet faire le choix de ne pas les prendre en compte, ce qui peut affecter le crawl et l’indexation des pages.

 

 

N’oubliez pas de bloquer les URLs inutiles
Gary Illyes a rappelé l’importance d’utiliser le fichier robots.txt pour bloquer les URLs d’action telles que « ajouter au panier » ou « ajouter à la liste de souhaits ». Cela empêche les crawlers de gaspiller les ressources du serveur en accédant à des URLs inutiles pour l’indexation.
Source : Search Engine Journal
Taux de fiabilité :
Des conseils relativement basiques, certes, mais il n’est effectivement jamais inutile de simplifier le travail des robots d’indexation et alléger le poids sur les serveurs.

 

 

Les sites touchées par la HCU pourront (peut-être) récupérer avec la prochaine Core Update
Danny Sullivan a indiqué que les sites impactés par la mise à jour Helpful Content pourraient récupérer à l’occasion d’une prochaine Core Update, dont on ignore l’arrivée, à condition de s’être améliorés en se concentrant sur le contenu utile pour les utilisateurs.
Source : Search Engine Roundtable
Taux de fiabilité :
En attendant une prochaine Core Update, le plus judicieux est d’identifier les raisons qui expliquent une perte de positions et de mettre en place des actions adaptées.

 

 

Veillez à la qualité des traductions confiées à l’IA avec de les indexer
John Mueller a conseillé d’évaluer la qualité des contenus traduits par l’IA avant de chercher à les faire indexer. Il a notamment indiqué que ces traductions doivent être adaptées aux utilisateurs et aller au-delà d’une simple traduction de mots et de phrases.
Source : Search Engine Journal
Taux de fiabilité :
Comme à l’accoutumée, John Mueller prône la qualité et le « petit plus » qui va faire la différence avec les concurrents. Ce qui est certain, c’est qu’un contenu mal traduit, qu’il soit confié à l’IA ou à un être humain, finira tôt ou tard par causer du tort.