Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : faut-il abandonner la version desktop de votre site ? Pourquoi le signal lastmod du sitemap est-il si important ? Pourquoi devriez-vous bloquer les URLs inutiles avec le fichier robots.txt ? Comment récupérer des positions après la HCU ? Pourquoi vérifier la qualité des traductions confiées à l’IA avant de les indexer ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
N’abandonnez pas l’optimisation de la version desktop de votre site |
À la suite de la transition vers l’index mobile first, John Mueller a tenu à apporter quelques clarifications en soulignant que si Google se concentre désormais sur l’indexation des versions mobiles des sites, il reste crucial de maintenir des versions desktop optimisées. Il recommande par ailleurs l’utilisation du responsive design pour éviter d’avoir à gérer deux versions distinctes. |
Source : Search Engine Journal |
Taux de fiabilité : |
Les dates lastmod dans le sitemap doivent être correctes ou elles seront ignorées |
Gary Illyes a expliqué que le signal « lastmod » présent dans les sitemaps est traité de façon binaire. Dit autrement, soit Google lui fait entièrement confiance, soit il l’ignore. |
Source : Search Engine Journal |
Taux de fiabilité : |
N’oubliez pas de bloquer les URLs inutiles |
Gary Illyes a rappelé l’importance d’utiliser le fichier robots.txt pour bloquer les URLs d’action telles que « ajouter au panier » ou « ajouter à la liste de souhaits ». Cela empêche les crawlers de gaspiller les ressources du serveur en accédant à des URLs inutiles pour l’indexation. |
Source : Search Engine Journal |
Taux de fiabilité : |
Les sites touchées par la HCU pourront (peut-être) récupérer avec la prochaine Core Update |
Danny Sullivan a indiqué que les sites impactés par la mise à jour Helpful Content pourraient récupérer à l’occasion d’une prochaine Core Update, dont on ignore l’arrivée, à condition de s’être améliorés en se concentrant sur le contenu utile pour les utilisateurs. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Veillez à la qualité des traductions confiées à l’IA avec de les indexer |
John Mueller a conseillé d’évaluer la qualité des contenus traduits par l’IA avant de chercher à les faire indexer. Il a notamment indiqué que ces traductions doivent être adaptées aux utilisateurs et aller au-delà d’une simple traduction de mots et de phrases. |
Source : Search Engine Journal |
Taux de fiabilité : |