Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : la limite du budget crawl a-t-elle vraiment un sens ? Que faire des paramètres UTM dans les URL ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Des précisions sur les limites du Budget Crawl |
Sur Reddit, John Mueller a répondu à une question portant sur le budget crawl, et plus spécifiquement si un grand nombre de redirections 301 aboutissant à des erreurs 410 pouvaient épuiser ce budget crawl. John Mueller a déclaré que le concept de budget crawl était un concept inventé par les SEO destinée à expliquer pourquoi certains sites sont peu explorés. En réalité, Google n’impose aucune limite. Il souligne également que cette situation est surtout un problème pour les grands sites et que si un site de plus petite envergure rencontre des problèmes de crawl, cela peut vouloir dire que Google ne voit pas l’intérêt d’explorer davantage de pages. Par ailleurs, John Mueller a également précisé que la combinaison de 301 et 410 était une pratique acceptée par Google. |
Source : Search Engine Journal |
Taux de fiabilité : |
Même s’il n’existe pas de limite de crawl en théorie, les robots sont toutefois conçus pour explorer les sites sans surcharger les serveurs. D’autres éléments, comme la vitesse de réponse du serveur, peuvent également exercer une influence sur ce point. |
Désavouer les paramètres UTM dans les URL n’a pas d’intérêt pour votre classement |
John Mueller a expliqué que bloquer des URL contenant des paramètres UTM ne contribuait pas à améliorer le crawl ou le classement sur Google Search. Il recommande plutôt de maintenir des URL propres et cohérentes, en précisant que les balises canoniques aideraient avec le temps à nettoyer les paramètres d’URL aléatoires. Il conseille également de ne pas les bloquer avec le fichier robots.txt, mais plutôt de régler le problème à la source. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Rien de forcément très nouveau, John Mueller ayant déjà préconisé cette approche dans de précédentes déclarations. |
Pour le budget crawl, cela va être dur de revenir en arrière dans les têtes des SEO/clients de SEO
tellement de bêtises ont été répétées à ce sujet notamment pour les petits sites 🙂