Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google peut-il détecter et gérer différemment certaines sections ou zones d'un site web ? Les algorithmes récents lancés par Google étaient-ils basés en priorité sur l'analyse des backlinks ? Les URL en 404, 410 et Soft 404 gaspillent-elles du budget crawl ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Sections de sites |
Gary Illyes a expliqué lors d'un récent podcast « Search Off the Record » que Google pouvait analyser certaines parties ou sections de sites et ainsi crawler plus souvent telle ou telle zone et moins visiter telle autre. Google déduira ainsi en partant de l'ensemble d'un site les zones qu'il doit explorer plus fréquemment. Par exemple, s'il y a un répertoire de blog et que des signaux indiquent qu'il est populaire/important, Google pourrait vouloir l'explorer plus souvent. « Et ce n'est pas seulement la fréquence des mises à jour, ajoute-t-il, la qualité est également prise en compte. Par exemple, si Google voit qu'un certain répertoire est populaire, et que les gens en parlent et font des liens vers lui, alors c'est un signal que les gens aiment ce répertoire. » |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Algorithme et liens |
John Mueller a indiqué sur Twitter qu'à sa connaissance, aucune mise à jour récente de l'algorithme du moteur n'était axée sur l'analyse approfondie des liens, en dehors des algorithmes de lutte contre le spam, bien entendu. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Soft 404 et budget crawl |
Gary Illyes a expliqué lors du même podcast « Search Off the Record » que ci-dessus que les URL qui sont considérées par Google comme des « Sof 404 » gaspillaient du budget crawl. En revanche, selon lui, ce n'est pas le cas des URL en 404 et des 410. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : Sections de Sites, Algorithmes et Liens, Soft 404 et Budget Crawls. Source : Google