Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec le fait qu'un filtre algorithmique peut attendre quelques temps avant de valider la remise à niveau d'un site, le fait qu'un crawl plus important de Googlebot n'est pas obligatoirement un signe d'analyse Panda, l'éternel problème des underscores ou tirets hauts dans les URL, et le fait que de nombreux types de redirections passent du PageRank ...
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossip" (rumeur) + Google = "Goosssip" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Sujet | Information | Taux de fiabilité | Source |
Pénalités | John Mueller aurait expliqué dans un hangout que certains filtres algorithmiques de Google (de type Panda ou Penguin) "attendraient" quelques temps pour lever totalement leur "pénalité" (rappelons que ces filtres ne sont pas vraiment des pénalités au sens où on l'entend couramment) afin de s'assurer qu'une technique de spam n'est pas remise en place après avoir été supprimée dans le but de voir le site "nettoyé" dans un premier temps. Est-ce la vérité, un discours "double langage" de John ou tout simplement une mauvaise interprétation de ses paroles ? | Internet Formation | |
Crawl | Le même John Mueller a indiqué dans le même hangout qu'un crawl plus intense de Googlebot sur un site donné n'était pas obligatoirement le signe d'un réajustement ou d'un nouveau calcul de "score" de type Panda. Il peut y avoir de nombreuses raisons au fait que le robot du moteur soit plus assidu dans son crawl à un moment donné, comme tout simplement la découverte de nouvelles pages ou données sur un site web. | Search Engine Roundtable. | |
Underscores | C'est toujours John Mueller qui est sur le pont avec le fait que Google se soucierait peu du fait que vous utilisez des underscores (mot_cle.html) ou des tirets hauts (mot-cle.html) dans vos URL. Selon John, le choix de l'un ou l'autre de ces caractères ne fera pas différence dans vos classements dans les SERP. Rappelons que, jusqu'à maintenant, Google a toujours dit que les 2 caractères étaient traités différemment par l'algorithme mais que le fait d'utiliser des underscores n'était pas une raison valable pour modifier les URL en place. Sur ce point-là, on est d'accord ! Ceci dit, au moment de la création des adresses de vos pages, n'hésitez jamais à utiliser en priorité des tirets hauts pour séparer les termes ! | Internet Formation | |
Redirections | Gary Illyes a expliqué lors de l'événement Big Digital Adelaide que tous les types de redirections (301, 302 ou 307) passaient du PageRank. Ce point avait déjà été confirmé par John Mueller en octobre 2015. | TheSemPost |
Goossip (Infos Google). Source de l'image : Google |
En effet rien de nouveau mais ça peut servir à certains 😉
Bonjour
Rien de bien nouveau dans tout ça 😉
Lol, je suis surpris qu’on parle encore de la présence des tirets et underscores dans les URLs.
bien sur qu’il n’ont jamais étés néfastes, la seule différence restant leur utilité intrinsèque, à savoir que le tiret est plus propre, séparant nettement les mots.:)