Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : A quoi sert l'algorithme Rankbrain et prend-il en compte des critères d'UX ? La sandbox, défavorisant des pages nouvellement créées, existe-t-elle ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
RankBrain |
Gary Illyes a expliqué sur Reddit sa vision de l'algorithme RankBrain : "RankBrain est un composant de machine learning "PR-sexy" qui utilise des données de recherche historiques pour prédire sur quoi un utilisateur cliquerait le plus probablement pour une requête inédite, jamais tapée sur le moteur. Il s'agit d'un travail d'ingénierie vraiment cool qui nous a sauvé la mise à chaque fois que les algorithmes traditionnels fonctionnaient, par exemple, ainsi : "oh regardez un "not" dans la chaîne de requête ! ignorons cela !" Mais il s'appuie généralement sur des données (parfois) vieilles de plusieurs mois sur l'analyse de la page de résultats elle-même, pas sur la page de destination." Et il termine avec une petite pique à Rand Fishkin : "Le pogostocking, dwell time, CTR, quelle que soit la nouvelle théorie de Fishkin, ce sont généralement des conneries inventées. La recherche est beaucoup plus simple qu'on ne le pense"... |
Source : Search Engine Journal |
Taux de fiabilité : |
Sandbox |
John Mueller a expliqué sur Twitter qu'il n'existait pas de "sandbox" sur Google, privant une page venant d'être créée de certains positionnements avant un certain délai. Sur ce sujet, sa réponse a été assez classique : "Nous utilisons une tonne de facteurs pour l'exploration, l'indexation et le classement, il est possible que dans certaines situations, certaines pages s'affichent rapidement, alors que d'autres prennent plus de temps. Il n'y a pas de règle ou de calendrier fixe.". |
Source : Search Engine Journal |
Taux de fiabilité : |
Entre ce que Google (ici Gary Illyes) annonce et la réalité, il y a parfois un monde.
Les tests tendent à dire l’inverse !
Quels tests ? Je n’ai jamais rien vu de convaincant à ce sujet. Une URL ?