Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : faut-il considérer le spam core comme un indicateur pertinent ? Pourquoi Google indexe parfois des pages bloquées ?

Goossip #1

Le Spam Core des outils tiers ne sert à rien

 John Mueller a confirmé qu'il n'est pas nécessaire de s'inquiéter des « spam scores » des outils tiers. Ces scores sont basés sur des facteurs inconnus et des suppositions obsolètes, et ne reflètent pas la qualité d'un site selon Google. John Mueller recommande de se concentrer plutôt sur la création d'un contenu exceptionnel pour améliorer le site. 

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Bien qu’intéressants à certains égards, ces scores ne sont pas des signaux pris en compte par Google. Il s’agit donc de relativiser leur importance, d’autant que certains outils peuvent s’appuyer sur des critères totalement obsolètes.

Goossip #2

Google peut parfois indexer des pages bloquées dans le fichier Robot.txt

 John Mueller a expliqué qu’il pouvait arriver que certaines pages bloquées, typiquement par un noindex, soient tout de même indexées par Google. La raison : si Google ne peut pas explorer la page, à cause d’un disallow dans le robot.txt notamment, il ne peut pas voir la balise noindex. Comme il le précise, il n’y a pas vraiment à s’en préoccuper, car la plupart des utilisateurs n’ont même pas conscience de l’existence de ces pages, d’autant que cela n’a aucun effet négatif sur le reste du site.

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

 Comme le conseille John Mueller, si vous ne voulez pas qu’une page soit indexée ni qu’elle soit visible par les internautes, « l’important est de ne pas rendre la rendre crawlable + indexable ».