Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Est-il utile de désavouer les liens toxiques ? Faut-il désindexer les pages légales pour éviter le contenu dupliqué ? Les screenshots Googlebot sont-ils totalement fiables ?
Inutile de désavouer les liens toxiques
Sur Bluesky, John Mueller de Google déconseille fortement aux professionnels du SEO de perdre du temps à désavouer les liens dits « toxiques ». Il va même jusqu’à qualifier même cette pratique de « gaspillage d’argent ».
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Google, et plus spécifiquement John Mueller, a répété à de multiples reprises que le désaveu de liens n’était plus nécessaire et qu’il pouvait même s’avérer contre-productif. Pourtant, nombre d’outils, comme SEMRush, continuent à aller en ce sens en indiquant les liens toxiques. Cela n’aide évidemment pas les professionnels à se détendre sur le sujet !
Goossip #2
Il vaut mieux laisser les pages légales indexables
John Mueller affirme qu’il est inutile de bloquer l’indexation des pages légales (mentions légales, politique de confidentialité). Ces pages ne créent pas de problème de contenu dupliqué et ne risquent pas d’affecter l’approbation AdSense. Bien qu’il ne s’agisse pas d’une problématique majeure, Mueller recommande de laisser ces pages indexables.
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Si la question du risque généré par le contenu dupliqué se pose, rappelons toutefois que la majorité des sites disposent de ce type de pages. A priori, Google est tout à fait en mesure de les distinguer des autres pages des sites.
Goossip #3
Les screenshots Googlebot peuvent connaître des anomalies
Sur Reddit, John Mueller a clarifié un point concernant la fiabilité des screenshots Googlebot, qui permettent de représenter comment le moteur de recherche « voit » une page web. Grâce à l'outil d'inspection d'URL de la Search Console, il est en effet possible de visualiser le rendu d'une page tel que perçu par Google (JavaScript, CSS et images inclus). Mueller précise que si cette représentation est généralement fidèle, elle peut être affectée par des « anomalies temporelles », c’est-à-dire des problèmes momentanés lors du crawl pouvant impacter le rendu de la page.
Source : Search Engine Journal
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Bien que très pratique, l’outil d’inspection de Google n’est évidemment pas exempt de défauts et d’imprécisions. D’où l’importance de ne pas paniquer si vous constatez un aperçu anormal !