Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Pour les URL à paramètres, vaut-il mieux utiliser l'outil de la Search Console ou le robots.txt ? Les pages présentant l'auteur d'un contenu aident-elles au SEO ? Les derniers core updates classent-ils mieux les vieux sites ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Paramètres d'URL |
John Mueller a expliqué sur Twitter que l'outil de traitement des paramètres d'URL de la Search Console ne remplaçait pas une utilisation "propre" du robots.txt pour bloquer un crawl sur des URL complexes, présentant des paramètres, et que le robots.txt était préférable dans ce cas."... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
La réponse de John Mueller est assez ambigüe. Toujours est-il qu'il vaut mieux privilégier le fichier robots.txt pour interdire un crawl, car cela sera valable pour tous les moteurs, Google et Bing compris, alors que la Search Console ne va agir que sur Google. Autant faire un travail le plus large possible. Quant à l'outil de la Search Console, il n'a toujours pas migré dans la nouvelle version de l'outil et on peut également se poser quelques questions sur sa pérennité... |
Pages Auteur |
John Mueller a expliqué lors d'un hangout que le fait de créer des pages "auteur" avec bio, liens vers ses réseaux sociaux ou autres informations pouvait être un "plus" en termes de confiance pour le visiteur du site, mais que leur importance dans le cadre de l'algorithme du moteur n'était pas plus forte que pour un autre type de page. |
Source : Search Engine Journal |
Taux de fiabilité : |
L'information sur l'importance des pages "auteurs" vient des guidelines pour les Quality Raters. Mais ce n'est bien sûr pas un critère de pertinence du moteur. En même temps, ce sont des pages d'informations qui peuvent aller dans le sens de l'EAT et qui, indirectement, peuvent faire du bien à votre site. On recommande... |
Ancienneté du nom de domaine |
Répondant à une question à ce sujet, John Mueller a expliqué sur Twitter que Google ne classait pas mieux les "vieux sites", sur des noms de domaine créés il y a longtemps, ces derniers temps. Aucune modification au traitement de l'ancienneté des noms de domaine n'a été appliqué dans l'algorithme dernièrement... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Les récents "core updates" ne classent donc pas mieux les sites anciens par rapport aux sites récents. Pourquoi en serait-il autrement, d'ailleurs ? Rappelons que l'ancienneté d'un nom de domaine ne peut pas être un critère de pertinence. En revanche, plus un site est vieux, plus Google a amassé de data à son sujet et donc le "trust" peux être plus fort... |
Goossips : Paramètres d'URL, Pages Auteur, Ancienneté du Nom de Domaine. Source de l'image : Google
A propos des pages auteurs, je m’interroge.
Ma stratégie consiste à mettre les pages auteurs en no-index, pour privilégier une indexation des articles depuis les pages catégories.
De plus, j’évite ainsi le duplicate content.
Mais comme je n’interdit pas le crawl des pages auteurs avec le robots.txt, j’espère que si Google cherche l’info sur l’auteur il la trouvera.
Je vois Olivier que c’est ce que tu fais aussi sur ce site avec ta page auteur.
Je m’adresse aux autres lecteurs, vous trouvez ça cohérent ou tordu ?
Et vous, comment traitez-vous vos pages auteurs ?