Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Pour les URL à paramètres, vaut-il mieux utiliser l'outil de la Search Console ou le robots.txt ? Les pages présentant l'auteur d'un contenu aident-elles au SEO ? Les derniers core updates classent-ils mieux les vieux sites ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Paramètres d'URL |
John Mueller a expliqué sur Twitter que l'outil de traitement des paramètres d'URL de la Search Console ne remplaçait pas une utilisation "propre" du robots.txt pour bloquer un crawl sur des URL complexes, présentant des paramètres, et que le robots.txt était préférable dans ce cas."... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Pages Auteur |
John Mueller a expliqué lors d'un hangout que le fait de créer des pages "auteur" avec bio, liens vers ses réseaux sociaux ou autres informations pouvait être un "plus" en termes de confiance pour le visiteur du site, mais que leur importance dans le cadre de l'algorithme du moteur n'était pas plus forte que pour un autre type de page. |
Source : Search Engine Journal |
Taux de fiabilité : |
Ancienneté du nom de domaine |
Répondant à une question à ce sujet, John Mueller a expliqué sur Twitter que Google ne classait pas mieux les "vieux sites", sur des noms de domaine créés il y a longtemps, ces derniers temps. Aucune modification au traitement de l'ancienneté des noms de domaine n'a été appliqué dans l'algorithme dernièrement... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : Paramètres d'URL, Pages Auteur, Ancienneté du Nom de Domaine. Source de l'image : Google
A propos des pages auteurs, je m’interroge.
Ma stratégie consiste à mettre les pages auteurs en no-index, pour privilégier une indexation des articles depuis les pages catégories.
De plus, j’évite ainsi le duplicate content.
Mais comme je n’interdit pas le crawl des pages auteurs avec le robots.txt, j’espère que si Google cherche l’info sur l’auteur il la trouvera.
Je vois Olivier que c’est ce que tu fais aussi sur ce site avec ta page auteur.
Je m’adresse aux autres lecteurs, vous trouvez ça cohérent ou tordu ?
Et vous, comment traitez-vous vos pages auteurs ?