Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google peut-il décider de ne pas afficher des résultats enrichis dans ses SERP pour un site s'il estime que ce dernier n'est pas d'assez bonne qualité ? La lutte contre le contenu dupliqué sur un site à faible échelle, pour quelques pages, donne-t-elle de bons résultats ? Le fichier de désaveu peut-il générer une soudaine chute de trafic sur un site ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Faible Qualité et Résultats Enrichis |
John Mueller a expliqué lors d'un hangout pour webmasters que Google pouvait décider de ne pas afficher de résultas enrichis (ou rich snippets) dans une SERP pour un site web donné si l'algorithme estime que le site n'est pas d'assez bonne qualité. |
Source : Search Engine Journal |
Taux de fiabilité : |
C'est effectivement quelque chose qui se passe assez souvent. La qualité globale du site (au sens googlien du terme) reste un élément déterminant comme filtre d'affichage (ou pas) des résultats enrichis : étoiles, FAQ, produit, etc. On ne redira jamais assez l'importance capitale à l'heure actuelle de cette vision macroscopique du moteur pour votre site et l'influence de cette notion de « trust » général pour votre SEO. |
Contenus Dupliqués |
John Mueller a expliqué sur Reddit que, dans la gestion du contenu dupliqué, traiter quelques pages par ci par là ne servait pas à grand chose. En revanche, si vous pouvez réduire le nombre de contenus dupliqués d'un facteur 10, l'effort en vaudra la peine. Il a pris cet exemple : « si vous avez 100 000 produits et qu'ils ont tous 50 URL chacun, passer de 5 millions d'URL à 500 000 URL (5 URL chacun) en vaudrait la peine » en termes de SEO. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Donc, selon le porte-parole SEO de Google, la lutte contre le contenu dupliqué interne sur un site n'est réellement valable qui si elle est opérée dans les grandes largeurs et sur une échelle très importante. Le travail à la pince à épiler n'est souvent pas très efficace. C'est bien possible mais, selon nous, toute tâche visant à supprimer le « duplicate content » sur un site n'est jamais perdue... |
Fichier de désaveu |
John Mueller a rappelé lors d'un hangout que l'outil de désaveu de liens de Google n'amenait en rien une pénalité, et que ce n'était en rien un indice de mauvaises pratiques mises en place par le site dans le passé. C'était juste une liste de « liens que l'éditeur ne souhaite pas voir associés à son site dans les systèmes de Google » et puis c'est tout. Les liens sont ensuite pris en compte au fur et à mesure du nouveau crawl de ces liens, au fur et à mesure du processus classique d'exploration des robots. Un fichier de désaveu ne peut donc pas générer une perte de trafic importante sur un site, par exemple, car c'est très graduel sur de nombreux mois. Tous les liens du fichiers ne sont pas pris en considération à un temps T. |
Source : Search Engine Journal |
Taux de fiabilité : |
Ce fichier de désaveu a généré tellement de mythes, de croyances et de peur, alors qu'in fine, son impact est la plupart du temps extrêmement faible en SEO... |
Goossips : Résultats Enrichis, Contenu Dupliqué et Fichier de désaveu. Source : Google