
Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Le CTR dans les SERP peut-il influencer le classement d'une page ? La limite des 50 000 URL dans un Sitemap XML concerne-elle également les adresses fournies en « alternate » ? Le Dynamic Rendering est-il préconisé par Google pour des sites JS ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Dwell Time (Pogoscticking) |
John Mueller a rappelé sur Twitter et pour la 4 765ème fois 🙂 que le fait de cliquer sur son lien (ou sur un autre) dans les SERP n'aura aucune influence sur le classement futur de cette page dans la SERP, ni positive, ni négative. Donc que le CTR dans la SERP, et plus globalement ce qu'on appelle Dwell Time ou Pogoscticking, n'influence pas les classements. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Sitemap XML et limite du nombre d'URL |
John Mueller a expliqué sur Twitter que le nombre limite de 50 000 URL dans les Sitemaps XML s'appliquait uniquement au nombre d'URL soumises au travers de la balise « loc ». S'il y a d'autres URL dans le fichier, comme avec l'attribut « alternate », elles ne sont pas prises en compte dans ce nombre limite de 50 000. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Dynamic Rendering |
Google a mis à jour sa documentation pour les développeurs Javascript et indique désormais que le Dynamic Rendering est « une solution transitoire et non une solution à long terme pour les problèmes de contenu généré par JavaScript dans les moteurs de recherche. » Bref, c'est une solution que la firme de Mountain View ne conseille pas. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : CTR, Pogosticking, Dwell Time, Sitemaps XML et Dynamic Rendering. Source : Google
Si pour les liens dans les SERP ça paraît plausible, pour les résultats par images personne ne m’enlèvera l’idée que Google ne prenne pas en compte le choix des internautes pour affiner un peu l’ordre et la pertinence des résultats.
Si pour une requête donnée, jamais personne ne clique sur une image, celle-ci est probablement de mauvaise qualité ou ne correspond pas bien à la recherche.
Ça serait dommage de se priver de l’expertise humaine et d’une forme de sondage permettant d’améliorer les résultats.