Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Le trafic est-il un critère de pertinence pour Google ? Le Dynamic Rendering est-il du cloaking ? Un contenu sponsorisé doit-être en "noindex" ? Les Sitemap XML représentent-ils une source importante de découverte d'URL pour le moteur ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Trafic |
Le compte Twitter pour webmasters de Google a indiqué que le trafic sur un site web n'était pas un critère de pertinence pour l'algorithme de Google. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
C'est peut-être le cas pour une incidence directe, cependant, notre expérience semble nous dire le contraire avec, dans les faits, des pics de trafic amenant rapidement des améliorations en positionnement. Est-ce alors un phénomène d'impact indirect ? En tout cas, il y a de façon quasi certaine une corrélation, sans aller jusqu'à parler de causalité... |
Dynamic Rendering |
Martin Splitt (Google) a expliqué sur Twitter notamment que le "dynamic rendering" n'était pas assimilé à du cloaking pour Google et qu'il ne posait pas de problème. |
Source : Search Engine Journal |
Taux de fiabilité : |
Rappelons que le "dynamic rendering" ou "affichage dynamique" consiste à proposer deux versions d'une page : un contenu affiché côté client et un contenu préaffiché pour des user-agents spécifiques comme ceux des moteurs de recherche, par exemple, rendant plus simple et plus rapide le crawl et l'analyse de la page. |
Contenu sponsorisé |
Le compte pour webmaster de Google sur Twitter a rappelé que, si les liens sortants d'une contenu sponsorisé doivent être en nofollow, la page en elle-même (contenant le publi-rédactionnel) ne doit pas obligatoirement être en "noindex". |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Logique, même si, dans de nombreux cas, la qualité est souvent assez faible pour le contenu en question et, dans l'esprit, mériterait parfois un bon "noindex" des familles ;-)... |
Sitemap XML |
Gary Illyes (Google) a indiqué sur Twitter que les fichiers Sitemap XML restent encore aujourd'hui la deuxième source de découverte d'URL pour le moteur de recherche (il l'avait déjà dit en 2014, la situation n'a donc pas changé depuis)... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
On imagine que la première est la navigation naturelle, même si Gary ne le dit pas 🙂 Cela semble en effet logique, et le rapport "Couverture" de la Search Console nous le confirme chaque jour... |