Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions (grosse fournée cette semaine) : Google va-t-il indiquer dans ses SERP le fait qu'une page web n'est pas sécurisée ? Un site responsive passera-t-il l'obstacle du Mobile First ? La fonction d'exploration comme Google de la Search Console est-elle utilisée par l'algorithme ? Google utilise-t-il les données du fichier de désaveu dans sa lutte contre le spam ? Les équipes du moteur lisent-elles tous les spam reports ? Le pogosticking est-il utilisé pour noter un site ? Les algorithmes du moteur sont-ils dynamiques ? Et la présence d'un chatbot améliore-t-elle la pertinence d'une page web ? Etc.
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
HTTPS et SERP |
Gary Illyes a indiqué au salon Brighton SEO que Google n'avait aucun plan visant à indiquer dans les SERP qu'une URL n'était pas sécurisée (qu'elle était donc en HTTP et pas en HTTPS) avec un message spécifique, comme cela avait été le cas précédemment avec les URL non compatibles mobile. |
Source : TheSemPost |
Taux de fiabilité : |
Mobile First |
Gary Illyes a également expliqué au même salon Brighton SEO que les sites responsive design n'ont pas grand chose à craindre du projet Mobile First et qu'à ce niveau, tout devrait bien se passer pour eux... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Search Console |
John Mueller a indiqué sur Twitter que la fonction "Explorer comme Google" de la Search Console, qui permet d'afficher une page comme la voient internaute et moteur, n'est pas utilisée par l'algorithme du moteur. Il s'agt avant tout d'un outil mis à la disposition des webmasters... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Spam Report |
John Mueller a expliqué lors d'un hangout que Google ne lisait pas tous les "spam reports" qui lui sont envoyés, mais que les équipes de lutte contre le spam du moteur tentent de traiter ceux qui semblent les plus importants et ceux qui ont le plus d'impact sur les résultats de recherche... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Désaveu |
Gary Illyes a indiqué sur Twitter que les fichier de désaveu était uniquement utilisés par Googe pour ignorer certains liens (ceux désignés par le fichier) mais qu'il n'utilisait pas ces données à d'autres fins, comme le fait de détecter plus généralement des sites spammeurs. Il a ajouté que certains black hats adoreraient certainement qu'il en soit ainsi (dans le cadre de manœuvres de negative SEO par exemple) mais que ce n'était pas le cas... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
HTTPS |
Gary Illyes a indiqué, toujours au salon Brighton SEO, que lors d'une migration de HTTP vers HTTPS, il ne devrait quasiment plus y avoir aujourd'hui de période transition (et donc de chute) dans les classements d'un site dans les SERP de Google (auparavant, les porte-paroles du moteur parlaient de 3 à 4 semaines pour revenir à la normale). Plusieurs points ont été identifiés en interne pour accélerer le processus qui devrait aujourd'hui être transparent dans la plupart des cas ... |
Source : TheSemPost |
Taux de fiabilité : |
Taux de clic |
John Mueller a expliqué lors d'un hangout que si Google utilisait le taux de clic dans les SERP (ou pogosticking), c'était avant tout pour évaluer et améliorer les algorithmes de pertinence, mais pas pour donner une note à une page ou une site web par rapport à une requête donnée. L'utilisation de ce critère est donc générale mais pas spécifique à l'évaluation d'un site ou un autre... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Algorithmes |
John Mueller a expliqué lors d'un hangout que l'algorithme de pertinence de Google n'utilisait pas les mêmes critères avec le même poids pour toutes les requêtes et que les calculs pouvaient changer dans leur essence même en fonction des mots clés qui étaient tapés, le moment où la requête était faite, etc. Bref, l'algorithme de Google est dynamique... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Chatbots |
John Mueller a expliqué lors du même hangout que le fait d'ajouter un chatbot (automate répondant en direct aux questions des visiteurs) n'améliorait pas les classements d'un site ou d'une page web sur Google.. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossip (Infos Google). Source de l'image : Google |
Google est surement submergé par les spams reports donc ils ne peuvent pas tout lire mais utiliser des algos de filtrage des spams reports amha
Peut-être que, de façon très indirecte, la présence d’un chatbot pourrait avoir un impact positif sur le SEO. En effet, il pourrait inciter à rester plus longtemps sur le site et éviter que l’internaute ne se rabatte sur un autre canal de communication avec l’entreprise (réseaux sociaux, téléphone, …) améliorant ainsi les KPI utilisateurs, comme pourrait le faire un bon contenu ou la présence d’une vidéo dans une page d’ailleurs.
Mais évidemment, je ne crois pas non plus à un critère « chatbot » à proprement parler dans l’algorithme!
Google est surement submergé par les spams reports donc ils ne peuvent pas tout lire mais utiliser des algos de filtrage des spams reports amha