Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Peut-on utiliser la balise meta robots « nosnippet » pour éviter le traitement d'une page par l'algorithme Passage Indexing ? Et les résultats issus de cet algorithme Passage Indexing vont-il s'afficher comme des featured snippets ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Page Experience |
Martin Splitt a expliqué sur Twitter que le pictogramme que Google prévoit d'afficher dans les SERP dans le cadre du lancement de ses projets Page Expérience et Core Web Vitals en mai prochain pourrait ne pas voir le jour. Il semblerait qu'il s'agisse uniquement d'une expérimentation pour l'instant. Cet indicateur visuel pourrait donc finalement ne pas être retenu (ou pas...)... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
404 / 410 |
John Mueller a redit sur Reddit (sic) que l'utilisation de codes 404 (Page not found) ou 410 (Gone) ne posait pas de problème majeur pour le moteur de recherche. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Désaveu |
John Mueller expliqué pour 2 476e fois 😉 que le fait d'envoyer un fichier de désaveu de liens à Google ne fournissait aucun signe négatif à Google sur le site ayant envoyé ce fichier : "L'outil de désaveu est un système purement technique, essentiellement, qui dit à nos systèmes d'ignorer ces liens. Ce n'est pas un aveu de culpabilité ou une quelconque mauvaise chose d'utiliser un outil de désaveu. Ce n'est pas comme si nous disions : ils utilisent l'outil de désaveu, donc ils doivent acheter des liens. C'est juste une façon de dire : Je ne veux pas que ces liens soient pris en compte. Et parfois, c'est pour des choses que vous avez faites ou que quelqu'un qui travaille sur votre site a faites dans le passé. Parfois, c'est pour des choses que vous ne voulez pas que Google prenne en compte, pour quelque raison que ce soit. Et ces deux choses sont de bonnes situations, n'est-ce pas ? C'est comme si vous reconnaissiez qu'il y a un problème et que vous pouviez utiliser cet outil pour le résoudre. Et ce n'est pas une mauvaise chose. Ce n'est donc pas le cas s'il y a une marque rouge ou un drapeau qui est transmis juste parce qu'un site web a utilisé l'outil de désaveu". |
Source : Search Engine Journal |
Taux de fiabilité : |
Redirections |
Le SEO Glenn Gabe a indiqué sur Twitter que, dans la Search Console, si une URL A est redirigée vers une URL B qui est bloquée par le robots.txt, l'URL A sera marquée comme également bloquée par ce fichier, même si, dans les faits, ce n'est pas le cas. John Mueller l'avait expliqué dans un hangout l'année dernière. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : Page Expérience, 404 / 410, Fichier de Désaveu et Redirections. Source de l'image : Google
En ce qui concerne le désaveu des liens, au lieu de baratiner périodiquement sur le sujet, Mueller, les autres googlers et Abondance feraient mieux de dire simplement et uniquement ce qu’ils ont dit il y a déjà plus de deux ans (voir vos articles et vidéo):
« Dans la plupart des cas (NDLR tous les cas, sauf actions manuelles), c’est du temps passé totalement INUTILE », avait dit Mueller. Point final.
Tout autre réponse/commentaire ne fait qu’égarer les esprits.
C’est ce qu’on dit tous sur ce sujet 😉 Voir notamment les vidéos Abondance sur le sujet…