Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Peut-on utiliser la balise meta robots « nosnippet » pour éviter le traitement d'une page par l'algorithme Passage Indexing ? Et les résultats issus de cet algorithme Passage Indexing vont-il s'afficher comme des featured snippets ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Page Experience |
Martin Splitt a expliqué sur Twitter que le pictogramme que Google prévoit d'afficher dans les SERP dans le cadre du lancement de ses projets Page Expérience et Core Web Vitals en mai prochain pourrait ne pas voir le jour. Il semblerait qu'il s'agisse uniquement d'une expérimentation pour l'instant. Cet indicateur visuel pourrait donc finalement ne pas être retenu (ou pas...)... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Google a souvent fait ce type d'expérimentation, notamment pour les sites mobile ou pas, avant de laisser tomber. En sera-t-il de même pour la webperf ? Il faudra attendre le mois de mai pour le savoir... |
404 / 410 |
John Mueller a redit sur Reddit (sic) que l'utilisation de codes 404 (Page not found) ou 410 (Gone) ne posait pas de problème majeur pour le moteur de recherche. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Seule petite différence : Google traite plus rapidement les 410 que les 404. Mais rappelons que les deux codes ne signifient pas la même chose : un 410 indique que "quelque chose" existait à cette adresse puis a disparu, tandis que le code 404 indique qu'il n'y a jamais rien eu à cette adresse. Quoi qu'il en soit, en termes de SEO, les différences entre les deux sont minimes. D'ailleurs, dans la Search Console, les 2 codes sont agrégés sous le vocable "404". |
Désaveu |
John Mueller expliqué pour 2 476e fois 😉 que le fait d'envoyer un fichier de désaveu de liens à Google ne fournissait aucun signe négatif à Google sur le site ayant envoyé ce fichier : "L'outil de désaveu est un système purement technique, essentiellement, qui dit à nos systèmes d'ignorer ces liens. Ce n'est pas un aveu de culpabilité ou une quelconque mauvaise chose d'utiliser un outil de désaveu. Ce n'est pas comme si nous disions : ils utilisent l'outil de désaveu, donc ils doivent acheter des liens. C'est juste une façon de dire : Je ne veux pas que ces liens soient pris en compte. Et parfois, c'est pour des choses que vous avez faites ou que quelqu'un qui travaille sur votre site a faites dans le passé. Parfois, c'est pour des choses que vous ne voulez pas que Google prenne en compte, pour quelque raison que ce soit. Et ces deux choses sont de bonnes situations, n'est-ce pas ? C'est comme si vous reconnaissiez qu'il y a un problème et que vous pouviez utiliser cet outil pour le résoudre. Et ce n'est pas une mauvaise chose. Ce n'est donc pas le cas s'il y a une marque rouge ou un drapeau qui est transmis juste parce qu'un site web a utilisé l'outil de désaveu". |
Source : Search Engine Journal |
Taux de fiabilité : |
Parfois, il faut répéter les choses pour qu'elles soient comprises. N'en déplaise aux adeptes des théories du complot, si nombreux sur Internet, l'outil de désaveu de liens, outre le fait qu'il est d'une utilité qui reste à démontrer en dehors des actions manuelles, ne vous désignera pas comme un méchant black-hat si vous l'utilisez :-). |
Redirections |
Le SEO Glenn Gabe a indiqué sur Twitter que, dans la Search Console, si une URL A est redirigée vers une URL B qui est bloquée par le robots.txt, l'URL A sera marquée comme également bloquée par ce fichier, même si, dans les faits, ce n'est pas le cas. John Mueller l'avait expliqué dans un hangout l'année dernière. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
C'est vrai que cela peut prêter à confusion, surtout sur de gros sites, anciens qui plus est et donc avec un historique parfois complexe. John Mueller l'a reconnu. Peut-être cela sera-t-il corrigé dans le futur sur la Search Console ? |
Goossips : Page Expérience, 404 / 410, Fichier de Désaveu et Redirections. Source de l'image : Google
En ce qui concerne le désaveu des liens, au lieu de baratiner périodiquement sur le sujet, Mueller, les autres googlers et Abondance feraient mieux de dire simplement et uniquement ce qu’ils ont dit il y a déjà plus de deux ans (voir vos articles et vidéo):
« Dans la plupart des cas (NDLR tous les cas, sauf actions manuelles), c’est du temps passé totalement INUTILE », avait dit Mueller. Point final.
Tout autre réponse/commentaire ne fait qu’égarer les esprits.
C’est ce qu’on dit tous sur ce sujet 😉 Voir notamment les vidéos Abondance sur le sujet…