Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : publication de contenu en masse, changement d’URLs canoniques, backlinks toxiques, directive noindex et adaptation du contenu selon le pays.
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Publier du contenu en masse n’est pas un problème, à condition de viser la qualité |
Sur X, John Mueller a précisé que le fait de publier du contenu en masse n’était pas considéré comme du spam par Google, tant que la qualité du contenu en question est au rendez-vous. Par le passé, Google avait déjà indiqué qu’il n’y avait pas de problème à publier des milliers de pages à la fois, à condition de publier du contenu de qualité. |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() ![]() |
Changer les URLs canoniques de www à non-www n’a pas vraiment d’impact sur le ranking |
Sur Reddit, John Mueller a expliqué que modifier les URLs canoniques d’un site www vers sa version non-www n’avait pas un grand impact sur le classement du site dans les résultats de recherche. Il a toutefois précisé qu’un tel changement pourrait provoquer un léger flottement temporaire dans les classements, mais que la situation reviendrait rapidement à la normale. John Mueller a par ailleurs mentionné que si des baisses de classement ou des problèmes d’indexation surviennent, ils sont dus à d’autres facteurs, comme la dernière Core Update de mars 2024 par exemple. |
Source : Search Engine Roundtable |
Taux de fiabilité : ![]() ![]() |
Pas besoin de s’inquiéter des backlinks toxiques |
Sur Reddit, John Mueller a répondu à une question portant sur l’impact des backlinks indésirables sur le classement d’un site. Il a conseillé à son interlocuteur de ne pas s’inquiéter outre mesure, car les systèmes de Google sont conçus pour ignorer ce type de liens, et ceci avec une certaine efficacité. Au lieu de se concentrer sur la suppression de ces backlinks, John Mueller recommande de se focaliser sur la qualité du site. |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() ![]() |
La directive noindex dans le fichier robots.txt ne sert à rien |
Sur LinkedIn, John Mueller a révélé qu’il y avait eu des discussions internes chez Google sur la possibilité d’autoriser la directive noindex: dans le fichier robots.txt. Cette possibilité aurait été envisagée pour permettre aux propriétaires de sites de bloquer à la fois le crawling et l’indexation du contenu. Cependant, en raison du risque élevé que les utilisateurs suppriment accidentellement des parties cruciales de leur site en copiant/collant des fichiers robots.txt sans les examiner au préalable, l’idée n’a pas été retenue. |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() ![]() |
Il est possible de présenter un contenu différent selon les pays, mais... |
Sur Reddit, John Mueller a expliqué que le fait de présenter un contenu différent, en l'occurrence des barrières latérales, selon pays de l’internaute n’avait pas d’effet négatif en termes de SEO : « Google crawle le plus souvent à partir d’un seul endroit – et c’est le contenu qui sera utilisé pour Search. Si vous voulez que quelque chose soit indexé, vous devez vous assurer qu’il y figure. » |
Source : Search Engine Journal |
Taux de fiabilité : ![]() ![]() ![]() |