Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours. Au programme, cette semaine : publication de contenu en masse, changement d’URLs canoniques, backlinks toxiques, directive noindex et adaptation du contenu selon le pays.
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Publier du contenu en masse n’est pas un problème, à condition de viser la qualité |
Sur X, John Mueller a précisé que le fait de publier du contenu en masse n’était pas considéré comme du spam par Google, tant que la qualité du contenu en question est au rendez-vous. Par le passé, Google avait déjà indiqué qu’il n’y avait pas de problème à publier des milliers de pages à la fois, à condition de publier du contenu de qualité. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Dans certains contextes, publier du contenu en masse peut se justifier. Comme le rappelle l’article de Search Engine Roundtable, le discours de Google à l’égard de ce type de pratique n’a pas toujours été le même. En 2013, Matt Cutts avait en effet indiqué que cela pouvait constituer un red flag. |
Changer les URLs canoniques de www à non-www n’a pas vraiment d’impact sur le ranking |
Sur Reddit, John Mueller a expliqué que modifier les URLs canoniques d’un site www vers sa version non-www n’avait pas un grand impact sur le classement du site dans les résultats de recherche. Il a toutefois précisé qu’un tel changement pourrait provoquer un léger flottement temporaire dans les classements, mais que la situation reviendrait rapidement à la normale. John Mueller a par ailleurs mentionné que si des baisses de classement ou des problèmes d’indexation surviennent, ils sont dus à d’autres facteurs, comme la dernière Core Update de mars 2024 par exemple. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Certains SEO, qui ont rencontré des soucis à la suite d’un changement de ce type, ne seront sans doute pas tout à fait d’accord avec John Mueller. Ce qui est sûr, c’est qu’un tel changement n’est jamais totalement anodin, surtout s’il touche profondément à la structure de l’URL. |
Pas besoin de s’inquiéter des backlinks toxiques |
Sur Reddit, John Mueller a répondu à une question portant sur l’impact des backlinks indésirables sur le classement d’un site. Il a conseillé à son interlocuteur de ne pas s’inquiéter outre mesure, car les systèmes de Google sont conçus pour ignorer ce type de liens, et ceci avec une certaine efficacité. Au lieu de se concentrer sur la suppression de ces backlinks, John Mueller recommande de se focaliser sur la qualité du site. |
Source : Search Engine Journal |
Taux de fiabilité : |
A priori, cela fait un certain nombre d’années que Google sait reconnaître un lien toxique d’un lien « sain ». Bien que des loupés ne soient pas totalement exclus, il ne semble pas vraiment de raison de s’inquiéter à ce sujet. |
La directive noindex dans le fichier robots.txt ne sert à rien |
Sur LinkedIn, John Mueller a révélé qu’il y avait eu des discussions internes chez Google sur la possibilité d’autoriser la directive noindex: dans le fichier robots.txt. Cette possibilité aurait été envisagée pour permettre aux propriétaires de sites de bloquer à la fois le crawling et l’indexation du contenu. Cependant, en raison du risque élevé que les utilisateurs suppriment accidentellement des parties cruciales de leur site en copiant/collant des fichiers robots.txt sans les examiner au préalable, l’idée n’a pas été retenue. |
Source : Search Engine Journal |
Taux de fiabilité : |
Si ce sujet fait autant parler de lui dans la communauté SEO, c’est que John Mueller a lui-même utilisé la directive dans le fichier robots.txt de son propre site. Pourquoi une telle directive chez l’un des représentants de Google les plus scrutés par la communauté ? Un test ? Un oubli ? Un troll ? Le témoignage d’un passé révolu ? |
Il est possible de présenter un contenu différent selon les pays, mais... |
Sur Reddit, John Mueller a expliqué que le fait de présenter un contenu différent, en l'occurrence des barrières latérales, selon pays de l’internaute n’avait pas d’effet négatif en termes de SEO : « Google crawle le plus souvent à partir d’un seul endroit – et c’est le contenu qui sera utilisé pour Search. Si vous voulez que quelque chose soit indexé, vous devez vous assurer qu’il y figure. » |
Source : Search Engine Journal |
Taux de fiabilité : |
En règle générale, les Googlebots ont une adresse IP située aux USA, ce qui signifie que Google risque de ne pas parcourir ni indexer un contenu spécifiquement affiché dans un autre pays. Il est donc essentiel de s'assurer que le contenu principal de la page soit bien accessible aux robots d'indexation. |