Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Est-ce une bonne idée de modifier dynamiquement un robots.txt ? La longueur d'un contenu a-t-il une importance ? Le SEO peut-il nuire au référencement d'un site ?
Ne modifiez pas le robots.txt de façon dynamique
John Mueller déconseille fortement de modifier dynamiquement le fichier robots.txt plusieurs fois par jour. Il explique que cela n'est pas efficace, car Google met en cache ce fichier pendant environ 24 heures. Cette recommandation fait suite à une question d'un technicien qui souhaitait bloquer Googlebot le matin via robots.txt et le ré-autoriser l'après-midi pour éviter une surcharge serveur. John Mueller suggère plutôt d'utiliser les codes d'erreur 503 ou 429 pour gérer temporairement une charge de crawl trop importante.
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐⭐ On est d'accord !
Comme le dit John Mueller, ce type de pratique est une fausse bonne idée, en plus d’être quelque peu alambiquée. L’utilisation d’un code 503 ou 429 semble effectivement la meilleure solution à envisager ici.
Goossip #2
Le nombre de mots n’a pas beaucoup de sens
John Mueller a réagi à des captures d'écran montrant différents outils SEO qui comptabilisent différemment le nombre de mots d'une même page web. Il a souligné sur Bluesky que cela démontre bien pourquoi le comptage de mots en soi n'a que peu de sens.
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐ Quelques doutes subsistent...
La différence entre un article comptabilisant 800 mots et un autre de 900 mots n’est pas forcément toujours significative, d’autant plus que la qualité d’un contenu s’appuie sur bien d’autres critères, comme la pertinence des informations. En revanche, lorsque l’écart est plus important (de l’ordre 400 mots contre 1200 mots par exemple), la question est tout autre !
Goossip #3
Le SEO peut parfois causer plus de mal que de bien
John Mueller a suggéré que la mise en place de certaines techniques SEO pouvait parfois causer plus de tort qu'elle n'apportait de bénéfices pour un site web. Il va même jusqu'à sous-entendre que, dans certains cas, ne rien faire serait préférable !
Source : Search Engine Roundtable
Taux de fiabilité : ⭐⭐ Quelques doutes subsistent...
Derrière cette déclaration qui pourrait surprendre, il semble évident que John Mueller fait ici référence aux techniques un peu trop « appuyées » dont les conséquences peuvent, en effet, s’avérer désastreuses si elles sont mal maîtrisées. Toutefois, d’un autre côté, cela n’empêche pas certains sites « dans les clous » de subir parfois les foudres de Google au détour d’une update, malgré une approche plus mesurée et raisonnable du SEO.