Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Googlebot est-il vraiment conçu pour suivre les liens ? Quel est le coût de l'exploration des sites JavaScript ? Pourquoi les paramètres d'URLs peuvent-il créer des problèmes ?

Goossip #1

Googlebot ne suit pas les liens, il les collecte

Contrairement à ce que Google affirme dans sa documentation officielle, Googlebot ne suit pas les liens en temps réel, mais les collecte pour les traiter ultérieurement. Cette clarification a été partagée par Gary Illyes dans le podcast Search Off The Record : « Sur notre site, nous n'arrêtons pas de dire que Googlebot suit des liens, mais ce n'est pas le cas. Il collecte des liens, puis il retourne à ces liens ».

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Comme le précise Gary Illyes sur LinkedIn, cette « révélation » n’en est pas vraiment une si vous avez l’habitude d’analyser vos fichiers logs. Pour le dire autrement, le mot « suivre », utilisé par Google dans sa documentation, n’est ici pas à prendre au pied de la lettre, mais permet plutôt d’illustrer de façon simplifiée le fonctionnement de Googlebot.

Goossip #2

L’exploration et le rendu des pages JavaScript coûtent cher à Google, mais...

Sur LinkedIn, Martin Splitt a expliqué que l’exploration et le rendering, en particulier des pages en JavaScript, représentaient un coût potentiellement important pour Google, précisant toutefois qu’il ne fallait pas s’inquiéter du fait que le rendu soit cher.

Source : Search Engine Roundtable

Taux de fiabilité : ⭐⭐ Un doute subsiste...

Si l’on en croit les propos de Martin Splitt, Google ne ferait pas vraiment de distinction entre une page HTML simple et une page remplie de JavaScript, plus coûteuse, puisque l’objectif de Google est de proposer le contenu le plus pertinent, quoi qu’il en coûte. Après les révélations du Google Leak, certains experts semblent toutefois avoir du mal à apporter du crédit à la parole des représentants de la firme de Mountain View.

Goossip #3

Les paramètres d’URL peuvent créer des problèmes d’exploration

Gary Illyes a averti que les paramètres d’URL pouvaient causer des problèmes de crawl à Google, notamment en générant un nombre infini d’URLs pour une seule page : « techniquement, vous pouvez ajouter un nombre presque infini de paramètres à n’importe quelle URL, et le serveur se contentera d’ignorer ceux qui ne modifient pas la réponse. » Cela peut toutefois poser problème à certains sites, notamment dans le e-commerce : « Parce que vous pouvez simplement y ajouter des paramètres d'URL... cela signifie également que lorsque vous faites du crawling, et du crawling au sens propre comme suivre des liens, alors tout... tout devient beaucoup plus compliqué. »

Source : Search Engine Journal

Taux de fiabilité : ⭐⭐⭐ On est d'accord !

Les professionnels le savent. Des paramètres d’URL mal maîtrisés peuvent représenter un risque significatif en termes de SEO. D’où l’importance de s’appuyer sur des balises canoniques et un robots.txt bien conçu.