On parle souvent de crawl, d'indexation, de page "crawlable" ou "indexable", voire "indexée", mais qu'est-ce qui se cache derrière ces termes ? Et que faut-il faire pour obtenir un "budget crawl" de qualité, facilitant l'exploration de votre site par les moteurs de recherche ? Après avoir analysé la première équation du "budget crawl" la semaine dernière, voici la seconde pour explorer le sujet de façon plus approfondie...
Une nouvelle vidéo sur le thème du budget crawl et l'exploration de votre site par les robots des moteurs ainsi que les pages indexées résultant de cette exploration. La semaine dernière, nous avons analysé, au travers d'un outil de crawl, quelles sont les pages d'un site potentiellement crawlables, puis compté, au travers de la Search Console, le nombre d'URL réellement indexées. Avant d'en tirer les conséquences adéquates sur la bonne santé et l'état de "crawlabilité" de votre source d'informations. C'était la première équation du Budget Crawl.
Mais il est également capital de tenir compte d'une seconde, qui représente l fait que le robot, lors de son crawl, doit absolument se focaliser sur le plu possible de pages indatables pour... les indexer. La bonne gestion des pages ne "noindex", canonicalisées, mais également des 404/410 et des redirections rentre donc en ligne de compte. Explications...
Nous avons essayé de résumer notre vision du sujet dans cette 166e vidéo Abondance :
La Seconde Équation du Budget Crawl - Vidéo N°166 proposée par Olivier Andrieu (Abondance). Source : Abondance
Autres vidéos touchant à ce sujet |
|
Articles complémentaires (listés par ordre chronologique) |
|
Notre Chaîne YouTube |
N'hésitez pas également à visiter la zone "Vidéos SEO" du site et à vous abonner à la chaîne YouTube du site Abondance (ou à son fil RSS) pour découvrir, semaine après semaine, les prochaines vidéos que nous vous proposerons. |
Bonjour Olivier, merci pour cette vidéo courte et claire.
Est-ce qu’un bot de moteur de recherche va systématiquement commencer son crawl par la page d’accueil ? Je pose cette question pour 2 raisons : 1- le « sculptage » de PR grâce aux obfuscations, 2-pages orphelines
merci
Non, clairement pas systématiquement. 🙂
Bonjour,
C’est peut être valable sur un blog ou un site institutionnel, mais sur ecommerce, c’est très compliqué à mettre en place pour deux raisons :
1) Les filtres : l’intégralité des dizaines d’urls d’un filtre sont canonicalisés et sont des urls crawlables.
2) La pagination : si google ne parcourt pas les pages suivantes, toutes les fiches produits ne seront pas indexées.
Autant pour la pagination, c’est pas trop grave (quelques dizaines de pages), autant pour les filtres, je ne crois pas qu’il existe de filtre en js.
Avez-vous une solution à ces deux problèmes?
Pour la pagination, les balises de pagination font le job et oui, il faut absolument les rendre crawlables et potentiellement indexables, pas le choix, par définition !
Pour les filtres à facettes, la plupart du temps on les rend non crawlables, la solution dépend en général du site et surtout de la plateforme utilisée. C’est du cas par cas.