Voici les 55 slides de la conférence proposée lors du SEO Camp Day Lorraine qui s'est tenu hier, sur le sujet des bienfaits de la désindexation et de la bonne gestion du budget crawl. Bonnes révisions, Googlebot vous en sera gré ;)...
Lorsqu'un robot (Googlebot, Bingbot…) vient visiter votre site, il prend en compte un certain nombre de ressources (notamment du temps) pour crawler vos pages dans le cadre de son « budget crawl ». Il est donc important, à ce niveau de ne lui montrer que des pages intéressantes pour votre SEO, afin d'éviter qu'il perde son temps avec des pages qui ne généreront pas de trafic.
Pour cela, il existe plusieurs façons de faire le tri : fichier robots.txt, balise meta robots "noindex", balise "canonical", etc. Lesquelles sont à privilégier ? Certaines sont-elles meilleures que d'autre pour optimiser son budget crawl ? De même, la présence de nombreuses 404 ou redirections 301 dans votre arborescence est-elle une bonne chose ? Pas si sûr… Est-il possible d'utiliser le code HTTP 304 pour améliorer les performances de son site ? Etc.
Ce sont tous ces sujets que j'ai traités lors d'une conférence au SEO Camp Day Lorraine (merci aux organisateurs pour l'invitation) qui s'est tenu le 10 mars 2022 à Nancy.
Pour information, la conférence n'a pas été filmée, elle n'est donc pas disponible en replay. Il manque donc, logiquement, tout ce qui s'est dit autour de ces slides, mais j'espère qu'elles apporteront quand même un certain nombre d'informations aux personnes qui n'ont pas pu faire le déplacement.
Slides de la conférence sur les bienfaits de la désindexation au SEO Camps Day Lorraine le 10 mars 2022. Source : SlideShare.
Bonjour Olivier et merci pour les différents tips ! Je me renseigne depuis quelques mois sur le seo et c’est vrai que ce monde est vaste, mais très passionnant et surtout très utile !
Bonjour ! Eh ben dit donc, nous sommes gâtés avec ces nombreux slides !
Merci pour les différents slides, un grand ménage s’impose 🙂 !
Bonjour,
A propos des pages institutionnelles, la slide 41 dit qu’il faut les mettre en noffollow, hors la vidéo : https://www.abondance.com/20171212-18716-faut-indexer-pages-institutionnelles-video-seo.html dit qu’il ne faut pas les mettre en nofollow. Et d’ailleurs, la page mentions légales n’est pas en nofollow sur le site Abondance.
Du coup, que devons-nous faire ?
La requête site:example.com ramène une page institutionnelle pour mon site. Je sais que les internautes n’utilisent pas cette requête mais du coup cela m’amène à penser qu’elle bénéficie de beaucoup de jus de liens ce qui est totalement contre productif.
Merci.
Ah oui, j’ai expliqué tout ça lors de la conférence. c’est la limite des slides « nues » : il manque des explications et ce serait trop long à expliquer ici. Mais en cherchant bien, j’ai fait pas mal de vidéos à ce sujet sur Abondance…
Justement, je me réfère à la vidéo sur les pages institutionnelles. Est-elle toujours d’actualité ? Est-ce que les choses ont changé depuis ? Un lien vers l’un de vos articles serait le bienvenu. Merci.
Oui, oui, elle est toujours d’actualité 🙂
Merci pour ce partage très instructif. Je suis ravie de recevoir votre newsletter et de vous suivre sur LinkedIn. Votre état d’esprit est très inspirant pour une personne comme moi qui débute dans le métier.
Merci pour cet article et les slides qui sont très utiles !
Bonjour et merci pour les slides qui sont un rappel important ! J’aurai une petite précision à demander.
Sur mon site j’ai dû débrider le robots.txt car google avait déjà indexé beaucoup de pages bloquées. J’ai posé des noindex pour d’abord lui faire comprendre que ces pages ne sont pas à indexer mais la désindexation prend beaucoup de temps. Vous estimez qu’on peut remettre la disallow dans le robots.txt quand il n’y a plus du tout de pages indexées ou s’il y en a une cinquantaine restantes (5000 au départ) c’est pas grave ? (et avez vous une astuce pour accélérer la prise en compte des noindex ?)
Merci d’avance pour les précisions.
Adrien Bonnet
Moi j’aurais tendances à attendre que tout soit nickel. Vous avez essayé avec la suppression via la Search Console ? Et avec un Sitemap XML spécifique de ces pages ?
Merci des conseils ! Je vais faire ça 🙂