Dans le cadre du grand succès qu'a connu le SEO Campus cette année encore à Paris - Saint Denis, voici ma présentation sur les stratégies de désindexation de contenus sur un site web...
De retour du SEO Campus 2013 qui a été, une fois de plus, un très grand succès (les salles n'étaient le plus souvent pas assez grandes pour contenir toutes les personnes désirant assister aux conférences), voici les slides de ma présentation (également disponible sur Slideshare) intitulée : "Indexation et désindexation", ou pourquoi mettre en place une politique de désindexation partielle de son site ? Que désindexer ? Et surtout comment le faire ?
Un dernier mot pour remercier les organisateurs, les sponsors, et tous les participants à cet événement qui a su se rendre absolument incontournable dans le monde du SEO en quelques années. Bravo !!!
Source de l'image :Slideshare |
Bonjour. Merci pour cette présentation complète !
La page 26 met en avant la réalisation d’un Sitemap de désindexation.
Est-il possible d’avoir quelques précisions par rapport à cela: Je suis très intéressé par rapport à cette démarche mais je ne vois pas comment le réaliser.
En quoi ce Sitemap diffère d’un modèle « classique » ? Y-a t’il des balises spécifiques à y intégrer ?
Vu le turnover important des annonces, je souhaite optimiser assez fortement la désindexation…
Merci
@loran > est-ce qu’interdire un lien via une requête Apache (403 ou autre) lorsqu’un referer fait partie d’une liste de mauvais liens est compris par Google ?
Si tu te base sur le referer pour générer une 403 (ou autre) Google ne risque pas de la voir ça ne sera donc jamais pris en compte … (sauf si leur bots jouent a trafiquer le referer ce que je n’ai jamais constaté).
Les seuls personnes que tu va impacter par ce genre de mesure c’est les internautes qui se pointeront depuis ce lien.
@Loran : un lien qui pointe vers une 403, c’est équivalent à un lien externe qui pointe vers une 404 : le link juice est perdu….
Merci pour cette présentation ! c’est vraiment sympa.
J’ai une question à ce sujet, mon site a été victime d’une attaque d’un logiciel malveillant. J’ai procéder à la correction de la faille et j’ai nettoyé le site, mais il a totalement été désindexé de Google. Suite à cette manipulation, Google n’affiche plus la fameuse alerte, et j’ai déjà envoyé une demande d’indexation via Webmaster tools, mais toujours rien, le site n’apparaît plus dans les résultats de recherche.
J’aimerai savoir combien de temps cela peut-il encore durer ?
Merci à tous.
Merci pour les slides, j’ai malheureusement loupé ta présentation (salle trop pleine). A vrai dire, ma problématique aujourd’hui serait plutôt comment bien indexer mes pages que de les désindexer ; chaque chose en son temps ; )
Et ça a été un plaisir de te rencontrer IRL – la prochaine fois j’amène mon livre pour une dédicace : /
Effectivement, ca peux etre dangereux, a utiliser en connaissance de cause comme tu dis.
Un gros nombre de 404 et googlebot, risque de penser que votre site est en panne, ou en maintenance et en conséquence diminuer fortement son crawl sur votre site pour pas le brusquer pendant cette période.
Et qui dit baisse de crawl, dit baisse de pages actives.
Super exposé, précis et concis. Une méthode aussi pour désindexer des pages dont les l’URLs sont mal formatées (à cause d’une erreur de développement de réécriture d’URL ou de négative seo), c’est l’erreur 404. C’est très efficace, mais aussi très dangereux à manipuler donc avec prudence et en connaissance de cause.
@Loran : Je parle bien de liens internes, pas de backlinks, et dans un cadre de PR sculpting , les liens internes comme externes transmettent du PR.
Pour ta question, je vois pas trop où tu veux en venir mais pour les liens externes, je pense que, selon les cas, c’est mieux de faire une redirection 301 (voire canonical), pour récupérer le jus des backlinks, mais en général, les pages censés etre désindéxés, reçoivent très peu de backlinks, donc la question se pose rarement.
Mais sinon, google comprend toutes les réponses serveur, dont la 403. mais ce que tu vas interdire, c’est pas le lien, mais la page cible du lien ?!?
Bonjour,
j’ai bien apprécié les raisons et les moyens de désindexer des pages ou des répertoires, tags ou autres pour améliorer la pertinence et la qualité de ce qu’on donne à manger à Google.
Je comprends bien qu’il faut favoriser la qualité devant la quantité. Et c’est ce qui ressort de ta conférence : ne pas indexer tout un site, toutes les pages n’ont pas à vocation à apparaitre dans les SERP.
@Serge : le problème est que pour aller intervenir sur des sites externes pour contrôler les liens qui pointent vers ton site, c’est difficile, chronophage et que c’est pas toujours compris. En dernier recours, il faut intervenir sur du on-site pour indiquer le « refus » du lien.
Nota pour moi-même ou pour celui qui répondra : est-ce qu’interdire un lien via une requête Apache (403 ou autre) lorsqu’un referer fait partie d’une liste de mauvais liens est compris par Google ?
Salut,
Merci pour cette présentation, qui apporte un peu plus de clareté sur la désindexation, contrairement à ce qu’à pu dire synodiance lors de sa présentation sur l’audit SEO, qui disait simplement que piour désindexer une page il fallait en premier lieu utiliser le robots.txt, et dans un deuxième temps utiliser une no-index.
Vu que le le robots.txt interdit le crawl, le moteur verra jamais la no-index de la page a désindéxé, et donc la page mettra au mieux plus de temps à être désindéxée, soit ne jamais être désindéxée.
En revanche , tu ne parles pas d’une chose importante à mon avis lorsqu’il s’agit de désindexer des pages inutiles, c’est supprimer les chemins pour google vers ces pages à désindexer, soit l’obfuscation de liens, voire idéalement la suppression de ces liens si possible.
Imaginons un site avec 30% de ces liens qui vont vers des pages inutiles en no-index. C’est 30% de linkjuice en moins.
Il y a toujours la possibilité de faire un no-index follow, mais ce n’est pas optimal car, dans tous les cas le jus passe par l’intermédiairte de ces pages inutiles, et on ne sait pas trop comment Google transmet le PR via des pages en no-index.
Voila, une précision qu’il est dommage de ne pas retrouver dans ta présentation, qui est par ailleurs excellente.