Les Google Webmaster Tools proposent depuis hier des statistiques sur l'indexation d'un site par Google. Une fonction encore assez proche du 'gadget' mais qui représente un pas intéressant vers un outil vraiment efficace que beaucoup de webmasters appellent de leurs voeux...
Cela faisait des années que de nombreux webmasters demandaient à Google un outil permettant de suivre de façon fine l'indeaxtion de leur site dans le moteur de recherche. Le fait que Bing fasse actuellement le forcing pour ses Webmaster Tools force au moins son concurrent à aller de l'avant lui aussi pour son outil, ce qui est une bonne chose...
Du coup, Google vient d'annoncer qu'un certain nombre d'informations statistiques étaient dès maintenant disponibles dans les GWT, sous la forme de courbes sur cet historique d'indexation pour un site donné dans la partie "Etat de santé" :
Source de l'image : Google |
Un bouton "Avancé" donne plus d'informations avec le nombre total de pages indexées, le nombre total de pages déjà explorées auparavant, les pages non sélectionnées (duplicate content ou pages redirigées) et les pages bloquées par le fichier robots.txt (difficile de savoir ce qu'il en est de ces différentes informations qui ne semblent pas pour l'instant expliquées en ligne) :
Source de l'image : Google |
C'est un premier pas de la part de Google dans le domaine de l'indexation, qui permet d'avoir une donnée historique sur l'accroissement (ou la régression) de celle-ci. Mais il manque encore l'essentiel avec un vrai outil (de meilleure qualité que la syntaxe "site:") qui permette de suivre avec la plus grande finesse les URL réellement indexées (et donc de déduire celles qui ne le sont pas)... Patience certainement...
Je rejoins magento dans sa critique. J’ai un nouveau site de type blog, une vingtaine d’article dessus, sur un ndd neuf. Google m’indique que j’ai exactement 87 781 pages déjà indexées auparavant !!! Je ne sais pas du tout d’où ça sort… Sans plus de précisions difficile de savoir. Bref, je retourne faire des recherches !
Pour mois, c’est un peu bidon, et surtout inutilisable : Chez nous, on a 430 pages environ sur le site, crawlables. Google nous en indexe 420, pas de problème.
Mais il nous trouve 2400 pages ‘non sélectionnées’ !!
A priori, pas de possiblité de duplicate, et dans tous les cas, nos propres roblots les identifieraient.
Dernière solution, on fait pas mal de pub, avec à chaque fois des identifiants de tracking dans les urls. Donc Google doit trouver ces urls, et les traiter.
Bref, l’info sur les pages ‘non selectionnées’, tant que GG ne donne pas la liste, on ne peut pas franchement travailler avec.
merci pour les informations : )
C’est effectivement une nouveauté interressante, et améliore le suivi du site.
Cela indique aussi le fonctionnement de Google dans certains cas, et notament sur l’augmentation importantes de pages sur un site et leur indexations.
Ainsi, le doublement des pages sur le notre (de 1,3 a 2,5 millions) qui n’avais pas donné lieu a une augmentation sur Google se verifie bien désormais, par une lente courbe montante et régulière des pages indexées (et des nouvelles).
Je pense que l’utilisation d’un sitemap fera bouger les choses plus rapidement.
C’est vrai qu’il est dommage qu’il n’y a pas plus d’indication sur les pages non retenues.
J’ai tout de même le sentiment que celles-ci sont aussi en rapports au pagerank du site, plus il est bas, moins les pages « pauvres sont prises en compte », et vice-versa …???
Heureusement d’ailleurs que utilisons d’autres outils 🙂
Mais autant avoir un outil complet 🙂
@Mickael@Referencement naturel : personnellement,je m’attache plus à l’aspect « analyse du trafic généré par les moteurs » qu’au positionnement strictement dit… Et puis, il existe pas mal de logiciels qui font déjà ça non ?
Enfin, Google Webmaster Tools commence maintenant à nous informer des points importants même si comme tu le dis Olivier il reste encore des choses à ajouter.
Ce qui serait aussi pertinent c’est que Google nous donne une meilleure position dans la partie « Requêtes de recherche » 🙂
Qu’en penses tu Olivier ?
C’est une bonne nouvelle, surtout concernant la rétroactivité sur l’historique. Disons que ça nous donnera une vue d’ensemble qui nous indiquera la tendance générale de l’indexation. Et comme tu le dis, espérons que ce ne soit qu’un début, et que Google nous renseigne de plus en plus en détails…
Merci pour l’info.
C’est un bon début qui laisse surement présager un outil très intéressant