Google vient d'indiquer qu'il abandonnait la méthode qu'il avait proposé en 2009 pour indexer les sites en Ajax. En fait, il n'en a tout simplement plus besoin, sa compréhension du Javascript et des CSS étant aujourd'hui suffisante pour indexer les sites ainsi conçus...
C'était annoncé depuis le mois de mars dernier, c'est désormais officiel : Google a modifié ses conseils, proposés en ligne, concernant l'indexation des sites en Ajax.
Il met donc fin à sa proposition d'ajout de « _escaped_fragment_ » aux URL, faite en 2009, car sa compréhension du Javascript et des CSS lui permet aujourd'hui de crawler plus naturellement les sites réalisés en Ajax. Il n'est donc plus besoin de passer par des "artifices" pour lui faire comprendre comment le site est structuré.
La bonne nouvelle est donc que cela ne changera rien à l'indexation des sites en Ajax, qui devrait bien (mieux ?) se passer à l'avenir. N'oubliez pas quand même que plus un site sera techniquement simple, meilleures seront ses chances d'être parfaitement analysé par les robots de moteurs...
Source de l'image : DR |
Bonjour @Arnaud,
Supposons, je vois viens l’intérêt pour les moteurs, mais quel serait l’intérêt pour le webmaster de mettre en place un système de non crawl de pages du site sans objectif SEO ?
@arnaud : il ne s’agit pas de bloquer le bot mais de rendre les pages peu qualitative en noindex (comme par exemple les millions de pages de recherche que peut générer une navigation à facette d’un site e-commerce, même modeste).
Salut Fabien,
C’est bien de crawl dont il s’agit. Il est fortement recommandé de bloquer le crawl de Google sur les pages de résultats de recherche (sans objectif SEO) des sites eCommerce. Sans quoi, le robot risque fort de passer son temps a explorer des pages sans intérêt (même en noindex) au lieu des pages stratégiques du site.
Bye,
Arnaud.
@Toto c’est l’enfer pour le crawl des sites eCommerce volumineux possédant des modules Ajax. Le robot crawle tout ce qu’il trouve et les instructions inhibantes sont hélas, comme souvent avec Google, purement indicatives. Plus difficile de bloquer Googlebot que de l’autoriser au crawl.
Je pense qu’ils vont pouvoir proprement interpréter quand on passe un paramètre dans l’URL, mais je suis pas sûr qu’il prenne réellement en charge le changement de contenu sans changement d’URL. A surveiller.
@ Toto : il n’y a pas de raisons qu’ils ne soient pas pris en compte en fait. Il faut donc les inhiber via d’autres façons (meta robots, x-tobots-tag notamment).
Par contre comment vont etre pris en compte les filtres de tris gérés en ajax pour du facetting sur des sites e-commerce ? La communication de Google ne parle pas vraiment de ça …