Depuis quelques mois, Google semble subir de nombreux bugs d'indexation de pages web - anciennes ou nouvelles - dans son moteur de recherche. A quoi cela est-il dû ? Difficile de le savoir mais si cela pose de graves problèmes à votre site, vous devriez peut-être vous poser quelques questions sur votre stratégie numérique...
C'est peu de dire que Google a accumulé les problèmes d'(de dés)indexation ces dernière semaines. En effet, en avril, un bug perturbait fortement le moteur de recherche, de très nombreuses pages (notamment des pages d'accueil) se trouvant ainsi désindexées sans aucune raison valable. Dans la foulée, c'était la Search Console qui était touchée avec des informations erronées, dues semble-t-il au bug précédent. On peut y rajouter des dates de cache erronées, pour faire bon poids.
La liste noire continuait avec Google News qui était touché par une vague de désindexations, certes sur un nombre de sites assez faible mais sans relation a priori avec les précédents épisodes.
Le 22 mai dernier, nouveau souci avec aucune indexation de nouveaux contenus (notamment sur des sites d'actualités) pendant de nombreuses heures. Et même chose le 24 mai. Si on en croit le compte Twitter pour webmasters de Google, tous ces bugs sont décorellés, ce qui semble bien complexe à admettre. Autant de problèmes sur une si courte période, difficile d'imaginer qu'il n'y ait pas une quelconque relation de cause à effet entre tous ces événements.
Votre trafic peut-il être fortement perturbé par ces bugs Google ?
À la lumière de ces soucis, on ne le dira jamais assez : un site web dont le modèle économique dépend en majorité de son indexation par Google (ou du trafic généré par les moteurs de recherche en général) court au suicide numérique par le phénomène bien connu de "roulette russe de Mountain View". La pérennité de votre activité risque fort d'être impactée par ces bugs (ou d'autres) et il faudra l'assumer. Bref, ce type de stratégie n'est pas viable, on le dit et on le répète !
Ne dépassez jamais les 50% de trafic sur votre site venant de Google, au risque de devenir dépendant d'un trafic que, par définition, vous ne maitrisez pas ! De nombreux épisodes dans le passé de désindexation inopportune ou de dégâts collatéraux suite à des updates plus ou moins bien maitrisées par le moteur de recherche nous le rappelle très souvent. Ne l'oubliez donc jamais !
Ceci dit, difficile de savoir d'où viennent ces bugs à répétition. Et on ne le saura d'ailleurs certainement jamais… Voici cependant quelques idées qui nous venues à l'esprit :
- La mise en place de la nouvelle Search Console qui aurait perturbé l'index du moteur ;
- La mise en place de la nouvelle interface mobile (certes, mais pourquoi, dans ce cas ?) ;
- La mise en place d'un nouveau système d'indexation, post-Caffeine (9 ans après, ce ne serait pas illogique) ;
- Une épouvantable Loi de Murphy ;
- L'embauche récente de l'équipe de développeurs qui a conçu le légendaire logiciel Louvois de l'armée française (bon, là, on doute un peu plus, quand même...).
Et vous, avez-vous des explications sur les raisons de ces problèmes ? Nous sommes impatients de lire vos hypothèses…
« Ne dépassez jamais les 50% de trafic sur votre site venant de Google »
dans bien des domaines les gens (pas les geeks) passent plus souvent par google plutôt qu’en direct, difficile de ne plus être dépendant de google…
Un piratage inavouable ?
L index est devenu trop gros et ils sont dans l impasse pour l instant, tant qu’ils ne mettront pas en place une gestion encore plus élaborée, cela fait penser au compteur de youtube qui ne gérait pas les plus de 2go…
ne pas dépendre de Google a un coût énorme, dépendre de lui est dangereux …
Quoi que ce que Google mijote ça sera jamais pour l’interet des SEO sauf si leur mener la vie dure
C’est louche. Trop de répétition pour que ce soit décorrélé à mon sens.
Google doit être en train de nous préparer un coup de Trafalgar 🙂
Ces soucis touchent, de plus, différemment les US et d’autres régions du monde.
On peut donc penser qu’ils seraient dûs au déploiement progressif de bout de codes liés à l’indexation dans différentes plaques géographiques.
Ol y a aussi eu des bugs de « non désindexation » de pages, non ?
Google est en train d’exploser en vol! C’est un problème de ressources face aux différents formats qu’ils sont eux-mêmes proposé et imposé.
Le web croit a’ vitesse exponentielle : chaque site a 2 ou 3 urls pour chaque contenu : url standard, url AMP, (parfois) url site mobile, url Canonical … Que des « duplicate » ! Puis, il y a le gros problème du JAVASCRIPT, de plus en plus répandu et qu’ils n’arrivent pas du tout a’ gérer (John Muller a dit récemment : »C’est le défi des années a’ venir… »).
Jusqu’a’ la’, ce n’est que des problèmes de Crawl/Indexation.
Puis il y a toute la partie traitement de l’information, rendering, UX, produits : Données structures, Knowledge Panel, Features snippets, Onebox, Assistants vocal, GSC, GMB..