En fin de semaine dernière, un sujet de discussion SEO a fortement occupé les réseaux sociaux : l'incontournable site anglophone Search Engine Land avait été désindexé par Google ! Revoyons ici les différentes hypothèses qui ont été évoquées à ce sujet (avant que la solution n'apparaisse) et tentons d'en tirer quelques leçons pour nos stratégies de visibilité sur le Web...
Les personnes qui suivent le SEO ont certainement vu passer cette info : il y a quelques jours (en fin de semaine dernière plus exactement), le site Search Engine Land a été désindexé par Google. En clair, une requête "site:searchengineland.com" donnait zéro résultat ! Le site était donc entièrement sorti de l'index. Excusez du peu... Une situation étrange car Search Engine Land, créé par Danny Sullivan (qui travaille de plus aujourd'hui chez Google), est LE site d'informations du monde anglophone sur le SEO et est totalement incontournable depuis plusieurs années. Bref, un monument de notre métier...
Les hypothèses sont donc allé bon train, d'autant plus qu'on était en plein début de week-end et que peu d'infos ont été publiées sur cette période. Certains ont parlé de "blacklistage" Google pour cause de spam (des liens toxiques créés dans les articles ?). D'autres ont vu un iframe dans les pages du site, le code de cet iframe contenant une balise meta robots "noindex". Etc. Bref, plusieurs hypothèses, souvent crédibles, ont alors vu le jour.
L'hypothèse de la blacklist pas crédible
De mon côté, je n'ai pas cru à l'hypothèse du blacklistage / Action manuelle pour cause de spam. Tout d'abord, il est rarissime aujourd'hui qu'une action manuelle de la part de Google amène une désindexation du site. La plupart du temps, le site reste indexé mais est mal classé sur certaines requêtes. J'avoue ne plus me souvenir de la date à laquelle j'ai vu un site désindexé par Google suite à une pénalité pour la dernière fois. Et il est encore moins probable que Google désindexe un site de la taille et de la notoriété de "SEL" comme cela, sans préavis. Que cela arrive à un site moisi issu d'un pays connu pour spammer le moteur de recherche avec du contenu archi-spinné n'ayant aucun intérêt, passe encore. C'est crédible. Mais pour Search Engine Land, non.
Exit donc la théorie de la pénalité Google, ça ne ressemblait pas du tout à cela. Sauf peut-être si Google voulait faire un exemple, frapper fort et créer du buzz pour faire passer un message, comme lorsqu'il avait blacklisté BMW en 2007 ou les agences SEO Netbooster, Absolute Référencement et Refposition en 2004. Mais dans le cas qui nous occupe ici, cela semblait peu probable...
Erreur technique : oui mais...
Autre possibilité : une désindexation suite à une erreur technique sur le site, comme l'iframe contenant une balise meta robots "noindex", etc. Pourquoi pas ? Mais, dans ce cas, la désindexation aurait été progressive, au fur et à mesure du crawl par Google des pages du site, et pas brutale comme cela semblait être le cas ici. L'hypothèse était donc possible, mais les circonstances ne plaidaient pas en sa faveur.
Finalement, la seule possibilité qui restait était l'erreur, le bug, chez Google. Et c'est bien ce qui est arrivé, comme le site l'a révélé lundi.
Finalement, un bug...
Ne nous leurrons pas, ce n'est pas la première fois que cela arrive. Depuis 25 ans que je fais du SEO, j'ai eu à traiter de nombreux cas similaires. Pas des centaines, bien sûr. Mais un bon nombre... Et à chaque fois, le problème venait de bugs chez Google. Et des sites comme Digg ont par exemple connu ce type de désagrément par le passé (en 2013 pour lui). Cela peut donc arriver à n'importe quel site, n'importe quand. Attention, pas de parano non plus : cela reste un phénomène extrêmement rare (je parle uniquement ici des blacklistages suite à une erreur technique de Google, car les pénalités pour cause de spam ont été légion à une époque, même si elles semblent avoir quasiment disparues aujourd'hui) et les cas connus officiellement se comptent peut-être sur les deux doigts de la main. Mais beaucoup n'ont pas été rendus publics (ce n'est pas obligatoirement quelque chose dont on se vante sur le Web)...
Attention à la Google-dépendance !
Cela doit avant tout nous faire prendre conscience d'une chose : comme nous l'avons déjà dit, il ne faut pas être dépendant du trafic "moteurs" sur son site web car il s'agit d'un trafic que l'on ne maîtrise pas toujours. Ne dépassez jamais 50% de votre trafic total qui vient des moteurs de recherche (donc de Google, globalement) et essayez d'harmoniser au maximum vos sources de trafic (liens, trafic direct, réseaux sociaux, publicité, email, etc.) pour ne pas dépendre de l'une d'entre elles. Et d'ailleurs, si les réseaux sociaux n'ont aucun impact direct sur le SEO, ils ont avant tout un avantage certain, c'est de faire en sorte de moins dépendre de Google. Plus vous aurez de trafic issus de Facebook, Twitter, LinkedIn et autres, et moins la part de trafic "search" sur votre site prendra d'importance. Pas négligeable...
Bref, vous devez pouvoir être capable de vivre (voire de survivre) si vous perdez de façon temporaire votre trafic "search" et de pouvoir faire le dos rond en attendant la résolution du problème. Si un site est au bord du gouffre en perdant son trafic Google, c'est pour moi avant tout le signe d'une mauvaise stratégie de visibilité web en voulant mettre tous ses oeufs dans le même panier. Le jour où le panier se perce, tous les œufs cassent et adieu l'omelette ! Pensons-y avant de tout miser sur le SEO !
Ne soyez pas Google dépendant c’est ce que je retiens. J’en suis aussi persuadé, il est nécessaire de varier ses sources de trafic. j’en ai fait les frais avec de petits sites en 2010 😉
Merci pour ces explications, mais est-ce une nouvelle position de Google sur ce genre de cas (site hacké) ? Car il y a déjàune façon pour GG de traiter le sujet :
> Le descriptif fourni sous le nom du site dans les Serps est remplacé par un message de type « il est possible que ce site ait été piraté (…) »
Auquel cas le site n’est pas désindexé.
Est-ce donc une nouvelle façon de traiter le problème pour Google ?
Sinon, dans certains cas les navigateurs bloquent l’accès à la page « dangereuse » en affichant un message d’avertissement.
On voit bien que la sécurité est en train de devenir une priorité aujourd’hui (et c’est pas trop tôt).
Bonjour,
Je suis assez d’accord avec PAT sur la fiabilité de certains produits Google.
Mais je me demandais tout de même si Google avait communiqué sur ce problème ?
Car le site SEL contient des publicités et techniquement il est tout à fait possible que les robots de Google aient détectés un script malveillant donc sur le site à l’intérieur d’une pub.
C’est très fréquent ces derniers temps surtout sur les versions mobiles.
Google est truffé de bug. Regardez la search console objectivement, c’est souvent très incohérent. Quand aux résultats de recherche, le plus important, il sont souvent éminemment discutable. Google s’en sort sur le volume et surtour l’inertie.
C’est vrai que la search console n’est pas un cadeau. Parfois tu compares l’ancienne et la nouvelle version, et tu ne retrouves pas les mêmes résultats…Ca fait parti des trucs qui m’ont toujours intrigué.
Sinon, merci pour l’article Olivier, c’était instructif !