Les concepteurs de ProtonMail, un outil de messagerie sécurisée, accusent Google d'avoir artificiellement déclassé leur site de ses résultats de recherche pendant presque un an. Une autre version semble pencher vers un bug du moteur. Mais il s'agit avant tout d'une bonne leçon à retenir concernant l'état de dépendance potentiel d'un site web par rapport à Google...
ProtonMail est un outil de messagerie, d'origine suisse, permettant d'échanger des messages de façon sécurisée sur le Web. Or il s'avère que ce service a été, pendant presque un an (d'octobre 2015 à août 2016), très peu visible pour Google, entraînant une baisse de 25% de son activité. Pour Andy Yen, l'un des cofondateurs de ProtonMail, qui s'en explique sur le blog de sa société, Ce manque de visibilité serait dû à une action volontaire de Google, qui aurait déclassé le site sur des requêtes comme "secure email" ou "encrypted email". Alors que, pendant ce temps, Bing ou Yahoo! continuaient à classer le site de ProtonMail sans problèmes ni interruption pendant la période incriminée.
Les gérants de la société s'en sont ouvert sur Twitter et Matt Cutts (voir illustration ci-dessous) a fait passer un message en "interne" (même si l'ancien "Mister SEO" n'est plus un googler) et la situation est revenue quasiment à la normale. Mais les concepteurs de la messagerie sécurisée n'ont jamais su les raisons de cette perte de visibilité. Et il est quasiment impossible de le savoir tant les causes peuvent être nombreuses : problèmes techniques lors d'une migration (le site avait changé d'adresse, d'un .ch vers un .com) durant cette période, bug chez Google (cela arrive et j'ai été le témoin d'un phénomène exactement identique il y a peu sur le site d'un client), changement d'algorithme, ou - pourquoi pas ? - volonté de nuire à un concurrent de Gmail, allez savoir... Seul les ingénieurs de Google savent ce qu'il s'est passé et, en règle générale, ils ne communiquent jamais à ce niveau... La bonne nouvelle reste quand même que le problème a été résolu... Et cela nous montre avant tout à quel point il ne faut pas être dépendant de Google au niveau de son trafic !
|
un bug ? quel bug ? google marche main dans la main avec le gouvernement américain, (voir les mails d’eric schmidt dans le stock des emails podesta de wikileaks pour ceux qui cri(ai?)ent à la conspi, ou le dernier bouquin d’assange, le reveil va etre rude…)
toute solution qui est un obstacle à l’espionnage généralisé est considéré comme ennemie, protonmail et son encryption par defaut sont clairement dans ce camp. Il est plus que probable que le site a volontairement été déclassé en loucedé, aucune surprise là-dedans…
Hélas, cela n’est ni la première, et vraisemblablement pas la dernière fois qu’un tel bug arrive chez Google. Olivier détient la vérité quand il déclare » il ne faut pas être dépendant de Google au niveau de son trafic ! » Faire un site pour l’internaute, c’est également faire un site qui n’a pas besoin de Google… Car si votre site est intéressant voire indispensable, l’internaute le met dans ses favoris !
Et donc le reclassement de prton mail a déclassé un autre site qui n’a pas la surface médiatique pour crier ? Cela fait peur effectivement
C’est toujours tendancieux ce genre d’histoire… ce qui est frustrant, c’est qu’on ne sera jamais vraiment le fin mot de l’histoire. Je pense qu’à force de mises à jour imbriquées par couches sur le noyau, et de coups de communication, même Google ne sait plus trop où il en est. Même les ingénieurs ne doivent plus savoir interpréter correctement le code.
Bien malin serait celui qui saurait exactement le lien de cause à effet de tel correctif sur le noyau.
Pour ce cas précis, dès qu’il s’agit de « grosses » entreprises, on dirait qu’il y a un traitement particulier, dans le bon ou le mauvais sens.
Enfin bon, le mystère demeure 🙂
1. Dans le cas que vous avez connu, comment avez-vous pu déterminer qu’il s’agissait d’un bug du moteur ?
Par élimination de toutes (?) les autres causes possibles du déclassement ? Pour éliminer toutes les autres cause, ne faudrait-il connaître l’algorithme complet de Google ( pas seulement tous les critères, mais aussi la façon dont ils interviennent et leur interdépendance) ? Connaître sa place dans les SERPs est déjà une gageure tant elle est en pratique très multiple?
———————
2. Que la correction d’une anomalie dans les SERPs dépende d’une démarche aussi aléatoire (contact réussi via Matt Cutts) est effrayant ?
(combien d’autres sites étaient victimes de la même cause? leur position a-t-elle été corrigée? combien de cas pour d’autres causes n’ont pas contacté Matt Cutts ? combien de cas signalés à Cutts sont-ils restés lettre morte,…)
A-t-on vraiment le droit de laisser une firme privée (Google) remplir une fonction aussi essentielle pour la vie économique et sociale
— sans concurrence équitable (Les plaintes pour abus de position dominante trainent depuis 6 ans à la Commission Européenne et, quand la sanction viendra , il faudra encore compter des années de recours devant la Cour de Justice. )
— ou sans contrôle quelconque
— ou sans contrepouvoir quelconque.
Réponse à 1 : j’ai bossé pour éliminer toutes les causes possibles et imaginables et quand j’ai été sûr que tout était OK sur le site et que ça ne pouvait pas venir de lui, j’ai fait jouer mes contacts perso 😉 Ca a débloqué la situation…
Merci de votre réponse.
Tout cela me confirme dans mon opinion (apparemment la même que celle de Sebastien ci-après) que les gars de Google ne maitrisent plus leur propre algorithme. Plusieurs autres observations m’ont conduit à cette conclusion depuis quelques années déjà, notamment:
— l’existence officielle de listes blanches (Google admet ne pas laisser son algorithme déclasser certains sites notoires parce que cela donnerait l’impression de résultats non pertinents)
— les tâtonnements effroyables pour la mise de Panda 1 en anglais (un an de va-et-vient complets dans les résultats avant la mise en place définitive).
— la mise en avant temporaire ou non de certains sites spam au sein des mouvements observés lors de la plupart des grands updates de l’algorithme (pandas, penguin et autres).
— les erreurs ou le caractère douteux de certains avis émis par les googlers attitrés
— l’interdépendance des critères est telle que, même de bonne foi et avec tout la clairvoyance voulue, il n’est sans doute plus possible d’en connaître tous les tenants et aboutissants. Plus on rajoute ou on modifie des critères, plus on s’approche de la tour de babel.
D’après moi, c’est inhérent à la situation de quasi-monopole de Google. Etant le moteur dominant, il est la cible de tous les spammeurs du monde. Et pour les contrer, l’algorithme devient de plus en plus complexe et finit par multiplier les » bugs » et autres résultats non voulus.
Et comme de toute façon, l’algorithme ne sert plus que de décor pour le reste (les pubs et les produits google passent en première place dans les résultats), l’internaute ne le voit pas trop, mais néanmoins ne montre aucune amélioration de satisfaction lors des enquêtes..
Il y a un algo et dedans il y a des fonctions permettant de ne pas afficher un site avant telle position. Ou d appliquer une sanction -10 position sur tel domaine. Google est un acteur avec une part de marché de 95% donc dominant. Il altère la concurrence en ne traitant pas les acteurs de la meme façon donc il doit etre sanctionné et a mon avis démanteler.
Petit a petit c est ce qui se dessine. Sinon duckduckgo.com c est vraiment pas mal. Sur les mots clés « petites annonces motos » je suis premier sur mobile. Sur Google je ne suis pas dans la premiere page et quand je vois ceux qui se trouvent en premiere page, je vois bien que Google est Pourri
Ne pas figurer sur Google équivaut à ne pas exister ! ça ne me surprend pas le fait que cette entreprise continue à perdre des centaines de milliers de francs.