Je suis globalement favorable - et en tout cas personne jusqu'à maintenant ne m'a convaincu du contraire - à l'outil de désaveu de liens de Google. Mais ses nombreuses limites le rendent quasi inutilisable. A quand de vrais outils professionnels de la part de Google, d'autant plus que ce travail l'aide avant tout à rendre son moteur meilleur ?...
Dans le cadre de mes activités SEO, j'ai quelques contacts avec l'équipe "Search Quality Team" de Google* avec qui je discute parfois de quelques points très intéressants. Dernièrement, nos échanges ont tourné autour de l'outil de désaveu de lien mis en place par Google.
On le sait, cet outil a de nombreux détracteurs. Ceci dit, jusqu'à maintenant, personne n'a pu me persuader que ce formulaire était une mauvaise chose**. Je n'ai jamais trouvé, dans la littérature numérique qui a commenté la création de ce système, de réel argument qui me convainque de ne pas l'utiliser. Pour moi, la plupart de ces arguments sont peu fondés, voire tirent vers la théorie du complot maçonnico-templier ourdi par des Illuminati directement sortis d'un roman de Dan Brown. Bref, si un outil peut me permettre de supprimer des yeux de Google des backlinks dont je ne suis pas à l'origine et qui ne m'intéressent pas, pourquoi ne l'utiliserais-je pas ?
Mais un ressenti au sujet de cet outil m'est venue lorsque mon interlocuteur chez Google me donnait l'information suivante (qui peut vous être utile également) : "Lorsque des liens sont désavoués, ils apparaissent toujours dans les Google Webmaster Tools (GWT). En effet, ils existent toujours, même s'ils sont désavoués. Mais Google prend en compte le fait qu'ils soient désavoués lors de la demande de réexamen, même s'ils apparaissent toujours. Ainsi, pas besoin d'attendre qu'ils disparaissent de la liste pour soumettre une demande de reconsidération". Donc, si j'ai bien compris, un lien continue à apparaître dans les GWT meme s'il est désavoué. Pas cool... Finalement, ce n'est pas le concept de l'outil en lui-même qui me pose problème, c'est la façon dont on est obligé de s'en servir. Je m'explique...
Un outil qui souffre de nombreux manques
Ma réflexion à ce sujet est en effet la suivante : cela ne me dérange en rien que Google utilise le crowdsourcing pour améliorer son index et son algorithme. Après tout, il n'est ni le premier ni le dernier à le faire et la méthode a fait ses preuves. Mais l'outil proposé souffre de nombreux manques :
- Aucun lien vers son URL depuis les GWT. ET d'ailleurs, pourquoi n'est-il pas directement intégré dans les outils pour webmasters ? Franchement, ce serait logique qu'on puisse y avoir accès depuis la zone "Trafic > Liens vers votre site", par exemple. Ben non, il faut le rechercher via le moteur ou l'avoir mis en favori. Cette réflexion est peut-être idiote voire futile, mais en tout cas, ce n'est pas logique...
- Quand on fait une demande de désaveu, il n'existe (à ma connaissance) aucun moyen de savoir si elle est bien prise en compte. On envoie un fichier "dans la nature" et basta.... N'oublions pas que Google indique que cette prise en compte peut prendre plusieurs semaines : "We need to recrawl and reindex the URLs you disavowed before your disavowals go into effect, which can take multiple weeks". Comment savoir, dans ce cas, à quel moment faire une éventuelle demande de reconsidération si on ne sait pas quand notre action a été prise en compte (si elle l'a été...) ? Ce n'est pas sérieux...
- Dans les GWT, aucune mention n'est faite à ce sujet. Il serait simple, par exemple, d'indiquer, dans la liste des backlinks (zone "Trafic > Liens vers votre site"), ceux qui sont désavoués, par exemple en les indiquant en gris plus ou moins clair si un site entier a été désavoué et - c'est un exemple là encore - avec une petite étoile devant les noms de domaine pour lesquels certains - mais pas tous les - backlinks l'ont été. Etc. On pourrait imaginer de nombreuses autres façons d'indiquer les liens désavoués dans les GWT, ce qui serait grandement intéressant lorsqu'on désire effectuer un travail sérieux de séparation du bon grain et de l'ivraie. Un peu comme les Sitelinks ("liens de site") qui ont été rétrogradés au travers des GWT. Ils sont listés dans l'interface. Et on saurait ainsi que la demande de désaveu a bien été prise en compte.
On pourrait encore lister d'autres dysfonctionnements de l'outil. Bref, tout ça fait un peu "développement à l'arrache", quand même. Ce n'est pas carré, c'est le moins qu'on puisse dire. Et ce n'est pas très orienté vers l'aide aux webmasters, ce qui est dommage, à mon avis (c'était quand même la finalité, non ?).
Dans le même ordre d'idée, Matt Cutts indique que des "exemples de liens" sont prévus prochainement dans les messages envoyés aux webmasters si des backlinks spammy sont détectés. Mais ça ne résoudra pas grand chose... Là encore, c'est beaucoup trop flou et ne permet pas un boulot réellement professionnel. Pourquoi s'arrêter à quelques exemples et ne pas proposer une liste plus exhaustive ? Non, monsieur Google, tous les SEO ne sont pas des "geeks black hat" qui ne rêvent que d'une chose : spammer les moteurs !
En fait, c'est un peu comme si Google nous demandait de tondre la pelouse du Googleplex à sa place et nous fournissait une tondeuse sans moteur ni électricité (ou essence). Bref, poussez, transpirez, prenez de la peine, et n'oubliez pas de fermer le portail en sortant quand vous aurez fini de faire le travail à notre place ! On peut ne pas être d'accord...
En résumé, je suis pour ma part favorable au concept de désaveu de lien, mais que diable, que Google nous donne des outils sérieux, fiables et professionnels qui nous permettent de travailler de façon efficace et pérenne. D'autant plus qu'on travaille pour lui dans ce cas-là !!! Alors, Monsieur Google, sortez de l'amateurisme et proposez de vrais "tools de pro". Parce que ça ne sert à rien d'avoir un message orienté "on veut aider les webmasters" tout en leur fournissant des outils passablement incomplets. En espérant que le message passe... 🙂
* : Bon, autant vous prévenir tout de suite :
1. Non, je ne leur pose pas de questions sur le fonctionnement de l'algorithme de pertinence de Google. De toutes façons, il y a de fortes chances qu'ils ne puissent pas me répondre, ce n'est pas leur métier d'avoir ce type d'infos.
2. Ils ne me donnent jamais d'infos ni de "coup de pouce" sur un site en particulier. Mes discussions avec eux tournent autour d'aspects techniques généraux sur l'indexation, le SEO, etc.
Bref, si quelqu'un vous dit qu'il a "des contacts privilégiés chez Google" au sujet du fonctionnement du moteur de recherche ou des pénalités infligées par l'équipe "Search Quality", fuyez vite, c'est un escroc !
** : Je reviendrai dans un futur post sur la notion de "dénonciation", qui semble gêner de nombreuses personnes, la plupart du temps pour des raisons historiques...
Source de l'image :Abondance |
merci j’ai bien lu l’article en entier, mais n’y ai pas trouvé la réponse à ma question … d’où mon post
Pourquoi vouloir utiliser ce service? De toute façon tous les liens que google n’aime pas seront désavoués.
Je vois cet outil comme un formidable outil de pression psychologique. Celui qui a mis ce système en place est d’une perversité sans borne.
Google nous annonce qu’on a fait quelque chose qui déplait, mais sans donner le moindre détail, sans indiquer pourquoi il ne faut pas recommencer.
Du coup, on regarde en arrière et quand on a un site qui a 10 ans d’âge, jusqu’où a-t-on de la visibilité et de l’historique ? Que doit-on pointer du doigt ? Quels vieux squelettes oubliés Google a-t-il bien pu excaver ?
Si seulement nous avions une liste claire des 50 liens les plus toxiques, nous pourrions travailler plus sereinement !
Il vas devenir difficile de géré ces liens pour un webmaster non seo, tout les sites non pas les moyens financier ou humain pour traiter et surveiller un netliking vers un site.
@ olivier@abondance.com
Ce qui me choque dans ton argumentation:
1. Tu ne vises que le cas de liens « dont je ne suis pas à l’origine et qui ne m’intéressent pas ».
Mais, en réalité, ce n’est pas dans ce cas que l’outil de désaveu est utilisé (lis les forums à ce sujet), MAIS bien dans les cas où les liens ont été demandés formellement ou implicitement puis sont désavoués par suite d’un changement de politique ou de responsable, sans aucun contact préalable avec l’autre partie..
Et le fait que le désaveu n’est pas connu de l’autre partie, mais peut nuire au rating de ce dernier, cela pose un sérieux problème. En particulier si le désaveu se fait à tort (cas fréquents d’un lien très bon, bon ou moyen qui est néanmoins désavoué).
2. Quant au cas des liens « dont je ne suis pas à l’origine et qui ne m’intéressent pas ». De deux choses l’une : ou bien ils sont considérés comme mauvais par google et google n’a pas besoin d’un désaveu de ta part, ou bien ils ne sont pas considérés comme mauvais par google et pourquoi les désavouer ?
3. Il me semble que les spécialistes finissent par s’enfoncer la tête dans les détails techniques et finissent par ne plus garder la tête au-dessus de la mêlée. Après tout, pendant 15 ans, Google nous a dit et redit inlassablement qu’un tiers ne peut nous nuire à notre site . Et maintenant, non seulement il reconnaît que ce n’est pas le cas, mais en plus, il ne s’en sort pas seul !
,
J’aime ce coup de gueule !
Aurais tu des remontées concernant l’utilisation de cet « outil » ? Pour en avoir parlé avec plusieurs personnes, très peu à ma connaissances l’ont réellement utilisé (peur d’être considéré comme spammy ?).
En tous cas, merci pour cet articles très détaillé 😉
Je n’en reviens pas comment encore en 2013, le référencement Google tient principalement au profil de liens entrants. Pourquoi ne pas utiliser les liens sortants, le contexte, la sémantique et enlever du poids à ces backlinks dont n’importe qui peut les manipuler en balançant des tonnes de spam à ses concurrents ?
En plus ce qui manque réellement à Google, c’est un service clientèle avec de vrais humains qui répondent aux questions et non des robots qui offrent des solutions floues et des réponses vagues…
Carrément d’accord avec cette remarque, marre de devoir faire le boulot d’un moteur de recherche, on ne devrait pouvoir se consacrer qu’à faire de bon sites (lorsqu’on est éditeur) sans avoir à se soucier de savoir si quelqu’un nous a fait un bon lien ou pas, on a autre chose à faire ! Que de temps perdu à essayer de trouver les mauvais liens, les demandes de réexamens jamais prises en compte avec une pauvre réponse automatique à chaque fois… pfff…
Plus Google lutte contre les « mauvais liens », plus nombreux seront ceux qui en feront pour pourrir les concurrents, plus ces derniers auront besoin d’un outil pour désavouer des liens.
C’est sans fin et, il y a longtemps, j’avais écrit que Google n’avait qu’à tout simplement ne pas prendre en compte les mauvais liens au lieu de les sanctionner.
Maintenant il est dans une sorte d’impasse… peut-être parce qu’il a depuis longtemps aussi, choisi de se faire assister en commençant par le sitemap et depuis peu l’outil de désaveu de liens.
Les aberrations dans ses résultats suite à la dernières version de son pingouin montre qu’il a encore une belle marge de progression.
Comme dit Laurent dans blog : si Google sait détecter des liens « spammy » pourquoi faut t’il les désavouer ? Google n’en tient pas compte point à la ligne, pourquoi faut t’il les dénoncer ? je capte pas… surtout qu’il est dit qu’ils ne pourront disparaître de GWT raison de +, je pense qu’il s’agit avant tout de donner des signaux que l’algo ne peut voir lui-même…
@ Christian : un exemple simple : un site web dont le propriétaire s’est fait abuser par un SEO amateur qui lui a fait un netlinking de goret… Pas beaucoup d’autre choix que de désavouer les liens mis en place et, hélas, payés :(((
Et la situation est peut-être plus fréquente qu’on ne le pense, pas mal d’acteurs du domaine du SEO ayant profité par le passé de la méconnaissance de leurs clients pour faire du travail de très mauvaise qualité… Qu’il faut maintenant effacer…
@Olivier oui, peut-être dans ce cas-là en effet, mais si cela est à ce point, repartir avec un site tout neuf est peut-être plus rapide… qu’en penses-tu ?
J’ai utilisé l’outil il y a quelques jours, car deux ou trois sites por*os pointent vers ma home, il s’agit de liens en footer que je souhaite effacer pour épurer ma conscience.
A grande échelle, si quelqu’un me fait un Nseo, Comment je fais, j’y suis pour rien, mais dans le principe, si on vient jeter des œufs sur ma façade, c’est à moi de la nettoyer !
Ce qui m’étonne le plus dans l’histoire, c’est que Google nous demande, à nous, de désavouer nos liens (ou ceux d’un client)… c’est ubuesque.
Cela ne tient pas debout. Si on veut désavouer des liens, c’est que l’on en a beaucoup qui ne sont pas très beaux, car jusqu’à présent, pour pouvoir être pénalisé par des liens, il faut quand même y aller assez fort (ou être un vrai manche) !
Ce n’est pas un lien ou deux qui va pénaliser un site (sauf si le lien est site-wide peut-être, mais il y en a bien plusieurs dans ce cas).
Donc, s’il y a beaucoup de liens, le temps humain pour désavouer tous les liens que l’on ne pense pas bons va prendre un temps énorme.
C’est un double châtiment. On dirait que GG veut vous mettre le nez dans votre c… ou dans celui d’un autre. Je trouve que c’est vicieux.
Mais en pratique, à part les « BH old scool » et les victimes d’un NSEO (si cela existe vraiment), qui a besoin de ce truc ?
Le BH s’en fout, il refait un autre site.
Si GG n’aime pas certains liens, il n’a qu’à pas les compter dans son algo au lieu de terroriser tout le monde. Tout rentrerait dans l’ordre sans avoir besoin de son manchot, qui pour le coup est un vrai manchot (bravo les MFA en première page suite à Penguin 2, c’est super bien senti, bravo GG !) !
Je ne suis même pas allé voir cet outil. Son principe-même me dérange.
Salut Olivier!
Pour ma part je suis tout à fait d’accord avec ton article, je suis entrain d’utiliser l’outil je vais voir si ca marche même si on a l’impression d’envoyer un fichier dans la nature. On voit que Google commence vraiment à lutter contre les techniques spammantes, mais beaucoup de boulot reste à faire pour donner aux webmaster & SEO de vrais outils
Toutes ces discussions renvoient au fait que la priorité de Google n’est pas le webmaster, mais l’utilisateur final. Je te rejoins dans le fait que cet outil la est difficile a utiliser, a une logique de fonctionnement floue et une ergonomie … perfectible.
Le parti pris de Google semble effectivement etre que les webmasters et SEO sont, au mieux des partenaires necessaires, au pire des tricheurs en puissance et qu’il ne faut pas leur fournir d’outils qui leur permettent de manipuler trop facilement les resultats. Si un référenceur sait qu’il peut créer des spammy links pour modifier indument (aux yeux de Google, j’entends bien) les pages de résultats de recherche à son avantage et qu’il peut demander pardon au moment ou un gendarme Google lui inflige une amende en faisant disparaitre uniquement ce sur quoi il s’est fait pénaliser, le référenceur aura peut être un sentiment d’impunité qui l’encouragera peut être à « tester » la création d’un nombre de liens douteux plus importants (puisqu’il pourra toujours revenir en arrière en cas de problème). Au contraire avec un système flou comme celui qui existe aujourd’hui, le webmaster est encouragé à dénoncer/renoncer/desavouer à tout ce qu’il pense avoir fait de « limite ».
Si l’on se place dans cette perspective, la position de Google obéit à une certaine logique. Peu importe dès lors que la partie ne soit pas loyale vis à vis des webmasters qui aient fait « des erreurs », qui aient été victimes de negative SEO ou de liens malheureusement créés de façon industrielle par des sites avec lesquels ils n’ont aucun contact. L’objectif de Google n’est probablement pas d’offrir des chances équitables à chaque site de se positionner ou de protéger les webmasters victimes, mais de faire en sorte que chaque requête fasse apparaitre 10 ou 20 sites pertinents, tout en essayant de ne pas provoquer trop de mécontentement au sein des webmasters. En plus si ce mécontentement a aussi pour contrepartie, le fait que les sites déclassés, n’aient d’autre choix que d’augmenter un peu leur budget Adwords pour combler les nouveaux trous dans leur tableau de positionnement naturel, ce n’est peut être pas plus mal.
Ce n’est pas juste, ce n’est pas transparent, le jeu est désequilibré, le système complexifie le travail des professionnels et ton coup de gueule est justifié.
En même temps, sur ce sujet comme sur d’autres, nous ne pouvons que constater et nous adapter à ce qui vient d’en haut.
Merci en tout cas de partager cette expérience qui nous permet de relativiser la somme de temps perdu à décoder le système.
Cette maj est en train de provoquer un délire collectif autour du netlinking et je sens que cet outil de désaveu risque de fumer dans les jours à venir. A tort ou à raison je ne rentrerai pas dans le débat mais malgré tout, une question qui pourrait être bonne à poser à tes contacts de la SQT aujourd’hui c’est « qu’est ce qui arrive à un domaine qui vient de se faire désavouer » ?
Parce que je doute que l’effet soit si anodin. Et si je fais des liens de qualité vers quelqu’un qui les désavoue ensuite sur un mouvement de panique, moi qu’est ce que je risque ?
J’ai lancé la question sur le Google Moderator des videos webmaster mais je doute que Matt prenne du temps pour me faire une vidéo dédicassée et la seule réponse utilisateur obtenue jusqu’ici me semble un peu légère.
Pour en revenir à l’outil de désaveu, je n’ai pas envie de tomber dans le travers de la dénonciation (ce me semble en être un petit peu quand même) ou de l’aveu de faiblesse. Moi je suis un pauvre petit webmaster qui comprend rien à rien au référencement et un lien de bonne ou mauvaise qualité je ne sais pas ce que c’est. Je publie et c’est tout. Ca, c’est naturel ! Utiliser l’outil, le devient beaucoup moins d’un seul coup…
My 2 cents…
Si tout était bien fait, on pourrait faire des tests et faire le tri entre les bons et les mauvais liens : trop facile, l’outil se retournerait contre l’intérêt de Google qui est, dans une certaine mesure, de brouiller les pistes pour éviter de trouver des méthodes infaillibles plus faciles à exploiter que de faire un travail propre et dans la durée.
Désolé Olivier, mais trop facile de faire le Debunker, sans apporter de preuves que Google est dans une impasse algorithmique.
Bonjour Olivier,
Merci pour ta vision de l’outil et ta philosophie (une partie au moins) quant à son bien-fondé.
Comme je n’ai pas utilisé cet outil, je m’en tiens aux défauts de conception et/ou imperfections dont tu fais nous fait part au cours de ce billet.
Je ne pense pas être un membre des illuminati sorti d’un roman de D.Brown, malgré mon site, mais pour moi, la logique qui est tienne et que je cite ne s’applique pas : » supprimer des yeux de Google des backlinks dont je ne suis pas à l’origine et qui ne m’intéressent pas »
On sait qu’on ne peut pas tout contrôler, on sait qu’on ne peut pas avoir que des amis, on sait que la diversité fait partie de la richesse de notre passage sur ce monde.
Je préfère donc ne pas perdre mon temps à faire la chasse aux « mauvais » liens, d’autant plus avec ce que tu dénonces sur l’outil.
Je comprends bien que pour un site client, qui n’a sans doute pas les même vues et dont le ROI peut mettre en péril l’activité, il n’en va pas de la même façon, c’est pourquoi je ne m’interdis pas de l’utiliser.
Mais pour l’heure, je pense qu’il y a plus de risques de dommages collatéraux à le faire. Et les propriétaires de sites ayant été pénalisés disent bien qu’il est quasiment impossible de revenir au niveau « avant sanction » (voir les témoignages du Juge, d’Axe Net ou encore de Laurent Bourrelly).
Donc, amaha : une perte de temps, un outil imparfait et dont on a aucune info sur la façon dont sont traitées les infos qu’on lui soumet, pour un résultat non garanti. J’espère bien ne jamais avoir à l’utiliser 🙂
@ netcooking : voir les notes de fin d’article 🙂
Oui, merci j’ai bien lu l’article en entier, mais n’y ai pas trouvé la réponse à ma question … d’où mon post 😉
@Arobasenet : il faut être logique : si un site est pénalisé, Google n’a pas besoin de l’putil de désaveu de liens pour savoir qu’il a usé de pratiques douteuses 🙂
Bonjour et merci pour cet article. Le ton des premiers paragraphes laisse entendre que vous avez un point de contact chez Google, ce qui ne manquera pas d’attirer l’attention des SEO !
Est-ce un contact établi officiellement via une forme de collaboration « Agence » … à l’instar du programme « Google s’engage avec les Agences » ? Je ne pense pas … mais sait-on jamais … aurais-je manqué quelquechose 😉
+1 « Alors, Monsieur Google, sortez de l’amateurisme et proposez de vrais « tools de pro ». Parce que ça ne sert à rien d’avoir un message orienté « on veut aider les webmasters » tout en leur fournissant des outils passablement incomplets. En espérant que le message passe… »
Olivier, merci pour cet article qui a le mérite d’exprimer clairement ta position sur le concept de désaveu de liens 🙂
Je pense que Google a largement les moyens techniques de fournir un outil plus complet. Mais s’il ne le fait pas c’est que la firme américaine a de bonnes raisons. Peut-être pour utiliser la communauté des SEO comme bêta-testeurs ? Ou afin de voir qui sont les sites qui se considèrent pénalisés vs. la réalité de leur positionnement ?
Selon toi quelles sont les véritables raisons d’un outil qui manque de clarté et de paramétrage ?
@+
PS : merci pour l’expressions de « tools pro » ! Je l’utiliserai en formation AdWords comme illustration du ciblage expression avec l’inverse : « pro tools », qui désigne un logiciel de musique assistée par ordinateur 😉
d’accord avec ça, c’est toujours étrange les outils de Google… l’ergonomie étrange, l’utilisation complexe, cliquer 5 fois sur un lien dans analytics pour arriver à enfin trouver les mots-clés dans les sources, alors qu’avant il n’y avait que 2 clics… quel intérêt de faire ce genre « d’amélioration » ? à part ennuier les SEO ? La communication zéro, etc…
c’est à se demander si c’est en effet volontaire ou si ça vient d’un manque de volonté d’aller jusqu’au bout et de faire des améliorations qui sont de moins en moins ergonomiques…
Vous faîtes bien de pousser ce petit coup de « gueule ». Ce qui ne fait pas partie de vos habitudes. Mais dans ce cas-ci, ça vaut la peine.
Figurez-vous qu’avec les formulaires de spamReports et l’outil de désaveu de lien, nous devons faire le travail à la place de Google.
Pour ma part, je me pose quand même la question de savoir : « et si l’outil de désaveu de backlink était en fait un outil d’aveu de pratiques douteuses volontaires ou pas dont pourrait se servir Google pour mettre votre site dans la sandbox ? »
Car, de nombreux commentaires semblent accréditer le fait que les pénalités n’ont pas été levées après avoir fait des demandes de reconsidération suite à l’utilisation de l’outil de désaveu…