Matt Cutts vient de l'annoncer lors d'une conférence : il est maintenant possible de désavouer des liens (backlinks) aux yeux de Google si on estime qu'ils sont de mauvaise qualité...
Google l'avait annoncé au mois de juin dernier, Bing avait lancé le sien quelques jours plus tard. C'est désormais annoncé officiellement : Google a lancé cette nuit un outil permettant de désavouer un lien (backlink) aux yeux du moteur de recherche si on estime qu'il est de mauvaise qualité.
L'interface permet d'"uploader" un fichier texte propose une URL à désavouer par ligne (les lignes commençant par un "#" étant des commentaires). La syntaxe "domain:" indiquant que vous désirez désavouer les liens venant de toutes les pages de ce site. Exemple :
# Contacted owner of spamdomain1.com on 7/1/2012 to
# ask for link removal but got no response
domain:spamdomain1.com
# Owner of spamdomain2.com removed most links, but missed these
http://www.spamdomain2.com/contentA.html
http://www.spamdomain2.com/contentB.html
http://www.spamdomain2.com/contentC.html
Source de l'image : Google |
Voici une vidéo dans laquelle Matt Cutts explique comment le système fonctonne :
Source de l'image : Google |
D’accord avec Noogga, il suffit d’analyser les profils de liens des sites de rachat de crédits par exemple. C’est effarant. La plupart desdits sites utilisent des pratiques obscures notamment un max. de buffers et de site sat. !
Il n’y a pas de bons ou de mauvais liens ! L’important est de savoir diversifier. Quant aux sites toujours dans le top 3 avec des pratiques obscures, dites vous que ce n’est pas nécessairement lesdites pratiques qui font que lesdits sites disparaitront ! Tout est dans l’art de pondérer les types de liens ! Il faut également analyser ses concurrents ! Il y a des secteurs où même les plus gros sites utilisent des techniques limites – si tous vos concurrents ont des liens obscurs, comment distinguer les bons des mauvais ?
Merci pour cette article, j’ai une question, si vous pouvez me répondre .
comment distingué la qualité des liens ?
Bon encore une autre affaire! Si je comprends bien un mauvais lien ce son toutes les commentaires que nous laissons dans des blogs, blogues, Forum, les échanges de lien, les annuaires, et même ici. Imaginé cela fait plus de 2 ans que je dénonce le roi des spammer avec ses 130 sites web page tunnel avec seulement une photo sur la page avec du texte noir sur fond noir et d’une multitude de mots clés en bas de page ainsi que les 130 liens domaines du même propriétaire et il ce trouve toujours en deuxième position avec ses deux mots clés depuis plus de trois ans. Il est ou Panda et Pingouin????.
Je vois divers commentaires contre cette fonctionnalité. En connaissance de causes : celle-ci devient indispensable lorsque qu’un peusdo référenceur créée une multitude de liens sur des mauvais sites (pornographie, ferme de liens etc.). En sus, nous ne sommes jamais à l’abri d’un concurrent mal intentionné qui réalise un Google Bombing de mauvaise augure !
Inventons un webmaster qui ne suis jamais les liens fabriqué vers son site car il n’ai pas regardant par une comportement de netlinking, il serais donc verbalisé par des liens confectionné par d’autres de façon correct. Son emploi serais sanctionné car Google ne souhaite pas faire son travaille d’éradication d’un dangereux netlinking de façon forcé. Est-ce donc au webmaster de faire le travaille de Google dans ça démonstration du moteur perfectionné ?
Merci pour l’info , j’ai un problème de négative seo mais en réalité google a bien compris que ces liens ne sont pas des vrais liens sans que je procede à cette outil
c’est ça le web sémantique dont on a tant entendu parler?
Comment veux tu qu’on s’en sorte, il va falloir maintenant qu’on analyse AUSSI les backlink qu’on va poster par ci par là, pour voir si on a pas été banni quelque part ! Thx Google ^^
Un bon lien s’est un lien que vous n’aurez pas fait vous même. Ex : commentaire, footer, etc…
Une chose que je trouve absurde reste l’obligation de traité Google comme un partenaire avec qui l’ont travaille et a qui l’ont doit confier nous même les mauvais liens, comme si un webmaster qui reçois des mauvais liens pouvais en etre au courant. Il ne faut pas oublier que beaucoup de site même pro sont sans suivie SEO et que les liens qui sont fait sont soit 100 % naturel soit de nature négative mais fait par un concurent.
comment savoir si un lien est mauvais ou non aussi ?
ça reste compliqué comme méthode pour donner à Google 100 000 urls à la main car on a été spammé comme un porc et qu’en plus Google peut se permettre de ne pas considérer notre demande. J’attends les premiers test de l’outil
C’est pas une façon pour le grand G de faire faire son boulot par les webmasters?
La dénonciation populaire devient un moyen d’évaluation de la qualité?
Juste pour rire imaginons que les sites de presse signalent
# content stealer since too long
domain: news.google.com
Ah ah c’est tellement vrai ce que tu dis Bolsano. Une fois de plus, le géant est dépassé… Et le crowd sourcing lui semble être la meilleure solution.
Quant à ton commentaire sur les sites de presse, il faudrait le faire, histoire de rigoler. Ils sont tellement pas au courant de ce que fait chacun de leurs départements, chez G., qu’ils en seraient peut-être capables de s’auto-pénaliser ? 😛
J’ai l’impression que c’est le retour du negative seo…
Mais ça reste toujours aussi flou quand même et bien sur c’est voulu.
Je me demande encore comment va évoluer le seo d’ici là.
Et si l’outil n’était pas là pour nous aider, mais simplement aider Google a obtenir la validation des mauvaises provenances de liens.
Comme c’est dit plus haut, il y a des « sites merdiques » et que Google n’attrape pas … Nous allons donc aider google à déterminer.
Et Matt, pourquoi répète-t-il à 5 reprises « normalement, vous ne devez pas en avoir besoin » … ils ne veulent pas que la base de données que cela va constituée soit avec trop d’informations inexploitable…
Moi j’y vois juste un intérêt personnel, suite à Penguin, je fais attention au partenariat massif (genre lien footer 400’000 liens vers une url). Si j’arrive pas à le faire retirer, je peux en théorie limiter la casse avec cet outil, par contre, en faisant cela je cherche pas à faire du tord à mon partenaire….
Voilà, et à mi chemin de toutes pensées, j’espère que cela ne veut pas dire que le négative seo va devenir une pratique plus populaire par la force de son contre-courant.
Imaginons que par manque de temps, x mauvais backlinks font leur apparition… combien de temps, selon vous, donnerait Google entre la perte de ranking, et le désaveu ?…
SupMog,
Comme cela a été testé à de maintes reprises, Google lit les nofollow et en tient compte. Des sites vers lesquels ne pointaient seulement que des lien nofollow se sont vus indexés alors que rien (ping etc…) n’avait été fait pour cela. Même les URL sans lien derrière sont tracées.
Mais ça, tu le sais déjà bouton caddie.
Enfin, il faut savoir que si ton site subit du négative, cet outil pourrait t’aider, ou pas.
Le gros problème va être de reconnaitre les « bons » liens des « mauvais » liens. Actuellement, à moins de regarder manuellement tous les liens entrants répertoriés, c’est plutôt compliqué (et en plus cela reste très subjectif. Comment savoir ce plait ou pas à Google ?). Il faut espérer que, comme le promet Matt Cutts, Google donne rapidement des exemples et des indications claires dans ses messages sur les liens factices.
Tant que tu n’as pas reçu de message comme quoi tu as des liens suspect non.
Le problème c’est que google part du principe du vous êtes « coupable ».Mais si tu veux faire le test de soumettre tes adresses, on aura un retour (au moins dans quelques mois) et on saura à quoi s’en tenir.
Soit Google pourrait estimer qu’en fait tu et passé entre les mailles de son filet et que tu as spammé comme un bourrin, du coup il te pénalise pour de bon (tu serais rassuré, c’est manuel).
Soit il estime que ta demande est légitime. Explicite quand même les procédures que tu as fait dans les commentaires du fichier que tu envoies.
Comment fait on pour connaitre quels sites font des liens vers le notre ?
Parce que « liens vers mon site » dans GWT affiche plus de 1000 domaines, est ce que je dois les regarder un à un pour savoir s’ils sont de qualités ? de plus certains domaines n’ont pas de lien pointant vers mon site et d’autres domaines pointant vers mon site ne semblent pas être dans la liste…
Encore un outil google qui risque de nous prendre du temps et peut être même de nous pénaliser plus qu’autre chose…
Olivier a oublié de mentionner que Matt Cutts présente les informations de manière malhonnête : il ne fait référence qu’à des backlinks obtenus par un site volontairement à une époque pour tricher en SEO et dont on ne veut plus actuellement. Comme si de nombreux sites n’étaient pas victimes de backlinks totaltement foireux de la part de sites peu scrupuleux.
Sur mon site, je reçois des liens de deux sites parasites qui ne m’ont jamais demandé mon avis (minimoteur et magik-web) et j’étais tenté d’utiliser ce nouvel outil pour les virer.
Mais en écoutant la vidéo, j’ai l’impression que je signerais ainsi des aveux d’avoir utilisé des moyens déloyaux, ce qui n’est pas le cas.
Utiliser cet outil laisse à penser qu’on a la maîtrise de tout ce qui concerne notre site web. Ainsi, si l’on ne désavoue pas un lien que Google considère pourtant comme mauvais (sans qu’il nous le dise), il en tirera peut-être les conséquences, plus fortement qu’avant.
je vois surtout une création de distance entre l’utilisateur lambda qui entretient son site et le fait d’utiliser ce genre de tools qui reste réservé à ceux qui en comprennent l’utilité !
pour savoir quoi reporter, il faut connaitre leur existence, savoir que l’on a été sanctionné, suivre son positionnement etc … ca implique que cet outil est avant tout un outil pour les pro (conscient).
Si cet outil est bien la réponse (ou contre mesure) à l’algo pingouin, les petits sites sont à la merci du NSEO (spam PPP) …
Bref, attendosn de voir la suite … et l’importance donné à ce tool par GG
Sebastien
Je me demande si l’outil est vraiment là pour désavouer les liens ou juste pour identifier les webmasters vraiment actifs sur le net, ceux capable de savoir si tel lien ou tel autre lien est positif ou négatif pour son référencement.
Bonjour Olivier, beaucoup accueil cet outil comme le sauveur des SEO. J’ai rédigé un billet ce matin avec une vision tout autre ,je serais curieux de connaitre ton sentiment à ce sujet.
Pour moi cet outil peut faire plus de mal que de bien!!!
Olivier ne le mentionne pas mais la vidéo débute par une présentation totalement malhonnête : d’après Matt Cutts, les backlinks de mauvaise qualité ne seraient là qu’à l’initiative du propriétaire du site ou de l’un de ses sous-traitants.
Il n’évoque même pas les sites qui vous collent des backlinks pourris sans intervention de votre part. A titre personnel, je vois par exemple que j’ai des liens qui proviennent de sites pourris comme : magik-web.com ou mini-moteur.com
Comment Google fait-il pour ne pas s’apercevoir que ces sites sont merdiques et ne pas en tenir compte ? Il est à ce point incompétent ?
En écoutant la vidéo, on a l’impression qu’en déclarant ces backlinks de mauvaise qualité on reconnait les avoir utiliser dans une stratégie SEO. Google magnanime nous pardonnerait… ou pas.
Bonne initiative de Google, assez logique après les différents updates de l’algorithme ces dernières semaines. Cet outil peut aussi nous prémunir du negative SEO infligé par les concurrents 🙂
Bonjour,
Je me suis fait linkspammer plusieurs milliers de liens en nofollow (avec des ancres dégradantes pour mon sitename). Vous pensez que ça a une utilité d’ utiliser l’ outil ou c’ est censé être uniquement pour les liens follow ?
SupMog,
Comme cela a été testé à de maintes reprises, Google lit les nofollow et en tient compte. Des sites vers lesquels ne pointaient seulement que des lien nofollow se sont vus indexés alors que rien (ping etc…) n’avait été fait pour cela. Même les URL sans lien derrière sont tracées.
Mais ça, tu le sais déjà bouton caddie.
Enfin, il faut savoir que si ton site subit du négative, cet outil pourrait t’aider, ou pas.
PS : Mille excuses, je voulais répondre à SuperMog. Le message plus bas est donc inutile .
Bouton Caddie.
Mieux vaut tard que jamais… Mais cet outil permettra vraiment de réaliser un nettoyage des Backlinks, ou apprendra-t-il à google plus d’informations concernant les liens non naturels,…
L’interface n’est pas top. On aurait préféré qu’ils intègrent directement l’outil dans notre console GWT à l’onglet « Liens vers votre site ». De ce fait on aurait pu directement avoir la liste des domaine qui pointe vers nos pages et tout simplement les désavouer.