John Mueller a confirmé que le filtre algorithmique Penguin 4.0, lancé il y a peu, ignore automatiquement les liens qu'il estime spammy. Mais cela ne veut pas dire qu'il faut abandonner la procédure de désaveu de liens pour autant...
John Mueller a donné quelques indications lors d'un récent hangout sur le rôle de la procédure de désaveu de liens après le lancement de Penguin 4.0 il y a quelques jours de cela.
En effet, cette nouvelle mouture de Penguin reconnait a priori les liens de faible qualité et les désavoue d'elle-même. Penguin ignore donc automatiquement dans l'algorithme de pertinence du moteur les signaux issus de liens spammy. A quoi cela pourrait-il servir donc de désavouer ce type de liens ? John Mueller explique qu'effectivement, le filtre algorithmique fait une bonne partie du boulot mais que si un webmaster n'est pas sûr qu'il en soit ainsi, il peut toujours utiliser la procédure de désaveu pour "bétonner" une demande de non-prise en considération de liens spammy pointant vers son site. Bref, normalement, Google et Penguin font le job, mais si vous voulez être sûr, désavouez, sachant que ce fichier est bien entendu toujours pris en compte.
En conclusion, même si Penguin 4 est aujourd'hui beaucoup plus sélectif sur les liens pris en compte et ignore ceux qui sont spammy, n'hésitez pas à continuer d'utiliser la procédure de désaveu. Dont acte !
Hangout de John Mueller, partie sur le désaveu de liens... Source de l'image : Youtube |
Je m’attendais a quelque chose comme cela. Ca veut dire que Google choissira maintenant les meulleirs links entre tous ce qu’on en a. C’est la qualité et no la quantité que Google recherche.
L’algorithme Pingouin en mode automatique, c’est bien. Parce que si sur le site sont imposées des sanctions, il sera plus facile de sortir de sous le filtre en supprimant simplement les liens de spam. Cependant, le travail de cet algorithme génère des questions. Dans certains thèmes le TOP 10 des moteurs de recherche des sites occupés avec le spam de liens. Par conséquent, la qualité du travail de l’algorithme génère des questions sur son exactitude.
En gros on fait le ménage pour lui
Moi aussi, dit comme ça , ça m’étonne, comme si on pouvait créer des milliers de lien, un peu partout et Google va faire le tri et du coup , plus personne ne sera pénaliser, comment la concurrence va se faire si au final Google ne retient que les bons liens de chacun ? Impossible d’avoir une serp propre avec que du qualitatif car le travail est facilité pour les spammeurs …. a voir avec du recul …
Évidemment, avec une surveillance en temps réel, on pouvait s’attendre à une pareille nouvelle. En revanche on observe beaucoup de variations dans les SERPs depuis l’entrée en vigueur de ce Pingouin omniprésent.
Héhéhé Google et sa sempiternelle désinformation!
Qui peut croire des âneries pareilles, on est habitué a être mené en bateau a tout bout de champ par ce dictateur du web!
Pour le commentaire précédent, dans la vie REELE, un backlink représente le bouche à oreille, orchestré ou ..pas. et ça, ça reste un must pour toute entreprise.
Bien sur que Gogol continuera a prendre les backlinks en considération. Peut être qu’il leur donnera plus ou moins de pertinence en fonction de certains critères et je pense que c’est déjà le cas.
Je pense que les spécialiste vont tester et confirmer la performance du nouveau code d’analyse de backlink de google d’ici quelques mois. Peut-être que cet algo va montrer qu’il devient INUTILE de s’occuper des BL à partir de maintenant …. comme dans la vie REELLE où très peu de gens perdent du temps à faire circuler des infos comme quoi « ils sont les meilleurs » car c’est PEU efficace
Ça voudrait dire que l’on peut créer autant de backlinks que l’on veut, qu’ils soient spammy ou pas, Google fera le tri et gardera que les meilleurs ?
Si ça c’est pas un aveux que le negative SEO existe et que Google commence enfin a le reconnaitre en faisant le ménage lui même !
A mon avis, ils se sont servis de nos fichiers de désaveux pour en tirer un algorythme de reconnaissance de liens spammy basés sur des statistiques. En gros, on aurait bossé pendant 2 ans pour Google a l’aider a parfaire sont filtre anti spam … le tout gratuitement.
En tout cas, depuis le 3 septembre j’observe une remontée fulgurante sur la plupart de mes positions pre-penguin, donc l’annonce de fin septembre ça devait juste pour confirmer chez eux hein 🙂
Le fonctionnement NORMAL dans une vie NORMALE est que le webmaster n’a pas à s’occuper de désavouer qui que ce soit mais c’est à google de trouver qui est spam et qui ne l’est pas. Google était incapable de le faire jusqu’à maintenant et a obligé le webmaster à le faire mais je pense que s’il est capable de le faire maintenant, on revient au NORMAL
D’après votre article « cette nouvelle mouture de Penguin reconnaît a priori les liens de faible qualité et les désavoue d’elle-même » Donc personne ne sera pénalisé de backlinks !
Bizzar comme déclaration. Si je comprends bien je spam les sites et google penguin filtre mes backlinks et il laisse juste les bons liens sans pénalisation hhhhh je ne crois pas du tt
Oui même remarque, a mon avis le désavoue des liens est la meilleur solution contre les liens spammy !!