On parle souvent de pénalité algorithmique quand on évoque les filtres Google Panda et Penguin. En fait, il faudrait plutôt selon moi parler de critères de pertinence négatif, rentrant en ligne de compte dans la note globale que le moteur de recherche octroie à une page web pour une requête donnée. Explications...
Depuis quelques années, on parle très souvent du concept de "pénalité" délivrée par Google aux sites qui tentent de manipuler son index. Dans ce domaine, on divise souvent ces pénalités en deux catégories :
- Les pénalités manuelles (officiellement appelées "actions manuelles" par Google), qui sont délivrées par la Search Quality Team (située à Dublin pour l'Europe) et donc des êtres humains qui, sur la base de règles (a priori) objectives, "appuient sur le bouton rouge" et pénalisent un site ou certaines pages pour cause de violation des consignes pour webmasters délivrées par le moteur. Un message est reçu dans la Search Console et une demande de réexamen est réalisable lorsque la faute est réparée. Bref, dans ce cas, il existe une procédure et des possibles aller-retours avec Google pour faire en sorte que les choses s'arrangent. C'est souvent long - un tantinet injuste voire incompréhensible parfois - mais, l'un dans l'autre, on y arrive... Disons que les "actions manuelles" sont balisées et que le chemin pour les traiter, même s'il est parfois complexe à suivre et/ou à comprendre, existe...
- Ce qu'on appelle le plus souvent les pénalités algorithmiques, dont les représentants les plus connus sont les filtres Panda et Penguin. Aucun être humain n'intervient dans ce cas. Tout est automatique et le flou le plus total (et entretenu par Google) règne sur les dates de lancement et l'éventuel aspect "temps réel" de fonctionnement de ces "filtres". Bref, on ne sait pas trop comment cela fonctionne et il y a fort à parier que cela convient très bien à Google, d'où l'absence quasi totale d'information officielle à ce sujet...
Selon moi, il ne faut pas voir Panda et Penguin comme des pénalités mais plutôt comme des notes de pertinence négatives. L'algorithme utilisé par Google comprend officiellement plus de 200 critères et parmi ceux-ci, on peut estimer que certains donnent des notes positives et d'autres des notes négatives.
Quelques exemples pour clarifier les choses
Prenons quelques exemples (obligatoirement très très simplistes, voire proches de la caricature, mais l'idée est avant tout d'expliquer le concept, que les puristes m'excusent donc) :
- Exemple 1 : pour une requête donnée ("seo"), une page A contient le terme dans la balise H1 (+10 points), dans le Title (+10 points), en gras dans le texte (+5 points) et dans l'URL (+2 points). La page A reçoit donc une "note de pertinence" de +27 points pour la requête donnée. Comme la contenu est de qualité et qu'aucun backlink "toxique" ne point vers elle, elle garde cette note in fine.
- Exemple 2 : même requête, même page et même optimisation pour A avec score de pertinence positif initial de +27. Mais, cette fois, les algorithmes de Google ont détecté de nouveaux liens toxiques (exemple : ancres de liens suroptimisées) qui pointent vers la page, ce qui octroie une note négative de -5. Le score global de la page passe donc à +22.
- Exemple 3 : on reprend l'exemple 2 avec la page A et son score de +22. Quelques semaines plus tard, la situation n'a pas changé au niveau des liens mais, suite à une mauvaise manipulation du webmaster, le site contient maintenant un grand nombre de contenus de faible qualité (par exemple beaucoup de duplicate content intrasite). Panda pénalise alors le site, de façon globale, d'une note de -10. Notre page A passe alors à un score de +12, à comparer à sa note initiale de +27. Evidemment, elle plonge dans les classements...
Si elle corrige son problème de duplicate content, elle regagnera +10 au prochain lancement de Panda. Si elle supprime ou désavoue les liens toxiques, elle regagnera les 5 points négatifs octroyés par Penguin lorsque ce filtre sera à nouveau lancé. Etc.
Une hypothèse qui explique beaucoup de choses
Ce mode de fonctionnement explique un certain nombre de points :
- Le fait que de nombreux porte-paroles SEO de Google (John Mueller, Gary Illyes et d'autres) aient souvent indiqué qu'une "pénalisation" Panda ou Penguin pouvait être à peine perceptible sur un site si celui-ci était de bonne qualité. En effet, si une page a des notes positives extrêmement élevées pour une requête donnée, un faible score négatif octroyé par un de ces filtres peut presque passer inaperçu.
- Le fait que ces mêmes porte-parole aient à plusieurs reprise indiqué également que le but ultime de ces filtres étaient d'être intégrés à l'algorithme de pertinence global et ne plus consister en des algorithmes spécifiques comme aujourd'hui. Cela semble en effet logique et cohérent si on suit notre raisonnement.
- Le fait que Google ne se presse pas pour faire en sorte que (ou communiquer à ce sujet) ces filtres soient lancés en temps réel. En effet, dans ce cas, il "suffirait" de spammer allègrement le moteur, puis de s'arrêter au moment de la "pénalisation" (perte de positions) pour revenir légèrement en arrière et voir la note négative supprimée. Donc, on saurait ainsi où se situerait la "ligne jaune" à ne pas franchir. Et il n'est pas certain que cela plaise à Google...
Cette notion de "critère de pertinence négatif" me semble donc intéressante car elle démystifie également cette notion de "pénalité algorithmique" tout en offrant une notion d'échelle plus ou moins grande de l'impact de ces filtres sur nos sites. Et plus nos sources d'information seront de bonne qualité, moins on aura à craindre ce type de problème !!
Et vous, qu'en pensez-vous ?
Source de l'image : Abondance |
Bonjour et merci pour cet article très intéressant,
J’ai une question par rapport à l’exemple 2.
Est-il donc possible de perdre des positions sur une page qui reçoit un certain nombre de liens toxiques sans pour autant forcément subir une « pénalité » Pinguoin ? Dans le cœur de l’algorithme de Google, y a-t-il déjà un traitement qui se fait sur la qualité des liens ?
Qui qui dit baisse de positions suite à un netlinking abusif de mauvaise qualité dit forcément « pénalité pinguin ?
Merci d’avance.
Je pense + pour le nom : Panda et Pingouin restent des pénalités algorithmiques pour lesquelles Google a décidé de donner un peu plus de détails que la moyenne… Pour leur donner une fausse impression de critères négatifs.
@ Sam : pour panda oui (pénalité générale au site) mais pas pour Penguin (qui pénalise page par page).
D’accord pour les notes positives et négatives qui peuvent etre attribué par un Algo, peut importe son nom.
Mais les pénalités arrivent à des dates fixes et avec des grosses chutes, et certaines pages plus impactés que d’autres… Si une note négative est attribué au site pour ‘mauvais comportement’, toutes les pages devrait tomber dans la meme mesure…
Pour moi, Panda et Penguin ont toujours été des algorithmes de Google, régulièrement mis à jour. Et ce sont les sites qui n’ont pas respecté ces algo qui se retrouvent ensuite pénaliser par le moteur de recherche, mais ce ne sont pas des pénalités en soi.
aie, trop tard les fautes ont été cliqués… ^^
Je rejoint @L.Bourely , plus on « FAIT ou DEFAIT », plus le moteur « apprends ». D’ailleurs @Olivier, tu avait un recent article sur les chiffres de Google, et notamment les 30 000 « programmes » que Google a généré tout seul sur un principe d’intelligence artificielle. Le moteur apprend donc, et produit beaucoup plus de code que les humains (le double).
Evidement, Google brouille les pistes en « décalant » dans le temps certaines opérations de filtre. Certains sont appliqués le jour même, par exemple si il y du « bruit » autour d’un site, d’autres une semaine plus tard, et d’autres s’étalent sur des durées plus ou moins longue, jusqu’à un an (comme la suppression auto de pages 404 qui est très longue sur un gros site).
Comme le ouligne @Olivier dans son hypothèse, il y a un comptage de « note » sur chaque page. Il ne peut finalement en être autrement. Sur notre projet, la note va en « progressant » pour petre mauvaise, la note 1 étant la meilleure, et 1000 la plus mauvaise (arf, secret dévoilé ^^). Chacun compte à sa manière…
Oui et non aussi a mon avis.
La théorie se tient mais si les filtres étaient « seulement » de la ponderation negatives pourquoi seraient ils en surcouche de l’algo actuel. plutot qu’une partie intégrante? On ne sort d’un filtre que lorsque celui ci est updaté – c’est d’ailleurs ce qui a couté si cher a ceux qui étaient sous panda en 2014 (et depuis 2013).
Donc la théorie des curseurs je dis pourquoi pas mais je pense qu’il y a bel et bien une sorte de fonction « filtre » qui doit etre déclenchée par des flags négatifs. Je crois que c’est Moz qui avait fait un test la dessus – ils ont testé une serie de je ne sais plus combien de criteres negatifs – il fallait en declencher un certains nombre pour se faire filtrer.
ça rejoint un peu la théorie des curseurs…
Sinon, quand un site, bien positionné sur des requêtes concurrentielles, se fait hacker (le fameux mailpoet d’il y a un an) et descendre par Penguin sans crier gare, puis mets des mois à retrouver ses positions (quand elle les retrouve) malgré un nettoyage total et plutôt rapide, j’appelle ça quand même une pénalité. Même une grosse 🙂 !
Oui et non 😀
Non car Panda et Penguin étaient bien des filtres algorithmiques à mon avis.
Oui car ils ont évolué en critères de pondération négative aujourd’hui.
Merci à tous les webmasters qui ont contribué à aider GG dans ce sens. Grâce à tous les fichiers de désaveu et autres communications avec GG, le moteur a appris.
Entièrement d’accord avec ce raisonnement. D’ailleurs, dans les récentes déclarations de John Mueller, il a lui-même indiqué qu’il ne fallait pas voir ces « filtres » (je reprends ses termes) comme des pénalités, et qu’ils allaient justement être introduit dans l’algorithme pour ces raisons (et pour mieux gérer le spam…^^).
Dans ce cas, le raisonnement que tu tiens est pertinent. D’ailleurs, plusieurs brevets de Google montre des notes négatives sur certains aspects, c’est donc déjà en place au fond.