Matt Cutts a annoncé que Google Panda, dont le 25ème lancement est imminent, sera prochainement intégéré à l'algorithme du moteur de recherche et ne sera donc plus mis en route sous la forme d'un filtre de nettoyage lancé sur une base mensuelle...
On attend de façon imminente le 25ème lancement de Panda annoncé par Matt Cutts cette semaine. Mais une nouvelle information a été donnée par ce dernier, toujours au salon SMX West : Panda, qui était jusqu'à maintenant un "filtre de nettoyage", lancé à certaines dates (environ une fois par mois) pour nettoyer l'index du contenu dit "de faible qualité", devrait prochainement être intégré à l'algorithme lui-même (et disparaître donc de sa forme actuelle de filtre) : "You are more likely in the future to see Panda deployed gradually as we rebuild the index. So you are less likely to see these large scale sorts of changes.".
On ne devrait donc plus entendre parler de Panda d'ici quelques semaines, puisqu'il ne sera plus discernable à une date donnée, mais fera partie intégrante de l'algorithme. Il ne sera donc, également, plus "détectable" en soi. En sera-t-il également de même pour Penguin à terme ?
Source de l'image :Search Engine Land |
Et donc plus possible de feinter google en attendant le nettoyage de panda car celui-ci est partie integrante de l’algo, par contre penguin si ? 😉
D’accord, et penguin, pour une petite information, du coup il est lancé quand ? Que lors ded majs en fait ?
Panda est intégré désormais au process d’indexation, pas Penguin. 🙂
Haha :p Non car la d’apres ton arricle maintenant panda est integre au filtre et dans le livre il n’est pas dit ca alors je me demande c’est quoi le vai, je pense que c’est cet arricle 😉 ?
Mais penguin est au meme titre lance regulierement alors ?!
@ Unacheteurdulivre : ben si c’est dit dans le livre 🙂 Oui c’est ça !
cdt
Olivier tu le precises pas dans ton livre, on est bien d’accord que penguin en tant que filtre de nettoyage est lancé manuellement par google et regulierement, et notamment aussi lors des mis a jours ?
On voit si on est sorti d’un declassement algorithmique lors justement d’un de ces nettoyages ?
Difficile d’y voir clair pour nous au moment ou nous faisons à la fois des modifications interne importante dans cette fin de bêta qui, au bout du compte, aura durée presque 2 ans …
Pour les spécialistes SEO qui faisaient des analyses très pointus des filtres, ce n’est pas une bonne nouvelle.
Il était en effet possible de mettre en place une structure de sites de tests et de tester les serps au « haute fréquence » ( d’heure en heure) pour voir peu a peu les changements de positions en fonction des filtres, et de déceler ainsi peu a peu (en partie) l’effet de chaque filtre.
Les pages qui montent petit à petit dans les serps embarquent des signaux positifs, et à l’inverse. Si les paramètres qui composent ces pages de test sont bien isolés et identifiables, ont pouvait en déduire le nombre de filtres successifs et dégrossir voire déterminer la fonction de chacun.
dans les toutes premières heures d’un site indexé, c’est je crois simplement l’ordre des pages (liens trouvés) qui fait office de classement.
Google veut arriver a maitriser le SEO, le confiner, ce qu’il ne peut faire. C’est tout simplement impossible. Le moteur est basé sur un principe de liens (interne et externe) et l’identification d’un contenu et classement basé sur le titre et les principales balises d’entête (H1 a H4). Certe, il y a désormais les zone de texte enrichie qui font l’objet d’une analyse complémentaire, mais grossomodo, l’outil reste « basique ».
Les mêmes principes de base sont appliqués depuis plus de 10 ANS, c’est surtout les excès et la diversité (des liens) qui sont analysés. C’est sûrement pour cette raison que Google investi dans l’intelligence artificielle en masse, pour s’affranchir de ces contextes trop rigides et contournable par de très bons SEO. (non non, j’ai désigné personne 🙂 …
Salut Olivier,
Panda a été un algorithme manuellement mis à jour. Il avait des fréquentes « actualisations » manuelles des données, mais il a toujours été un algorithme. Ce que je suppose que c’est nouveau, c’est que Google s’arrête, comme il l’a fait jusqu’à présent, les actualisations des données, ce qui signifie qu’il est devenu assez stable pour faire partie de l’indexation au lieu d’un ajustement du ranking final.
Salut Olivier,
Je confirme ça bouge dans tous les sens, il y en a qui risque vraiment de morfler royalement avec cette intégration surtout quand on observe les sites e-commerce où le D.C est roi dans la description de leurs produits.
Par contre les autres peuvent se frotter les mains d’avances, bref que du bonheur 😉
Salut Olivier
je pense qu’elle est lancée et mise en place
j’ai vu des choses bouger cette semaine en bien et mal
donc à voir, j’espère seulement que ce filtre est vraiment pour la qualité et pas pour rendre service et faire progresser un service google
vivement l’intégration de Penguin!!