Matt Cutts a indiqué lors d'un salon aux Etats-Unis que la prochaine mise à jour du filtre de nettoyage Google Penguin devrait être lourde et les résultats significatifs. Les webmasters qui ont un peu forcé sur le 'bad linking' depuis quelques mois devraient commencer à transpirer...
Lors du dernier salon SES à San Francisco, Matt Cutts a répondu à de nombreuses questions sur les filtres de nettoyage Panda et Penguin, expliquant que la prochaine version de Penguin avait fait l'objet d'attentions toutes particulières de la part des ingénieurs de la firme de Mountain View : "Because of that, expect that the next few Penguin updates will take longer, incorporate additional signals, and as a result will have more noticeable impact".
En revanche, aucune date n'a été indiquée pour cette future mise à jour de Penguin. Mais on peut penser qu'elle est assez proche, si Mat Cutts en parle dès aujourd'hui...
Matt Cutts a également indiqué sur le site Search Engine Roundtable que l'algorithme Panda était maintenant lancé sur une base mensuelle, et que les impacts étaient beaucoup moins virulents qu'au début.
Source de l'image : Search Engine Watch |
Espérons qu’il n’y pas trop de changement
Je suis un amateur SEO et tous mes mots clés sont en chute après la dernière version du pingouin et je comprends à partir de votre article maintenant.
Je ne comprends pas jusqu’à’ à maintenant les quelles sont les annuaires de mauvaises qualités , est ce qu’il y a une personne qui peut m’aider de donner la liste des annuaires que pingouin déteste ?
En tant que non professionnelle du SEO mais souhaitant tout de même rendre mes projets visibles, j’ai toujours privilégié des méthodes douces. Je n’ai donc jamais eu de résultats hallucinants à part sur des requêtes peu concurrentielles mais dans un autre sens, je n’ai pas reçu le fameux message à propos des liens factives… Alors comment concurrencer des méthodes lourdes de référencement tout en respectant les théories idéalistes de Google ? Quand je vois certaines activités, il est absolument impossible d’être visible sans utiliser des méthodes de sioux, à moins qu’on est quelques années devant nous ou qu’on parle de nous au JT. Soit nous sommes dans une phase de transition vers l’algo parfait qui rejette tout ce qui n’est pas naturel, dans ce cas, les pros du SEO deviendront des rédacteurs tapant plus vite que leur ombre, soit il existera toujours des techniques de détournement, car une machine reste une machine… j’attends quand meme avec impatience cette nouvelle version…
Peut-être Google ajoutera cette fois à son algo le déclassement direct des liens spammy et n’attribuera de la valeur qu’aux « bons liens » sans pénaliser les sites qui reçoivent les uns et les autres, juste ignorer les « mauvais liens » : ce serait le plus intéressant pour l’utilisateur final qui s’en fout de notre cuisine…
Genre ce que Google faisait jusqu’à présent ? XD
À quand la possibilité de désavouer un lien comme Bing le fait déjà ? Quelques personnes mal intentionnées ont créé des dizaines de liens bidons sur notre site et impossible de les enlever.
Avant le lancement de leur bidule ils auraient dû nous donner cet outil …
Hum, on vera bien, mais d’un côté, c’est aussi un test pour nous, si notre site est encore pénalisé, c’est qu’on a pas bien apprit la lesson de Pinguin du mois d’Avril !
Hate de voir ça finalement…
Hello
Le plus terrible dans l’histoire, c’est qu’après avoir subi les différentes mises à jour de l’algo, on nous en annonce une nouvelle qui préfigure de gros changements dans nos métiers du web.
Alors, comme tout le monde, je mets le nez sur les stats, histoire de voir au plus vite le frétillement du poisson-chat [sûrement le nouveau nom de l’algo) que l’on sort de l’eau…
Ca va faire mal. J’ai peur que certains sites se fassent pénalisés alors qu’il n’ont rien à se reprocher contrairement à certains…
On va faire attention à ça alors. Espérons qu’il n’y pas trop de changement. Merci pour le sujet.
je viens de lancer une serie de sites sans faire aucun liens. On va bien voir si ca bouge…
Pas sûr que ce soit forcément la meilleure solution 😉 J’imagine mal google mettre à mal le référencement basé sur des liens….
On verra bien les résultats et on s’adaptera en conséquence, comme d’habitude.
En revanche, ce qui devient vraiment problématique, c’est cette dépendance à Google que nous avons, notamment en France.
Nous qui sommes toujours en train de râler, de gueuler contre les US, l’impérialisme et blablabla, sommes les premiers à nous agenouiller.
Non pas que je sois anti-US, mais je n’aime pas quand il y un acteur qui fait la pluie et le beau temps..
@Human Easy Spinner, je comprends le sens de la remarque, mais « lien naturel » , ce serait plutot dans le sens d’un lien créé par un webmaster sans demander plutot qu’un lien créé par un référenceur.
Ceci dit, il faudrait aussi que Google donne un peu plus de clarté sur les liens pénalisés ainsi que les sites.
Concernant les annuaires, sujet qui me concerne, il ne faudrait pas que Google pénalise un lien venant de chez nous, ou d’europage, indexweb ou tout autre annuaire serieux, mais on reste un peu dans le flou, même si cela est peu probable.
il faut aussi que de petits sites d’entreprises puissent avoir un minimum de visibilité, autant sur leur métier que sur leurs services ou produits, et les annuaires restent l’un des meilleur tremplin de départ. Bref, que du up pour nous depuis pinguin donc pas de soucis, on est toujours sur la defensive quand il sagit de pénalité de lien sans informations plus précises de la part de Google. D’autant que la politique de lien payant interdit n’est pas respecté, il y a des passes droits … L’animal polaire n’a pas fini de faire couler de l’encre …
Cela va chauffer on dirait bien…
Est-ce que quelqu’un dispose d’un lien vers un document de Google définissant le bad linking ? Si oui, je suis preneur !
Tout à fait d’accord avec Denis : Matt Cutts ou l’art de continuellement entretenir le buzz autour des moindres tressaillements même infimes de l’algo.
Eh bien en tout cas on dirait que ca ne les rend pas tres heureux! Faut sourire les gars!
On a plus qu’a se preparer en continuant sur une ligne pure white hat en esperant que les concurents soufriront et pas nous 🙂
De toute façon les spameurs ont étés très largement punis avec Google Pingouin. Lorsqu’ils se retrouvent à la 459 eme place ou à la 1438 eme, ils deviennent inoffensifs et les faire descendre un peu plus encore ne changera pas vraiment la donne.
La grande force de Matt Cutts, c’est de savoir faire parler de Google et accesoirement de sa « petite » personne. ;+) Il s’y connaît le bougre en buzz et en SEO !!! ;+)
On sais pas combien de mise a jours Google vas faire pour ces algorithmes !! a mon avis, même les liens naturels entre les sites de qualités seront pénalisés bientôt !! 😉
En général le discours de Google est plutôt optimiste : « cela va modifier 1% des requêtes, blablabla… ». Alors que l’impact est souvent très visible.
Ici, ils annoncent directement de gros mouvements. Que faut-il comprendre ? Une vérité ou un petit mensonge bien calculé par la communication Google Web Spam ?
Espérons qu’il ne filtre pas autant de nouveaux sites que lors de la première update de Pingouin et qu’il corrige les défauts des premières updates aussi…
Plutôt une bonne nouvelle quand on pratique beaucoup les liens manuels (« manuel » plutôt que « naturel », car naturel est une abstraction en référencement, même l’optimisation on-site n’est pas « naturelle » 😉
Complètement d’accord ! le référencement est par définition non « naturel » puisque qu’on indexe soi-même nos sites 🙂