Comme attendu, Google vient d'annoncer qu'il allait lancer dans les jours qui viennent un algorithme qui vise à supprimer de son index les sites utilisant des techniques de spam de type black hat. Il était temps !...
C'était attendu depuis plusieurs semaines, Matt Cutts l'avait annoncé, c'est désormais officiel : Google va lancer dans les jours qui viennent un nouvel algorithme / filtre de nettoyage visant à combattre le spam dans son index et les techniques "black hat", clairement visées dans le post officiel du moteur de recherche...
Google donne des exemples de pratiques "black hat" comme le "keyword stuffing" ou "bourrage de mots clés" :
Source de l'image : Google |
Ou des systèmes de linking avec des liens sans rapport avec le contenu de la page en question :
Source de l'image : Google |
Ce filtre de nettoyage sera mis en place pour toutes les langues (dont le français) dès le départ. Si Panda avait impacté environ 12% des requêtes, ce filtre devrait être moins "puissant" avec seulement 3,1% des requêtes en anglais qui devraient voir leurs résultats modifiés. Mais certaines langues (comme le polonais) pourraient être plus durement touchées car il semblerait que le spam soit plus importants dans ce cas...
C'est en tout cas une bonne nouvelle tant le Web devenait infesté de sites sans intérêt servi par des techniques de spam interdites, ne permettant pas à des sites de qualité de bien se positionner.
Certaines sociétés de référencement, ayant clairement recours à ce type de pratiques, devraient également avoir quelques problèmes dans les semaines qui viennent avec leurs clients. Tant mieux (malheureusement pour les clients...) !
Malheureusement je ne suis pas certain que cela permette au "petits" de concurrencer les gros, au contraire. Car un gros site d'une grosse société aura plus facilement des liens naturels (articles de presse, blogs qui rédige au sujet de la société pour x raisons, réseau sociaux qui rox grâce à une équipe de community manager grassement payée…)… Comment vont faire les petits, si ils ne peuvent plus créer "artificiellement" du lien ?
Je regrette de plus en plus, l'époque ou on pouvait trouver sur les moteurs de recherche (ex altavista) des sites les plus marginaux aux plus importants… A force d'optimisation, je trouve les résultats de Google de moins en moins pertinent, moins naturel, contrairement à l'effet recherché… mais c'est peut-être juste de la nostalgie…
De plus comme le dit "page pro", Google prend un gros risque avec les adeptes du "negative seo" qui pourrait devenir de plus en plus populaire malheureusement ; car rien de plus facile d'utiliser un logiciel de spam et de poster comme un bourin des liens pourris en masse pour un site concurrent afin de la faire blacklister !
Ca craint !
Moi mes sites ont dégringolé, il est vrai que j'ai utilisé des méthodes peu naturelles de référencement par le passé, style il y a plein de liens vers mes sites sur la toiles sur des pages partenaires de sites (style 50 liens sur une page), ça m'apprendra.J'espère juste qu'au fil du temps ces liens vont disparaitre.Je prend quand même les choses avec philosophie.Si la nouvelle politique de google peut permettre a des sites avec peu de moyen de concurrencer les grosses machines ça peut être positif.
Je vous confirme qu'il y a des sites qui ont pris une claque depuis mercredi.. et c'est assez violent..(passer de 80VU/jour à 1, je vous garantis que ca fait bizarre.. surtout pour adsense..
Que l'on fasse un ménage des sites spammeurs ne me pose pas de problème sauf s'il touche des sites corrects et que cela les fasse plonger sur des mots clés (effet de bord ou erreur).
Dans ce cas il faut en être averti (message google dans webmaster tools) et que l'on est le moyen d'intervenir auprès de Google. En attendant une réaction rapide de ce dernier car cela peut mettre à mal une entreprise. Il y va aussi de sa crédibilité.
Mais ce que je redoute le plus c'est les actions nseo qui sont la première réaction de référenceur BH. Plutôt que d'agir sur son site dégommons le voisin, ce qui à terme peut toucher tout le monde.
D'autant si Google peut mettre à mal un site avec un seul lien pourri parmi un tas d'autre correct (je crois que j'ai vu cette info dans l'actu d'abondance !?)
Comment faire la différence entre de vrais liens et des faux, du duplicate volontaire ou passif (des milliers de personnes traitant le même sujet seront aptes naturellement à dupliqué naturellement de l'information commune). Bref pas si facile pour Google de faire la part des choses et d'être impartial.
Oups désolé votre site à été Blacklisté suite à un Bug. Un correctif sera déployé dans deux semaines en attendant mangez des pâtes" 😉 TROP FORT !!! Perso j'ai fermé mon entreprise de plus de 6ans et aujourd'hui je suis au 35h ;-(
C'est étonnant les sanctions qui sont tombées sur des sites pourtant quali. Je penche sur une suroptimisation des ancres, et une trop grande proportion de liens externes vers des pages profondes.
Ces dernières actualités remettent en cause un critère fondamental du web : le lien ! Google a compris qu'il devait réagir face à la tricherie réalisée grâce au volume de backlinks, mais il n'a pas les moyens de faire autrement que d'appliquer des patchs (comme son filtre Panda) à son algorithme, et des actions correctives humaines.
Si la firme du moteur de recherche décide de poursuivre son effort de nettoyage antispam, cela peut signifier la fin des linkwheel !
Explications sur blog.marredesefairebaladersurlenet.com/post/2012/04/25/Google-webspam-algorithm-update
Google commence à faire n'importe quoi (position irréguliere = benifice irrégulier)pour vous pousser à uliliser GoogleAdwords (position réguliere = benifice régulier) et oublier le référencement naturel car tout simplement le référencement naturel ne rapporte rien pour google contrairement à adwords qui rapport 1€, 2€ le clique voire beaucoup plus…bon courage on est tous dans le caca les amis
"Oups désolé votre site à été Blacklisté suite à un Bug. Un correctif sera déployé dans deux semaines en attendant mangez des pâtes" 😉
J'abonde dans ton sens François…
Olivier, encore une fois regarde bien les sites pénalisé, ce sont des utilisateurs parfois très propre de sites de CP, rien à voir avec du spam comment, forum qui quant à eux n'ont fait que être renforcé dans les serps cette nuit…
Sans comptez que plus ton site semble pourrit, plus ça rank insite 😉
Bonjour,
Il ne faudrait pas prendre les BH pour des buses. Le keyword stuffing, le premier à le faire c'est le WH qui ne sait plus quoi faire pour monter sur une requête. Souvent les money site gérés par les BH sont irréprochables…
Là Google veut virer les sites suroptimisés onsite et les sites dont le profil de liens directs vient majoritairement de plateformes pourries.
Si dans les faits ça marche vraiment comme ça, tant mieux… mais avec Google on commence à savoir que souvent les effets de bord indésirables sont plus impactant que les effets initialement attendus.