Une étude récemment publiée tente de définir les critères utilisés par Google dans son dernier filtre Penguin 2.1. Sans surprises, ce sont les backlinks de faible qualité, de différentes formes, qui se taillent la part du lion. Ou plutôt du manchot !
Glenn Gabe, consultant SEO de la société G-Squared Interactive, a dernièrement publié une étude qui tente, en analysant 26 sites pénalisés par Penguin 2.1, lancé il y a une semaine de cela (le 4 octobre), de définir les différents critères pris en compte par ce filtre de nettoyage de Google.
Sans surprises, la plupart de ces critères tournent autour des backlinks de faible qualité (pour le sites touchés, ces backlinks étaient récents, ce qui explique que les sites en question n'avaient pas été touchés par les précédentes versions du filtre), à savoir :
- Spam sur les forums : liens avec textes d'ancre (sur)optimisés.
- Spam sur les profils forums : idem (liens avec textes d'ancre (sur)optimisés) dans les profils des utilisateurs de forums.
- Blogs proposant des liens en dofollow : ces blogs, "spots" recherchés par les spammeurs, pourraient être minutieusement scrutés par Google et représenter des signaux forts.
- Blogrolls : liens trop optimisés (ou n'ayant pas de rapport avec l'activité du site) dans des blogrolls.
- Annuaires spammeurs.
- Commentaires dans les blogs. (signature).
- Petites annonces contenant des liens artificiels.
On peut effectivement imaginer que cette liste regroupe une bonne partie des profils de liens factices pourchassés par Penguin depuis le début et dans sa dernière version en particulier. En gros, deux profils évidents : sites spammeurs (annuaires, sites de pseudo communiqués de presse, etc.) et/ ou texte d'ancre (sur)optimisés. Le mix des deux étant le plus souvent explosif ! Il ne reste donc plus qu'à supprimer ou désavouer tous ces liens à la machette !
Source de l'image : G-Squared Interactive |
J’ai vécu le même problème avec le site web dont j’ai la responsabilité depuis seulement quelques mois. C’est vraiment difficile de remonter un site lorsque les responsables précédent ont opté pour les bad backlinks à outrance pour favoriser le positionnement. Je ne nommerai pas la compagnie mais j’aimerais bien pouvoir expliquer la situation à Google. Il y avait un lien vers un formulaire pour les sites impactés injustement par Penguin 1 servant à fournir des détails à Google pour réviser le poids d’une URL. Est-ce que quelqu’un sait si ce même formulaire a été rendu disponible par Google pour Penguin 2,1?
Mon site demenagementdf.com sort très fort sur Bing, Yahoo, Hotbot, altavista etc. j’ai vérifié. Juste Google que ne le digère pas depuis 3 semaines. environ…
Merci d’avance pour votre aide!
Marc
La ligne de flottaison est beaucoup plus stricte varier vos liens et anchor au maximum sans oublier le contenu et toujours le contenu.
Concentrez-vous sur les réseaux sociaux (mais intelligemment), oubliez Google un peu et vous serez surpris des résultats. J’ai deux sites dont le trafic « social » est supérieur au trafic « google » et ils se portent à merveille. Je ne me soucis même plus de Mancho & co.
La pertinence de certaines actions « anti-spam » Made In Google est parfois très discutable, d’où certaines SERP qui ne ressemblent plus à grand chose.
Pour un lien collection automne-hiver 2013:
– trouver un site à populaire mais pas trop VIP
– poster sur un article déja commenté, mais pas spammé pour autant
– mettre une ancre avec des termes optimisés, sans faire le bourrin
– et enfin, bruler un cierge et attendre Mamouth 8.0 qui rendra quaduc tous les points ci-dessus.
De toute façon aujourd’hui le plus simple c’est de mettre du contenu, de faire des mises à jours régulières et de laisser faire Google. Faire quelques campagnes de link baiting après plusieurs mois de lancement et d’indexation naturelle et surtout continuer à publier du contenu pertinent et de voir son site progresser.
Il devient donc définitivement difficile de faire du référencement SEO de façon « pro ». En disant celà j’entends, « vendre du SEO »
Le vrai travail naturel prend beaucoup de temps et depuis Penguin…cela revient presque plus cher que le bon vieux SEA…
Google veut contrôler les sites dans ses serps afin d’offrir un panel de réponses susceptibles de satisfaire en partie les visiteurs directement, et aussi offrir un panel de visites complémentaires pour conserver ses chances de clics Adwords.
On n’imagine pas les serps avec des résultats menant sur des sites sans pub… Le savant mixage opéré par Google est donc en faveur du contenu, forcément, et la « triche » pour mettre en avant du contenu pauvre est de plus en plus combattu par Google, avec panda pour le contenu, et Pinguin pour l’effet des liens.
Notre logique a toujours été de nous préoccuper essentiellement du confort visiteur. Si nous avons proposé d’emblée des liens direct (en dur) vers les menus, c’est pour le visiteur (quand même pratique) ex : http://75-paris.annuairefrancais.fr/poste/paris-20.html
Toutefois, sous l’aspect SEO, c’est une source de liens non optimisé et bien différentes des usages jusqu’alors, qui cadre de plus avec Pinguin.
Hormis que Google contrôle le contenu de ses serps avec ses filtres en fonction de ses intérêts publicitaire (c’est quelques part normal), le problème de fond restera toujours le même; tant qu’il n’y aura pas un autre moteur avec des résultats un peu différents mais tout aussi pertinents que Google, il n’y aura que 10 places de choix sur les requêtes majeures. Comme Bing a sensiblement les mêmes résultats, il n’y a rien a attendre.
Une bonne solution serait, par un système de rotation, de diluer et changer les positions de requête en requête, tout en conservant un taux de pertinence. Ce n’est pas simple dans un système de data de l’ampleur de Google, mais ce serait un bon « remède » aux fluctuations trop importantes, dans l’attente d’un autre moteur innovant.
Je suis également victime de Google Penguin, j’ai perdu 50% de visites et maintenant j’essaye de remonter la pente, pas évident de savoir ou faire les changements.
Merci pour les infos de cette article.
Raphaël
Comme toujours la ligne de flottaison des ancres optimisées a encore baissé, je note que la notion de « liens hors contextes » est de plus en plus fine, la thématique doit-être presque identique maintenant sinon on risque le pire.. finalement GG pousse sa logique de plus en plus loin ou l’ancre optimisée est par nature mauvaise et un lien doit être dans un parfait contexte pour être valide.
Bloggroll + Ancre optimisée + « Petites annonces » = Critères assez pratiques pour détecter les vendeurs de liens.
J’ai un site témoin qui tourne en mode 100% naturel (comprendre 0-zero-nil action SEO) qui montait petit à petit et d’un coup, passage de 22ème à 46ème 30/09 puis sortie complète du top100 le 06/10/13. La seule chose qu’il a eu le droit, c’est des inscriptions annuaire à sa sortie il y a deux ans.
PS. @Olivier : Serait-il possible de mettre les dates en face des suggestions YARPP? Il y a des vieux machins qui datent de 2011 et je pense que surtout dans notre champ d’activité, c’est une donnée importante 😉
@internet santé, tu n’a pas compris cet article ou quoi ?
On te dis que les liens en commentaire de blog avec des ancres optimisés (contenant des mots clés) qui sont pointés du doigt … et tu poste un commentaire avec un lien en ancre optimisé …
Heureusement que ces types de liens sur le blog d’abondance sont en nofollow, mais fait attention quand même !
Je pense qu’il est toléré de mettre des liens en commentaire de blog à condition que l’ancre soit un prénom / pseudo :
Pas de mots clés, voir pas du nom de site…
En effet, ce sont des humains avec un prénom ou pseudo qui peuvent commenter 🙂
Aie, Google Penguin m’a tuée!
Grosse claque début octobre, passé du top5-top3 à la 5e page! ça fait mal!
Certainement trop de SEO à la mode annuaire, ça ne pardonne pas.
Bon allez, je m’y remets, c’est pas tout, mais faut remonter tout ça maintenant!
Merci pour les infos,
a très bientôt!