Google a dernièrement désindexé un réseau complet de création de liens artificiels visant à améliorer le référencement de sites web. Un premier pas dans le cadre d'une "karcherisation" à grande échelle qui s'avère aujourd'hui clairement nécessaire ?...
Le site Build My Rank (rien que le nom était une promesse, bonne ou mauvaise...) a expliqué que son système d'échange de liens avait été pénalisé/désindexé par Google le 19 mars dernier, et qu'il arrêtait son service.
Cela fait suite à plusieurs rumeurs insistantes sur le fait que Google serait en train de nettoyer son index des systèmes de liens sans intérêt et créés dans l'unique but de manipuler l'algorithme du moteur.
Il serait effectivement temps que Google "karcherise" son index et son moteur des millions de liens artificiels (annuaires et sites de communiqués de presse bidons, ajout automatisé et à l'aveugle de commentaires dans les blogs ou autres forums, quand ce ne sont pas des méthodes clairement "spammy"), créés tous azimuts par des webmasters peu scrupuleux pour mettre en avant leurs pages. Vivement que ce nettoyage ait lieu pour donner plus de chance aux sites qui, pour leur part, font ce qu'ils peuvent pour obtenir de bons backlinks "naturels"...
Le plus tôt sera en tout cas le mieux quand on voit à quel point la pollution est importante dans ce domaine à l'heure actuelle...
Source de l'image : DR |
@promoteur,
Je pense effectivement que tu n'est pas un cas isolé.
C'est amusant de constater que le géant de la recherche communique sur son travail de "nettoyage". Pour connaitre parfaitement le secteur du nettoyage, je peux dire que la première actions à entreprendre est d'interdire le geste salissant.
Somme nous en face d'un constat d'échec de Google à faire la différence entre l'utile et le futile ?
A mon avis le débat devrait plus porter sur les criteres qui font que Google va pénaliser un lien ou non – une soumission annuaire? mauvais lien? Un CP unique? mauvais lien… Le probleme n'est pas que GG fasse le ménage mais plutot "comment" il le fait
Bonjour
"un mot-clé répondant à une requête commerciale précise" est tout à fait un atout indéniable, mais il vaut mieux, selon moi, mesurer le trafic qu'il génère sur le site tout comme son taux de conversion, plutôt qu'un strict positionnement qui, en soi, n'amène pas d'info réellement intéressante.
Si un trafic de qualité est généré sur ce mot, cela vient obligatoirement d'un positionnement (même s'il est différent d'un internaute à l'autre aujourd'hui), mais il vaut mieux, IMHO, s'intéresser aux conséquences plutôt qu'aux causes.
Cordialement
Pour la phrase "ça fait maintenant plus de 3 ans que je ne tiens plus compte du positionnement pour mesurer la qualité d'un référecneemnt",
Quels sont dont les critères qui retiennent votre attention ?
Je suis d'accord pour ne pas faire du positionnement le saint Graal, mais un mot-clé répondant à une requête commerciale précise me semble être un atout indéniable (parmi d'autres, mais pas négligeable pour autant)dans la qualité d'une référencement ?
Enfin, à moins que vous disiez que le positionnement ne signifie pas avoir un "bon" référencement dans le sens "pérenne, guideline, etc..", auquel cas, je vous comprends, il ne faut pas le voir comme un critère mais comme la récompense des bons critères du référencement.
Merci d'avance pour votre réponse 😉
En même temps on ne dit pas si le contenu était spinné de manière crados.
Ca manque d'éléments pour tirer une réelle conclusion.
J'ai enregistré une baisse de positionnement sur des sites qui étaient linkés depuis mon site, à la même période, sur des requêtes portant sur des ancres optimisées. Vous pouvez vérifier par vous même, mon site en question n'est pas spammy, propose du vrai contenu non dupliqué, je rédige les articles avec mes petits neurones et mes petites mains.
S'il s'avère que mon analyse est juste (mon site – qui n'est pas dans la sandbox Google – est pénalisé tout comme les sites parfaitement légitimes vers lesquels il pointe au travers d'articles), alors c'est un effet collatéral plutôt fâcheux de cette mise à jour 3.4 du filtre Panda :-[
Je pense que c'est une bonne chose que google ne prennent plus en compte ces "artifices" de référencement, pour un développeur de sites c'est pas trop agréable de devoir adapter un contenu au SEO ou d'aller a la pêche aux backlincks, c'est la fin d'une époque et c'est bienvenue.
Par contre "punir" les sites qui ont utilisés ces méthodes me semble pas une bonne attitude, combien de sites ont eu recours à des "référenceurs" qui les ont indexé dans les annuaires ou on fait de l'echange de liens avec leur site ?
Enfin si google tient ses promesse ça risque de changer pas mal de choses !
J'ai comme l'impression que ton billet est mal perçu. Pourtant, ton attitude est la seule viable.
Comme tu le suggères, une petite synergie pertinente peut procurer entière satisfaction et tant pis pour les gorets qui industrialisent ou ne comprennent pas les tenants et aboutissements.
Ils cherchent sans doute un raccourci et une économie qui n'existe pas finalement.
@ S@M : ok je comprends mieux 🙂
Ce que je voulais dire par là, c'est qu'on peut créer un maillage de qualité avec une petite quantité de sites web proposant un vrai contenu, chacun ayant sa propre vie, sans pour autant spammer comme un goret 🙂 en créant des dizaines des plogs et des milliers de liens.
Avoir un "réseau propre" de sites web (exemple : un site d'actu, une boutique et un blog, au hasard 🙂 ) et mailler intelligemment les pages importantes grâce à quelques liens bien pensés me semble être une bonne tactique. Spammer le Web (et l'index de Google) avec des dizaines de sites sans intérêt générant des milliers de liens bidons est une autre approche 🙂
Tout est dans la mesure selon moi 🙂
Cordialement
Je me demande quelle est la part d'exemplarité que Google à voulu donner à ce cas.
Avec la manière de communiquer qu'à Google (souvent par riccochet), j'imagine que l'on verra d'autres sites passer à la trappe dans les prochains mois, histoire de continuer à mettre la pression aux SEO les moins scrupuleux.
Il faut dire que dans ce cas, le site affichait clairement sa vocation. D'ailleurs, ce qui est "amusant", c'est que le site Buildmyrank n'a visiblement pas été pénalisé, seulement son réseau.
En parallèle, je serais surtout curieux de l'impact que ceci à eu sur les sites qui bénéficiaient de ce service. On t-ils plongés ? Est-ce indolore pour eux ?
Je sens que l'on va avoir droit à une vidéo de l'ami Mat un de ces jours, ou il explique à nouveau les sempiternelles guidelines (un résumé humoristique ici : http://www.baume-referencement.com/interview-matt-cutts/ à relire avant de poser un lien ou que ce soit 🙂
ps : d'accord avec toi sur le "bon backlink naturel", mais la reflexion de NICOLAS E-SEO est aussi très juste.
Au début c'était une force mais maintenant cela devient une faiblesse car tout le monde le sait : le lien est sacré ! Je vois mal Google résoudre ce problème rapidement sans interventions manuelles mais bon l'avenir me dira si je me trompe.
QUOTE :
" voire en créant votre propre netlinking en mettant en ligne des blogs, ou d'autres sites connexes proposant un contenu de qualité pointant vers vos pages, etc. Oui c'est du travail, oui c'est du temps, oui c'est de l'argent !"
@ S@M : je me vois mal préconiser les sites satellites ??? As-tu l'extrait de l'article qui te fait penser ça ? J'ai certainement du mal m'exprimer à cette occasion, ça me permettra de corriger, merci !
Olivier je m'interroge, dans cet article tu es content qu'une plate-forme qui ne faisait que créer des satellites soit coulée et dans ton article sur le netlinking, tu préconises cela (les satellites)?
Je serais curieux de savoir quand était la dernière fois où tu as dû référencer un site en partant de zéro? 1995?
Tout les jours des réseaux complets se font descendre par Google, il n'y a rien de vraiment neuf. Ce qui serait bien c'est que google commence par arrêter de prendre pour du spam un malheureux commentaire qui se retrouve en homepage d'un site WP et qui envoi 150 … 1000 liens d'un coup et qu'il arrive à identifier le vrai spam.
Lorsque je lis le message de HM35, 10 BL pour positionner un site sur de l'hyper concurrentiel, humm, mais combien de centaines ou de milliers de BL vers les 10 qui lui envoi du jus?
Plus facile à réaliser sur une thématique SEO, web que sur d'autres…
De plus, tu ne serais pas Olvier Andrieu, tu n'aurais pas eu le même écho, à méditer également.
J'adore les articles qui génèrent beaucoup de commentaires, ça nourrit notre réflexion à tous 🙂
Cordialement
@Abondance : Je réagis ici à ton article http://blog.abondance.com/2012/01/net-blingbling-une-prestation-de_22.html
C'est marrant de privilégier la conception de blog satellites, sites satellites et de bon contenu.
Je reprend ce que dit Deleter, pour donner du poids à tes liens "satellites" il faut bien leur donner du jus à tes sites. Il y a quand même peu de chances d'attirer des personnes sur de la niche même avec du bon contenu…
Je pense que tu es un peu ancré dans des sites énormes car je te mets au défi de chopper un lien trusté (sans payer le lien) sur un site en B2B qui vend des grenailleuses sur internet…
Suis pas expert en SEO, mais suis entièrement d'accord avec Nicolas. Le référencement est une compétition et qui plus est google a beau dire beaucoup de chose mais dans la réalité c'est pas toujours vrai
@Abondance :
Je tiens à préciser que sur un de mes derniers sites internet, j'emploie une politique de contenu entièrement saine, régulière ainsi que l'apport de liens pour la thématique, et je me fais également pénalisé sans raison apparente laissant devant moi des sites plus que limite avec 50 mots de contenu et 3 pubs en ligne de flottaison, permet moi donc de douter des capacité qu'à Google pour reconnaître les siens.
@Abondance :
Je trouve ça marrant ta réaction, rappelons quand même que ce petit jeu de backlinks sert avant tout parfois à passer les gros.
Les bons liens naturels comme tu le dis ne peuvent être acquis que part de grosses campagnes de communication ou du buzz bien fait mais très sporadique.
Rappelons que le référencement est avant tout un jeu, un défi, une compétition, j'ai vraiment l'impression de lire ici un billet d'un ami spam reporter sur WRI.
Très étonné quand même, sur ce billet, tu es donc plus du côté des Romains que des pauvres Gaulois qui par la force des armes (et de l'argent) vont ce faire bouffer peu à peu.
Tu n'es quand même pas sans savoir que le guest blogging coûte cher, et est de plus en plus utilisé, tout comme la rédaction offshore du contenu, bref, si tu considères ça mieux que la création de Bl's sur des plateformes SEO, je comprend plus rien.
Bonjour,
Pour ma part, je pense que l'article est un peu trop alarmiste . C'est qu'un seul réseaux de liens qui a été déclassé, le site n'exagérait pas trop tout simplement ?
En suite je vois mal comment google pourrait éradiquer tous les annuaires, communiqués de presse et tous liens jugé abusif, ça me parait trop gros. Puis ces solutions de référencement sont ouverte à tous ce n'est pas un secret d'état et chacun peut tenter sa chance.
Et si j'avais tort ça vaudrai dire que Google se rapproche de Bing, à quoi bon proposer les mêmes résultat que son concurrent.
Dans tous le cas, y a que le travail qui paye.
Pourquoi pas, ça ne peux qu’être bénéfique pour les internautes.
Google lave-t-il plus blanc que blanc ?
Enfin il s'agit là d'une question de perception donc assez suggestive.
Google évolue aussi rapidement que le monde dans lequel nous vivons et certainement que c'est une politique nécessaire pour rester le moteur numéro 1.
Après c'est aux acteurs du Web de s'adapter pour rester visible.
Bonjour,
Google doit réagir pour améliorer la pertinence de ses résultats. Cela peut commencer par certains réseaux de liens et de mauvais contenus mais cela me semble utopique de pouvoir éradiquer toutes sortes de tricheries.
amicalement
@DELETER23 Justement, le problème de Google, après avoir consacré les backlinks, c'est qu'il ne sait pas vraiment faire la différence entre un backlink naturel et un autre. Ni entre le nofollow et le dofollow (j'y ai consacré un article récemment). Et ce, contrairement à ce qu'il prétend !
D'où son éternel problème avec la qualité des liens issus des CP et autres annuaires (même s'il y en des bons !).
Alors, sa solution, c'est finalement frapper dans le tas et faire des exemples. Et, puis, j'ai toujours pensé que Google Panda aurait réglé tout ça !
Je me demande si les premiers effets ne se font pas déjà sentir en France.
En réalisant un audit suite à une demande client, j'ai vu, avec surprise, que le site du client se trouvait positionné avec une place correcte sur une requête concurrentielle ou il existe des centaines de pages optimisées pour la requêtes et ou Google renvoi plus de 15 millions de résultats. Je dis avec surprise, car j'avais au préalable regardé quels étaient les backlinks obtenus par le site : Il n'y avait quasiment rien : 21 BL avec seulement 11 domaines différents et franchement rien de transcendant pour les fameux sites qui pointent vers le client.
Certes le nom de domaine était optimisé et le contenu du site également mais les concurrents sont plutôt autour de 900 BL à 2000 BL sur plusieurs centaines de domaines différents.
Forcément on pense tout de suite à ce bon vieux dicton "Content is KING, Optimize content is EMPEROR ". Le site du client est optimisé mais il à peine 60 pages indexées par Google. En résumé, le site est bien placé avec quelques pages en ligne (optimisées) et 10 BL, comme quoi, des fois, rien ne sert de courir !
Et mon intervention en séance plénière sur Panda au dernier SEO Campus… :-))
Pour info, je rappelle quand même n de mes derniers billets sur ce sujet : http://blog.abondance.com/2012/01/net-blingbling-une-prestation-de_22.html
@Deleter23 : euh désolé, j'ai pas vraiment compris votre argument ??
@Nicolas, E-SEO : ça fait maintenant plus de 3 ans que je ne tiens plus compte du positionnement pour mesurer la qualité d'un référecneemnt 🙂
"Il serait effectivement temps que Google "karcherise" son index et son moteur des millions de liens artificiels (annuaires et sites de communiqués de presse bidons, ajout automatisé et à l'aveugle de commentaires dans les blogs ou autres forums, quand ce ne sont pas des méthodes clairement "spammy"), créés tous azimuts par des webmasters peu scrupuleux pour mettre en avant leurs pages. Vivement que ce nettoyage ait lieu pour donner plus de chance aux sites qui, pour leur part, font ce qu'ils peuvent pour obtenir de bons backlinks "naturels"… "
Franchement on dirait un commentaire d'un nouveau venu sur le web et qui se plaint que son site ne rank pas sur google. "C'est à cause de tous ces spammeurs…"
Faut pas oublier que ce système de prise en compte des backlinks avait était mis en place pour éviter le spam "on site". Bourrage de mots clefs and co. Les liens sont un gage de qualité et jusque là le résultat est plutôt bon. Et les sites de CP et annuaires ne rankent presque pas, c'est donc que google sait faire la part des choses.
Et comme dit plus haut tout le monde n'a pas accès aux liens naturels. Et souvent ces liens naturels sont fait par des personnes ayant visitées le site. Pas de positionnement moteur, pas de visiteurs, pas de lien. Le référencement naturel par l’acquisition de liens est obligatoire.
Vraiment étonné de lire un tel article sur ce blog.
Il suffit d'un seul lien détecté pour se faire dé-positionner… Peu importe qu'il y en ait 9 ou 3000, pourvu qu'ils aient été acquis de la mauvaise manière. Mais vous ne pourrez pas dire que vous n'étiez pas prévenus ! Au moins les black hats eux sont conscients des risques qu'ils prennent…
Marrant ça, Olivier, c'est rare quand tu te mets à faire des billets d'humeurs comme celui-ci…
Des pertes de positions qui te touche personnellement ou pas ?
Pour donner du grain à moudre à ton explication, une source US annonce que google aurait envoyé 700'000 messages aux webmasters pour liens "artificiels".
Sur notre plus gros client qui n'a pas plus de 9 échanges de liens réciproque, sans achat de liens, on a été pénalisé, bilan de l'opération : -2000€/jour en moyenne de CA…
Google depuis 3 mois fait que de la merde, avouons-le…Il est perdu dans une lutte qui semble perdue d'avance, et il semble faire beaucoup plus de dommage que de bons nettoyage…
A voir ce qu'en pense les utilisateurs bientôt, car sur certaines requêtes je vois surtout une baisse de la pertinence des résultats notamment sur le plan ergo et design des sites qui sont in-navigable.
Ou définir la frontière d'un lien naturel?
A part le linkbait, qui n'est pas donné à tous les webmasters sur la planète, le reste ne me semble pas naturel: liens en footer sur des sites partenaires/appartenant à la même personne, échanges de liens, commentaires, forums, CP, annuaires, "accord" pour créer des articles d'un blog vers un site…
Quoi ? Google a acheté Build My Rank ?
Comme disait Coluche, le marketing va nous faire croire que ce nouveau Google lave plus blanc que blanc : fini les sites MFA, les splogs et satellites de niveau n++, les nids à bookmarks ?
Ok, mais alors, si je ne me fais plus balader sur le net PARCE QUE Google se faisait balader par ces "pollueurs du net", je risque peut-être de me faire balader par Google itself …? Recherche personnalisée, tracking tous azimuts : Google nettoie la place et fait le ménage pour nous servir "sa" vision du web ?
A la monarchie j'ai toujours préféré la mixité, cf "Une bonne méthode pour éviter de trop dépendre des outils de recherche leader est d'utiliser systématiquement plusieurs engins." source : http://marre.de.se.faire.ba.free.fr/