Google vient de publier un nouvel article dans lequel il fustige les faux sites de communiqués de presse, des voies de création de backlinks à éviter pour ne pas voir son site pénalisé...
Google vient juste de publier un article intitulé "J’utilise les sites de communiqués de presse pour obtenir des backlinks, que recommande Google dans ses consignes de qualité ?" dans lequel il tente de répondre à cette question : Qu’est-ce qu’un lien de haute qualité pour Google ? Tout le monde se pose cette question en ce moment, notamment dans notre Forum d’aide aux webmasters.
(...)
Nous avons remarqué que certains webmasters sont tentés d’emprunter la voie la plus facile pour créer rapidement des backlinks vers leurs sites. Nous recommandons de ne pas d’investir à court-terme dans des systèmes de liens créés uniquement pour les moteurs de recherche et les algorithmes. Nous développons des techniques de plus en plus avancées contre ces pratiques de Webspam et elles ne constituent pas un raccourci viable pour votre stratégie à long-terme.
Nous avons remarqué que les sites de communiqués de presse sont fréquemment abusés.
Certains sites de communiqués de presse peuvent être utiles, mais nous voyons surtout des sites de faible qualité ou qui font du Webspam. En effet, ces sites ne pratiquent que très rarement un contrôle éditorial et constituent dès lors des cibles potentielles pour créer des liens artificiels. Si vous utilisez ces ressources pour créer des backlinks vers votre site, nous vous recommandons de revoir votre stratégie de netlinking.
Voici un extrait typique d’article que l’on trouve sur ces sites :
"Le rachat credit que notre banque vous propose est très avantageux: nous offrons un remboursement échelonné, des mensualités réduites et la consolidation de vos prêts en cours. Pour créer nos offres de rachat de credit, notre institut a fait appel à ses partenaires pour obtenir les meilleurs taux sur le marché."
L'article répond ensuite à deux questions :
1. Que faire si j’ai déjà utilisé ces techniques pour mon site ?
Soyez prudents, car ces liens n’ont souvent pas de poids et risquent de vous désavantager par rapport aux autres sites. En général, évitez d’utiliser les sites de communiqués de presse de faible qualité ou qui pratiquent du Webspam. Nettoyez les liens de faible qualité qui proviennent de ces sources.
2. Que faire si mon site ne respecte pas les consignes de qualité et que je reçois un message dans les Outils Google pour les webmasters?
Nettoyez tous les liens artificiels ainsi que toute autre violation de nos consignes de qualité. Faites une demande de réexamen en expliquant clairement les actions qui ont pu déclencher une action manuelle et les actions prises pour nettoyer le site. Vous pouvez vérifier les liens vers votre site dans les Outils Google pour les webmasters.
Par expérience, lorsque Google communique de cette façon, c'est qu'il travaille de façon forte sur le sujet. Penguin a déjà frappé, il se pourrait que ce ne soit pas terminé pour cette année...
En même temps, on peut dire qu'il serait logique que Google News en supprime l'indexation, alors que ce type de site pullule dans le moteur d'actualité de Google. Pas cohérent, quelque part...
Source de l'image : DR |
Perso, je vérifie manuellement tous les communiqués qui son soumit sur mon site. Si un lien est trop optimisé ex: « rachat de credit », je le corrige « rachat de crédit ». Mais ça cela va encore. Mon site est PR5 et ceux qui soumette chez moi fond de gros effort (on doit être pas plus de 5 avec un PR comme ça). S’il y a des erreurs mineurs, je les corrige, par contre, si le texte est minable, j’envoie un avertissement pour qu’il corrige et si au bout d’une semaine ce n’est pas fais, je ne valide pas le communiqué 😉
je suis tout à fait d’accord avec vous, j’ai remarqué que que google filtre les sites de communiques de presse de faible qualité surtout lors de la dernier mise à jour de pingouin. Donc il faut être prudent lors de choix de CP
Bonjour, à la lecture de cet article je suis trés perplexe. Novice en la matière, des vendeur de « créer son blog et gagner une fortune » nous parles de choses qui se révèlent être bien plus complexe. Mais au moins ces gens ne nous mentent pas quand ils disent faites le par passion:). Donc ceux qui se prennent la tête pour être à la première page de google ben bon courage et dommage.
Tout cela a au moins l’avantage de ne jamais faire tomber le referenceur dans la routine. Curiosité et adaptation sont des qualités pour ce métier.
malheureusement le métier de référencement est un métier qui casse la tête toujours google change son algorithme et nous les référenceurs nous sommes des victimes
@Doodoo . Excellente ta remarque….
J’espère que Google n’a pas réalisé un communiqué de presse pour diffuser cette info 🙂
C’était évident que ce genre de problèmes finiraient par arriver. Le principe des communiqués n’est pas à remettre en question mais il ne peut être dévoyé au profit exclusif du référencement. C’est avant tout un outil de com… Une fois encore, il est a espérer que Google sache faire la différence entre l’usage abusif et l’accident de parcours.
Je diffuse mes propres articles et je les retrouve partout ailleurs, sans même qu’on cite mon nom, sans même qu’on me demande la permission.
Depuis quelques temps, je diffuse des communiqués de presse, me disant qu’ainsi on ne me pompera plus mon contenu, puisqu’il est déjà partout ailleurs.
Alors on fait quoi?
J’étais à 8000 visiteurs par jour il y a quelques années, je ne suis plus qu’à 2000. La faute aux CP?
Je ne sais franchement plus quoi faire.
Malheureusement, un bon contenu éditorial et un site de qualité ne suffisent pas à positionner un site sur une thématique concurrentielle. À nous de trouver les bonnes techniques pour mettre en relation les contenus, URLs et MC en relation avec les SERPS de Google.
Lors de la création de mon premier site, le backlinking, les annuaires étaient à la mode.
Les informations contenues dans cet article m’on permit de ne pas tomber dans le piège pour la création d’un second blog.
Les lois de Google sont décidément impénétrables.
Énorme que Google prenne en exemple le domaine du rachat de crédit 🙂
Un petit clin d’œil aux webmasters dans ce domaine 😉
@Marc L. : Adsense ne le lit que lorsqu’il n’y a pas du tout de texte dans la page. Lorsqu’il ne peut pas faire autrement quoi 🙂
Ah, la magie de la désinformation de masse… (je ne parle pas de ton article, mais de celui de Google)
Tellement plus simple de faire peur que de s’embêter à dézinguer le moindre CP manuellement (car oui, je pense que les dernières màj concernant les CPs sont des shoots manuels, ce qui explique que les très « voyants » soient dégommés).
@Olivier, je pense aussi que cela n’a pas d’influence sur le classement, mais pour adsense, n’est-ce pas consulté par Google? il me semble avoir lu un billet ici sur ce sujet , si c’est toujours d’actualité ?
@ Partner-mutuelle : Oula, j’ai bien peur que Google n’aie jamais pris en compte le contenu de cette balise :-))
Pour le classement, est-ce que google prends toujours en compte la balise meta keywords ?
« D’autant plus que sans Google, pas de traffic! »
A vrai dire, quel entrepreneur sérieux peut baser la plus grande partie de son CA sur Google ? Il sait à l’avance que cela peut exploser du jour au lendemain, et que son CA peut se retrouver completement nul… Il existe pourtant bien d’autres manières d’obtenir des visiteurs !
Que faire alors aujourd’hui pour faire décoller son site? J’avoue que je suis un peu perdue… D’autant plus que sans Google, pas de traffic! Je suis tres perplexe :S
Vous pensez que c’est bien de supprimer tous les liens d’un coup ? Ça ne va pas envoyer un mauvais signal ?
agressif et honnête : Nettoyez tous les liens artificiels ainsi que toute autre violation de nos consignes de qualité
J’ai également lu avec attention cet article sur Google Webmaster Central sur la recommandation de @Mar1e . Et je dois dire que je suis le premier a été tombé dans le piège. A dire vrai, j’ai toujours choisis annuaires, partenaires et autres sources de BL avec soin, mais j’ai été moins vigilant avec les sites de CP.
Résultat des courses : une de mes pages qui bénéficiait de BL provenant de 2 sites de CP récemment pénalisé (voir http://boost.bookmarks.fr/liste-201110.html#out ), s’est retrouvé en l’espace d’une journée repoussée aux confins des SERP.
Mea Culpa ! Il va maintenant falloir que la sorte de là…
plus de cp, plus de digg-likes, plus de cp alors on fait quoi ? on se tourne les pouces ? il semble que le facteur social prenne de plus en plus le dessus sur le facteur backlinks…en gros le positionnement va clairement passer sur comment les gens jugents de l’intérêt de votre contenu…
Google agressif certes, mais il ne nous doit rien 🙂
Quand j’ai lu l’autre jour que Google avait pénalisé et blacklisté des annuaires, une phrase m’a interpellé « ces sites sont fait uniquement pour le réferencement » et clairement ça ne plait pas à Google.
Conclusion logique, il en est de même pour les sites de communiqués de presse. Cest dailleurs ce que jai dit Lundi à mon équipe, stop les comm de presse, on se focalise sur les vrais sites de CP et au pire, on link vers nos blogs, mais finito !
Sachant qu’on a déjà quelques années d’activité sur ces sites, j’espère qu’on ne sera pas trop trop affecté quand ils lanceront l’update..
Allez, on verra bien !
Entièrement d’accord avec cet article j’ajouterai juste qu’en tant qu’administrateur d’un site de communiqué de presse je retrouve de plus en plus d’article SPAM depuis l’annonce de de pingouin.
Bon, pas d’annuaires, pas de communiqués de presse, pas d’échanges de liens réciproques, ni en footer, ni en side barre..
Le backlink parfait est bien celui que l’on fait pour nous. Ouf, j’ai plus à travailler mon netlinking
Vivement que volunia cartonne (et que ce ne soit pas le même succès qu’exalead) 🙂
je suis d’accord qq part sur les sites de CP car ce ne sont pas tous de vrais sites de CP et que la qualité éditoriale n’est pas souvent au rendez-vous.
Par contre, j’espère que GG ne touchera pas aux annuaire car cela pourrait manquer singulièrement d’éthique : si un annuaire est réglo et a une ligne éditoriale, il est potentiellement un tout-petit-mini concurrent pour GG puisqu’il permet à quelques internautes de trouver des sites web par catégorie. S’il dégageait ces annuaires, ce serait juste un abus de position dominante, rien que pour cet aspect de concurrence de GG.
Ca commence à devenir un vrai casse-tête pour le référencement ! Faire du bon contenu et du guest blogging semblent être les meilleures solutions à l’heure actuelle et les commentaires de blogs. 😛
Référencer son site serait-il dangereux ? J’y vais un peu fort. Toujours est-il qu’il faut adopter une bonne stratégie dans la création du site et de son contenu. Le référencement suivra son cours… avec un peu d’aide dispensée par un bon référenceur comme Olivier tout de même.
@Patricia , tout juste, c’est a peu pres ca !!!
j’ai tenté l’experience de ne faire aucun SEO pour le debut de la nouvelle version, avec seulement 50% des données, mais quelques millions de fiches qq même. résultat, aucun trafic … pourtant, pour lier les rubriques connexes (1 000 rubriques soit 1 millions de combinaisons) et donc les liens d’une rubrique vers plusieurs autres, cela a été fait manuellement et a pris presque 1 an … Le trafic stagne a 3K VU/jour, soit 30 fois moins en rapport que les concurrents …
Cette V2 a été optimisée au maximum pour renseigner et diriger l’utilisateur au mieux, rarement aussi étudié … et Google n’a pas su le déceler …
Je ne me fais pas de soucis, mais l’experience a grande échelle prouve que Google n’arrive pas encore a bien mesurer le « fait maison pratique » (in-site).
On verra bien debut juillet la nouvelle mouture avec 100% des données et un peu de SEO …
Ne faites rien et votre site n’apparaitra jamais
Faites quelque chose et on banni votre site.
Merci Denis pour le conseil, je vais sensibiliser mes clients à cela, ça me semble être importants aussi de ne pas faire n’importe quoi avec les fermes de sites de communiqués de presse tous ça pour faire du netlinking 😉
Oh non, nooooooon ! Pitié ! Au secours ! Pas elle ! L’éternelle image des cables éthernet emmelés… j’en fais des cauchemars la nuit !
😀
@Alex : Panda 3.7 plutôt (et Panda 3.3 lors de la première vague, le 1er mars dernier)
Juste pour info, j’ai remarqué que pas mal sites de CP ont été punis sur la journée d’hier, visiblement la 2e vague Penguin.
Je pense simplement que les sites de CP ont été créés pour gagner des BL à court terme et donc gagner des positions, ça ne plait pas à Google alors ils les ont punis.
Désormais, les référenceurs vont créer un nouveau concept (Pourquoi pas des mini réseaux sociaux !) pour gagner d’autres BL rapidement, et ça durera le temps que Google les punissent.
C’est le jeu du chat et de la souris…
Une fois de plus Google nous demande de ne rien faire pour améliorer le SEO de nos sites. « Faites du bon contenu » et tout se passera bien 😉
Ouai enfin non c’est faux. Si tu as une boutique en ligne qui dispose de très peu de produits. Faire du contenu, c’est pas non plus une mince affaire à part en créant un blog affilié aux sites
Google travaille en effet fort sur le sujet, cf. http://boost.bookmarks.fr/liste-201110.html#out
D’accord avec vous sur la question de l’indexation de ces articles dans google news. Ce peu être déroutant.
Existe t-il des sites qui vaillent le coup pour une stratégie de netlinking? Le pagerank est-il une mesure de la fiabilité d’une certaine manière ?
Que pensez des référenceurs qui ont leurs propres sites wordpress et qui s’en servent pour créer des liens pour leur clients?
Cela fait beaucoup de question, désolé… tout ça pour dire que votre article est très bien.
Google devient en effet de plus en plus agressif…