Les PBN (Private Blog Networks) sont à la mode et certaines sociétés de référencement ne jurent même plus que par eux et les proposent à leurs clients, parfois sans leur expliquer de quoi il s'agit vraiment. Alors, est-ce que cette stratégie représente un danger à plus ou moins court terme et faut-il foncer tête baissée vers ces système de réseaux de sites pour obtenir une meilleure visibilité sur Google ? Voici mes réflexions sur le sujet car il est certainement bon de rappeler quelques points importants à mes yeux...
Depuis que le Web et les moteurs de recherche existent, de nombreux référenceurs ont tenté de manipuler les outils de recherche. Dans les prémices de la Toile (début des années 90), les algorithmes des moteurs étaient plutôt basés sur des critères "on page". Les méthodes "musclées" étaient donc axées autour de la répétition de termes de façon plus ou moins cachée dans le code HTML : keyword stuffing (bourrage de mots clés), texte en blanc sur fond blanc (le paléolithique !, mais on le voit encore chez certains nostalgiques 😉 ), texte dans des balises noscript, cloaking, etc. Le tout était parfois intégré dans des pages "fantômes", appelées "satellites" ou autres. Bref, une autre époque (épique !)...
Puis, les moteurs sont devenus plus sensibles aux liens entrants (backlinks), comme Google avec son PageRank. Le spam a donc suivi cette voie pour se déplacer vers la création de liens factices : annuaires SEO (que personne ne consultait jamais), communiqués de presse bidons placés sur des sites-poubelles, spamco (liens placés intentionnellement dans des commentaires de blogs ou dans des discussions sur des forums), etc.
L'avènement du PBN
Passons quelques années pour arriver à aujourd'hui, avec des méthodes plus sophistiquées qui arrivent. La mode actuellement est au PBN (pour Private Blog Network ou Réseau Privé de Blogs), soit un réseau de sites qui ont pour vocation de "pousser" - grâce à des liens savamment distillés - un site principal (ou money site) afin d'améliorer sa visibilité sur Google.
Le PBN est actuellement mis à toutes les sauces. Le terme de "mode" n'est pas usurpé et on le voit fleurir un peu partout, de façon plus ou moins "professionnelle". Ceux qui ont mis en place de vrais PBN vous le diront : quand c'est bien fait, ça marche ! Malheureusement, on voit un peu tout et n'importe quoi en ce moment à ce niveau. Finalement la situation est un peu comme pour le cocon sémantique : dès que quelqu'un a réalisé un silo de 3 pages sur un thème donné avec des liens mis un peu n'importe comment à droite et à gauche, il se dit expert du cocon sémantique ! Eh bien, pour le PBN, c'est pareil : rares sont les personnes qui savent créer avec succès ce type d'architecture. Et pourtant, on en trouve des experts mondiaux à chaque coin du Web !
Le problème avec les PBN se cristallise sur la question suivante : "Est-ce qu'il s'agit d'une stratégie de spam que Google va détecter et punir un jour ?" Pour ma part, la réponse semble évidente : Oui, bien sûr ! On retrouve exactement le même phénomène que pour les liens factices utilisés jusqu'en 2012 et l'arrivée de Penguin : tout le monde faisait n'importe quoi, notamment avec les ancres suroptimisées. Et le filtre de Google a joliment signé la fin de la récréation. Et si Google a lancé Penguin, c'était parce que l'utilisation massive de liens factices mettait à mal son algorithme de pertinence. Même phénomène à l'époque avec la "sculpture de PageRank" grâce aux attributs nofollow. Lorsque ce type de pratique a été trop et mal utilisé, Google a estimé que cela pénalisait ses algorithmes et a changé les règles du jeu.
Aujourd'hui, on sent de la même façon venir l'utilisation massive de PBN par bon nombre de webmasters, et surtout par des personnes ne maîtrisant pas le système. Et qu'on ne me fasse pas croire que les ingénieurs et les équipes antispam de Google n'ont pas la possibilité de créer un algorithme pour détecter ce type de maillage. Il ne s'agit que d'une question de volonté de la part de la firme de Mountain View. Quand Google aura détecté que les PBN ne sont plus des actions isolées de black hat s'amusant "dans leur cuisine" mais que le phénomène se répand trop et n'importe comment, il frappera fort et flinguera tout ça dans les grandes largeurs. Je vous laisse choisir le nom de la bêbête noire et blanche qui donnera son nom à ce nouveau filtre (lémurien ? Zèbre ? Dalmatien ?). Personnellement, je pense sincèrement que cela arrivera dans les prochains mois, et au plus tard avant la fin de 2018. Mais je peux me tromper, bien sûr...
Trois approches possibles
Sur cette base, libre à chacun de mettre en place des PBN avant que l'épée de Damoclès ne tombe. Tout dépend surtout de la façon dont on fait du référencement et dont on conçoit son métier :
- Pour ses propres sites ;
- Pour les sites de clients qui paient pour cela.
Et cette approche multiple change tout : si vous créez des PBN pour vos sites, il s'agit donc de votre problème. S'ils se font dézinguer par le futur filtre de Google, vous n'aurez à vous en prendre qu'à vous-même et vous l'assumerez, j'imagine. Après tout, qui ne tente rien n'a rien. Vous avez joué, vous avez perdu. Mais vous avez tenté. Et puis, allez savoir, vous avez peut-être eu le temps de connaître le succès et de gagner beaucoup d'argent avec cette technique. Bref, tout ça est éphémère et vous passerez dans quelques mois à une autre nouvelle mode. Il en est ainsi depuis que le Web et le SEO existent. A chacun de faire comme il l'entend avec ses propres sites. Personnellement, cela ne me pose aucun problème.
Deuxième cas : vous avez mis en place des PBN pour des clients en leur expliquant clairement que c'est une technique qui fonctionne (quand elle est bien implémentée) mais qu'elle est très risquée et peut être d'une pérennité très incertaine. Bref, vous lui avez exposé les dangers d'une telle stratégie. C'est donc le client qui accepte - ou pas - de prendre des risques à ce niveau. Mais il ne faut pas qu'il oublie que quand un site est pénalisé par Google, il ouvre un "casier spam" chez le moteur et que la deuxième lame (en cas de récidive) est le plus souvent bien plus cruelle que la première. En clair, il a grillé son joker... D'autant plus que Google sait parfaitement à quelle entreprise/entité appartient un site web et qu'il peut donc être tenté de regarder de plus près les autres sources d'information du même propriétaire à l'avenir... Le référenceur, lui, sera anonyme dans l'histoire - s'il fait bien les choses - et ne sera pas inquiété...
Troisième cas : le référenceur propose des PBN à un client sans l'avertir des risques qu'il prend. Dans ce cas, cela se rapproche de la malhonnêteté et du manque d'étique et on peut estimer que ce type de comportement est plus grave, voire inacceptable. Car si le site du client est pénalisé, c'est ce dernier qui en paiera le prix, et certainement pour de nombreuses années. Le sait-il seulement quand il signe pour ce type de pratiques ?
Chacun sa route, chacun son chemin...
Ce qui est certain (et je peux vous l'affirmer "de source sûre"), c'est que Google connait parfaitement les systèmes de PBN (il ne faut pas croire qu'ils sont naïfs à ce point) et qu'ils considèrent ces actions comme du spam, comme l'expliquent ses recommandations aux webmasters qui sont très claires à ce niveau : "Tout lien visant à manipuler le classement PageRank ou le classement d'un site dans les résultats de recherche Google peut être considéré comme faisant partie d'un système de liens, et constitue, de ce fait, une infraction aux Consignes aux webmasters de Google." Une phrase qui s'adapte parfaitement à la définition d'un PBN.
Sur cette base, ce sera bien sûr à chacun d'agir en son âme et conscience, avec la pérennité qu'il désire obtenir pour sa visibilité sur le Web. Chacun est maître de ses actions et il n'est pas question ici de donner une quelconque leçon à qui que ce soit. Il faut juste agir en toute connaissance de cause et éviter de renouveler les erreurs du passé. Mais l'avantage est justement qu'on peut s'appuyer sur ce qui s'est passé depuis 5 ans sur le Web (bref, depuis que Google bastonne à tour de bras les sites qui tentent de manipuler son algorithme). A chacun de voir ce qu'il compte faire. Le tout étant de connaître les risques éventuels, de les évaluer, et de prendre les bonnes décisions... On pourrait imaginer que les leçons de Panda et surtout de Penguin ont été comprises et digérées, mais est-ce vraiment le cas ? A vous de voir...
Chapeau blanc (white hat) ou chapeau noir (black hat). Telle est la question... Source de l'image : DR |
Bonjour,
Après avoir lu votre article, j’ai un problème pour savoir quelle stratégie prendre danse cas d’un cabinet dentaire avec plusieurs dentistes.
Est ce que le faite de créer plusieurs sites pour plusieurs praticiens, peut poser probleme? Du faite qu’ils ont des sujets en commun comme la profession, l’adresse le numéro de téléphone ?
Si vous ne spammez pas, aucun problème 🙂
Quand on prend un serveur mutualisé, le site sera hébergé parmi des centaines voire des milliers d’autres sites. Certains ont même les mêmes thématiques, les mêmes objets et peut-être même les mêmes structures. De plus, tous les sites portent le même IP (qu’on me corrige si je me trompe). Est-ce que Google serait tenté de considérer tous ces sites comme étant des PBN ? Si oui, pourquoi il n’a jamais pris des mesures ? Tout le monde ne peut pas se payer des serveurs dédiés ! Quant à moi, je suis d’accord pour ceux qui disent que GG aura vraiment du mal à identifier les sites en réseaux (mauvais comme on l’a dit).
Le plus dur est de résister aux demandes des clients qui voient leurs concurrents prospérer grâce à ces techniques (en attendant de chuter lourdement d’ici quelques temps). Même une bonne explication ne suffit parfois pas…
Hallucinant que personne ne parle de la base … le trafic ! Sur quoi gg pourrait taper entre un mauvais et un bon pbn ? L’un est fait f expiré dans les choux et n a pas de traf l autre rank et génère une activité (trafic / comportement)
de plus 1 page = 1 article = 1 lien sortant … facile à démonter !
Peut-être que Google tapera les PNB mais alors sur quoi sera basé le nouvel algorithme pour référencer naturellement les sites ? Seulement sur la qualité du contenu onsite ?
Les ecommerces risquent de ne pas apprécier…
Peu importe si il y a des changements, ce qui m’intéresse c’est l’après !
Je comprends la réaction de pape diop, les sites traitant d’actualité de référencement disent que pour un bon positionnement, rien de tel qu’un contenu de qualité et un site bien optimisé, sauf qu’il est de plus en plus difficile d’avoir des backlinks « naturels » même avec du contenu bien optimisé. On ne peut pas demander au boucher du coin d’optimiser son site et de nous sortir 10 articles sur les merguez sous prétexte de devoir fournir du contenu de qualité , ceci est ironique bien sûr ?. Je pense que les PBN , si on a un background de développeur avec une connaissance en réseau, je pense notamment aux ranges d’adresse ip et de classe d’ip, des layouts différents de sites web, pas de points communs,du contenu de qualité et des partages via les réseaux sociaux, ça peut le faire. Il faut être prudent bien évidemment.
C’est ce que dit l’article : à chacun de faire comme il l’entend, à partir du moment où tout le monde est au courant et où le propriétaire du site est conscient de ce qui est fait.
Après c’est bien tout ça, mais libérez un peu les secrets aussi Père ABONDANCE comment faire pour venir en haut ? Ce n’est sûrement pas un contenu de qualité et un site bien optimisé.
Non, non. Un contenu pourri et un site moisi, ça marche nickel aussi 😀
On peut aussi imaginer que GG attende pour frapper une technique blackhat que celle-ci soit suffisamment généralisée pour que le nombre de victimes important part ramène vers Adwords les brebis égarées et pour que la peur de la répression règne au maximum …
Le terme « PBN » est bankable aujourd’hui, c’est tout ce qui compte pour les vendeurs de rêve / de pelle ! Encore un raccourci pour les newbies qui s’imaginent pouvoir gagner de l’argent sur internet à moindre frais (on en revient toujours au même postulat de base).
Le PBN mal fait est une formidable aubaine pour les concurrents qui n’ont pas à aller chercher loin pour remonter toute une stratégie de netlinking…
L’arbitrage doit se faire avec : » la pérennité qu’il désire obtenir pour sa visibilité ».
La vie est faite de choix (plus ou moins bons ou mauvais).
Les outils PBN qui arrivent sur le marché SEO sont pour moi très dangereux à utiliser. Les footprints sont monstrueux. C’est principalement les réseaux fournis par ce type d’outil qui vont le plus souffrir. Pire, c’est encore incroyable de voir en 2017 des réseaux de sites CP généralistes tous codés en WP ! Il ne faut pas s’appeler Google pour détecter un tel réseau.
Un bon réseau coûte cher mais il peut être très efficace si tu prends le temps de ne pas avoir de points communs entre tous les sites.
Est-ce que le rachat de NDD, pour profiter de son jus, est associé au PBN ?
Les PBN se font souvent, effectivement, sur la base de NDD expirés…
toute la nuance va se situer en le PBN et le réseau de site.
Des groupes comme seloger on a un réseau de sites importants, qui rankent, font du trafic et s’échangent les liens. Tout à fait ‘naturel’. D’un autre côté si le PBN tend à faire des sites de qualité qui rankent et génèrent du trafic, pourquoi ne pas les considérer comme sites du réseau et pas comme un simple « apporteur de jus ».
Je pense que la frontière entre « réseaux de sites de qualité qui se suffisent à eux-même » et « réseaux de sites ayant pour objectif de manipuler Google » est on ne peut plus claire 😉
Il ne faut pas être naïf… 😉
C’est bien là que je ne suis pas d’accord.
Qu’est-ce qui empêche un site qui parle de l’économie d’avoir un sous-site pour parler de l’économie collaborative puis un autre qui parle de l’économie d’échelle, puis un autre sur l’économie circulaire ?
Comme pour tout en référencement, je pense qu’il y a un juste milieux entre automatisation de ces processus (méthode sale) et montage d’un réseau de site avec intérêt pour l’utilisateur (méthode super propre).
Je ne vois pas pour quelle raison M.Google interdirait M.Toto de disposer de 200 sites si c’est un éditeur professionnel.
C’est le manque de qualité des sites de ce réseau qui pourrait être pénalisable mais pas le fait d’avoir plusieurs sites.
Et là, sur quel critère Google peut-il se baser pour dire que le site est une suroptimisation et qu’il n’a aucun intérêt pour les internautes ? C’est vraiment pas si évident que ça.
L’exploitation des données Analytics pouvant donner à GG une bonne idée de ce qui est du vrai / du faux (l’absence d’Analytics pouvant être un facteur de doute …)