Le site HubPages se vante d'avoir trouvé une parade à Panda en créant une myriade de sous-domaines pour éviter les pénalisations. Une méthode difficile à valider et qui , de toutes façons,ne résoud pas les problèmes de fond...
Le site HubPages a créé le buzz dernièrement en indiquant avoir trouvé une parade à Google Panda (qui avait très durement touché son trafic) : il suffirait d'isoler certains contenus dans des sous-domaines précis. Par exemple, HubPages proposant à de très nombreux contributeurs d'écrire des textes, il suffirait de créer un sous-domaine par rédacteur. Ainsi, un sous-domaine étant identifié comme un site à part entière par Google, si un contributeur fournit de "mauvais" contenus, ce sera son sous-domaine qui sera pénalisé et pas celui des autres. Le système est identique à ce que proposent certaines plateformes de blog ou des FAI pour les sites perso de leurs abonnés.
Selon Paul Edmondson, responsable de HubPages, les gains de trafic auraient été fulgurants, allant jusqu'à +50 ou 100%. Ceci est cependant surprenant, puisque Panda est un "filtre de nettoyage", lancé manuellement et qu'a priori, aucun nouveau lancement n'a été noté depuis le 16 juin dernier, alors que la mise en place de ces sous-domaines par le site en question date de la fin juin.
D'autre part, il ne nous semble pas que cette méthode de création d'une constellation de mini-sites soit bonne. En effet, la taille (en termes de nombre de pages) d'un site est également importante pour Google. Disposer d'un mini (ou micro) site n'est pas bon en SEO. Et, par expérience, éclater un site énorme en une myriade de petits sites n'est pas une opération efficace en référencement naturel.
Le plus bizarre finalement, dans cette histoire, est que Paul Edmondson aurait bénéficié des conseils de Matt Cutts, le porte-parole SEO de Google, qui l'aurait encouragé à mettre en place ce système. Très étonnant...
En tout état de cause, on peut estimer, à l'instar de Philippe Yonnet, que ce type de manipulation n'est pas à mettre en place pour l'instant. IL aurait certainement mieux valu, pour HubPages, désindexer les contenus de mauvaise qualité pour ne garder que le "bon grain". Cela aurait été certainement plus efficace à long terme !
Source de l'image : Abondance |
Articles connexes sur ce site :
- Un Ebook sur Google Panda : Comprendre, Analyser, Agir (30 juin 2011)
- Google Panda 2.2 bientôt lancé dans le monde anglophone (10 juin 2011)
- Google Panda est-il - vraiment - déjà déployé en France ? (2 juin 2011)
- Non, Panda n'est pas une mise à jour de l'algorithme de Google (31 mai 2011)
- Google Panda en France : dans les deux mois à venir ! (26 mai 2011)
- Google Panda va-t-il faire 'Pschitt' en France ? (26 avril 2011)
- Panda : analyse des effets de la mise à jour au Royaume-Uni (16 mai 2011)
- Google Panda a-t-il connu une troisième secousse ? (9 mai 2011)
- Google : 23 questions à se poser pour éviter Panda (7 mai 2011)
- Première réplique de Google Panda : eHow affecté en Grande-Bretagne et aux Etats-Unis (19 avril 2011)
- Google Panda UK : nouvelles stats sur les sites perdant du trafic (14 avril 2011)
- Google Panda déployé en Grande-Bretagne : les premiers perdants et gagnants apparaissent (13 avril 2011)
- Google Panda continue son déploiement, mais pas encore en France (12 avril 2011)
- Google Panda : plus d'infos et arrivée en Europe ! (17 mars 2011)
- Un quart des grandes entreprises pourraient être visées par Panda, le nouvel algorithme de Google (14 mars 2011)
- Les 25 sites les plus pénalisés par le nouvel algorithme de Google (28 février 2011)
- Nouvel algorithme de pertinence pour Google (25 février 2011)
Quelques mois après Panda semble faire moins de bruit. Un effet d'annonce plutôt qu'une grosse modification dans l’algorithme ?
D'autant plus que Google peut bloquer des sites également via leur adresse IP en cas de spam avéré donc cette méthode n'est en rien une parade !
contrer google panda?? c'est très difficile …merci partager cette information.
Vraiment difficile de croire à cette histoire de sous domaines pour contrer le "panda". Ce filtre Panda se fait véritablement attendre. N'est ce pas d'ailleurs qu'un simple effet d'annonce de la part de Google ? Cela ne m'étonnerait pas du tout…
Merci pour ces informations plus qu'utiles sur la gestion du filtre Panda. C'est une première solution à la sanction, mais il y en aura probablement d'autres qui seront découvertes au fur et à mesure…
Je pense que c'est en effet une bonne méthode, réservée a certains cas. le côté "niche" ou "individualité" d'un sous domaine n'a de valeur qu'avec un minimum de volume de pages.
Pour info, j'ai bien supprimé 90% de mon contenu, le plus pauvre, en le desindexant avec fichier robots.txt, balise noindex et fichier sitemap. Résultat , nul. Aucune augmentation de trafic sur les pages les plus lourdes (3000 pages), j'ai même l'impression que c'est pire.
Cette désindexation est un préalable a un eclatement en sous domaine. Toutefois, avec l'arrivée de nouvelles données, chaque sous domaine devrait avoisiner les 80 000 pages, ce qui est assez conséquent. Pour l'indexation, google fera ce qu'il voudra, mon site n'est pas fait pour google, mais pour les internautes … Je verrais bien en Aout lors de la mise en place.
Je trouve que assez c'est risquer de s'afficher avec certitude quelque soit la méthode utilisée pour "contrer" le Panda de Google.
De plus, si Google met Panda en place c'est pour enlever la "mauvaise graine" donc trouver un subterfuge et le citer c'est qu'une mise à jour de plus pour Google Panda.
On peut dire un bug de moins :).
Cette méthode n'est clairement pas efficace et je suis d'accord avec le commentaire d'Erwan au sujet d'un éventuel conseil de Matt Cutts
C'est intéressant comme méthode. Après faut voir sur la durée.
Je me pose la question de la qualité, comment GG la juge t-elle ? La quantité de texte ?
@Daniel,
je ne vois pas en quoi Matt dirait des choses pour contourner la loi. Il donne(rait) une méthode pour qualifier un travail. En somme, il répartit les articles via des sous-domaines permettant ensuite à Google de juger la qualité de chacun.
Oui, oui, merci pour la précision, je transférais le sujet à une préoccupation tout à fait personnelle, et qui, effectivement n'a pas vraiment le même but.
A+++
Mais les 301 ne servent pas à la même chose. Ou les utilisera plutôt pour des pages ayant disparu et pour lesquelles on veut garder les backlinks et les trasnmettre à une nouvelle page…
Alors que dans le cas qui nous intéresse ici, les pages ont un mauvais contenu mais on veut le garder en ligne (accessible aux internautes) tout en le désindexant des moteurs. Dans ce cas, les 301 ne sont pas possibles…
a+++
Ok, je retesterai en ce sens dans ce cas.
Jusqu'alors ça n'avait pas été concluant (mais peut-être n'avais-je pas assez patienté ?), et j'avais plutôt utilisé des redirections 301.
Merci encore et à la prochaine !
Ben non, si tu mets un fichier robots.txt ou une balise "noindex", Google vire la page ou le répertoire en question de son index.
Il peut y avoir des liens vers elle, ça ne fait rien.
Pour le Sitemap, il serait effectivement logique de supprimer l'URL (ou les URL) de ce fichier.
a+
Yes, yes, mais tout ça c'est dans sur ton propre site, n’est-ce pas ?
Comment faire pour ceux qui t’ont déjà linké, liké, tweeté et autres plussoyé ?
Même si je désindexe la page originale du site à l’aide du fichier robots.txt, elle restera toujours référencée via les autres qui la citent…
Déjà ne serait-ce que par le sitemap du site, à l’origine… Ou alors, j’ai mal compris ?
Merci en tout cas pour ton aide !
Bonjour Emmanuelle 🙂
Oui désindexer l'ivraie via le fichier robots.txt ou la balise meta robots "noindex" pour ne garder que le bon grain :-).
A+++
Bonjour mon formateur favori,
Et merci pour cet article intéressant !
Petite question sur ta dernière phrase (peut-être un peu simplette, ma question, je m'en excuse par avance…) : tu indiques _ à juste titre_ qu'il aurait été plus malin de « désindexer les contenus de mauvaise qualité pour ne garder que le "bon grain" ».
Donc, idéalement, comment serait-on censé procéder pour désindexer ?
Sachant que certains sites et blogs peuvent avoir à leur tour relayé et mentionné le "mauvais grain" ailleurs…
Existe-t-il une solution rapide et efficace (et si en plus, si GG empêche la suppression des pages, on n'est pas aidés…) ?
Merci d'avance pour tes lumières,
Emmanuelle.
J'avoue que je suis sceptique sur le fait que ce soit Matt Cutts qui lui aurait conseillé d'appliquer cette technique. C'est comme si les flics expliquaient à un malfrat le moyen de contourner le nouveau dispositif de sécurité : cela n'a pas de sens…
Bizarre comme méthode et probablement peu durable (si efficace). Je me rappelle qu'il y a quelquelques années, la multiplication des sous-domaines pour spammer avait eu son heure de gloire 🙂