Matt Cutts explique dans une vidéo que le filtre de nettoyage Panda est aujourd'hui intégré dans le processus d'indexation des pages mais ne répond pas vraiment à la question posée par un internaute sur les actions à mener. A quand une attitude responsable et professionnelle de la part de Google envers les fournisseurs de contenus ?...
Matt Cutts a posté une nouvelle vidéo (2'35", tee-shirt noir à dents longues), sur le thème What should a site owner do if they think they might be affected by Panda? ou, en français, "Que doit faire un propriétaire de site s'il pense que celui-ci a été impacté négativement par Panda ?".
Matt Cutts explique qu'au fil du temps (Panda a été lancé pour la première fois il y a plus de deux ans), les modifications dans l'ADN de Panda sont devenues moins fortes, l'algorithme du filtre devenant globalement satisfaisant et le nombre de sites impactés moins important. La décision a donc été prise de l'intégrer plutôt au moment de l'indexation des pages. A part ça, la réponse de Matt est très décevante. En gros : "Si vous pensez que votre site est touché par Panda, mettez en ligne du contenu de bonne qualité". Ah oui d'accord... On ne s'en doutait pas...
Des questions capitales restent sous silence
Il passe hélas sous silence des questions importantes - voire capitales - comme :
- Pourquoi Google n'indique pas la pénalité Panda dans les Google Webmaster Tools, comme c'est le cas maintenant pour les pénalités manuelles, avec exemple de contenus "de faible qualité" à la clé ?
- Si Panda est intégré au processus d'indexation, pourquoi Google indexe-t-il une page estimée de faible qualité dans ce cas ? Quel est l'intérêt ?
- Quelle est la réelle (et précise) définition par Google du "contenu de faible qualité" ? Si des méthodes de scraping ou de spinning et globalement toute pratique traduisant une volonté de produire un contenu de façon automatique peuvent être analysées ainsi, cela se comprend. Mais est-ce que de très nombreux formulaires, des pages avec peu de texte ou des produits très similaires sur une boutique en ligne peuvent également être ainsi considérées ? Et que faut-il faire pour éviter Panda dans ce cas ? Les désindexer ? Intégrer une balise "canonical" ? Etc.
On peut espérer qu'un jour, Matt Cutts comprenne que le Web n'est pas composé que de spammeurs bourrins et qu'il existe une large frange de gestionnaires de sites web qui ne désirent qu'une chose : optimiser leur site afin d'offrir la meilleure expérience possible à leurs visiteurs. En direct ou au travers de Google. Malheureusement, ce n'est pas avec ce type de vidéo que la société de Mountain View pourra les aider. A un moment donné, Google ne pourra plus faire l'économie d'un travail réellement sérieux envers les webmasters. On ne peut pas d'un côté dire "Faites du contenu de bonne qualité ! sans aider ceux qui en produisent. Sans donner en complément des indications précises et efficaces sur les moyens de le faire. Sans fournir la vision formelle du moteur de recherche à ce sujet. C'est trop facile... En clair : à quand une vision réellement professionnelle du travail des fournisseurs de contenus de la part de Google ? Ce serait un vrai et bon changement de vision et d'approche... Qui profiterait à tous ! Mais Matt Cutts nous entendra-t-il ? Le veut-il seulement ?
Source de l'image : Google |
Salut Olivier,
En effet LA question est qu’est-ce que du contenu de faible qualité, si mon produit est intéressant mais que les images parlent d’elles-même, dois-je créer du texte creux qui serait presque aussi inintéressant que de la soupe/bouillie pour passer au travers de Panda ?
Second point : Panda déteste le duplicate content en revanche il n’a pas d’historique du contenu dit de qualité et lorsqu’un portail, géré par un webmaster sans scrupules, vous pique votre fameux contenu et que c’est finalement l’auteur de ce texte qui se fait pénaliser… Quand-est-ce que Google daignera faire quelque chose contre ça ?
Fred
Tes questions restées sous silence par GG nous laissent muets, la teuteute à la bouche…
Et à force de chercher une solution logique à ces problèmes de règles du jeu imbitables, il ne reste plus qu’à opérer une régression intellectuelle en se disant que si Matt veut jouer au chat et la souris c’est qu’il nous prend pour de grands garnements.
C’est pas GG Panda, c’est Google Panpan…
Merci pour l’article, on commençait à s’en douter, car c’est le filtre le plus facile à appliquer , il suffit de prendre les critères de ratio de texte, de duplication et ca roule. Je pense que c’est une bonne chose de faire ca dés la début tout en amont !
Par contre avec Penguin c’est une tout autre histoire 🙁
Olivier, je pense que Google est devenu autant parano que les référenceurs…
On voit tous dans Google un fourbe qui va nous flinguer, et Google voit derrière chaque site, quelqu’un qui essaye de le « manipuler » (venant de lui ;-)… pas sûr qu’au final le gagnant soit Google, l’avenir le dira.
Bonjour ! Merci pour l’information; mais je pense que tout le monde a lu et relu « contenu de bonne qualité » … rien de nouveau de la part de Google à ce niveau là.
Bonjour,
J’ai un petit renseignement concernant le SEO. Pensez-vous que la balise strong soit meilleure en terme de référencement que la balise b ? Merci
Bonjour,
J’ai un petit renseignement concernant le SEO. Pensez-vous que la balise soit meilleure en terme de référencement que la balise ? Merci
On ne peut qu’adhérer à tes réflexions sur la politique de Google vis-à-vis des webmasters. Je suis empêtré dans des pénalités, pourquoi ? Parce qu’après avoir construit des sites avec du contenu que j’estimais utile aux visiteurs dans les années 2008-2010, j’ai attendu que Google tienne sa promesse de favoriser le contenu de qualité…
Ne voyant rien venir et exaspéré par les sites spammeurs à faible contenu devant moi dans les résultats de recherche, j’ai commencé à adopter certaines de leurs méthodes : ça n’a pas loupé, j’ai récolté Panda pour l’un, Pingouin pour l’autre et une pénalité manuelle pour le 3e.
J’essaie désormais de m’en sortir mais cela me prend évidemment beaucoup plus de temps que la création de contenu éditorial de qualité pour mes visiteurs ! Bref, je ne pense pas être le seul dans ce cas, à payer les errements de Google en terme de communication et de lutte contre le spam depuis des années.
Pour ma part, je pense que ces vidéos ont un but marketing mais aussi un intérêt dissuasif (un peu comme avec la Syrie d’ailleurs !) vu les réponses qu’elles nous apportent et la logique de raisonnement ! J’ai le sentiment qu’aujourd’hui l’algorithme de Google possède de sérieux dysfonctionnements et qu’un petit coup pouce des propriétaires de sites, webmasters et seo ne seraient pas de trop.
Bonjour et merci pour cette revue. Tu relèves des points bien intéressants dans ton analyse.
J’ai l’impression que l’algorithme est devenu un tel paquebot à manœuvrer que les grosses mises à jour sont devenues (très) délicates. C’est compréhensible, vu les enjeux. Il est vrai que nous restons un peu sur notre faim avec cette vidéo… Vivement la prochaine 😉
Si le nettoyage se fait en amont, c’est probablement que le filtre est là pour écumer les pages dont le webmaster connais très bien la piètre qualité. Toutes les pages intermédiaires par exemple, comme les listes de tags ou les résultats de moteurs internes ?