Google , par l'intermédiaire de John Mueller, a indiqué et confirmé hier que s'il utilisait parfois des systèmes de 'listes blanches' (whitelists) pour donner une impunité à certains sites dans des cas particuliers, Panda et Penguin n'étaient pas concernés par de tels systèmes...
En mars 2011, Google avait annoncé qu'il utilisait des "white lists" (listes blanches) pour certains de ses algorithmes. Ces listes de sites permettent à ceux qui en font partie de ne pas être touchés par certaines pénalités. Des listes qui (mais est-il nécessaire de le dire ?) ne sont pas publiques...
John Mueller l'a confirmé hier dans un hangout en indiquant qu'effectivement ces "listes blanches" existaient "pour des cas individuels" et parfois de façon temporaire, le temps de corriger certaines erreurs (notamment pour le filtre Safe Search qui génère certains "faux positifs" ou sites web qui tombent dans le filtre sans être concernés a priori). Mais il a précisé que ni Panda ni Penguin ne fonctionnaient avec de tels systèmes. Tout le monde est mis dans le même sac (ou la même galère éventuellement). A écouter à partir de la 23ème minute dans la vidéo ci-dessous :
Source de l'image : YouTube |
@ Marie Kistler :
1. Panda est totalement déconnecté des notions de temps de chargement des pages.
2. C’est le temps de réaction du serveur (TTFB) qui est pris en compte par Google, plutôt que le temps d’affichage des pages.
3. Ca a un impact sur le crawl du site par les robots (et l’expérience utilisateur), mais je n’ai aucun exemple de site ayant perdu ou gagné des places sur ce critère.
Voir le guide Abondance sur les « 50 mythes SEO » 🙂
https://www.abondance.com/actualites/20140902-14235-50-mythes-seo-guide-pdf.html
Olivier, penses-tu qu’il est nécessaire de corriger des temps de chargement trop longs pour respecter les règles et éviter une pénalité Panda ? Où bien est-ce toujours un critère qui ne mérite pas tant d’attention. Avez-vous des exemples de réussite qui inclut une correction de ce critère ? Thanks
Si certains experts s’inquiètent de la puissance de l’Intelligence Artificielle, cette démonstration marque bien que l’humain est encore présent pour placer des priorités culturelles.
Certains sites ressortent en premier, mais ils sont également fortement sollicités par le public (on ne retire pas un dictionnaire d’une bibliothèque).
Ce qui est plus inquiétant, c’est la clairvoyance en matière d’optimisation de certains sites qui font toujours le maximum sans jamais en faire de trop.
On connait au moins un site qui est dedans et qui ne bouge pas des premières places depuis des lustres, je crois que le web se dirige tout droit vers un monopole des grands groupes, car il n’y pas que le temps passé à concevoir, il y a aussi les frais de serveur, c’est dommage beaucoup de petits éditeurs disparaitront avec leur talent, beaucoup de sites sont au fond des serps n’y ont pas leur place. Vraiment dommage !
Et si on recoupe les listes blanches avec les données whois par exemple (au hasard complètement fortuitement) on en arrive à créer d’autres indicateurs pertinents pour l’algo ? (Ex : site a whitelisté proprio x / site b pas whitelisté mais proprio x aussi > gain de trust ?)
Ca démontre que certaines franges de leur algorithme, y compris sur les pénalités, ne sont pas au top. Courage aux petits sites pris dans les griffes d’une pénalité pas vraiment justifiée qui ne seront jamais passé whitelist.