Lors du salon SMX West, Matt Cutts et Maile Ohye ont donné plus d'indications sur les pénalités octroyées par Google lors de sa dernière mise à jour Panda. Et annoncé son prochain lancement en Europe...
On le sait, la mise à jour de l'index de Google, baptisée "Panda" pour les uns et "Farmer" pour les autres, a fait couler beacoup d'encre ces dernières semaines. Lors du salon SMX West, Matt Cutts et Maile Ohye ont donné plusieurs indications intéressantes à ce sujet, reprises par le site Search Engine Land (à noter également un transcript d'une série de questions/réponses avec Matt Cutts sur le même site).
Voici les indications fournies à cette occasion sur Panda :
- Les pénalités octroyées aux sites considérés comme spammeurs le sont de façon globale, pour le site en entier. Même si, par exemple, seulement 10% des pages du site sont considérées comme proposant du contenu de faible qualité pouvant être assimilé à des "fermes de contenus", c'est tout le site qui partira dans les limbes de l'index... Si le site vient de sortir et qu'il n'a pas assez de contenu de qualité, le conseil de Google est de désindexer ce contenu (balise meta robots, fichier robots.txt) tant qu'il n'a pas atteint une qualité suffisante. Rien que ça...
- Les sites proposant trop de publicités, notamment au-dessus de la ligne de flottaison (ce qui est visible sans utiliser l'ascenceur) peuvent être considérés comme des sites spammeurs.
- Lorsqu'un site est pénalisé, Google réduit également la fréquence de crawl de ses pages. Il est donc moins souvent visité par ses robots. En clair, si vous vous apercevez que la fréquence de crawl de vos pages a baissé, cela peut signifier un signe de pénalité de la part du moteur de recherche...
- Le cloaking, même à des fins de "white hat" (par exemple : proposer, pour un site 100% Flash, des pages HTML aux moteurs) est considéré comme du spam et peut être pénalisé. Matt Cutts semble avoir été très clair sur ce point.
- De nombreuses autres améliorations de l'index sont prévues pour cette année, et notamment l'identification du contenu "volé" ("scrappé") sur d'autres sites.
- Les liens insérés dans les communiqués de presse ne seraient pas pris en compte dans le calcul du PageRank (étonnant ?).
De nombreuses autres informations, plus pointues, sont à lire dans le compte-rendu du site Search Engine Land.
Bref, la mise à jour Panda de l'algorithme de Google risque également de faire quelques dégats en Europe et en France lorsqu'elle y sera déployée, c'est-à-dire dans quelques semaines si on en croit les deux googlers, qui ajoutent qu'elle devrait être moins significative en dehors des Etats-Unis, les problèmes visés par Panda étant plus particulièrement cruciaux outre-Atlantique. On verra bien mais, en attendant, de nombreux webmasters dorment moins bien ces temps derniers dans l'Hexagone...
Source de l'image : Abondance |
Articles connexes sur ce site :
- Un quart des grandes entreprises pourraient être visées par Panda, le nouvel algorithme de Google (14 mars 2011)
- Google permet de supprimer des résultats de ses recherches (11 mars 2011)
- Spam : Gooogle et Bing utilisent des "whitelists" de sites intouchables (11 mars 2011)
- Google : des filtres humains pour détecter le spam (11 mars 2011)
- Une extension Chrome pour bloquer les sites indésirables et lutter contre le spam (15 février 2011)
- Google rachète BeatThatQuote.com... Et le pénalise aussitôt ! (9 mars 2011)
- Les 25 sites les plus pénalisés par le nouvel algorithme de Google (28 février 2011)
- Nouvel algorithme de pertinence pour Google (25 février 2011)
- 2011, l'année de la lutte contre le spam et les "content farms" pour Google ? (24 janvier 2011)
- Google pourrait améliorer sa détection du cloaking en 2011 (29 décembre 2010)
- 1 million de pages de spam créées chaque heure selon Blekko (10 janvier 2011)
Le fait de traduire des textes d'autres langues, est avisé comme ne pas fonctionnér alors pour trouver un contenu unique pourquoi ne pas se pencher vers de véritables professionnel, avisé a la structure de conditions de travail web.
Un nouveau métier en somme ?
Comment peut on déterminer un contenu unique dans le cas de sites d'annonces?
A ce jour + 70 % des professionnels automobile utilisent des logiciels qui évitent de multiple saisie, une fois l'annonce saisie dans le logiciel, elle est envoyée en même temps sur les différents portails supports ou annonce le professionnel .
( la centrale, auto reflex, auto selection, l'argus… )
Pour sortir de la sandbox ensuite certains vont pas manqué de travaille.
Ceux qui ont bénéficiés des effets de Google Panda estiment que leurs visites ont augmentés de 30 à 40 %. Mais ils souffrent aussi d’un effet de surréférencement, c’est à dire que leurs sites sont bien positionnés sur des mots-clés qui n’ont aucun rapport avec leur thématique. Donc, l’audit SEO ou même l’écriture de leurs prochains articles s’avèrent très difficiles, car ils ne savent plus quoi faire.
les sites qui seront pénalisés feront remonter les autres et cela créra du travail pour les rédacteurs-référenceurs.
Pourvu que les sites full-Flash ne soient pas trop touchés car ce serait dommage de les descendre à cause qu'il n'y ait pas de veritable solution de référencement naturel pour Flash.
En tout cas moins de sites inutiles avec que de la pub, c'est une très bonne nouvelle et il était temps !
A propos du contenu "volé" : comment google compte identifier l'auteur original du contenu pour ne pas pénaliser ce dernier… ?
Google a certes "affinités" avec quelques gros sites, Amazon, Pagesjaunes en France …
On ne changera pas grand chose à cela, mais il faut reconnaitre qu'il y a beaucoup de places en premier, libre, sans ces "partenaires" + ou moins privilégiés …
.. et places souvent oqp par des spammeurs et pro du blackhat … donc, la "guerre" de Google est légitime globalement …
« Les sites proposant trop de publicités, notamment au-dessus de la ligne… »
Google devra-t-il s'autodétruire au vue de la pub qu'il affiche sur ces pages de recherche… trop drôle.
Bref en un mot Google sur tous les points invoqués dans cet article se fout complétement de nous. Le spam par exemple… tout le monde connait les 25 milliards de page indexées par Google concernant Amazon et idem pour quelques gros sites spammeurs français… Et à chaque fois la même ritournelle, attention google vous le dit… du grand n'importe quoi. Google est un site commercial point barre, le reste n'est que littérature.
Voilà une très bonne chose. Personnellement, je vais mettre en veille un très grand nombre de pages sans contenu réel et tout concentrer sur les pages plus informatives, de mon très vieux site de 1996 … à refaire de A à Z …
Je ne gagne pas un sous, pour le moment, je retravaille sur le site depuis plus d'un an, et a l'examen de ce qui se passe sur le Web, le nombre de "faux" sites, fermes de contenu pour adsence etc. est phénoménal …
Depuis 1 an, Google change sans arrêt ses présentations, ses algorithmes, ce qui se traduit par un travail considérable pour notre annuaire généraliste, surtout quand on travaille sur 1000 rubriques et sur 100 départements …
Quelques semaines encore avant la mise en ligne de notre nouvelle versions et ses 3 millions de références (23 000 actuel), nous espérons que le "PANDA" bien agressif de Google nous sera plutôt favorable, et fera un peu plus le "ménage".
Nous méritons d'être "dans les profondeurs" pour le moment, sans nul doute, mais je reste "effaré" du nombre de sites bien placés et sans réel contenu.
Pour info, google revisite nos pages a une cadence d'une tous les 2 à 3 jours, nous sommes sûrement très mal noté (à juste titre).
Mauvais point pour Google, nous avons eu beau modifier notre présentation pour tout concentrer sur les pages de meilleur contenu, google se promène au hasard apparemment, même avec un sitemap et page "notés en valeur 0,9 (…)" , il y a plus de pages sans valeur qui sont référencées que celles qui ont un bon contenu… Nous avons totalement épuré le site en attendant la nouvelle « mouture » qui vraiment devrait être aussi sympa qu’utile.
Nous allons donc désindexer, pour le moment, tous les répertoires sans contenu suffisamment intéressant, en plaçant un fichier robots.txt là ou nous souhaitons désindexer des pages et répertoires en entier.
Je m’interroge aussi grandement sur les « réseau sociaux » , si certains sites peuvent ou doivent communiquer avec eux, beaucoup n’ont pas vraiment leur place concernant les entreprises. Nous n’avons aucun lien venant de ce domaine, il y à peu de raisons …
Il me semble qu’une certaine « folie » des entreprises les conduisent a occuper les réseaux sociaux simplement pour une « mode » et quelques backlinks …