Malgré le fait que, selon Matt Cutts, le spam ait régressé ces dernières années, Google va intensifier cette année sa lutte contre les sites proposant peu de contenu original ou les "fermes de contenus" qu'il estime indésirables dans son index...
Un billet sur le blog officiel de Google en ce début d'année indique qu'en 2011, le moteur de recherche va renforcer sa lutte contre le spam dans ses résultats. Matt Cutts, son porte-parole, avait déjà indiqué il y a peu que Google allait regarder de plus près les tentatives de cloaking de la part de webmasters indélicats.
Toujours selon Matt Cutts, le spam dans les résultats de recherche du moteur serait à l'heure actuelle 5 fois moins important qu'il y a cinq ans pour les pages en anglais et encore plus faible dans les autres langues. Mais les spammeurs ayant redoublé d'effort depuis quelques mois (et le système d'indexation de contenu ayant changé et ayant augmenté sa capacité), l'équipe "Search Quality" va en faire de même pour contrer ces attaques, après la mise en place de l'algorithme Mayday en 2010...
Ainsi, un détecteur de spam a déjà été amélioré, tout comme un système de détection des sites hackés, qui étaient une importante source de spam en 2010. Les sites copiant les autres ou reprenant du contenu qui ne leur appartiendrait pas sont également dans la ligne de mire du moteur tout comme les "content farms" ou "fermes de contenus" qui commencent à pulluler sur le Web.
Mise à jour lundi 31 janvier 2011 : Matt Cutts a annoncé sur son blog la mise en ligne d'une modification de l'algorithme de Google visant à minimiser l'impact des sites reprenant du contenu sur d'autres sites, sans proposer d'informations complémentaires et personnelles...
Mise à jour jeudi 3 février 2011 : selon le site Search Engine Land, la mise à jour de l'algorithme de Google n'était toujours pas effective et aucune date ne semblait avancée à ce sujet...
Source de l'image : Abondance |
Plus d'infos :
- http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=35769
Source(s) :
- Google search and search engine spam (Google)
Articles connexes sur ce site :
- Google pourrait améliorer sa détection du cloaking en 2011 (29 décembre 2010)
- 1 million de pages de spam créées chaque heure selon Blekko (10 janvier 2011)
- Google avertit des sites hackés dans ses résultats (20 décembre 2010)
- Google "roi du malware" ? (2 août 2010)
- Certaines requêtes renverraient 90% de spam. Google Trends mis en cause (7 avril 2010)
- Google Trends, nouvel outil de recherche pour les créateurs de malware ? (5 mars 2009)
- Google : 1 page web sur 1000 est infectée par des malwares (20 février 2008)
- Bug mondial pour Google : tous les sites en "badware" (2 février 2009)
- Un spyware modifie les résultats de Google (8 septembre 2005)
- Malware : Google attaqué, réplique et appelle à la dénonciation (5 décembre 2007)
La grande question est : quels vont être les critères ? Car un critère mal choisi peut faire passer un site un peu limite en content famr !
Je pense qu'il serait temps que Google mette à jour ses critères pour qualifier certaines pratiques de spam (ou pas).
Cela aiderait les webmasters à mieux cerner ce qu'ils ne devraient pas faire.
Bonne nouvelle quand on voit sur certaines recherches qu'on voit sur les 10 résultats: 5 sites qui agrègent le contenu d'autres sites sans apporter une réelle valeur ajoutée.
Les Fermes de contenu vidéo comme Kewego seront-elles également touché ?
Kewego partage sont contenu avec plus d'une centaine de sites et pourtant la majorité de son contenu n'est pas traité en duplicate content…
Je suis étonné de voir que sur certaines requêtes correspondant au titre de la vidéo (mise en balise title sur les sites partenaires Kewego et sur Kewego) l'on puisse trouver jusqu'à 7 fois la même vidéo sur la page de résultat Google…
Exemple pour la requête : "F4 monaco vue mer"
résultat : Recherche Google F4 monaco vue mer
apparemment les vidéos sont publié via le site www.immozip.com