En novembre 2005, les sites web de plusieurs sociétés de référencement françaises, ainsi que ceux de certains de leurs clients, avaient été mis en "liste noire" par Google, provoquant un raz de marée important, circonscrit cependant au microcosme du référencement hexagonal.
Puis, début 2006, c'était le site allemand de BMW qui était blacklisté pendant quelques heures, générant un "buzz" énorme, cette fois auprès des entreprises européennes et notamment françaises.
Aujourd'hui, c'est au tour de plusieurs sociétés belges comme Heytens ou Nextiraone et bien d'autres qui ont disparu depuis plusieurs jours de l'index de Google. Toutes ces sociétés étaient clientes d'une grosse société de référencement outre-Quiévrain dont le site a également disparu du moteur... Bref, ça dégage pas mal en Belgique en ce moment, comme Google l'avait annoncé d'ailleurs, 2006 devant être l'année du "nettoyage" de l'index européen dans les langues autres que l'anglais... On en a aujourd'hui la preuve. On en parle d'ailleurs assez peu en France, mais le nombre de sites web mis en liste noire par Google dans l'Hexagone depuis le début de l'année, pour des périodes plus ou moins longues, est considérable...
Une chose me gène pourtant. Je fais de nombreuses formations au référencement naturel et à l'optimisation de sites web pour les moteurs et, à cette occasion, je rencontre de très nombreux responsables et décideurs d'entreprise. Et j'ai pu m'apercevoir depuis de nombreuses années à quel point la méconnaissance du domaine du référencement est considérable en France. Il ne s'agit pas ici de savoir pourquoi cette méconnaissance est si forte, mais plutôt de s'apercevoir que l'entreprise, jusqu'à maintenant, achètait le plus souvent à la société de référencement une "boîte noire" ayant pour objectif de générer du trafic sur son site. Le contenu de cette "boîte" étant le plus souvent totalement inconnu du client final qui, il faut bien le dire également, ne s'en souciait parfois que très peu...
Les temps ont changé et les clients vont certainement y regarder à deux fois avant de signer un contrat de référencement avec un prestataire. Ceci dit, la méconnaissance du domaine reste énorme. Qu'est-ce qui est interdit ? Qu'est-ce qui est autorisé ? Quelles techniques sont-elles pénalisées par les moteurs ? Des entreprises "de bonne foi" peuvent encore se faire "abuser" par des sociétés de référencement allant trop loin et vendant encore de la page satellite à tire-larigot... Car s'il existe des sociétés de référencement très sérieuses sur le marché, faisant un travail remarquable, d'autres sont, disons, un peu moins fiables. On m'a dernièrement rapporté le cas d'une société "experte" qui basait ses méthodes de référencement uniquement sur les balises meta "Keywords". Authentique... Difficile de crédibiliser un marché avec ce type d'abus...
Dans ce cadre, pourquoi les moteurs de recherche ne mettraient-ils pas en place une "liste grise", contenant des sites "fautifs", expliquant, par exemple en les classant par grandes familles ("contenu caché", "mots clés sans rapport avec le contenu du site", "utilisation de technologies de cloaking", etc.) les raisons de leur "disgrâce". Ces sites pourraient encore apparaître dans les résultats de recherche pendant, disons, trois mois, mais leur présence dans la "liste grise" signifierait une mise en liste noire automatique à la fin du délai indiqué si aucune action n'était faite. Cette "liste grise" pourrait, d'ailleurs, être commune aux moteurs de recherche majeurs qui collaborent déjà, rappelons-le, sur plusieurs autres projets (aucun de ceux-ci ne touchant cependant au spamdexing)...
Bien sûr, il subsiste dans cette idée une sorte de "mise au pilori" un peu malsaine, j'en conviens. Peut-être y aurait-il possibilité de "cacher", d'une façon ou d'une autre, l'intitulé du site incriminé dans cette liste grise "publique"... Mais celle-ci aurait une fonction "éducative" et positive qui pourrait être significative. D'autre part, le client final pourrait être prévenu à temps du problème et aurait ainsi la possibilité de réagir sans que cela ne lui nuise. Google avait lancé une initiative dans ce sens il y a quelques mois, prévenant les webmasters d'une possible future désindexation. Il semblerait qu'elle ait fait long feu. Dommage...
Pour résumer ce long post, deux voies de réflexion me semblent intéressantes dans le domaine de la lutte contre le spamdexing aujourd'hui :
- La mise en commun des listes de sites fautifs par les moteurs majeurs.
- La mise en place de "listes intermédiaires" ou plus simplement de systèmes d'alertes permettant, dans certains cas, aux éditeurs de sites web de réagir avant une procédure de blacklist automatique...
Les moteurs se lanceront-ils dans cette voie ? C'ets ce que l'avenir nous dira... Mais il me semble que tout le monde aurait à y gagner...
PS : l'image qui illustre ce post est issu du site de Molly Hatchet, excellent groupe américain, pour ceux qui sont fans de Lynyrd Skynyrd, 38 Special et de toute la famille VanZant en général... 🙂
Suite à ce qui est arrivé à mon-avis.com et à beaucoup d’autres sites, il est curieux de voir que magiquement, Mon-avis est réapparu sur Google. comme quoi :
1) ce blog est lu par Google,
2) Leur image de marque de plus en plus catastrophique, alors qu’ils ont la meilleure technologie, commence à leur faire grand tort.
Il y a pourtant des fondamentaux simples à ne plus ignorer : Les résultats de Google sont envahis de pseudo annuaires en cascade qui n’affiche que de la pub, et sans aucun contenu !
Ces tentative de spammer le moteur ont le droit d’exister, mais quand on constate leur Rank, on se pose quand même des questions sur le fameux algorithme hyper secret et la politique grise ou noire de Google !
Personnellement, je n’utilise plus Google à cause des résultats aléatoires et peu pertinents à mes recherches.
Rappelez-vous cela mes camarades, la nature a horreur du vide, et un autre Google surgira certainement. La technique passera, le besoin restera.
Suite à ce qui est arrivé à mon-avis.com et à beaucoup d’autres sites, il est curieux de voir que magiquement, Mon-avis est réapparu sur Google. comme quoi :
1) ce blog est lu par Google,
2) Leur image de marque de plus en plus catastrophique, alors qu’ils ont la meilleure technologie, commence à leur faire grand tort.
Il y a pourtant des fondamentaux simples à ne plus ignorer : Les résultats de Google sont envahis de pseudo annuaires en cascade qui n’affiche que de la pub, et sans aucun contenu !
Ces tentative de spammer le moteur ont le droit d’exister, mais quand on constate leur Rank, on se pose quand même des questions sur le fameux algorithme hyper secret et la politique grise ou noire de Google !
Personnellement, je n’utilise plus Google à cause des résultats aléatoires et peu pertinents à mes recherches.
Rappelez-vous cela mes camarades, la nature a horreur du vide, et un autre Google surgira certainement. La technique passera, le besoin restera.
Google n’accepte pas la critique !
Le blacklistage qu’il soit noir ou gris est préoccupant en plusieurs lieux :
– ramener à sa juste place un site utilisant des moyens « peu conformes » pour se hisser dans les premières places du classement est une chose !
– faire disparaitre des résultats (même en tapant son adresse exacte !!!) un site qui se permet de critiquer Google, est très préoccupant. c’est ce qui arrivé à http://www.mon-avis.com, alors qu’il apparaissait très bien auparavant… qui avait été cité dans ce blog et relève très justement les dérives du master-moteur !
Autant j’ai soutenu Google à ses débuts, autant là, c’est du n’importe quoi et c’est pire que l’égémonisme de Microsoft.
Anonymous a dit :
Nous avons eu un site d’information (simple, en html) « blacklisté », sans aucunes raisons apparentes, et sans aucunes réponses de Google à nos interrogations.
Hello
S’il y avait 1 liste, ton site d’info y serait sans raison apparente sur le simple jugement de Google.
Ce ne serait pas bon pour l’avenir du site car d’autres moteurs ou annuaires reprendraient cette info pour juger le site (et accessoirement plaire à Google).
Nous avons eu un site d?information (simple, en html) « blacklisté », sans aucunes raisons apparentes, et sans aucunes réponses de Google à nos interrogations.
Tout cela pose la question du problème de la position de quasi monopole de Google (dans le style Microsoft?). Cela constitue même un réel danger: Celui d’une prise de pouvoir « dictatoriale » sur l’Internet, dans un but essentiellement financier.
Les premières victimes risquent d’être les francophones. Et ce n’est pas le manque de sérieux (pour ne pas dire plus) de certains de ces sites (tel Lycos France) qui va arranger les choses.
Lycos France qui ne répond pas, ni par son service clients, ni par son service comptabilité, aux messages de ses clients, et même lorsque ceux-ci lui envoie des courriers en recommandé avec avis de réception. Lycos France qui peut se permettre de bloquer des noms de domaines de client, et continuer à les ponctionner par prélèvements automatique indu!
Oui pour une liste grise, voire rouge, qui intègrerait également les sites qui dupent leurs clients.
Oui aussi à une liste de sites qui ne respectent pas le caractère francophone de certains. Comme par exemple Paypal: Pour être francophone chez eux, il faut à notre connaissance habiter en France et seulement en France, et si l’on commande sur un site francophone mais que l’on habite hors de France (en Suisse par exemple) la quittance du paiement est délivré dans une autre langue que celle du site (en l’occurence en allemand)!
Ces indications ciblées (il y en a d?autres) pourraient paraître hors sujet. Mais il n?en est rien : Elle illustrent une dérive flagrante, sur laquelle semblent « surfer » des société comme Google. La question du droit y prend aussi une grande importance. Il semble en effet qu?il y ait différents comportements, selon que le site soit une société nord-américaine, et particulièrement « états-unienne », ou non. Le droit diffère, les réactions aussi, et les procédures en droit « états-uniens » sont bien plus adaptés à l?Internet que celles en droit français par exemple. Google sait que « blacklister » certains sites américains leur coûterait tellement cher, financièrement et en terme d?image, qu?ils s?abstiendront. Microsoft leur a en ce sens montrer la voie, avec ses déboires juridicaux-fianciers !
Oui à une liste qui fasse aussi contrepoids !
PS: Il n’y a aucun jugement de valeur dans ces propos. Mais bien le constat d’un professionnel de l’information, qui utilise journellement et essentiellement l’Internet.
Nous avons eu un site d?information (simple, en html) « blacklisté », sans aucunes raisons apparentes, et sans aucunes réponses de Google à nos interrogations.
Tout cela pose la question du problème de la position de quasi monopole de Google (dans le style Microsoft?). Cela constitue même un réel danger: Celui d’une prise de pouvoir « dictatoriale » sur l’Internet, dans un but essentiellement financier.
Les premières victimes risquent d’être les francophones. Et ce n’est pas le manque de sérieux (pour ne pas dire plus) de certains de ces sites (tel Lycos France) qui va arranger les choses.
Lycos France qui ne répond pas, ni par son service clients, ni par son service comptabilité, aux messages de ses clients, et même lorsque ceux-ci lui envoie des courriers en recommandé avec avis de réception. Lycos France qui peut se permettre de bloquer des noms de domaines de client, et continuer à les ponctionner par prélèvements automatique indu!
Oui pour une liste grise, voire rouge, qui intègrerait également les sites qui dupent leurs clients.
Oui aussi à une liste de sites qui ne respectent pas le caractère francophone de certains. Comme par exemple Paypal: Pour être francophone chez eux, il faut à notre connaissance habiter en France et seulement en France, et si l’on commande sur un site francophone mais que l’on habite hors de France (en Suisse par exemple) la quittance du paiement est délivré dans une autre langue que celle du site (en l’occurence en allemand)!
Ces indications ciblées (il y en a d?autres) pourraient paraître hors sujet. Mais il n?en est rien : Elle illustrent une dérive flagrante, sur laquelle semblent « surfer » des société comme Google. La question du droit y prend aussi une grande importance. Il semble en effet qu?il y ait différents comportements, selon que le site soit une société nord-américaine, et particulièrement « états-unienne », ou non. Le droit diffère, les réactions aussi, et les procédures en droit « états-uniens » sont bien plus adaptés à l?Internet que celles en droit français par exemple. Google sait que « blacklister » certains sites américains leur coûterait tellement cher, financièrement et en terme d?image, qu?ils s?abstiendront. Microsoft leur a en ce sens montrer la voie, avec ses déboires juridicaux-fianciers !
Oui à une liste qui fasse aussi contrepoids !
Le référencement naturel est complexe, d’autant plus que des messages viennent polluer les entreprises en attente d’expertise (message du type : »référencement pour 29? /mois »).
En résumé c’est long, complexe et cher… mais cela peut rapporter gros.
Sur le même sujet lire:
Comparer le référencement naturel versus le référencement artificiel : http://net.com.virale.over-blog.com/article-913433.html
Didier
Tout cela n’est que très normal, le but étant comme cela a été maintes fois répété, de maintenir un flou artistique qui rende impossible la détection du mode de fonctionnement des algorythmes de Google, sans quoi c’en est fini du géant ! Google propose des outils pour que les internautes, (des plus techniciens aux plus béotiens) utilisent ses outils, en parlent, alimentent le buzz et fasse tinter le tiroir-caisse.
Le temps passé à lire les blogs sur les compte-rendu d’expérience et de labos de référenceurs, c’est toujours du temps en moins à essayer de référencer son site chez les concurrents…
La position de Google avec le référencement est malsaine. En clamant dans ses ‘guidelines’ que tenter de manipuler les résultats du moteur (définition même du travail de référencement) est répréhensible, Google s’attaque aux référenceurs… et oublie qu’ils ont largement contribué à ce que la majorité des sites web soient compréhensibles par des bots. Il y a là une hypocrisie fondamentale : faire des sites intelligibles pour un moteur de recherche EST faire du référencement. Il n’y a pas de frontière, ou une frontière floue, entre rendre son site intelligible et le booster dans les SERPS. Google, en manichéïsant le marché du référencement (blanc ou noir) perd se crédibilité dans le discours anti-spam. Je dirai même plus, Google rique là d’entacher son bel étandard blanc de défenseur de la netiquette. Pour reprocher sans demi-mesure aux autres leurs approximation avec l’éthique, il faut être irréprochable soi même… ce qui n’est jamais le cas avec un projet humain. Le discours posé n’apparait plus comme « blanc contre noir »; mais comme « noir contre noir, chacun luttant pour son intérêt privé.
Pour conclure, un peu de nuance grisée là dedans serait une avancée notable. Mais peut-être que le compromis moral est une notion trop latine pour Google…
Il semblerait que Google se monque bien d’avoir des résultats stables.
D’abord cette fluctuation permet de déjouer les techniques des référenceurs les plus agressifs. Ensuite qui a vu une différence dans la qualité des résultats avant et après la mise en places d’un filtre ?
Hello
Je réagis en communicant plus qu’en référenceur.
Certains sites sont sandboxés ou blacklistés sans en savoir la raison meme en cherchant.
OR ces sites seraient en liste grise et leur « mise à l’index » (exclusion) impacteraient leur image quasi définitivement.
Alors que le blacklistage discret permet une chance de « rattrapage » sans dommage pour l’image du site.
En l’occurence, un mail discret au site est une solution qui préserve l’avenir des rapports site/moteur et l’image de l’entreprise.
« Comment savoir si c’est moi qui agit sur le classement de mes sites, ou bien alors est-ce Google qui manipule sa base de données et ses algorithmes, jouant ainsi au yoyo avec les sites ? »
Je pense sérieusement que Google ne tient pas à avoir des résultats stables. Mieux vaut pour lui laisser les webmasters dans le flou tout en tentant de les rendre aveugles. Voir la problèmatique avec la requête site: en ce moment. Attendons-nous à des changements fréquents et imprévus.
Pour ce qui est du grand ménage francophone, il a déjà commencé. J’ai remarqué de drôles de variations au niveau des visites de mes sites entre le domaine principal et les sous-domaines.
Je m’explique :
En fait, tout a commencé le 8 mars 2006. Une journée noire, un gros « crack statistiques », avec une perte de près de 75% de trafic sur mon site principal (www.catfamilie.com) qui voyait passer près de 2000 visiteurs/jours.
Parallèlement, quelques sous domaines indépendants, et notamment http://fleurs-bouquets.catfamilie.com ont vu leur nombre de visiteurs multipliés par 4 ou 5 (de 50 visteurs/jours on est passé à près de 300). La même chose pour 2 ou 3 autres sous-domaines.
Au total, j’ai perdu des visiteurs, mais j’avais gagné en pertinence, vu que mes sous-domaines thématiques semblaient mieux référencés que mon site principal.
Puis, en mai, pendant 2 jours (autour du 18), le site principal, qui naviguait alors (depuis le crach) à 500 visiteurs/jours est remonté à 2000 ! Mais ça n’a pas duré, et les stats ont replongé.
Et depuis le 27 juin dernier ça explose à nouveau. Mon site principal enregistre des progressions sur de nombreux mots-clés, comme si des sites concurrents avaient disparus. Par contre, tous mes sites en sous-domaine sont retombés très bas et ne ressortent plus sur les requêtes qui fonctionnaient ces derniers mois.
LA QUESTION est la suivante : Comment savoir si c’est moi qui agit sur le classement de mes sites, ou bien alors est-ce Google qui manipule sa base de données et ses algorythmes, jouant ainsi au yoyo avec les sites ? Dans ce dernier cas, il faudra attendre que le ménage soit terminé pour que tout cela se stabilise.
Merci d’avoir pris le temps de lire ce « long » témoignage.
Citation : « leur présence dans la « liste grise » signifierait une mise en liste noire automatique à la fin du délai indiqué si aucune action n’était faite »
Certes c’est une bonne idée, mais beaucoup d’entreprise ont un CMS unique pour de nombreux sites et la modification d’un CMS est généralement longue donc est-ce réellement viable ?
François a été plus vite que moi pour le commentaire sur l’illustration. J’ai joué à BloodLust une ou deux fois il y a … longtemps, mais elle m’avait marqué !
Je pense que les moteurs ont déjà des listes de sites ou plutôt de types d’optimisations facilement détectables et déjà mis en « zone grise ».
J’ai récemment vu un site qui avait des centaines de pages optimisées ignorées par Google qui indexe pourtant ses pages « normales ».
Et les dysfonctionnements observés au niveau de l’indexation sur certains sites (lenteur de la prise en compte des pages, rafraîchissement incomplet) sont peut être un symptôme d’une pénalité « light ».
Un peu hors-sujet…
L’illustration originale de ce message est signée Frank Frazetta (http://www.frankfrazetta.com/), illustrateur américain reconnu… Elle a notamment servi en France à l’illustration de la couverture du jeu de rôle Bloodlust, signé Croc et sorti en 1991.
Sinon, je jetterai une oreille attentive à Molly Hatchet, promis !