Le petit monde du référencement en France est en émoi après l'annonce de la mise en liste noire du site de BMW en Allemagne par Google. Pourtant, on ne peut pas dire que cela surprendra beaucoup de monde, puisque ce type de "grandes manoeuvres antispam" était prévu de longue date par le moteur. Relisez les posts suivants sur ce blog pour vous en persuader : Les pages satellites bientôt sur orbite, Webdesign et Référencement, Google, SEO et ses bas, etc.
Google semble combattre le spam sur des sites allemands actuellement (BMW, Ricoh et d'autres). Selon mes informations, des actions seront très bientôt entreprises par Google contre bon nombre de sites disponibles en langue française dans le courant du premier semestre 2006. De nombreux sites devraient donc être bannis de l'index du moteur ou "simplement" déclassés sur certaines requêtes très concurrentielles (les observateurs aguerris auront d'ailleurs remarqué que ce "ménage" a déjà commencé sur certains mots clés...).
Tout cela me fait à nouveau penser à la façon, que je juge catastrophique, dont les propriétaires, les éditeurs et les créateurs de sites web prennent (ou plutôt ne prennent pas) en compte les contraintes dûes aux moteurs de recherche lors de la mise en place de leurs pages....
Imaginez... Imaginez un éditeur de livres sortant des ouvrages dont le format (hauteur, largeur) fait en sorte qu'il ne rentre pas dans les étagères des librairies et des grandes surfaces comme la Fnac ou Virgin. Un autre éditeur, plus petit, aura, lui, eu l'idée de venir dans ces magasins, de mesurer la taille des étagères et d'adapter ses couvertures (format, mais aussi couleur, typos, etc. en fonction des différents rayons et des autres livres présentés) à celles-ci. Résultat : il est mieux trouvé et vend plus que son gros concurrent dont les livres s'entassent dans un coin pour incompatibilité de format... Voici, en quelques mots à peine caricaturés, la situation du référencement de sites web en France : des sites créés à coup de dizaines de milliers d'euros, voire plus, ne tiennent absolument pas compte des contraintes des moteurs de recherche (titres mal écrits - lorsqu'ils existent -, peu de texte, mauvaise utilisation du JavaScript, Flash à gogo, etc.) et les éditeurs râlent ensuite parce que, dans les pages de résultats des moteurs, ce sont des sites de PME qui leur passent devant... Mais qu'y a-t-il de plus normal à cela ? Ces sites ont juste fait ce qu'il fallait pour être bien optimisés, et donc plus visibles...
Résultat : le site de l'éditeur mécontent n'ayant certainement pas coûté assez cher, on rajoute une couche de budget pour le référencement et, comme personne ne veut plus toucher aux pages déjà en ligne, on créé des pages satellites qui, la pression du client aidant, frôle de plus en plus la limite de ce qui est autorisé par les moteurs de recherche jusqu'à tomber dans les oubliettes... Je sais, je caricature, mais on m'a déjà raconté tellement de choses à ce sujet que je ne suis pas sûr de pousser le bouchon si loin que cela...
Qui est fautif dans cette histoire ? Le référenceur qui est allé trop loin dans la création de ses pages satellites ? La web-agency qui n'a pas voulu (ou pu ou su) intégrer les contraintes des moteurs de recherche au site créé pour son client ? Le propriétaire du site qui n'a pas voulu (ou compris la nécessité de) toucher à son site pour l'optimiser ? Les fautes sont certainement partagées et il n'est pas dans ma volonté de jeter l'opprobe sur un corps de métier en particulier... Il serait trop facile de tirer à bout portant sur les sociétés de référencement aujourd'hui alors que, la plupart du temps, elles ne font que s'adapter à un marché, à une demande... Après tout, les entreprises spécialisées qui ont fait des pages satellites leur fond de commerce sont plutôt rares (même si ce ne sont pas toujours les plus petites). Ne nous y trompons pas : la majorité des sociétés de référencement en France n'utilise pas les pages satellites comme système de référencement / positionnement et basent plutôt leur stratégie sur le conseil et l'optimisation des pages existantes du site. Là est la véritable voie de réflexion pour l'avenir... En revanche, les entreprises orientées "pages satellites" devraient clairement et très rapidement réfléchir à leur avenir et à leurs méthodologies avant qu'il ne soit trop tard...
Disons-le clairement : la page satellite (ou "fantôme", ou "alias", ou "doorway" ou tout autre nom similaire) est une technologie qui peut aujourd'hui être considérée comme obsolète, voire dangereuse. Elle DOIT être abandonnée ! Mais pour cela, il faut absolument que tous les acteurs de la chaîne de la création de site web soient clairement persuadés que chacun doit et peut avancer dans le même sens :
- Le propriétaire d'un site web doit être conscient que, pour obtenir une bonne visibilité sur les moteurs de recherche, certaines concessions, notamment techniques, doivent être faites.
- Le créateur du site web (web agency) doit être formé aux techniques d'optimisation de site et conseiller, en partenariat avec le référenceur, le client sur ce qui est possible et ce qui ne l'est pas.
- Le référenceur doit garantir la non utilisation de pages satellites ou d'autres procédés aujourd'hui clairement refusés et interdits par les moteurs de recherche. Il est possible d'obtenir une excellente visibilité sur un moteur de recherche en mettant en place une optimisation "propre", loyale, honnête et pérenne, et sans artifice ni "rustine" à durée de vie limitée... Le tout est surtout de partir d'une base la plus "saine" possible, c'est-à-dire d'un site web préparé dès le départ pour le référencement...
Alors, si tout le monde y met du sien (et pourquoi, dans ce sens, les moteurs de recherche ne se joindraient-ils pas au cortège ?), peut-être évitera-t-on le type de problème qu'on voit apparaître aujourd'hui avec le blacklistage d'un site comme celui de BMW Allemagne... Mais cela passera nécessairement par une "révolution culturelle" et la remise en question d'une certaine approche du référencement. Les sociétés françaises qui se sont perdues dans la voie de la page satellite sont-elles prêtes à cette révolution qui n'est peut-être d'ailleurs qu'une évolution ? L'avenir le dira...
Bonjour,
je viens de lire cet article intéressant sur cette « révolution » annoncée. Je m’étonne encore une fois de tous ces amalgames qui sont fait. J’aimerai ainsi donner mon point de vue afin de replacer les choses dans leur contexte et alors éclaircir peut-être les esprits. Si les moteurs de recherche mettent sur liste noire certains domaines, c’est parce qu’ils n’ont pas respecté les lois. Le spaming étant interdit, ils ont donc été sanctionné. Le débat qui est fait sur les « bo » site et les « sisites » bien codé, les sites html, ou flash, php ou javascript, ect tourne à la « gueguerre » de métier et surtout ne font pas avancer les connaissances de chacun. Si un site que l’on appel satellite et renvoyant automatiquement sur un site grâce à un code en java script ou autre est sanctionné, ceci est bien normal, mais il faut bien comprendre qu’à l’origine, le site satellite a été créé, non pas parce que les gens sont idiot ou ne savent pas coder, mais tout simplement pour question de calcul. On fait pointer un site qui parle de quelques chose qui a la côte auprès des recherches effectuées par les internautes vers un site qui n’a rien à voir avec le premier. Ceci est condamnable. Si ils avaient voulu après coût effectuer un référencement, ils aurait tout simplement fait une version entièrement en html et le tout sur le même domaine. En faite je doute fortement que BMW ou d’autres ont été sanctionné pour d’autre raison que d’avoir voulu aveugler le consommateur, si jamais cela n’était pas le cas, je parie qu’il y aurait un procès. Mais bon, c’est à suivre avec intérêt.
Une grande marque (comme BMW) n’a aucun besoin de Google pour vendre des voitures. Les grandes sociétés connus préferent avoir un site attrayant pour les internautes (et clients) sans se soucier du référencement. Il faut savoir qu’il y a beaucoup de contraintes (notamment une grande limitation de l’utilisation du javascript) pour permettre un référencement optimum. Ceci au détriment de la qualité du site.
C’est à Google de s’adapter au marché du référencement et non l’inverse.
Trois réflexions :
1. Il ne faut pas oublier que Google est un moteur de recherche, ce qui veut dire de recherche d’informations et qu’il n’est pas un outil de recherche de la publicité des entreprises. Toute sa stratégie et son avenir reposent sur ce point depuis son origine.
2. Pourquoi existe-t-il des sociétés de référencement ? Parce qu’il y des agences web et des agences de com incompétentes ou malhonnétes qui vendent à des clients des sites web qui ne servent à rien car ils ne sont pas fait pour le web, en tout cas par pour les outils de recherche. J’ai la liste des noms dans une enveloppe. Pourquoi travailler avec des agences qui ne maîtrisent le média ? C’est d’ailleurs pourquoi ces agences parlent de référencement à leurs clients et de façon mensongère leur vendent de la pub (liens commerciaux ou sponsorisés). Imaginez une agence qui ferait un spot télé et qu’après un autre prestataire devrait intervenir pour distribuer des lunettes spéciales pour que le message puisse être vu ?
3. Google n’est pas dieu ni la loi, à chacun d’assumer ses risques, l’important c’est d’être transparent avec ses clients sur ce que l’on fait et les conséquences. A partir du moment où nous faisons du référencement, nous sommes toujours le spammeur pour quelqu’un d’autre.
Bonjour 🙂
Je ne comprends pas votre point de vue, O.C.
Google et consorts sont les outils qui permettent à des « petits » sites web, néanmoins sérieux et de qualité, d’avoir une chance « d’attraper » des visiteurs. Et ce, sur le seul média réellement facile d’accès, ouvert, libre.
Vous dites que Google, en particulier, « macdonalise » le web. Je ne vois pas en quoi coder correctement, architecturer un site intelligemment, et enfin utiliser des technologies de manière utile et responsable oblige à « ressembler à son idée du web ». Le graphisme, c’est un art qui doit également être réfléchit, et utilisé conjointement et de manière correct avec le code afin de proposer de nouveaux designs, de nouvelles fonctions, de nouveaux contenus…
Au contraire en fait, je vois la dedans un pas de plus vers ce que je trouve être la plus belle possibilité à tout un chacun de proposer ses idées, contenus et passions à tous.
Par exemple, développer un site complet en Flash donne souvent un résultat visuel très convaincant. Mais il est tout à fait possible d’arriver à des graphismes et designs pareillement « retinallement » flatteur avec un mélange de bon vieux code HTML-PHP/.ASP/(…) et quelques gifs-flashs correctement optimisés et intégrés… et tellement plus accessible au lambda ni millionnaire, ni « faux codeur » (désolé, mais bon… Je me garde déjà de penser qu’ils soient tous forcements malhonnêtes 🙂 ).
Si Google obligeait à coder en Flash, en ASP ou Java -mettons même en HTML- uniquement, alors oui je verrais du même ?il la nouvelle.
Éventuellement, je suis d’accord pour dire que IE, en ne respectant pas les normes établies, oblige à se plier à son idée du code. Mais Google et son fonctionnement de limitte en rien les possibilités d’un codeur !
Bonjour,
le pouvoir de Google devient une contrainte énorme pour les sites web… il faut plaire à Google à tout prix. Et pour lui plaire, il faut ressembler à son idée du web. On avance à grand pas vers un web « mac donaldisé » : tous les sites web seront similaires afin d’être bien positionnés. Le contrôle de l’information par Google passe aussi par le mode d’expression des sites. Si Google continue à imposer sa logique, notre liberté d’expression risque d’en prendre un coup.
C’est une vision pessimiste mais il faut y réfléchir ?
Bonjour,
Olivier donne une vision pragmatique du référencement. Si une société, un organisme public, ou un particulier souhaite être visible sur les moteurs de recherches, il n’a d’autres choix que de se plier aux règles qu’ils édictent.
Quant à Thomasf, il explique bien le problème que le dictat des moteurs de recherches imposent aux éditeurs. Ils ne peuvent librement choisir les technologies de conception sans risquer d’être absent ou mal classés sur les moteurs quelques soient la pertinence de leurs sites.
Les technologies citées (Flash, javascript,…) sont utiles, voire pertinentes, mais n’ont pas été souvent mis en place de manière réellement judicieuse. Le web est encore pris pour une sorte d’extension de la télévision et/ou de la brochure publicitaire.
Il y a toujours, pour ces derniers, les annuaires pour leur permettre d’être référencé, d’autant que beaucoup de moteurs intègrent leur contenu dans leurs indexes.
Je ne considère pas que contourner certaines règles relèvent de la malhonnêteté. D’autant plus, lorsque les règles ne font pas l’objet d’une discussion de toutes les parties prenantes, ou d’un mandat donné pour les établir, ou parce que on ne veut pas prendre en compte toutes les technologies existantes. Les pages satellites pour compenser une conception hasardeuse, n’est quand même pas à mettre en rapport avec une recherche de produits de beauté qui débouche sur un site olé olé.
Hmm… et si on prenait le problème à l’envers ?
Imaginez une surface de vente incontournable dont la majorité des rayons n’accepteraient pas les formats pourtant courrament utilisés par les éditeurs. Mais qui proposeraient aux éditeurs des présentoirs dédiés, moins regardants sur le format, et facturés (cher) dès qu’un lecteur potentiel s’en approche…
Imaginez que si le client demandait ensuite à un vendeur où trouver telle édition célèbre, on lui proposerait gentiment le choix entre un rayonnage au bon format mais ne contenant pas de livres de cette édition ou ce présentoir dédié très pertinent mais facturé immédiatement à l’éditeur.
Mettez vous à la place de l’éditeur ? N’y a t’il pas là un abus de puissance de la part de la grande surface qui peut donner des envies de contournement ? Ou au moins de dialogue ?
Bonjour Olivier,
Inconscience
Nous en avons discuté au dernier SES et je confirme que les sociétés qui ne proposent que des prestations à base de « pages satellites » sont en danger. La réaction aurait dû se faire au moins depuis 6 mois, depuis que Google blacklist ou déclasse régulièrement des sites sur le domaine français.
Responsabilité
Si personne ne doit jeter la pierre à un corps de métier en particulier, on peut être certain que la loi du marché va faire le tri. On peut donc s’attendre à ce que les sociétés qui n’auront pas su prendre le virage au bon moment iront dans le mur. Que ce soit des sociétés de référencement, les web agency ou les propriétaires de sites.
Aujourd’hui
Selon mes sources, il semble que quelques sociétés font signer des décharges en cas de création de « pages satellites » au sein d’une prestation. Ce qui aurait tendance à prouver la difficulté de négocier ce virage.
Demain
Si Google a mis du temps à réagir, maintenant, c’est chose faite et il a tapé sur le point qui fait mal. Et cela risque encore de se compliquer car après le spam, Google va certainement se pencher sur la stratégie d’échanges de liens dont certains sites web abusent.
Bon courage à toutes et à tous.
Je suis en partie d’accord. Si ces entreprises qui ont investis des milliers d’euros à créer des pages flash et des animations à tout va, et du coup, veulent être référencé mais ne veulent pas tout « foutre en l’air » et donc utilisent des doorway pages: elles n’ont vraiment pas mesuré l’impact d’un référencement propre et respectant les règles.
Mais ce qu’elles ont fait, c’est juste tricher en espérant ne pas se faire avoir, juste pour garder leur sites à paillettes. Le risque est si énorme que le référencement naturel aurait couté une somme dérisoire par rapport aux pertes engendrées avec ce « trucage » démasqué.
Bien que ces entreprises soient énormes, et font forcément des prévisions en termes de ventes à long terme, il semble qu’elles ne se soient pas soucié du risque encouru.
Ce qu’il leur est arrivé est simplement la meilleure chose, et je souhaite bonne chance à Google pour combattre ce genre de manipulation crapuleuse.