Je rencontre parfois, au gré de mes déplacements et conférences, ou sur mes blogs, voire par mail, des gens qui me disent que le référencement a profondément changé depuis le début des années 2000, et qu'aujourd'hui, on n'optimise plus un site pour les moteurs de recherche comme on le faisait il y a cinq ans.
Ce type d'affirmation est intéressante, car je ne suis que moyennement d'accord avec cela. En effet, pour moi, les plus grands changements sont intervenus, depuis cinq ans, plutôt dans la "périphérie" du référencement et dans la stratégie globale de visibilité sur les moteurs de recherche. Voici quelques exemples d'évolutions fortes qui sont advenues, selon moi, dans ce domaine depuis une demi-décennie :
- L'avènement et l'installation des liens sponsorisés comme levier de visibilité dans les pages de résultats des moteurs, donnant parfois au référencement naturel la portion congrue des budgets de promotion (erreur énorme selon moi).
- La mise en place d'une communication de plus en plus "claire" de la part des moteurs de recherche face aux webmasters : prises de posiiton fortes (le cloacking et les pages satellites sont du spam), mise en ligne d'outils pour webmasters (Yahoo! Site Explorer, Google Webmaster Tools, le site de Microsoft devant être en ligne dans les jours qui viennent), avénement du format Sitemaps, etc.
- La prise en compte d'outils de type Digg-like ou autres dans le cadre du netlinking et du travail sur la popularité et la réputation d'un site (comme on utilisait, quelque part, les annuaires il y a quelques années de cela).
- La prise de conscience de plus en plus forte de la part des éditeurs de sites web qu'il faut prendre en compte le référencement lors de l'élaboration du cahier des charges et non plus quand le site est déjà en ligne (cela est notamment évident lors des formations que je fais, où le nombre de personnes venant dans cette nouvelle perspective est aujourd'hui majoritaire).
- La mise en place d'hypothétiques "indices de confiance" (ou TrustRank) sur lesquels ont sait finalement peu de choses et qui pourraient être renforcés par la prise en compte d'une composante de réseau social dans les moteurs de demain.
- Etc.
Ce ne sont là que quelques exemples qui montrent que, selon moi, l'"environnement" d'une stratégie globale de référencement et de visibilité sur les moteurs de recherche a fortement évolué depuis quelques années et que ce marché mûrit avec les mois et les semestres qui passent. Tout cela est bien clair.
Mais, et c'est là l'objet de ce post, qu'en est-il de l'optimisation du site elle-même ? Qu'est-ce qui a réellement changé dans le travail sur la conception, l'architecture du site, le code HTML des pages et le contenu éditorial ?
Finalement, dans mes discussions avec les personnes qui prônent tant de révolutions dans ce domaine depuis l'an 2000, on en revient chaque fois à la fin aux mêmes notions : de bons titres, du bon texte, des urls claires et précises, des liens de qualité, le tout servi par une architecture de site "spider friendly". Bref, exactement ce qu'on fait au début des années 2000 avec la montée en puissance de Google. Rien de bien nouveau à l'Ouest donc, non ?
En termes d'optimisation de site pour son référencement, la dernière (r)évolution n'a-t-elle pas été le double avènement de la popularité (analyse quantitative et qualitative des liens entrants) - que je dissocie de la trop restrictive notion de PageRank, qui ne signifie plus grand chose à mon avis aujourd'hui - et de la réputation (travail sur le texte des liens entrants) ? Mais cela date quand même de la création de Google, soit 1998... A-ton vraiment vu quoi que ce soit de nouveau depuis ce temps ?
Alors, pour vous, finalement, qu'est-ce qui a vraiment changé depuis en strict termes d'optimisation de sites web ? Je me permets de lancer ici le débat et serai ravi d'écouter vos arguments et idées pour faire "avancer le schmilblick" de façon constructive...
Bonjour,
J’ai un petit exemple sous la main :
« flûte traversière en bois » dans Google retourne en première place mon premier site Web (développé en Flash) complètement délaissé depuis sa création (début 2000).
Certes ce n’est pas DU TOUT un grand sujet que la « flûte traversière en bois » mais pour le coup j’ai toujours été très étonné que mon site apparaisse premier sur cette recherche alors que nous avons des priceminister, wikipedia, tamm-kreiz dans la cible. Tout dépend du rayonnement de la recherche…
Je ne pense pas que le référencement est évolué.
Juste un mot d’un webmestre « amateur » qui travaille sans but lucratif… pour une modeste contribution à cette discussion d’experts
D’abord quelques exemples :
Sur la recherche (Google) – conseil participatif – 1ère position sur 1,8 millions de résultats (site marne-chantereine.info) – le site le plus récent que j’ai créé (en janvier 2006, que 50 pages pour la partie publique…) – mais 7ème page pour – centrale Edf – 1,3millions de résultats – même site.
Sur la recherche – Kattenstoet – aussi 1er sur 15 500 résultats (site incertitudes-p.net, créé il y a +- 4 ans +- 1300 pages – photos – peu de texte) / sur le même site – lettonie pierres , 2ème position sur 2,1 millions de résultats / mais sur – lettonie, 18 millions de résultats, rien jusqu’en page 40…
Enfin – art foi – 1er pour 3,2 millions de résultats, site arts-cultures.cef.fr, +- 8 ans, +- 900 pages, beaucoup de texte, mais statique depuis près de 2 ans !
Je dois souligner que je n’ai que très peu utilisé le référencement par croisement de liens – beaucoup de liens sortant de mes sites, sans sollicitations d’échanges… donc il s’agit essentiellement de référencement naturel. par ailleurs je n’utilise volontairement que de la page html (pas de php, ni de base de données, peu de scripts)
Tout ceci pour dire que l’ancienneté ne semble pas vraiment jouer, ni la taille… – sans doute les liens entrants – et en tout cas pas, dans mon cas, les liens sponsorisés ! – La régularité des mises à jour ne semble pas non plus vraiment jouer…
Norbert Pousseur
Bonjour,
Je pense que certaines Google-dances apportent plus de questions que des réponses aux référenceurs.
Je crois que les techniques d’optimisation sont réstées telles qu’elles étaient il y a 5 ans. Mais ceux sont les défis et les conccurences qui poussent les moteurs de recherche à ré-écrire leur Top-List!
Alors, faut-il se concentrer plus sur le référencement et le volume d’un site que l’optimisation. Je crois qu’une fois l’optimisation est automisée (automatic update), on peut passer aux marketing+référencement pour au moins une période de 1 an sans penser à réadapter son script d’automatic update.
Merci!
Ce qui a changé, c’est le volume de pages indexées et la domination de Google.
Est-ce que Google ne chercherait pas à capter le marché du référencement à en chasser les référenceurs ?
C’est, en tout cas, mon sentiment très personnel.
Je suis d’accord avec vous sur le fait qu’il n’y a pas eu de véritable révolution.
Simplement aujourd’hui, le contenu et surtout son coté qualitatif est un paramètre qui a encore plus d’importance me semble t-il.
Je partage presque entièrement l’avis d’Olivier. Cela fait bientot dix ans que je suis actif dans le secteur de outils de recherche et du référencement par le biais de mes différentes activités.
En dix ans les methodes de référencement n’ont que très peu évolué. Un bon titre, un bon contenu et de bonnes urls (internes et externes) et le tour est presque joué, j’ai bien dit presque.
Ce qui a changé réellement ce sont le nombre de pages/sites indexés par Google et la methode qu’ils utilisent pour détecter les éventuelles techniques abusives.
Ce qui a changé est aussi une concurence plus rude, le squatting de certains pas forcement justifié, mais cela est et reste une impression subjective.
Ce qui a changé ou plutot donne une impression de changement c’est la terminologie utilisé afin de repondre au besoin du marketing du référencement.
J’ai déjà réagi au billet d’Aurélien en ces termes :
Les leviers n’ont pas changé : contenu & popularité.
Ce qui a changé, c’est l’appetit de Google pour le contenu. Aujourd’hui, un GROS site généraliste se positionne beaucoup plus facilement sur des requêtes stratégiques qu’un PETIT site spécialiste. Je parle bien de poids du contenu.
C’est un choix de pertinence qui me semble discutable.
Je développe ici : http://www.inferences.fr/index.php/2007/10/25/18-le-mythe-du-referencement-natif
> N’y aurais t il pas un travail à faire sur les metabalises ?
Même réponse, je pense, que pour les pages satellites ou le cloaking : les balises « meta » sont une excellente solution pour les moteurs de recherche, mais elles ont trop été détournées dans le passé et les moteurs ont choisi de ne plus en tenir compte. Une fois encore, c’est bien dommage 🙁
Personnellement je me demande pourquoi les metabalises ne se sont pas plus développés au fil du temps pour renseigner efficacement un site … Je comprends qu’il est plus pertinent d’analyser la sémantique des pages dans leur globalité plutôt que de faire confiance à l’éditeur mais…
N’y aurais t il pas un travail à faire sur les metabalises ?
> Bonjour, ce qui a surtout changé entre 2000 et aujourd’hui c’est la disparition totale des annuaires
C’est vrai, mais des outils comme Digg, Wikio et bien d’autres ont pris le relais non ? Ceci dit, c’est vrai que le client du référenceur ne les connait pas très bien…
Cordialement
> Ne serait-ce pas un truc écrit en plusieurs fois, à coup de ré-écritures partielles?
Non ça a été écrit d’un jet mais Oui je me suis mal exprimé 🙂
Je voulais dire que c’était intéressant dans le sens où ça permettait d’ouvrir un débat, puisque de mon côté je n’étais que moyennement d’accord avec ces affirmations. Désolé 🙂
Olivier
> Quelques-uns pourraient, toutefois, trouver l’affirmation « le cloacking (…) est du spam » discutable
Je suis entièrement d’accord sur le fait que cet affirmation est discutable. Idem pour les pages satellites d’ailleurs. C’étaient des solutions tout à fait intéressantes pour certains sites. Mais c’est l’utilisation que certains en on fait qui ont rendu les moteurs plus stricts à leur sujet. Et c’est bien dommage…
Bjr
> Je pense que l’ancienneté du site joue aussi pour beaucoup dans le fameux trustrank
Je ne suis que modérement d’accord avec cette hypothèse : pourquoi un site ancien serait-il plus pertinent, plus « de confiance », qu’un site récent ? Ca ne me semble pas logique. Idem pour des critères comme l’ancienneté du nom de domaine ou la périodicité de son renouvellement (tous les ans, tous les 5 ans, etc.) : que tout cela ait une petite influence sur un « indice de confiance », je le comprends bien, mais que cet avantage soit majeur, j’ai un peu de mal à y croire… Je ne verrais pas vraiment la logique dans tout cela… Je pense que la notion d’indice de confiance vient d’un grand nombre de facteurs, d’abord humains, confortée par certains critères plus mesurables, comme ceux indiqués auparavant, mais aussi le nombre de pages du site, leur taux de mise à jour, etc. Mais, à mon avis, c’est le facteur humain qui me semble le plus important…
Ceci dit, on est encore ici dans des mesures d’environnement du référencement, pas dans l’optimisation du site lui-même (ou très peu).
Cordialement
Bonjour, ce qui a surtout changé entre 2000 et aujourd’hui c’est la disparition totale des annuaires comme Yahoo, Nomade (petite nostalgie d’un vieux référenceur :-)).
2000 :
Pas visible dans Yahoo = Client pas content
2007 :
Pas visible dans Google = Client pas content
Très juste. J’ajouterai encore le fait de l’utilisation de plus en plus populaire d’outils respectant les normes et/ou ayant le souci du référencement (CMS, éditeur WYSIWYG, etc).
À part ça, je lis Ce type d’affirmation est intéressante, car je ne suis que moyennement d’accord avec cela.. Ne serait-ce pas un truc écrit en plusieurs fois, à coup de ré-écritures partielles? Parce que là ça veut dire que ce qui rend l’affirmation intéressant, c’est que vous n’êtes pas d’accord. Si vous étiez d’accord, l’affirmation ne serait plus intéressante? ;*)
Travaillant essentiellement le référencement depuis les années 2000, je suis OK sur le fond du billet.
Quelques-uns pourraient, toutefois, trouver l’affirmation « le cloacking (…) est du spam » discutable : on a vu, il y a quelques semaines, des billets ou des topics expliquant (ou justifiant) que le cloacking n’est point du spam… (désolé pour les références… je ne les retrouve pas)
complètement d’ac avec cette analyse!
Je pense que l’ancienneté du site joue aussi pour beaucoup dans le fameux trustrank.
Par contre, le trustrank ne se gagne pas aussi facilement que le PR (un site linkant un site ayant un bon TR n’est pas forcément bien trusranké…)
Merci Sébastien, j’étais en train de l’ajouter après être allé sur son blog.
je fais un lien cliquable ici :
http://www.outil-referencement.com/blog/index.php/434-evolution-referencement
Merci
a+
Olivier
PS : le lien vers le post d’Aurélien http://www.outil-referencement.com/blog/index.php/434-evolution-referencement
Intéressante réflexion, qui a été également menée par Aurelien Bardon récemment.
Pour ma part, étant dans le référencement depuis 7-8 maintenant je crois (pfiou ça passe vite) je crois que rien n’a vraiment changé fondamentalement, même si le paysage du « Search » et les pratiques évoluent.
Le référencement, c’est avant tout du contenu, du code qui structure le contenu, et des liens.
Les technique d’écriture n’ont pas changé. Le HTML et les régles d’accessibilité n’ont pas beaucoup changé. Les façons de créer du lien ont évolué, se sont enrichies, mais il s’agit toujours de créer des liens à la fois accessibles et pertinents, en quantité.
La detection du spam elle par contre s’est améliorée du coté moteurs.