Google veut-il tuer le référencement naturel et ses acteurs économiques ? Cette question, je me la suis effectivement posée lorsque Matt Cutts a encensé le SEO, il y a quelques semaines de cela. Pourquoi cette communication, qui a surpris beaucoup de monde ? Sachant que, chez Google, rien n'est jamais fait par hasard, je me suis réellement demandé quelle était la cause de cette soudaine déclaration d'amour pour une profession que, jusqu'à présent, Google ne regardait que de loin, d'un oeil parfois même réprobateur (souvenons-nous des pages d'aide et des conseils du moteur aux webmasters, à une certaine époque).
N'y avait-il pas, dans cette vidéo, un message à double langage ? Cette vidéo cachait-elle quelque chose ? Difficile à dire, bien sûr... Mais, au cours de cette réflexion, une idée m'est venue, que je voulais vous exposer ici...
Avant de continuer, revenons aux fondamentaux du référencement naturel (au temps des dinosaures, quand tout cela ne s'appelait pas encore SEO... 🙂 ) et de la manière dont, historiquement, nous avons mesuré notre travail et les tâches réalisées sur un site web pour le rendre plus visible.
La notion de positionnement, en perte de vitesse
Mon statut de "grand ancien", voire de "papy" 🙂 du domaine me fait me souvenir, que, depuis bien longtemps, la première mesure du SEO a été le positionnement : voir une page de son site web bien classée sur les moteurs de recherche pour les requêtes visées a longtemps été notre cible principale, notre Graal quotidien !
Or aujourd'hui, qu'en est-il ? Tous les moteurs majeurs ont mis en place des concepts de contextualisation de la requête (géolocalisation grâce à l'adresse IP de l'internaute, préférences linguistiques grâce aux infos renvoyées par le navigateur, saisonnalité, etc.) et de personnalisation (historique des recherches, sites précédemment consultés, préférences du cercle social de l'internaute, etc.). Si vous ajoutez à cela que, selon le datacenter interrogé, la pages de résultats (SERP) peut changer, on s'aperçoit vite que, dès aujourd'hui, aucun internaute n'a la même SERP à moteur et requêtes égaux... Et que cela ne fait que commencer....
On le sait, on le sent, la notion de positionnement vit donc ses derniers jours comme critère UNIQUE de mesure de la qualité d'un référencement. Elle restera sans doute une notion complémentaire, intéressante et "neutre", mais de moins en moins fiable au fil du temps. Il apparaît en tout cas clairement utopique, dès aujourd'hui, de se baser UNIQUEMENT sur le positionnement pour mesurer son référencement.
La prise en compte de l'historisation en deux étapes
Il est d'ailleurs intéressant de voir comment Google a mis en place son système de stockage de l'historique des internautes dans le cadre de son projet de personnalisation : tout d'abord, il n'a été mis en oeuvre que pour les personnes loguées sur leur compte, puis, plusieurs mois après, Google a installé un cookie sur la machine des non-logués pour prendre en compte 100% - ou presque - des internautes... Parmi les "non-personnalisés" aujourd'hui, il ne reste plus que ceux qui ne sont pas logués ou qui n'ont pas de compte Google et qui refusent systématiquement les cookies. En clair, une marge infime des internautes actuels....
Donc, comme le positionnement perdait petit à petit de son intérêt, on s'est tourné de façon logique vers l'analyse du trafic généré par les moteurs sur un site : avec quels mots clés (dits "referers") les internautes nous ont-ils trouvé ? Avec lesquels ne nous ont-ils pas trouvé ? Le trafic généré transforme-t-il bien ? Après tout, peu importe le positionnement, l'important n'est-il pas d'obtenir un trafic de qualité sur son site, générant donc un taux de transformation efficace ? Bien sûr, tout cela vient d'un positionnement au départ, mais il semble plus logique, et surtout bien plus efficace, de mesurer les effets plutôt que la cause...
CQFD donc, nous mesurerons à l'avenir la qualité du trafic généré par Google, Bing et consorts grâce à une analyse fine et pointue des outils de mesure d'audience sur notre site.
L'avénement du trafic "not provided"
Or, qu'apprenons-nous il y a quelques semaines de cela ? Google chiffre maintenant son moteur et ses SERP aux Etats-Unis et ne transmet donc plus les mots clés referers ni aucune information pour les internautes logués sur leur compte. La mesure devrait, logiquement, arriver en France sous peu (même si, pour le moment, aucune annonce de ce type n'a été faite par Google, mais le moteur annonce habituellement plus sur ce qui a déjà été fait que sur ce qui va se faire...).
Résultat : plus de 10% (et parfois bien plus pour certains sites) du trafic est devenu "not provided" aux Etats-Unis, c'est-à-dire non fourni par le moteur, rendant invisible les mots clés "referers" et rendant complexe, voire faussée, l'analyse du trafic. Sur de nombreux sites français, cet effet se fait déjà sentir...
Bon, me direz-vous, il reste encore 80 à 90% du trafic pour effectuer des mesures fiables. Certes, mais qu'adviendra-t-il si Google, à l'instar de ce qu'il a fait pour l'historisation des recherches (voir ci-dessus), se met à chiffrer TOUTES ses SERP, pour TOUS les internautes ? Catastrophe !! Plus aucun mot clé referer à se mettre sous la souris !!! Plus de possibilité de mesurer le trafic "organique" généré, sauf pour les liens sponsorisés Adwords (au travers des outils dédiés fournis par Google), qui seront ainsi mis en avant. Mais sans doute est-ce une coïncidence... Ou alors, peut-être faudra-t-il utiliser une version "premium" et payante de Google Analytics pour avoir accès à ces si précieuses infos ?
Un point à surveiller de près en 2012...
Alors, bien sûr, il ne faut pas paniquer, et Google n'a certainement pas chiffré ses SERP dans l'unique but de tuer une nouvelle façon de mesurer la qualité d'un travail de SEO et, ainsi, mettre en avant ses solutions publicitaires. Ne faisons donc pas d'anti-Googlisme primaire et respirons un brin... Google n'a peut-être aucune envie de "killer" une profession au sein de laquelle il existe de vrais professionnels, travaillant de façon honnête et loyale pour faire en sorte que les sites soient mieux construits, ce dont Google tire tous les avantages...
Ceci dit, il semble important de tout faire pour que Google revienne en arrière dans sa politique de chiffrement des SERP, car il prive tout le monde - ou presque - de données importantes et parfois capitales pour une stratégie globale d'e-marketing.
Bien sûr, des pétitions existent, mais je doute de leur impact... La solution viendra peut-être des gros annonceurs Adwords, qui devraient faire pression auprès du moteur pour qu'il revienne en arrière. Car, sans ses gros clients publicitaires, Google est fragilisé...
Enfin, nous verrons bien ce qu'il en est en 2012 (qui, de toutes façons, devrait nous réserver bien des surprises si on en croit les Mayas 🙂 ), en espérant que tout cela ne sera que divagations de fin d'année, causées par une trop forte dose de vin d'Alsace (et notament de Klevener, bien sûr !) sur les 12 derniers mois... 🙂
Bref, restons vigilants quand même... Et continuons à décrypter les vidéos de Matt Cutts 🙂
PS : d'ici là, Joyeux Noël à tous (moi, j'ai commandé l'album d'Astérix : "La SERP d'or" :)) )!!!!
Bien sur! Google veus le monopole sa parait clair non ?
Ni grand ancien ni papy, mais bien "Le Pape du Référencement"
Excellent article de synthèse
7 jours avant la 1ere remarque sur le titre. ma foi, je pensais que ça viendrait plus vite 🙂
Dommage juste que le commentaire soit anonyme…
Bonnes fêtes !
Olivier
Très bon article qui n'a vraiment pas besoin de son titre racoleur pour être lu 😉
tout finira par devenir payant ! c'est l'oncle sam qui me l'a dit
Peut être l'annonce d'une rupture méthodologique dans nos stratégies de référencement.
Encore une fois, le SEO va plutot changer que disparaitre. Par contre le chiffrage des données est tout de même bien étrange, car cela concerne le référencement mais également le webmarketing.
Il n'y a pas que les internautes qui refusent les cookies qui ne sont pas pistés, il y a aussi ceux qui les suppriment à chaque fermeture du navigateur. Il est temps de commencer le divorce d'avec Google, et penser autrement pour l'audience d'un site. Les règles changent trop souvent, le temps investi dans le système Google peut être investi ailleurs. On change difficilement les (mauvaises) habitudes, pourtant il y a de plus en plus de possibilités de ramifier son site depuis le Web 2.0.
Ca fait peur quand même tout ça, même si tout cela me paraît impossible ….
il y a une petite contradiction dans votre billet : si les keywords referers ne sont/seront accessibles uniquement via les outils de pub de google, pourquoi les gros annonceurs, qui le sont en volume mais aussi vraisemblablement sur la durée donc ont accès aux outils google sur le moyen/long terme, protesteraient et réclameraient à ce que ces données soient toujours divulguées gratuitement à l'ensemble de la population alors qu'ils pourraient tirer un avantage certain de leur situation vis à vis de leurs concurrents qui n'auront pas fait ou ne pourront pas faire le même effort financier en pub adword ?
De toute manière, on ne construit pas une stratégie sur du referer, mais sur du google suggest et le générateur de mot cle, à la base.
Effectivement, pour affiner, le referer peut etre utile et bien sur l'analyse des mots clé, vu la performance et la complexité croissante de Google Analytics, je pense comme Olivier et beaucoup qu'il faudra payer.
Tout le monde( sauf certains anciens …) continue de voir google comme un moteur de recherche, alors que c'est une agence de publicité, quand on voit les choses sous cet angle tout devient alors plus clair 😉
Personnellement, je ne crois pas du tout que le SEO est appelé à disparaître, à court termes. En revanche, sa forte évolution est d'actualité, plus que jamais. Crédibilité et autorité deviennent de plus en plus importants. La communication hors de votre site est aussi importante que celle du vôtre.
Peut-être est-ce une manière pour Google d'assurer les ventes de son Google analytics premium… Mais si tel est le cas, c'est clairement de la concurrence déloyale ! Mais que fait la justice ? C'est vrai que l'omniprésence et la toute puissance de Google est inquiétante. Il y a clairement besoin d'autres alternatives pour sécuriser l'accès à l'information mondiale. Peut-être vont-elles finir par arriver avec les excès autoritaires de Google ?
Si le trafic "not provided" introduit un biais dans les résultats, cela signifie un accès aux stats à 2 vitesses : les grosses entreprises seront favorisées car elles auront les bons chiffres grâce à Google analytics premium (vendu très cher). Mais si le moteur ne donne pas à toutes les entreprises les moyens de comprendre les internautes et de leur servir une information de qualité grâce à des stats correctes gratuites, ce sont les internautes qui finiront par être pénalisés et/ou méfiants. Et ces internautes en quête d'infos pertinentes et "objectives" se tourneront vers d'autres moteurs plus performants qui ne manqueront pas d'être développés un jour.
En attendant, l'analyse des mots-clés qui apportent du trafic qualifié reste un champ d'étude passionnant d'un point de vue linguistique, humain 🙂
Je réfléchissais également à ça. La rentabilité de Google ne repose que sur la publicité, donc Adwords. Toutes les modifications mises en place n'ont-elles pas pour but de favoriser l'utilisation de campagne publicitaire ? D'autant plus qu'année après année, la différence entre résultats Organic et Adwords est de moins en moins visible dans les SERP
Le job va changer c'est certain. On va vers des résultats de requête ultra personnalisés, en gros chacun son Google.
Je n'ose pas imaginer que Google ne communique plus les requêtes qui mènent à un site, il y a qque chose qui se trame et la possibilité d'un Analytics "premium" et payant semble une hypothèse sérieuse.
"Google n'a peut-être aucune envie de "killer" une profession" -> mais il en a largement les moyens et ce ne serait pas la première fois qu'une "bavure" se produit. Après tout les SEO c'est combien de personne ? Un goute d'eau dans l’horizon…
Ce sont des suppositions cohérentes par rapport à la montée en puissance des "+1, Tweet et J' aime" . Par contre, pour moi c' est pas pour demain, il n' y a qu' à voir certaines machines de guerre comme vente privée qui n' a même pas 100 followers …
Tu veux pas que l' économie s' effondre alors qu' on est "en crise" ? 🙂
Ce que google ne comprend pas, c'est que sans ces données, nous ne pouvons plus agir, si nous n'agissons plus il n'agira plus vraiment non plus. Sans qu'il le sache, nos techniques (plus ou moins douteuses de référencement) font avancer son moteur et la pertinence de son moteur….ensuite, si il ne tient qu'a se gaver avec des revenus publicitaires, je crois qu'il se plante… et je ne vais pas passer en revue les échecs de google
Oui Google ne fait jamais rien au hasard, pour preuve la deuxième attaque du Panda en France est arrivée le 14 Octobre 2011 soit 2 ans jour pour jour après la sortie au cinéma du film Panda Petit Panda en France !! (à prendre au second degré bien entendu ^^)
Je crois que je vais aussi commander l'album d'astérix, je le lirais tranquillement habillé de mon caleçon panda.
Pour ce qui est du chiffrage des SERP's, je pense comme d'habitude que GG à prévu une grosse modification dans son fonctionnement pour l'année à venir, il ne reste plus qu'à tendre le dos en espérant que cela ne fasse pas trop mal.
Félicitations pour cet article, j'ai pas pu m'empêcher de dévorer chaque phrase de celui-ci, Alain http://wikinewsblog.org
Analyse intéressante : le SEO évolue à vitesse grand V, et il semble de plus en plus pertinent de parler de "visibilité" plutôt que de référencement désormais : RP, SEO, médias sociaux, branding, marketing…
au début, concernant la personnalisation des SERP, je pensais que cela était une conséquence de la guerre dans le "web mining" que se livrent Google, facebook, Microsoft, Apple etc. : il était en effet facile pour les autres géants du web de récupérer beaucoup de données via les SERP Google, mais l'inverse n'était pas vrai (très peu possible pour Google de récupérer les données non-publiques des membres de Facebook par exemple). D'ou l'accentuation de la personnalisation débutée dès 2003 (selon IPPOLITA).
Par contre avec le chiffrement SSL je me fais exactement la même réflexion que vous : cela risque de devenir une norme et concerne au premier chef le SEO et le web analytics …
Question : pourquoi, alors que les Pro du SEO et de l'analyse de stats d'audience sont traditionnellement les premiers à faire indirectement une pub effrénée à Google et ses outils (Google Analytics…)?
Cette situation est passionnante à voir évoluer
@Baxxx : pourtant, le site google;fr n'est clairement pas sécurisé à l'heure actuelle, vérifiez sur le site : les adresses ne sont pas en "https"…
cdt
Je ne pense pas que le #SEO est mort mais il évolue de manière positive selon moi. Sans toutes ces modifications, les white hat s'ennuieraient un peu 😉
Comme argaunote je pense que le not provided pour le https est déjà en place sur le fr : http://twitpic.com/7qw4eo (le trafic en provenance du .com n'est pas significatif sur ce site)
Le web évolue à vitesse grand V et les techniques de référencement aussi… mais c'est vrai que ces dernières années le SEO a radicalement changé.
@ Argonaute : cela représente peut-être du trafic en provenance de Google.com… 🙂
Cdt
De mon côté, le "not provided" a déjà largement sa place dans mon Google Analytics, il occupe déjà le top 10 de mes requêtes. Il est donc déjà arrivé en France, non ?
C'est surtout le glissement vers un google analytics premium (en tout cas une offre payante de GA) que je vois venir gros comme un camion… vous voulez les mots clés ? Payez cette information capitale…
Effectivement le SMO prend une place de plus en plus importante mais la recherche via des requêtes restera prépondérante pour le moment.
M'enfin, le web reste un univers compliqué a prévoir sur plus de quelques mois…
Le métier de SEO glisse déjà beaucoup vers le SMO depuis quelques mois, et effectivement, les agissements de Google ces derniers temps (Panda et tous les signaux de "fragilisation" de la longue traine en sont d'autres exemples indirects) devraient continuer à accentuer cette tendance.
cet article laisse songeur, l'avenir du référenceur est probablement bien incertain…