Google peut-il prendre en considération, parmi les différents critères qui lui servent à évaluer un lien, le fait qu'il soit cliqué ou pas pour lui donner plus ou moins de force ?...
Avec ce sacré Penguin, la notion de lien est au centre de très nombreuses conversations sur le Web. Qu'est-ce qu'un bon lien ? Qu'est-ce qu'un mauvais lien ? Le débat fait rage et chacun fait valoir ses arguments.
La question de base est avant tout celle-ci : quels sont les critères qui font que Google considère un lien comme bon ou mauvais ? On a parlé de nombreuses hypothèses, certainement toutes véridiques :
- Un lien depuis un site dans la même thématique que la vôtre plutôt que d'un domaine différent.
- Un lien depuis le coeur éditorial d'une page plutôt qu'en footer.
- Un lien depuis une page populaire (PageRank élevé) plutôt que d'une page peu liée.
- Un lien avec des textes d'ancre variés plutôt qu'avec toujours le même intitulé de texte.
- Un lien depuis des sources variées plutôt que depuis un seul site.
- Un lien ancien plutôt qu'un lien récent.
- etc.
Mais il y a finalement un critère dont on entend très peu parler : un lien cliqué, sur une page web (et donc qui génère du trafic), ne serait-il pas considéré par Google comme plus pertinent qu'un lien non cliqué ? Ce serait loin d'être idiot comme approche à notre avis...
Et effet, c'est en tout cas tout à fait possible à tracer (d'ailleurs, il s'agit d'un des critères principaux pour le choix des "liens d esite" - Sitelinks - dans les résultats du moteur) avec au départ la barre d'outils du moteur et maintenant Chrome qui se positionne comme un navigateur majeur du Web. Google a ainsi une masse fabuleuse d'informations sur notre navigation d'internaute. Il sait quels liens sont cliqués et lesquels ne le sont pas.
N'est-il pas logique de considérer qu'un lien cliqué est pertinent, et ainsi de lui donner de la force, du "jus de lien", à transmettre à la page vers laquelle il pointe ? Et de "dégrader" un lien qui ne serait jamais cliqué (type lien en footer par exemple) ?
Le critère semble en tout cas assez objectif et efficace, s'il n'est pas pris en compte de façon unique, bien sûr, mais corrélé avec les autres points envisagés précédemment...
Peut-être faudra-t-il y penser à l'avenir et faire quelques tests sur ce point (je n'en ai pas vu passer, sauf erreur de ma part), pour savoir s'il est crédible...
Et vous, qu'en pensez-vous ?
Source de l'image : DR |
Effectivement en echo à ce que disait Janolapin, j’ai aussi constaté que Google considère effectivement les URL non cliquables comme des liens… donc ça devient difficile pour lui de savoir si le visiteur clique, à moins qu’il détecte que le lien est sur la page puis que le visiteur se rend par la suite sur la page indiqué par l’URL… ce qu’il compterait donc comme un clic : ça reste possible mais serait étonnant !
@guillaume => oui, on peut effectivement revenir a tout moment à une bonne position, que ce soit en modifiant des pages ou même une structure complete, cela necessite du temps et bien sûr, les adaptations appropriées.
il faudrait faire des tests pour savoir si le clic est un élément important ou pas dans le positionnement d’une page, mais comme certains « vieux de la vieille » qui ont longtemps fonctionnés au « feeling », j’ai aussi le « sentiment » que c’est une valeur mesurée par google et noté.
s’agissant du linking, j’ai du coup une seule question : J’ai fais le ménage après le premier passage de penguin… mais le 1.1 a été pire, je pose donc la question suivante : Peut on revenir dans google pour un site qui a littéralement disparu de sa requête principale…?
Ca voudrait dire qu’un site qui n’utilise pas Google Analytics et dont les utilisateurs sont globalement moins utilisateurs de Chrome que la moyenne sera moins bien indexé (pages du site entre elles au moins, sinon par rapport à la concurrence)?
@ Valbou : IMHA, Google ne se prive pas pour utiliser les données issues de Chrome et je pense meme qu’il l’a lancé pour ça :))))
Pour les Sitelinks, c’est pour moi impossible que la seule popularité soit prise en compte, selon mes tests, il y a une notion de taux de clics qui ressort de façon évidente. Allez, disons que c’est une corrélation entre différents facteurs :))
Bonjour,
Moi entre ce qui est un bon ou mauvais lien…j’ai la tête qui tourne 😉
Alors j’ai une question concernant les liens en provenance des agrégateurs comme Trovit, Mitula, etc : Est-ce que les liens en provenance de ces agrégateurs sont mauvais pour le SEO aujourd’hui ?
Merci d’avance de votre réponse
Sur un site qui n’a pas de pub, qui n’utilise pas Google Analytics (mais un concurrent) et dont le public cible n’utilse pas Chrome (moins de 10% du traffic, puisqu’il s’agit d’un site qui s’adresse essentiellement à un public professionnel avec des navigateurs imposés), comment est-ce que Google peut avoir la moindre idée du suivi ou non d’un lien?
Google ne peut pas savoir si un lien est plus ou moins cliqué sur une page. Il devrait pour ce faire utiliser soit les Google Analytics installé (ce qu’il dit ne pas faire officiellement), soit utiliser le navigateur Google Chrome.
Les sitelinks sont établis selon la « popularité de la page » elle même en partie acquise par les liens interne voir externe. L’exemple de la page « contactez-nous » qui ressort de façon quasi systématique est souvent la page la plus lié en interne pour un site BtoB.
Cette théorie me parait donc particulièrement alambiquée. D’autres critères plus simples sont plus efficaces comme le nombre de liens dans la page qui va donc forcément diluer les clics sur tous les liens de façon inégale en fonction de leur position dans la page. Ces critères sont beaucoup plus simple à analyser. De plus le contexte du lien associé à son ancre et à son URL permet de savoir si le lien pourrait apporter une information sur le sujet évoqué (sans même parler du crawl de la page de destination).
Mais je reste à l’écoute pour débattre sur ce sujet 🙂
« .. maintenant Chrome qui se positionne comme un navigateur majeur du Web .. » mais aussi avec Analytics
Je vais faire une entorse à mes principes, pour moi, et sans test en interne tellement je suis persuadé de la théorie, l’intégration du trafic généré par un lien est une évidence aillant des impacts directs ou indirectes sur l’évaluation de la page. Google est baigné dans ces mesures grâce à ses outils publicitaires et je trouve que c’est pertinent et évolutif (quelque soit l’avenir, un lien suivi un certain nombre de fois eût égard au nombre de visites de la page est un critère de qualité (pour peu que l’évaluation détecte également les origines des internautes qui passent par cette fenêtre ….))
Ce qui m’intéresse est plutôt de savoir si Google pondère les pages contenant ces liens ou dévalue celles qui n’en contiennent pas … et surtout de quelle façon ????
Si l’on se pose la question pour les liens externes et veut la tester, on peut d’abord se la poser pour les liens internes. Et là, c’est sans doute plus facile à analyser et une réponse affirmative est loin d’être évidente pour ceux-ci.
Néanmoins, il me parait plus que probable que ce genre d’élément entre effectivement en considération, chez google dans un ensemble d’analyses du comportement de l’internaute par google, pas nécessairement en termes limité du jus du lien.
Si un lien est cliqué (à partir des SERP, je suppose), c’est qu’il est en haut. Alors, la poule ou l’œuf ? Autrement dit, les clics n’expliquent en rien le primo-référencement. En revanche, il faudrait se poser la question suivante : une page n’ayant fait l’objet d’aucun clic peut-elle se maintenir dans le haut du classement ?
Cela paraît logique mais avec les nuances exprimées plus haut par d’autres personnes : le taux de rebond ou encore la durée de la visite de la page liée doit aussi être prises en compte.
complément: (des urls en texte, mais sans )
lire: « sans la balise » (le module de commentaire en a fait un lien 😉
en même temps, on peut aussi constater dans les Webmasters Tools (via le suivi des 404) que Google suit des liens non cliquables (des urls en texte, mais sans ), ce qui va à l’encontre de ce qui précède.
Je suis assez sceptique sur le sujet
@olivier@abondance.com je reprend ta question :
» mais une page peut être très pertinente et avoir elle-meme un taux de rebond élevé. Comment mesurer sa pertinence dans ce cas ? »
Pour moi, c’est d’ailleurs un sujet que je n’ai jamais rencontré sur les blogs parlant du ref nat, il y aurait un taux de temps de lecture / aux nombres de mots dans un article.
Google n’aurait il pas mis en place un ratio nbre de mot/temps de lecture, une sorte de moyenne qui dirait si 300 mot 45′ de lecture etc … ce qui permettrai au moteur d’ajouter un critère de pondération intéressant à mon avis.
En effet, ce critère peut semble extrêmement pertinent. Créer des liens à tout va ne générant aucun trafic ne m’apparaît pas comme un apport de qualité pour l’internaute. Cela voudrait dire indirectement que le lien se trouve sur une page n’étant pas lu. Je serais donc assez étonné que ce critère ne soit pas pris en compte !
En tout cas, un tel test serait très intéressant (il ne me semble pas non plus en avoir vu passer de ce type) .
Merci Olivier de relever cette problématique. Je pense également que Google doit prendre en compte ce critère dans son algorithme. Est-ce que Google aurait déposé un brevet sur le sujet ?
Le taux de rebond calculé au niveau du moteur oui (la personne qui a cliqué sur un lien revient-elle dans la SERP ?). mais une page peut être très pertinente et avoir elle-meme un taux de rebond élevé. Comment mesurer sa pertinence dans ce cas ?
Sans gros volume les test ne donneront pas de résultats probants. Par contre en se référant à la logique relationnelle des liens pour évaluer la pertinence il est évident que ce paramètre puisse être pris en compte. Il l’est depuis longtemps et comptera de plus en plus.
ok pour que le lien soit cliquer, mais il faut que derrière le taux de rebonds soit faible. Car faire un lien qui semble intéressant renvoyant vers une page pauvre en intérêt va générer un taux de rebond plus important et aurait à mon avis un effet inverse. quand pensez vous ?
Le taux de rebond suite au clic aide également j’imagine.
Cette phrase résume bien la situation « Le critère semble en tout cas assez objectif et efficace, s’il n’est pas pris en compte de façon unique, bien sûr, mais corrélé avec les autres points envisagés précédemment » .
Surveiller la diversité des types et des sources de liens me semble le plus important pour un netlinking efficace et un profil naturel. Car malheureusement un lien pertinent ne peut générer aucun trafic si il provient d’un site inconnu par les internautes. Au contraire un lien non pertinent peut très bien générer un max de trafic. La tâche pour les robots est donc de regrouper l’info et voir la proportion des liens »suspects » ou « propres » et tirer une conclusion.
C’est une donnée très facile à tracer par Google. Les constats en situation réelle me laisse penser que c’est un critère qui est directement ou indirectement pris en compte depuis un bon moment.
Des exemples donnés lors de la conférence BH SeoHighLevel ne me laissent aucun doute la dessus.
Me reste à faire un test, qui vaudra ce que vaut un test.
C’est en tout cas un critère super pertinent !
En tout cas, il serait effectivement pertinent pour Google de mettre en place ce critère. Je vais moi aussi surveiller si je vois passer un test.
Intéressant
@VirginieGiron
Bonjour,
Je crois qu’il ne reste plus maintenant, si cette hypothèse se vérifie, qu’à faire un topic sur comment faire un lien qui amène du traffic !!!