Après mes "top critères SEO" techniques la semaine dernière, voici les points indispensables à mettre en place, selon moi, dans une stratégie SEO en ce qui concerne le contenu textuel d'une page et d'un site web pour être parfaitement "Google friendly".
Google communique le plus souvent sur le fait que son algorithme de pertinence utilise 200 critères de pertinence pour donner une "note" à une page web par rapport à une requête donnée. Dans cette série de vidéos, j'ai trouvé intéressante de donner ma vision et fournir les 24 critères qui, selon moi, permettent d'obtenir une bonne visibilité sur les moteurs de recherche.
Après la technique la semaine dernière, parlons un peu du texte, du contenu éditorial, qui est bien sûr au centre d'une stratégie SEO. Pour moi, 4 points indispensables sont à prendre en compte à ce niveau pour être parfaitement pertinent par rapport à une requête donnée. Voici donc le sujet de cette 187e vidéo Abondance :
Mes Top Critères SEO : 3. Rédactionnel. Vidéo N°187 proposée par Olivier Andrieu (Abondance). Source : Abondance
Transcript de la vidéo 187 : "Mes Top Critères SEO : 3. Rédactionnel" :
Bonjour et bienvenue dans cette vidéo Abondance numéro 187, toujours sur mes Top Critères SEO et cette semaine on va parler du rédactionnel. Je rappelle que cette vidéo fait partie d'un ensemble, une suite de vidéos dans laquelle j'avais envie de vous présenter mes douze critères essentiels et par la suite de douze critères secondaires.
Donc la semaine dernière, on a vu la technique et cette semaine, je voulais donc vous parler de quatre critères essentiels en rédaction web. Je rappelle que bien sûr je vais très vite dans ces vidéos pour ne pas faire de vidéos trop longues. Il y a des livres, des formations, des guides pdf, des articles, des vidéos enfin plein de choses, notamment sur Abondance, sur Réacteur, / Formaseo, etc. sur tous mes sites pour aller plus loin sur ces sujets.
Premier critère rédactionnel : le volume de texte, bien sûr c'est évident et c'est un incontournable, ça va dépendre du type de contenu parce que si c'est une fiche produit d'une vis, d'un boulon ou d'une ampoule, ce n'est pas la même chose que pour une page qui va présenter un week-end de rêve à Bora-Bora ou un service d'entreprises etc etc. Donc évidemment le volume de texte va bien sûr dépendre du type de contenu. Ceci dit, en-dessous de 200 mots, ça va être quand même difficile d'avoir une visibilité. On est plutôt aujourd'hui enfin moi j'essaie toujours de me situer entre 600 800 mots, voire plus, mais le problème c'est qu'au-delà de 1000 mots, on commence à écrire et à rédiger pour Google et plus pour l'internaute, parce qu'il y a très peu d'internautes qui lisent plus de 800 à 1 000 mots. Ce volume de texte doit être suffisant en fait pour nourrir l'analyse sémantique des moteurs, donc c'est clair que s'il n'y a pas assez de mots, le moteur ne comprend pas ce que signifie la page.
Le choix de la requête principale, la requête pour laquelle on veut se positionner, est capital aussi . Au début, lorsqu'on lance un site, on va plutôt viser la longue traîne, parce que Google n'a aucune information sur le site, aucune notion de confiance, de lien, etc. On va commencer, "faire ses classes" en quelque sorte sur la longue traîne, donc des requêtes qui sont assez peu demandées et puis, dés qu'on gagne en légitimité, on va passer sur la moyenne traîne et puis après peut-être éventuellement sur la courte traîne avec des requêtes qui sont demandés plus de 10 000 plus de 100 000, fois voire plus. Donc c'est vraiment une montée en gamme qui se fait au niveau de la requête principale et puis bien sûr cette requête va nécessiter un petit peu de répétitions dans les zones chaudes - le title, le h1, le gras, etc. - c'est normal. Pas trop de répétitions mais quand même un petit peu pour que le moteur comprenne bien de quoi parle la page.
Cette requête va être expliquée par le champ lexical et par un champ lexical riche avec des mots qui sont en relation avec cette requête, des synonymes et ça demande souvent une bonne connaissance du domaine pour arriver à trouver les bons termes qui seront associés à la requête et qui permettent d'expliquer la thématique qui est traitée. Mais il y a beaucoup d'outils existants bien sûr. il y a le cerveau en plus ou moins bon état comme le mien, mais aussi des outils comme 1.fr, YourTextGuru, SEO Quantum, Text Focus ou les metamots. Il y a plein d'outils aujourd'hui qui existent, et sur le site Reacteur.com notamment, il y a eu deux articles assez fouillés qui présentent tous ces outils récemment, donc on a vraiment beaucoup d'outils qui permettent d'identifier ce champ lexical.
Et puis bien sûr la qualité du contenu, qui est quand même la base de départ, ce qui me ramène à ma définition du SEO, qui est le fait d'être meilleur que les autres sur le Web pour répondre à l'intention de recherche de l'internaute. On tape la requête, on regarde comment Google comprend la la requête et puis on lit ce qui a été fait par les autres et il faut essayer d'être meilleur. Il faut si possible que ce contenu soit rédigé par un expert, une personnes qui soit la plus experte possible, ça se voit souvent. Bien sûr une bonne orthographe, un contenu qui est bien structuré, bien mis en avant avec les balises h1-h6 et le gras, si possible pas noyé dans les publicités parce qu'on voit de plus en plus que Google pénalise le fait que les contenus sont noyés dans les publicités et qu'on n'arrive plus à faire la différence entre l'éditorial et les publicités. Ce qui est assez étonnant d'ailleurs, parce que quand on écoute les équipes pub de Google, ils disent de mettre plein de pubs dans le texte et par contre c'est pénalisé par le moteur ! Bref si on fait du SEO effectivement il faut bien délimiter, bien faire la différence entre texte et publicité.
Voilà, tout ça pour être le Victor Hugo du SEO et surtout faire du contenu de bonne qualité dans un volume suffisant pour nourrir les algorithmes des moteurs, bien structuré, bien optimisé pour que les moteurs classent bien les contenus. C'est un vrai travail mais pour moi - enfin c'est ce que je vis, ce que je constate tous les jours - c'est que ce qui fait vraiment la différence, c'est la qualité du contenu. C'est ce que dit Google d'ailleurs - on n'est pas obligé de le croire - il se trouve que moi c'est plutôt ce que je constate, qu'il faut vraiment faire de la qualité !
À revoir les quelques vidéos sur le site Abondance - URL ci-dessus - et ces quelques vidéos qui parlent de ces sujets.
Voilà, je vous dis merci pour votre confiance et votre fidélité, je vous dis à très bientôt pour une nouvelle vidéo Abondance et donc à la semaine prochaine pour parler des liens . Bonne semaine ! Au revoir 🙂
Autres vidéos touchant à ce sujet |
|
Articles complémentaires (listés par ordre chronologique) |
|
Notre Chaîne YouTube |
N'hésitez pas également à visiter la zone "Vidéos SEO" du site et à vous abonner à la chaîne YouTube du site Abondance (ou à son fil RSS) pour découvrir, semaine après semaine, les prochaines vidéos que nous vous proposerons. |
Bonjour Olivier, j’entends votre logique de commencer par optimiser des pages sur des RP de longue traîne afin de gagner en légitimité au fur et à mesure mais lorsque je définis une arborescence, je pars justement sur un découpage qui tient compte des RP les plus cherchées sans être trop concurrentielles non plus. Comment faire une arborescence sur des RP de longue traîne qui ne correspondent pas aux mots clés principaux de l’activité ?
J’apporte mon petit commentaire comme sur la précédente vidéo 😉
De mon expérience, pour des requêtes très concurrentielles avec un site à DA, PA et profil de backlinks moyen, j’ai pu constaté que 600 à 800 mots sur une page ne suffisait généralement pas aux yeux de Google pour remonter dans les top résultats. Alors que c’était largement suffisant il y a encore quelques années.
Mais il n’y a effectivement pas de règles absolues. Mieux vaut une page de 600 mots très bien construite et qui capte le visiteur, plutôt qu’une page de 2000 mots faite à la vite et sans intérêt pour l’utilisateur. Comme vous dîtes bien, la qualité du contenu est essentielle.
Toutefois, cela dépend également de la « puissance SEO » du site. Je déplore que Google favorise souvent à tort des sites anciens et très « puissants » à la défaveur de sites plus récents avec des metrics SEO faibles. Par exemple, un site e-commerce de type « Leroy Merlin » avec un DA 83, un PA de 60 et près de 100K backlinks, peut mettre en ligne une nouvelle catégorie de produits, non qualitative, et sans pratiquement aucun contenu texte, et être classé très rapidement dans les top positions sur la requête ciblée. A contrario, un site ecommerce assez récent et beaucoup moins puissant, même avec une page à contenu long et bien plus qualitatif restera souvent bloquée entre la 2ème et la 5ème page.
Enfin, d’après moi, deux critères déterminants associés à la longueur du contenu, sont le taux de rebond et le temps moyen passé sur la page en question. Ils sont d’ailleurs directement corrélé à la qualité de la page. Vous en parlerez peut-être dans une prochaine vidéo.
D’ailleurs, certains « spécialistes SEO » s’évertuaient à me dire que le taux de rebond n’avait aucun impact sur le référencement. Qu’en pensez-vous ?
Car je pense totalement le contraire et en fait déjà le constat il y a 10 ans. C’est peut-être une évidence pour tout le monde ce que je vais dire là. Mais ayant fait différents tests, j’ai pu constaté que sur une même requête Google favorisera en général une page à faible taux de rebond et à long temps moyen passé dessus. Et ce quelque soit la quantité du contenu. Mieux vaut par exemple une page de 200 mots avec un taux de rebond de 10% et un temps moyen de 4 min, qu’une page avec 1000 mots avec taux de rebond de 50% et temps moyen de 1 min. A SEO metrics égales, Google favorisera presque toujours cette page de 200 mots. Selon la requête ciblée, il existe des astuces pour faire rester un utilisateur 4 min sur une page de 200 mots, comme par exemple l’ajout d’une vidéo très qualitative. Technique bien connue, mais il y en a bien d’autres…
En attendant, merci pour vos vidéos. Cela fait longtemps que je vous connais de « nom » ainsi qu’Abondance, mais je n’avais jamais pris le temps d’aller voir vos « tutos SEO ».
Bonjour. je suis globalement d’accord sauf pour le taux de rebond, qu’il me semble impossible d prendre en compte comme critère de pertinence d’une page web. Voir : https://www.blogdumoderateur.com/mythes-seo-idees-recues-referencement/
Sur le taux de rebond vous êtes donc d’accord avec la grande majorité des experts SEO ;). Mais mes tests me disent le contraire. Pour être plus précis, c’est surtout le triptyque « longueur et qualité du contenu » / « temps passé sur la page » / et « taux de rebond » qui m’apparait avoir un impact.
Sur le blog du modérateur, il est indiqué « c’est normal car le taux de rebond n’est en rien un indice objectif de la qualité du contenu d’une page web ». Cela ne tient qu’à moi, mais je ne suis pas d’accord avec cette affirmation.
J’ai pu constaté qu’un contenu long et pertinent, associé à un taux de rebond très faible, m’assurait à terme presque toujours une place en 1ère page de Google. Je parle ici de taux de rebond vraiment faibles, compris entre 1% et 10%.
A contrario, j’ai pu aussi positionné des pages avec 60% de taux de rebond, mais cela m’a paru beaucoup moins aisé.
Je sais que la plupart des experts français en SEO ne sont pas du même avis que moi. Mais j’ai pu toutefois assister quelques conférences et lire quelques écrits qui tendraient à accréditer ma thèse.
Je ne sais pas si l’étude a été réactualisée et ce qu’elle vaut, mais SearchMetrics avait fait une étude il y a quelques années là dessus : « Searchmetrics a analysé 10 000 des principales expressions clés par volume de trafic aux États-Unis et a trouvé des preuves accablantes que le taux de clics et le faible taux de rebond étaient corrélés avec les rankings. »
Nick Garner, que j’ai pu voir en conférence à Londres, l’affirmait déjà il y a quelques années. Extrait d’un article dont il est l’auteur sur le blog de SEM Rush : « The other part is engagement. Google will have a pretty good understanding of bounce rates from one search page to another based on its data from search result pages. They can see if someone does a search, whether they bounce in and out of a number of results, or drop into a result and not come back out again ».
La diversité des opinions fait la richesse des débats en SEO ! 😉
Est-ce qu’on n’est pas là dans l’habituel débat « causalité/corrélation » ? Mais oui, clairement, dans un domaine qui n’est pas une science exacte, le débat enrichit chacun…
C’est possible également !
Désolé, j’ai un peu dévié sur le thème de départ qui était la quantité et la qualité du contenu 😉
Rendez-vous pour d’autres débats 🙂
Je te cite sur ton article sur les Google Leaks : « Les clics longs versus les clics courts : NavBoost fait la distinction entre les clics longs (où l’utilisateur passe beaucoup de temps sur la page) et les clics courts (où l’utilisateur revient rapidement à la page de résultats), ce qui aide à évaluer la satisfaction de l’utilisateur. »
Du coup Olivier, t’es convaincu maintenant de l’influence du taux de rebond sur le classement dans les SERPS, que je te mentionnais en 2021 ? 😉 Car ce qui est nommé ici « clic court » c’est peu ou prou la définition de ce qu’est le taux de rebond…
Je ne te jette pas la pierre, la majorité des experts SEO affirmaient la même chose que toi.
Bonjour Samuel,
Ce n’est pas Olivier qui a écrit l’article sur les Google Leaks, c’est moi 😊 Olivier a pris sa « retraite SEO » il y a plus d’un an maintenant.
Bonne journée !
Super vidéo comme d’habitude !