Une infographie qui donne les résultats d'une étude menée par SemRush sur 40 points plus ou moins bien pris en compte par les sites web actuels en termes d'optimisation SEO. Et le moins que l'on puisse dire est que la situation actuelle est plutôt inégale. Tous les sites ne sont pas égaux devant le Dieu Google en termes de conception ;-)...
Notre infographie du vendredi est proposée aujourd'hui par le site SemRush et nous fournit une longue liste des erreurs les plus souvent commises par les concepteurs de sites web en termes de SEO. Pour cela, SemRush a analysé 100 000 sites et 450 millions de pages grâce à son outil d'audit our en ressortir les boulettes les plus fréquentes. Cela donne 40 points (une bonne check-list de vérification si vous gérez un site web) répartis en trois grandes familles : Crawlabilité, SEO technique et SEO on-page. Même si l'infographie manque de détails dans ses explications et suscite de nombreuses questions (qu'est-ce qu'une balise Title trop longue ? Le fait de ne pas indiquer l'adresse du Sitemap XML dans le fichier robots.txt est-il vraiment une faute ? Tout comme le fait de ne pas créer de fichier Sitemap XML ? Etc.), cela alimente le débat et elle n'en est pas moins un excellent repère pour se remémorer de nombreux points à prendre en compte pour optimiser son site (cliquez sur l'image pour en obtenir une version agrandie) :
Infographie : Les 40 erreurs techniques les plus communes en SEO. Source de l'image : SemRush. |
Bonjour, Pour l’essentiel les erreurs évoquées ici sont également signalées dans les différents tableaux de bord de la « Search Console ». Une fois qu’on a corrigé tous ces problèmes, on a d’abord fait en sorte de faciliter le travail des robots en améliorant leur acuité sur le contenu. Sans forcément obtenir pour résultat d’améliorer son référencement, on a surtout réduit les chances de le voir pénalisé, ce qui n’est pas le moindre des résultats.
Certains points sont importants, mais à mon sens cette infographie est un pur linkbait sans beaucoup de valeur ajoutée, et honnêtement c’est ce que Semrush fait depuis plusieurs mois, des linkbaits moisis qui ne nous apprennent rien, mais font parler de semrush. Dire que le sitemap.xml a de l’importance pour le référencement d’un site, c’est du flanc, à moins que le référencement de votre site soit vraiment mauvais, c’est un critère vraiment mineur. Tout comme le robots.txt non trouvé. Google s’en moque totalement.
Bonjour Vincent,
Vous devez gérer des sites à faibles volumes de contenus (<10K), non ? Par ici on est à qlq millions…
Très intéressant, même si comme vous l’avez dit vous-même, cela mériterait pas mal de précisions et cela peut faire débat. Et, il y a pleins d’autres erreurs possibles… Mais ceux là on les retrouvent souvent en effet dans nos audits seo…
Pas vraiment d’accord avec le sitemap.xml non trouvé dans le robots.txt
Le laisser apparaître = meilleur moyen de se faire scrapper son contenu / ses fiches produits
Le underscore dans les Urls… Un critère qui a la vie dure non ?
On en trouve encore beaucoup 🙁