Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Les erreurs 500 sur un serveur peuvent-elles handicaper le crawl par le moteur ? Des noms de domaine similaires peuvent-ils impacter le référencement des uns et des autres ? Comment Google interprète-t-il les liens Javascript ? Structurer son contenu éditorial à l'aide de balises Hn est-il une bonne idée ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Erreurs 500 |
John Mueller a expliqué sur Twitter que le fait qu'un serveur renvoie de nombreuses erreurs 5xx (500 ou assimilées) pouvait poser des problèmes de crawl. En effet, dans ce cas, le crawl de Googlebot est ralenti et l'exploration est donc moins bonne. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Notre avis : Logique. En face de nombreuses erreurs 500, le robot peut penser que ces problèmes proviennent d'une exploration trop rapide et celle-ci est donc ralentie. Ce qui n'est évidemment pas une bonne chose. Vérifiez donc bien vos erreurs 500 à l'aide de crawls de votre site grâce à des logiciels adéquats (Screaming Frog, Botify, OnCrawl, etc.), et ce de façon périodique. |
Noms de domaine similaires |
Toujours John Mueller qui, dans un hangout, a expliqué que chaque site web était traité de façon unique et que si plusieurs sites avaient des noms de domaine très proche (exemple : abondance.com, e-abondance.com, aboundance.com et myAbondance.com), cela ne posait aucun problème à aucun de ces sites au niveau des analyses et classements. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Notre avis : Cela peut se comprendre en termes algorithmiques purs. Mais le parasitage peut se faire en termes de branding ou tout simplement au niveau de la présence d'un mot clé important dans le nom de domaine. La concurrence existe donc bel et bien. Petite anecdote : il y a quelques années, des abrutis dégénérés avaient créé le site "enabondance.com" en copiant intégralement le site Abondance. Heureusement, nous avions fait blacklister le site en 48 heures grâce à une requête DMCA. Les cons, ça ose tout, c'est même à ça qu'on les reconnait (Audiard) 🙂 |
Liens Javascript |
Un internaute a demandé à Google si les liens placés dans des codes de type <div href> + JavaScript étaient reconnus par le moteur. John Mueller a indiqué que si ces liens pouvaient servir à identifier certaines URL, ils n'étaient pas pris en compte en tant que lien pour passer du PageRank ou analyser l'ancrage du dit lien. |
Source : TheSemPost |
Taux de fiabilité : |
Notre avis : Une bonne façon de faire du maillage interne optimisé ? En tout cas, on ne le répétera jamais assez : si vous désirez que vos liens soient pris en compte par Google, seul le code <a href="[URL relative ou absolue]">Ancre</a> est la règle absolue ! |
Balises Hn |
John Mueller a expliqué dans un hangout que le fait d'utiliser les balises H1 à H6 était une bonne pratique. Elles aident le moteur à comprendre la structure du contenu et les relations des différents blocs d'information entre eux. Et cela peut aussi aider l'internaute au niveau de la lecture de la page. |
Source : TheSemPost |
Taux de fiabilité : |
Notre avis : John prêche un converti :-). Structurer les contenus éditoriaux, c'est bon pour les moteurs, pour les lecteurs, mais aussi pour les rédacteurs qui structurent également mieux leurs idées et les messages qu'ils veulent faire passer. |
Goossip (Infos Google). Source : Google
Merci de votre retour sur les 500. J’ai ce problème sur un de mes sites.
Je comprends que cela puisse bloquer le crawl, bcp de ressources sont utilisées.
J’avais d’anciennes catégories de blog triées par des filtres mais impropres, les filtres pouvaient plus s’additionner…
Je me retrouvais avec des urls du type :
blog?page=1&categories[0]=127&categories[1]=156&categories[2]=54&categories[3]=60&categories[4]=70&categories[5]=73&categories[6]=149&categories[7]=59&categories[8]=151&categories[9]=28
Aujourd’hui, j’ai des urls du type : blog?categories=innovation
il n’est possible de seulement sélectionner qu’une seule catégorie, il n’y a plus d’accumulation possible des filtres.
Mais j’ai un nombre d’erreurs 500 en augmentation constante. J’ai l’impression que Google continue de tester les multitudes de combinaisons possibles et renvoi des 500 dans la search console.
Auriez-vous une idée de comment stopper l’hémorragie (SEF URL ?). Merci.