Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Une page écrite dans une ancienne version du langage HTML est-elle pénalisée par Google ? Googlebot tient-il compte des scripts publicitaires et Analytics ? Si une page web disparait, est-ce que les backlinks qu'elle avait créés vers d'autres pages disparaissent également ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
HTML old school |
John Mueller a rappelé sur Twitter que Google ne pénalisait pas les sites qui utilisaient de l'HTML "ancienne version", l'utilisation de tables, l'absence de CSS, le fait que le code HTML ne passait pas au Validateur W3C, etc. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Il est parfois bon de rappeler que le but premier du moteur est d'identifier la meilleure réponse à l'intention de recherche de l'internaute, pas de savoir si elle est bâtie avec des "table", ou si le code HTML respecte les standards (car sinon, l'immense majorité du Web serait pénalisée)... |
Crawl et Rendering Analytics |
Martin Splitt (Google) a annoncé lors de l'événement SMX East que lors des phases de crawl et de "rendering", Googlebot ne tenait pas compte des scripts Analytics ou autres scripts à vocation publicitaire qu'il pouvait identifier dans les pages, afin d'économiser des ressources. |
Source : Search Engine Land |
Taux de fiabilité : |
C'est assez logique. En termes de crawl et de rendreing, cela ne lui apporterait rien de plus de faire des appels publicitaires ou Analytics. Et les ressources sont chères... |
Liens |
John Mueller a rappelé sur Twitter qu'un backlink n'est pris en compte que si le lien est présent dans une page indexée par le moteur. Si un lien existe mais que la page qui le contient disparait ou est désindexée, le backlink disparait avec elle. |
Source : Search Engine Land |
Taux de fiabilité : |
Logique. C'est la base. RAS... |
Bonjour,
A propos des « tabs » ou « accordéons », Google indexe-t-il vraiment les contenus ? J’en ai pas mal sur ma page d’accueil, et n’en ai pas l’impression.
Idem, j’ai du vieux html, mais propre, et j’ai l’impression que Google m’a rétrogradé.
Au final, en me référant à différents outils tels que outiref.fr, 1.fr, SEO Majestic, Google speed insight, j’ai le site qui répond le mieux aux exigences sémantiques, de performances et de nombres de backlinks, et je suis déclassé depuis 2 ans (9e position vs 2e en 2017) sur mon expression de mots-clés principale.
Les tabs et le vieux html en cause ?
Je me suis dit l’UX aussi, mais j’ai cru comprendre en lisant vos articles que l’UX n’impacte pas le positionnement.
Merci !
Bonne journée
Tab : aucun problème, j’ai testé.
Accordéons : voir ma vidéo sur le sujet.
Moi aussi il fut un temps ou sur certain termes j’étais en tête – et puis je suis lentement, au fil des ans, descendu en 2ème ou 3ème page…
Mon analyse est que le nombre de site se multipliant sans cesse, le concurrence se fait naturellement plus rude, et je ne m’étonne pas de descendre ainsi.
C’est peut-être aussi une manière de se consoler !