Quelques infos sur Google et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Faire un lien vers Wikipedia peut-il entraîner une pénalité Google (???) ? La Search Console pourrait-elle proposer des informations sur les pages d'un site présentant des risques de contenu de faible qualité ? Le filtre Page Layout est-il encore actif ? Les erreurs 404 sont-elles des signaux de faible qualité pour un site web ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goosssips" 🙂 La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Wikipedia |
John Mueller a indiqué - en réponse à une question d'un internaute sur Twitter - que le fait de faire un lien vers l'encyclopédie Wikipedia n'entrainait pas une pénalité de la part de Google. On se demande parfois d'où peuvent bien venir de telles questions ???... |
Taux de fiablité : |
Source : Search Engine Roundtable |
Search Console |
Un internaute a demandé au même John Mueller si Google travaillait actuellement sur un outil, qui pourrait être intégré à la Search Console, et qui donnerait des indications sur les pages d'un site qui pourraient être considérées comme étant de faible qualité pour le moteur de recherche. En effet, la Search Console donne déjà, par exemple, des informations sur les pages ayant des balises Title ou meta "description" trop courtes, en double, etc. Donc, ce type d'informations serait dans la même veine. Le porte-parole SEO de Google a indiqué que, selon lui, il n'y avait aucun plan allant dans cette voie et qu'il ne voyait pas trop à quoi cela pourrait servir au "webmaster lambda". Ah bon ?... |
Taux de fiablité : |
Source : Search Engine Roundtable |
Page Layout |
Gary Illyes a indiqué sur Twitter que l'algorithme Page Layout, plusieurs fois mis à jour par le passé et qui a pour but de pénaliser les pages ayant trop de publicités imbriquées dans du contenu éditorial, |
Taux de fiablité : |
Source : Search Engine Roundtable |
Erreurs 404 |
John Mueller a une nouvelle fois expliqué sur Twitter que les erreurs 404 renvoyées par un site n'était pas considérées comme un critère de faible qualité par Google et qu'il n'y avait aucune pénalisation pouvant frapper une source d'information à ce sujet... |
Taux de fiablité : |
Source : Search Engine Roundtable |
Goossip (Infos Google). Source de l'image : Google |
Faire un lien vers Wikipedia est ils nocif?… ou, comment parler pour ne rien dire!
comment peut on poser une question pareille et comment un intervenant de Google peut prendre la peine d’y répondre?
Les 404; pénalisantes? encore une question bizarre! Les webmasters pensent ils être les seuls au monde? la toile, on la oublié est un monde alimenté et consulté avant tout par des millions d’internautes qui ont des blogs, qui vont sur les réseaux sociaux, qui remplissent des pages sur la vie de leurs chiens ou de leurs poissons rouges et qui n’ont aucune notion de 404, de redirection, de « SEO » etc…
Pourquoi google les sanctionnerait il?
Les « Spécialistes SEO » ne sont pas le nombril du monde et, s’ils n’existaient pas, il est a parier que tous les derniers filtres de Google n’existeraient pas non plus! (vais me faire tuer là!) d’ailleurs, ce sont vraisemblablement ces mêmes « spécialistes » qui ont posé ces questions!
Il serait intéressant de savoir quel pourcentage de sites est concerné par une action SEO délibérée, mais il est évident qu’il est très modeste.
Désolé pour ce petit coup de gueule du lundi, mais le jour ou les SEO dont je fais d’ailleurs parti arrêteront de penser que le web n’existe pas sans eux, on lira moins de c…. sur le net.
Heureusement que faire un lien vers un site web, à fortiori utile, de qualité et reconnu comme Wikipédia, n’entraîne aucune pénalité ! Ce serait même le contraire…
Ce qui devrait être pénalisé, c’est la propension des sites d’informations de ne mettre aucun lien extérieur, surtout lorsqu’ils parlent… d’un autre site web. C’est très souvent le cas (même si c’est un peu hors-sujet ici), et c’est globalement dommageable pour le web, étant donné que le principe même d’internet est de créer des liens entre les sites.
Sûrement une (mauvaise) idée fournie à ces sites par leurs spécialistes SEO…
Et donc tout cela n’affecte en rien la qualité d’un site ?