Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Doit-on systématiquement désavouer des liens émanant de sites spammy ? Les interstitiels légaux posent-ils problème en SEO ? Un site web ne faisant pas l'objet d'une action manuelle est-il forcément considéré comme de bonne qualité par le moteur ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, Google+, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Backlinks |
John Mueller a rappelé sur Twitter que Google ignorait désormais les liens émanant de sites "spammy" : "Nous ignorons déjà les liens émanant de ce type de site, où il est peu probable qu'il y ait des liens naturels. Pas besoin de désavouer." |
Source : Search Engine Roundtable |
Taux de fiabilité : |
On le sait depuis longtemps maintenant, mais un rappel n'est jamais mauvais : Google pénalise beaucoup moins, mais ignore maintenant purement et simplement les backlinks qui lui semblent de mauvaise qualité. Et le fichier de désaveu ne sert qu'en cas d'action manuelle. |
Interstitiels |
Le même John Mueller a indiqué, toujours sur Twitter, que le fait qu'un site web propose des interstitiels affichant des textes légaux (exemple : acceptation des cookies) ne pose pas de problème à partir du moment où Google peut lire le contenu et que ce dernier se trouve dans le code HTML de la page. Il ne faut pas, en revanche, rediriger les interstitiels ou remplacer/bloquer l'ensemble du contenu avant de l'avoir lu ou fait une action (cliquer sur un bouton ou autre). |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Ces interstitiels sont le plus souvent une plaie, hélas obligatoire, et il faut donc bien vérifier la solution technique prise en compte pour les afficher : cela ne doit pas bloquer l'exploration (crawl) de la page et du site... |
Action Manuelle |
Le même John Mueller a indiqué, toujours sur Twitter, que le fait qu'un site web ne fasse pas l'objet d'une action manuelle ne signifie pas qu'il soit considéré par Google comme étant de bonne qualité, car tous les sites de la planète ne sont pas analysés par la "webspam team". |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Logique. Au vu du nombre de sites sur le Web, le fait de tous les explorer semble irréaliste. Et oui, "pas vu, pas pris" est un adage qui s'adapte très bien à cette situation. Mais il ne faut pas venir se plaindre lorsqu'on se fait prendre par la patrouille... |
Goossips : Backlinks, Interstitiels et Action Manuelle. Source de l'image : Google
Remarques très intéressantes. Je me suis souvent posé la question, après avoir désavoué des liens, de l’utilité d’une telle démarche. Je ne regrette cependant pas de l’avoir fait, je crois 3 fois (j’ai complété chaque fois ma liste).
Quand j’ai commencé mon site, je n’ai pas effectué de stratégie netlinking pendant au moins 3 ans (mon site a environ 4 ans). Je n’avais alors pratiquement aucune connaissance sur le web et ses stratégies, je débutais et me formais au fur et à mesure. Et là, je récoltais que la chienlit en terme de backlink, genre 99 % .
J’ai trouvé la fameuse fonction pour désavouer.
Avec le recul, j’ai eu raison de le faire dans la mesure où je n’avais pratiquement que les pires liens en direction de mon site. Et au moins, j’ai peut-être évité le pire. Je vérifie sinon régulièrement la situation de mes actions manuelles. Merci pour cet article qui éclaircit le sujet 🙂 .
A propos de sites « spammy » je me demande toujours la situation concernant le negative SEO, c’est-à-dire la possibilité de se prendre une tonne de liens de sites « spammy » pour se faire dézinguer dans les SERPs. Doit-on considérer qu’on est maintenant sauvé de ce genre de pratique?