Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Google prend-il obligatoirement le premier contenu indexé comme original dans le cas de contenu dupliqué ? Des pages lentes sur un site peuvent-elles impacter d'autres pages, plus rapides ? Combien de liens sortants peut-on proposer dans une page web ? Comment Google prend-il en compte les extraits de pages, comme annoncé dernièrement ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Indexation et Contenu dupliqué |
John Mueller a indiqué sur Twitter que le fait que Google indexe en premier un contenu ne rendait pas ce contenu original et "canonique". En clair, ce n'est pas parce qu'un spammeur va plagier votre contenu avant son indexation par le moteur qu'il sera automatiquement vu comme la source originale de ce texte par Google. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Effectivement, les algorithmes de Google prennent en compte plusieurs critères pour déterminer, en l'absence de balise "canonical", quel est l'original en cas de contenu dupliqué. Par exemple, le PageRank de la page. Mais il existe certainement d'autres possibilités sur lesquelles Google n'a jamais communiqué. Le plus rapide n'est pas toujours le plus original ! 😉 |
Vitesse d'affichage page/site |
John Mueller a expliqué dans un hangout qu'en général, le moteur utilise des données granulaires pour analyser et tester chaque page d'un site. Mais que parfois, et notamment pour ce qui est de la web performance (temps de chargement), il manque de data pour obtenir un résultat pertinent et qu'il va prendre en compte, pour une page donnée, la moyenne des données du site total. Aussi, si ce dernier a de nombreuses pages lentes, la moyenne sera mauvaise et cela pourra affecter des pages isolées, même si elles n'ont pas de problèmes elles-même. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Ça reste une situation assez spécifique mais il ne faut jamais oublier que Google utilise dans ses algorithmes une vision granulaire (la page) et une vision macroscopique (le site). Les deux doivent être prises en compte. |
Nombre de liens sortants |
Depuis des années, Google indique qu'il n'existe pas de limite dans le nombre de liens sortants (internes ou externes) dans une page web et lus par le robots du moteur. Gary Illyes a cependant indiqué sur Twitter qu'une telle limite (nombre de liens sortants à partir duquel Googlebot arrête de les prendre en compte) existait, mais qu'elle était très haute et qu'il n'avait vu ce cas que dans des pages de spam. Par la suite, John Mueller a indiqué qu'il n'y "avait pas de nombre de liens optimal dans une page web". |
Source : Search Engine Roundtable, Search Engine Roundtable |
Taux de fiabilité : |
Pour le coup, les deux auraient mieux fait de ne rien dire 🙁 . |
Parties de contenu et Featured Snippets |
Google a annoncé dernièrement qu'il allait renforcer sa possibilité de classer certaines parties d'un texte (comme un paragraphe), même si ces derniers étaient compris dans un contenu global ayant un sens différent. À ce sujet, Google a apporté quelques indications complémentaires pour éviter toute mauvaise compréhension : il ne s'agit pas d'une indexation spécifique pour le contenu global d'un côté et les passages spécifiques de l'autre, mais bien d'une meilleure analyse différenciée entre les deux, sur la base d'une indexation unique. Et donc la possibilité d'identifier, au sein d'un contenu, un passage qui pourrait répondre à une demande précise. De plus, Danny Sullivan a expliqué que les systèmes utilisés pour les "passages" et les featured snippets étaient différents. |
Source : Search Engine Roundtable, Search Engine Land |
Taux de fiabilité : |
La confusion venait des termes utilisés, peu explicites ou sujets à différentes interprétations, lors de l'annonce officielle. Le problème est désormais réglé avec cette explication. |
Goossips : Contenu Dupliqué, Webperf, Liens Sortants et Passages. Source de l'image : Google