Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : l'UGC (User Generated Content) est-il pris en compte par Google comme du texte classique ? Une page qui a été désindexée sera-t-elle pris en compte différemment lorsqu'elle est à nouveau indexable ? Est-il possible de gérer un Sitemap XML manuellement sur un gros site ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc "gossips" (rumeur) + Google = "Goossips" 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
UGC |
Dans une vidéo de la série #AskGoogleWebmasters, John Mueller a expliqué que l'UGC (User Generated Content, soit le contenu créé par les visiteurs sur un site web, comme les commentaires, les avis, etc.) était pris en considération exactement de la même façon que le texte "classique" (éditorial) de la page : "Globalement, Google ne fait pas de différence entre le contenu que vous avez écrit et le contenu que vos utilisateurs ont écrit. Si vous le publiez sur votre site, nous le considérons comme un contenu que vous souhaitez faire publier. Et c'est ce que nous utiliserons pour le classement. Après tout, c'est votre site web, n'est-ce pas ? Donc, si vous avez une grande quantité de contenu généré par les utilisateurs, assurez-vous qu'il répond à vos normes de publication de contenu sur votre site web."... |
Source : Search Engine Journal |
Taux de fiabilité : |
D'où l'importance de modérer au maximum les commentaires et, d'une façon générale, tout le contenu publié en UGC sur vos pages... |
Noindex |
John Mueller a expliqué sur Twitter qu'une page qui aurait été désindexée dans un premier temps via une balise meta robots "noindex" puis qui verrait cette balise supprimée dans un second temps, revient dans une situation "normale" d'indexation par la suite, comme si la désindexation temporaire n'avait pas existé. Elle n'est pas "pénalisée" ou autre phénomène pour cela... |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Il semblerait effectivement que cela soit une croyance assez répandue. En revanche, la réindexation sera peut-être plus longue lorsque la balise "noindex" aura disparu (vous pouvez dans ce cas utiliser la Search Console pour accélérer le processus). Mais une fois que cela sera fait, la situation reviendra à la normale par la suite... |
SiteMap XML |
John Mueller a expliqué sur Reddit que, pour des sites web de grande taille, il n'était pas recommandé de créer des fichiers Sitemap XML de façon manuelle, mais de passer de préférence par un outil (plugin ou autre) du CMS utilisé... |
Source : Search Engine Journal |
Taux de fiabilité : |
La personne qui posait la question à John Mueller gérait un site de plus de 2 millions d'URL. Créer un SItemap XML "dynamique" à la main dans ces conditions ? C'est tout bonnement impossible, bien entendu. À créer d'abord et à maintenir surtout. Cela peut se faire pour quelques dizaines d'URL tout au plus et pour un site très statique, mais aujourd'hui, 15 ans après leur création, la gestion des Sitemaps XML sont supportés par tous les CMS crédibles. Alors, pourquoi s'embêter ?... |
Goossips : UGC, Noindex et Sitemap XML. Source de l'image : Google