
Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Quelle est la taille limite du code source d'une page crawlé par Googlebot ? Des mots clés dans le nom de domaine d'un site sont-ils un critère fort pour Google ? Quel séparateur de mots faut-il privilégier dans les URL ? Un contenu non visible par défaut mais affichable sur action de l'internaute est-il bien pris en compte ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Googlebot |
En 2015, John Mueller indiquait que Googlebot ne crawlait pas plus de 10 Mo de code source pour une page donnée. La semaine dernière, l'aide en ligne à ce sujet (uniquement en anglais) a été mise à jour et c'est le chiffre de 15 Mo qui est désormais le standard. Au-delà de cette limite, le code HTML (ou le contenu d'un fichier texte) ne sera pas crawlé ni indexé. |
Source : Search Engine Land |
Taux de fiabilité : |
Nom de Domaine et Séparateur |
Un petit rappel sur deux points déjà archi-connus, mais il faut souvent répéter les choses pour que le message passe : John Mueller a donc redit sur Twitter que la présence de mots-clés dans les noms de domaine était largement surévaluée en SEO, cela n'apporte que très peu d'importance à la page. Et d'autre part, les traits d'union sont toujours recommandés pour le référencement dans les URL pour séparer les mots. Ici, c'est Gary Illyes qui le dit dans un récent podcast : « nous ne pouvons pas facilement segmenter les URL avec des underscores et c'est pourquoi nous recommandons les tirets comme séparateurs ». |
Source : Search Engine Roundtable, Search Engine Roundtable |
Taux de fiabilité : |
Contenu potentiellement visible |
Gary Illyes a également expliqué dans le récent podcast en question que le fait qu'un texte soit potentiellement visible (exemples : dans un onglet, un accordéon, bref caché par défaut mais rendu visible sur action de l'internaute) ne posait pas de problème : le texte en question aura autant de poids pour Google que le texte visible par défaut. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Goossips : Googlebot et Taille du Code, Nom de Domaine et Séparateur d'URL, Contenu Semi-caché. Source : Google
Merci infiniment pour vos conseils… J’avoue que je n’utilisais pas les traits d’union dans mes URL…