Quelques infos sur Google (et Bing parfois) et son moteur de recherche, glanées ici et là de façon officieuse ces derniers jours, avec au programme cette semaine quelques réponses à ces angoissantes questions : Quelle est la taille limite du code source d'une page crawlé par Googlebot ? Des mots clés dans le nom de domaine d'un site sont-ils un critère fort pour Google ? Quel séparateur de mots faut-il privilégier dans les URL ? Un contenu non visible par défaut mais affichable sur action de l'internaute est-il bien pris en compte ?
Voici une petite compilation des informations fournies par les porte-paroles officiels de Google ces derniers jours sur différents réseaux informels (Twitter, Hangouts, forums, conférences, etc.). Donc « gossips » (rumeur) + Google = « Goossips » 🙂
La communication du moteur de recherche étant parfois plus ou moins sujette à caution, nous indiquons, dans les lignes ci-dessous, le niveau de confiance (taux de fiabilité) que nous accordons à l'information fournie par Google (de 1 à 3 étoiles, 3 étoiles représentant le taux de confiance maximal) - et non pas à la source qui en parle.
Googlebot |
En 2015, John Mueller indiquait que Googlebot ne crawlait pas plus de 10 Mo de code source pour une page donnée. La semaine dernière, l'aide en ligne à ce sujet (uniquement en anglais) a été mise à jour et c'est le chiffre de 15 Mo qui est désormais le standard. Au-delà de cette limite, le code HTML (ou le contenu d'un fichier texte) ne sera pas crawlé ni indexé. |
Source : Search Engine Land |
Taux de fiabilité : |
En même temps, un fichier HTML ou texte de plus de 15 Mo, c'est quand même assez rare sur le Web (mais cela peut arriver) et ça laisse une sacrée marge de manœuvre :-)... |
Nom de Domaine et Séparateur |
Un petit rappel sur deux points déjà archi-connus, mais il faut souvent répéter les choses pour que le message passe : John Mueller a donc redit sur Twitter que la présence de mots-clés dans les noms de domaine était largement surévaluée en SEO, cela n'apporte que très peu d'importance à la page. Et d'autre part, les traits d'union sont toujours recommandés pour le référencement dans les URL pour séparer les mots. Ici, c'est Gary Illyes qui le dit dans un récent podcast : « nous ne pouvons pas facilement segmenter les URL avec des underscores et c'est pourquoi nous recommandons les tirets comme séparateurs ». |
Source : Search Engine Roundtable, Search Engine Roundtable |
Taux de fiabilité : |
Deux vieux sujets, a priori intégrés depuis longtemps par tous les SEO sérieux, mais un petit rappel n'est jamais mauvais... |
Contenu potentiellement visible |
Gary Illyes a également expliqué dans le récent podcast en question que le fait qu'un texte soit potentiellement visible (exemples : dans un onglet, un accordéon, bref caché par défaut mais rendu visible sur action de l'internaute) ne posait pas de problème : le texte en question aura autant de poids pour Google que le texte visible par défaut. |
Source : Search Engine Roundtable |
Taux de fiabilité : |
Cela a été dit maintes et maintes fois par Google (et sur Abondance). Pas de changements donc à ce niveau... |
Goossips : Googlebot et Taille du Code, Nom de Domaine et Séparateur d'URL, Contenu Semi-caché. Source : Google
Merci infiniment pour vos conseils… J’avoue que je n’utilisais pas les traits d’union dans mes URL…