Information étonnante de la part de John Mueller la semaine dernière : Google pourrait ne plus indexer un contenu 'potentiellement visible' (accessible suite à un clic : onglets, listes déroulantes, etc.) et se limiter à celui visible 'par défaut' sur une page web. Décision valable de la part du moteur de recherche ou aveu d'impuissance face au spam ?...
Google demande, dans ses recommandations techniques aux webmasters, à ne pas cacher un texte aux internautes tout en le montrant aux moteurs de recherche. Cette notion de "texte caché", était la base des techniques "black hat" de la préhistoire (on se souvient du "texte en blanc sur fond blanc", ou dans des balises "noscript" ou ailleurs, il y a plus de 10 ans de cela, permettant d'indiquer du texte dans le code HTML, mais non visible dans un navigateur).
Jusqu'à maintenant, le texte "potentiellement visible", c'est-à-dire affiché suite à un clic de l'internaute (contenu déroulant, onglet, etc.) était tout à fait admis par le moteur de recherche. Exemple sur l'aide en ligne de Google avec ce choix :
Source de l'image : Abondance |
Qui se déroule lorsqu'on clique sur le signe "+" ou la ligne choisie :
Source de l'image : Abondance |
Ou encore un jeu d'onglets qui affiche le premier par défaut, comme ici sur le site God Save The Kids :
Source de l'image : Abondance |
Un clic sur un autre onglet affichant son contenu (le contenu des trois onglets se trouvant dans le même code HTML) :
Source de l'image : Abondance |
Tout cela était donc, jusqu'à maintenant, tout à fait "licite" selon Google. Jusqu'à maintenant... Car il semblerait que, selon John Mueller, qui a évoqué ce fait dans un récent Hangout (voir ci-dessous à partir de la minute 52), ce type de contenu "potentiellement visible" ne serait plus indexé par le moteur de recherche. Selon lui, "si un contenu est important pour vos visiteurs, il doit être visible sur la page sans nécessiter une action supplémentaire. Vous pouvez aussi créer un lien vers une autre page, dans laquelle ce contenu sera visible !"
Cette communication est étonnante et, surtout, aberrante. Que des sites soient pénalisés pour abus dans le fait de cacher certains contenus "non avouables" à des fins de spam du moteur, on peut le comprendre aisément. C'est même tout à fait normal. Mais, dans 99% des cas, ces systèmes sont là pour apporter une meilleure expérience utilisateur (ce qui est, nous semblait-il jusqu'à maintenant, l'un des objectifs de Google, non ?). L'argument de Google est le suivant : "nous ne désirons pas renvoyer l'internaute vers une page où il ne trouvera pas le texte recherché sans cliquer ou effectuer une action précise".
L'argument est certes recevable, mais est-ce une raison valable pour ne plus indexer des tonnes de contenus très pertinents ? N'est-ce pas, une fois de plus, un aveu de faiblesse de la part de Google face au spam de son moteur de recherche ? Ne pas indexer un contenu plutôt que de lutter de façon efficace contre les mauvaises pratiques de certains, n'est-ce pas là un véritable aveu d'impuissance ?
Source de l'image : YouTube |
Pourquoi aller jusque-là ? Cette mesurepeut sembler un peu exagérée car en effet des informations parfaitement pertinentes sont disponibles via des onglets (descriptions détaillées de produits sur des sites e-commerces par exemple). La chasse au cloaking, par ailleurs justifiée, va un peu loin tout de même ; espérons que Google implémente dans ce filtre des vérifications de cohérence sémantique avant de pénaliser ces contenus peu visibles du premier coup d’œil mais accessibles directement.
On est dans retour vers le futur la. Quid d’une url onglet ?
Ce sont tellement de sites qui doivent être intégralement repensés de zéro pour que cela soit réaliste.
Rien que Prestashop et la plupart des gestionnaires de boutiques en ligne qui proposent un contenu en onglets par exemple, doivent refaire leurs thèmes de base.
En étant le plus réaliste possible, combien de temps mettrait le web global à se « mettre aux normes » ? Quelles conséquences dans les SERPs le temps que tout se stabilise ? Ca va mettre un tel bazar qu’il vaut mieux pour eux qu’ils aient de quoi temporiser à côté.
(Même si ça peut avoir un côté marrant de voir des gros dinos tomber quand ils verront le taff qu’ils ont à faire pour remettre leurs templates d’applomb! Il va y avoir du taff pour les intégrateurs et les front-end dev !!! xD)
D’ailleurs, pendant qu’on en parle au conditionnel, j’en lis sur Twitter prétendre avoir vu l’effet « en live » (info, intox, mauvaise interprétations… tout ça…) …
Où en est-on de cette annonce aujourd’hui ? Ya t’il eu plus de détails ?
Bonsoir Olivier,
Crois-tu encore qu’il faille prendre au pied de la lettre tout ce qui émane de Google?
Personnellement, je pense que la plupart des annonces faites par ses salariés doivent être nuancées.
Je n’utilise que très peu ces techniques, alors j’aurais tendance à dire qu’il faut s’adapter en réserver le contenu le plus pertinent pour la partie visible de ses pages et le contenu moins pertinent pour l’indexation pour ces onglets « cachés », qu’en penses-tu?
Enfin, cela est-il valable uniquement pour les contenus nécessitant un clic pour être vus ou tous les contenus « cachés » sont concernés, y compris les contenus publiés dans des carrousels automatiques?
Je te remercie par avance pour ces quelques précisions.
Amicalement,
Bruno
C’est vraiment dommage de faire ca car finalement on a travaillé le contenu comme par exemple sur cette page www(point)espaceplaisir(point)fr(slash)2-sextoys et maintenant ce qu’on a fait va disparaitre…Google ne peut pas faire la girouette sans arrêt…
Perso, pour moi tout contenu devrait avoir son URL. Enfin, c’est ce que préconise le WAI. Bon perso, j’utilise assez peu les onglets, parce que c’est le meilleur moyen que le contenu ne soit pas visible. Dans une application web : OK, sur un site web non. Il faut une URL par onglet.
@Orizhial, peux-tu donner les pages que tu as consulté à propos de nouveau ReCaptcha, tes découvertes avec Ctrl-F et YouTube ? Merci d’avance
Il suffit d’aller sur le site de ReCAPTCHA (https://www.google.com/recaptcha/intro/index.html) et de lancer une recherche par exemple ‘ReCAPTCHA’ pour voir que les textes dans le carroussel sont tous trouvés ce qui n’est pas possible avec des onglets.
Comme tout le monde, j’ai été bien surpris puis ce matin, en regardant les news du nouveau ReCAPTCHA de google, j’ai fait par hasard une découverte en faisant un bête Ctrl+F pour chercher du texte et j’ai vu que, sur ce site en tout cas, ils ont opté pour des carroussels de texte qui cache donc le texte de la vue directe mais n’empêche pas de le rechercher facilement.
Je suis donc ensuite allé sur YouTube car de nombreux commentaires font état de ce que Google lui même utilise le principe de texte oculté et en faisant à nouveau Ctrl+F j’ai vu que le texte ‘caché’ ne l’est pas réellement et peut parfaitement être trouvé, j’en suis resté sur le c.. comme on dit.
Ça pourrait être une bonne piste pour ceux qui gère de gros sites de commerce qui fonctionne principalement avec des onglets.
Je crois que vous parlez tous de quelque chose qui n’existe pas ahah. Comme le dit @Insimule, il n’est à aucun moment question de ne pas indexer ces contenus. Cet article d’Abondance n’a donc aucun sens ! ….
Ca renforce l’idée de favoriser les sites en rwd ?
Comme @Stéphane, une « moindre visibilité » est logique, le problème vient de Google et de son annonce qui ne semble pas prendre conscience (ou à l’inverse le fait volontairement) que ce genre de déclaration peut avoir des impacts de taille et générer des conflits.
Parfois, il vaut mieux ne rien dire …
Je trouve ça très étonnant et surtout cela va à l’inverse de toute logique…
D’un côté ça me rassure car ça prouve que les « display:none; » étaient bien lus malgré les tonnes de personnes qui affirmaient le contraire (j’ai jamais cru ça…).
D’un autre côté ça m’affole car ça veut dire que les menus accordéons et autres navigations avec effet masqué vont devenir des facteurs « bloquants » en quelque sorte…
Je trouve cette idée totalement illégitime et ça risque de bousculer le classement des SERP vu le nombre de fans de jQuery et les effets abusant des « display:none »… Espérons que ça ne se confirme pas. 🙁
On trouve souvent des spec techniques, ou toutes sortes de contenus +/- dupliqués sur des onglets de fiches produits par exemple. Désindexer me parait un peu radical, mais donner moins de valeur à un contenu moins visible me parait quand même plutôt cohérent…
C’est un poisson d’avril cette news ? C’est sidérant… Il faut donc faire de gros pavés de 150 lignes bien rébarbatifs pour que le contenu soit jugé pertinent alors même que Google ne cesse de répéter qu’il faut travailler son contenu pour être bien positionné tout en améliorant l’expérience utilisateur ? Je ne peux pas y croire ou alors il va falloir que les différents services de Google s’accordent entre eux.
Personnellement il y a du contenu que je ne peux pas mettre sur plusieurs pages sous peine d’ergonomie très fastidieuse voire de duplicate content. Je me vois mal demander à mes visiteurs de visiter 6 pages différentes pour un contenu qui est intimement lié. Ni changer la description et le titre en ne changeant qu’un mot à chaque fois (nord, sud, côte…), remettre la même carte à chaque fois etc… Rien d’impossible bien sûr, mais complètement absurde.
Cela est déjà remarquable en recherchant une expression éxacte issue d’une partie non visible : Le snippet de la SERP ne la fait plus apparaitre en gras…
Bonjour,
Pensez-vous que des sites où le contenu apparaît au fur et à mesure du scroll sont également concernés. Par exemple, je prends aujourd’hui ce site : http://namanyayg.com/
A l’heure actuelle, le texte en bas de page (qui est présent dans le code source par défaut et apparaît au fur et à mesure du scroll) est indexé.
Le sera t’il encore demain ou bien seuls les contenus où un clic est nécessaire sont concernés ?
Pensez-vous qu’il sera SEO-pénalisant demain de concevoir des sites sur le principe de celui que je linke ?
D’avance merci pour vos avis
Pour le coup, c’est une sacrée annonce, pour Google qui lui-même utilise abondament les onglets :
– Youtube : https://www.youtube.com/watch?v=SrhesRJdsWM (voir le « plus »)
Et à mon gout, la page est moins « claire » et moins « jolie » avec l’onglet « plus » dépliée.
– autre site : http://www.commentcamarche.net/forum/affich-23325274-google-chrome-page-nouvel-onglet-change (suite du texte exemple mal choisi mais sur le principe)
Le problème principal, que Google soit impuissant ou pas, c’est surtout d’obliger des millions de sites conçus autour des techniques d’onglets à changer leur site, obligeant surtout beaucoups a ouvrir le porte monnaie , ou bien créer des conflits Agence/Client …
Car en effet, le client qui vient de refaire son site avec onglet sur conseil de son agence va se retourner contre cette dernière pour qu’elle refasse a ses frais un site conforme aux exigences de Google en SEO, comme défini par le contrat… Qu’en sera-t-il des sites qui viennent d’êtres juste livré et qu’il faudra refaire?
Si l’on ne retrouve plus l’expression exacte du contenu de l’onglet, c’est une très mauvaise chose pour de nombreux sites. Pour le moment, ca ne semble pas être le cas, le contenu non visible semble être toujours indexé : ex PJ la requete entres guillemets « Devant un numéro, le picto Opposé au marketing direct signale une opposition aux opérations de marketing direct » se retrouve toujours dans les résultats.
Cette « affaire » va encore faire user beaucoups de claviers (…),
En effet, Félix, je pense que le temps viendra très prochainement où les ancres internes seront indexés comme des pages à part entière. C’est déjà un peu le cas, notamment pour WIkipédia, avec des liens au sein de la snippets, mais on pourrait envisager des liens à part entière.
Sinon, j’en courage tout le monde à regarder le passage de la vidéo (vers 48 » ) car il ne dit pas : cela n’est pas indexé, il dit que si c’est peu visible pour l’internaute, c’est moins pris en compte. C’est très différent. Tout dépend de quel mot-clé on vise et avec quelle intention….
Bonjour,
Le dit contenu ne sera plus indexé, mais cela veut-il dire qu’une page contenant des onglets le sera t-elle aussi ?
Ou simplement est-ce l’onglet en lui même (sous page si l’on peut dire ainsi) qui ne sera pris en compte.
Merci à celui qui me répondra.
Amitiés, Yann.
Je pense que Google fait ça plutôt pour inciter ceux qui utilisent ce genre de techniques à la laisser en place, mais à fournir également un lien direct vers chaque contenu :
Exemple sur l’aide de Google : ce lien envoi vers le 2ème contenu : https://support.google.com/accounts/?hl=fr#topic=3382253
Et si on clique sur un autre « + », l’URL change. Donc au final, Google pourrait considérer chaque contenu comme des pages uniques.
Qu’en pensez-vous ?
Tout à fait d’accord avec toi Olivier ! Pour ma part j’observe pour des requêtes exactes (entre guillemets) sur des extraits de contenus placés dans des onglets inactifs que les pages montent mais que le snippet ne reprend pas l’expression. C’est le cas pour des extraits présents dans les onglets actifs. Nous sommes beaucoup de webmasters qui vont devoir revoir l’ergonomie des sites !
Bonjour,
Les réactions face à cette annonce semblent unanimes : c’est une ABERRATION ergonomique !
Peut-on penser que Google changera son fusil d’épaule au vue de tous ces commentaires ?
Bonjour,
Je gère aussi quelques sites utilisent cette méthode, mais leurs texte est bien indexé, alors comment vous expliquez ceci?
Bonjour Olivier,
J’ai constaté une perte de 60% du trafic d’un site suite à sa refonte sur la forme d’onglets (tabs) au mois de janvier 2014.
D’un premier coup nous avons revu plein d’autres facteurs à la loupe, jusqu’à constater que le soucis venait des nouvelles onglets.
Ah ah ah encore un énorme paradoxe du géant de Moutain View qui se targue que son Googlebot peut lire du JavaScript d’un côté, qui invite les webmasters à travailler sur l’expérience utilisateur (et donc l’ergonomie des pages de leurs sites web), et qui d’autre part demande aujourd’hui de ne plus utiliser ce genre de fonctionnalité technique !!!
J’ai pensé au début qu’il s’agissait de filtrer les sites optimisés SMO qui incitent à l’inscription sur des bases d’emailing avant de pouvoir accéder au contenu (ce qui est véritablement saoulant et digne d’un webmarketing des années 90) , mais clairement il ne s’agit pas que de cela…
Pour moi, l’utilisation d’onglets ou accordéons est justifiée dans une optique d’ergonomie (rassembler beaucoup de contenu au même endroit de la page). Si l’on enlève ce système, on va se retrouver avec des pages longues de plusieurs kilomètres, et avec du contenu pertinent placé trop bas dans la page (ce que Google n’aime pas non plus). Bref, c’est une aberration !
Bonjour,
Je gère un gros site qui utilise sur son catalogue (fiche produits) un système de jeu d’onglets.
J’ai fait quelques recherches sur le contenu non visible dans ces onglets.
Hé bien quelle surprise de constater que ce contenu est déjà désindexé de Google.
J’ai un gros chantier ergo a mener !
Encore une fois, les interprétations ou traductions que vous faites de l’anglais sont mauvaises …
– Quand dit-il qu’ils ne vont plus indexer ce contenu ?
– Quand parle-t-il de pénaliser le contenu ?
Il dit juste de mettre en avant le contenu si celui-ci est important en l’affichant et que ce contenu s’il est « caché » est moins important que le reste donc qu’ils peuvent lui donner moins de poids…
Cela commence à la minuit 49:37 exactement !
Entièrement d’accord avec toi, c’est une mesure complètement débile et anti-ergonomique. On trouvera d’ici peu des fiches produits et des pages d’accueil avec un bloc de 200-300 mots sans mise en forme… Même des sites appartenant à Google (comme YouTube par exemple) utilisent ce genre de techniques pour améliorer l’expérience utilisateur !