Matt Cutts explique dans une vidéo que le fait de proposer dans une page web du texte caché mais qui s'afficherait lorsqu'on clique sur un bouton ne pose pas de problème particulier, à partir du moment où cela n'a pas été fait dans une vision 'spammy'...
Matt Cutts a posté une nouvelle vidéo (1'44"", tee-shirt mauve), sur le thème How does Google treat hidden content which becomes visible when clicking a button? ou, en français, "Comment Google traite-t-il le texte caché mais qui devient visible lorsqu'on clique sur un bouton ?".
Matt Cutts explique qu'en général, cela ne pose pas de problème : Wikipedia utilise une technique de ce type sur les sites mobiles (et d'ailleurs, Google également dans son aide en ligne) mais, bien évidemment, si elle est utilisée pour cacher du texte en caractères minuscules et truffé de mots clés, bref à des fins de spam, cela deviendra répréhensible.
Réponse logique donc : si vous achetez un marteau pour taper sur des clous, personne n'y trouvera à redire, mais si vous tapez sur la tête de votre voisin, vous prenez quelques risques. Il en est de même du texte caché mais potentiellement visible sur une page web...
Source de l'image :Google |
Rien de nouveau, depuis bien longtemps le texte caché bourré de mots clés devraient être bannis de vos solutions de référencement.
De nombreux frameworks tels que zurb foundation ou twitter bootstrap proposent des tonnes de contenu jquery qui, utilisés massivement, pourraient faire penser à google bot qu’il s’agit de contenu caché ?
Matt Cutts suit sa logique de communiquer de manière à ce que les webmasters fonctionnent en fonction des internautes et non des moteurs. Rien de bien nouveau donc mais on aura aimé que l’ami Matt aille un peu plus loin dans sa réflexion…
encore une fois matt fait une vidéo pour ne rien dire de nouveau… Lassant, j’aurais préféré qu’il parle d’un texte semi caché dans site, est-ce que la position de celui-ci cela peut augmenter les risque d’être considérer comme un spam (en dessous de la ligne de flottaison par exemple
Logique, sinon imaginons ce qui se passerait avec tous les sites qu’utilisent des accordéons ou des onglets !
@convertic.fr je pense que Matt aurait aimé faire de la politique 😉
Rien de nouveau sous le soleil. Quasiment tous les prestashop ont depuis des années du display none sur leurs fiche produits (descritpion, caractéristiques…) dans le but de rendre plus user friendly les pages en questions.
Je ne vois pas sous quel prétexte GG aurait pu pénaliser cela. En ce qui concerne le spam il n’y pas d’immunité, aucune raison que GG ne le sanctionne pas si le texte ne peut s’afficher d’aucune manière.
Matt Cutts, l’art et la manière d’enfoncer des portes ouvertes 🙂
En fait c’est toujours le même slogan : « Don’t be evil ».
L’exemple de Wikipédia me fait bien rire alors qu’il s’agit d’un domaine whitelisté par Google …
@commentaire : sympa l’analyse de la couleur du T-shirt de Matt Cutts. Et si un jour son T-shirt est blanc mais avec une photo de Chuck Norris 😉 Quelle signification ?
Le t-shirt n’est pas mauve, mais parme, et les sujets traités par Matt Cutts dans ses vidéos sont de moins en moins pertinents. Si des controverses judiciaires et historiques se déploient des années durant pour déterminer si l’intention d’un tel a été telle, comment imaginer qu’un robot, fût-ce celui de Google, pourra le faire mieux que personne ? La bonne réponse est : « C’est juste fait au pif, suivant les paramètres de l’algorithme ».
Merci d’avoir relayé cette info Olivier, en effet étant toujours difficile de mixer des grands visuels en plein écran et un contenu texte suffisant, c’est une technique que j’ai préconisé depuis quelques mois.
Je me disais que cela allait sûrement être pénalisé à un moment donné, mais il est maintenant officiel que ça ne l’ai pas tant que ce n’est pas dans un but malveillant.
hihihi la métaphore est très bonne. Manquerait plus que cela qu’améliorer la navigation pénalise les sites… Reste à savoir la limite entre contenu et contenu spammy.
Comme souvent, Matt Cutts rappel que le contenu doit être fait pour le visiteur et pas pour le moteur de recherche.
Le problème apparait quand GoogleBot pense qu’il y a du contenu caché alors qu’il s’agit de contenu « potentiellement visible ».
J’ai eu le cas sur un site pénalisé pour cette raison. Une fois l’implémentation modifiée (le code HTML/CSS), tout est redevenu dans l’ordre.
Le fait de rendre accessible du contenu via JS dans l’optique d’améliorer le confort utilisateur et l’ergonomie générale d’un site ne m’a jamais posé de soucis au niveau SEO. Après c’est une question de bon sens de ne pas abuser de cette technique pour tromper les moteurs, mais ça ce n’est pas nouveau…
J’ai bien aimé la métaphore du marteau ^^
Mais bon rien de neuf, il faut du contenu pour l’internaute…