Rappel du contexte : voici donc la suite de notre série de questions/réponses avec Google avec une question souvent posée au sujet des contenus "cachés", notamment dans le cadre de sites web 2.0.
En effet, la règle d'or énoncée par Google pour le contenu textuel d'une page web est claire : "tout ce que l'internaute voit, le moteur doit le voir, tout ce que le moteur voit, l'internaute doit le voir." Donc, si l'on suit cette règle à la lettre, on comprend que tout le contenu indexable par le moteur de recherche doit être visible par l'internaute lorsque la page est affichée.
Or, cela n'est pas toujours le cas, notamment sur les sites web "2.0" pour lesquels du texte est souvent "pré-chargé", bien présent dans la page web, mais non affiché par défaut. Par exemple : plusieurs onglets peuvent être proposés sur une page web, le contenu de chaque onglet étant présent dans le code HTML. Mais ces contenus n'apparaîtront que si on clique sur les onglets en question, pour faire apparaître instantanément le contenu de cette zone (voir un exemple parlant ici : http://webfx.eae.net/dhtml/tabpane/tabpane.html. Dans ce cas, en un sens, on cache du contenu à l'internaute, tout du moins au premier affichage de la page. Est-ce alors répréhensible ?
De a même façon, l'utilisation d'attributs "visibility:hidden" ou "display:none" peut être nécessaire au bon "non-affichage" ou à la mise en page de certaines parties de textes dans ce type de site. Là encore, y a-t-il un risque de pénalité si ce type de fonction est utilisée ?
Nous avons posé la question à Google et à Ambroise Fensterbank et voici sa réponse :
Question Abondance : On sait que la notion de "contenu caché" est préjudiciable dans le cadre d'une bonne prise en compte de son contenu par Google. Cependant, notamment dans le cas de sites Web "2.0", on peut être amené à utiliser des attributs "visibility:hidden" ou "display:none", à des fins de mise en pages, par exemple pour précharger le contenu d'un onglet non visualisé sur la page par défaut, mais qui pourra être affiché si on sélectionne cette zone d'information (en cliquant sur l'onglet correspondant, par exemple). Cette technique est-elle préjudiciable ? La réponse de Google : Non, l'emploi de cette technique n'est pas préjudiciable dans ce cas, car cela ne va pas tromper les utilisateurs de Google. |
Notre commentaire : la règle "tout ce que l'internaute voit, le moteur doit le voir, tout ce que le moteur voit, l'internaute doit le voir" doit donc être interprétée avant tout en termes de "bon sens". S'il y a tentative de "tricherie" auprès de Google en tentant de tromper les internautes, la pénalisation sera mise en place. Si du texte n'est pas affiché mais que cela est nécessaire pour la mise en pages, cela ne posera pas de problèmes a priori. On peut penser également à la création de texte en "visibility:hidden" mis "derrière" un logo au format image par exemple. Si le texte "caché" décrit parfaitement le contenu de l'image (exemple : "Logo de l'entreprise Tartempion"), cela devrait "passer" sans problèmes. Si le texte "caché" est un prétexte pour indiquer une dizaine de mots clés ("Tartempion : chaussures de sport, chaussures de tennis, chaussures de basket, chaussures pour sportifs, chaussures pas cher"), cela devient vite "limite" et donc potentiellement pénalisable. Tout est question de bon sens et de nuances parfois dans le petit monde du référencement 🙂
Rappel de la première Question à Google : Les underscores dans les URL (Questions/réponses avec Google #1)
Merci pour ces précisions.
Tous ces critères d'opti on-page me paraissent dépassés / insignifiants … mais je dois me tromper.
Cdt.
Je reviens sur ce sujet sur une autre façon de penser et de procéder :
Je souhaites compléter mes pages avec des informations "recueillies" ci et là sur la toile, mais je ne veux pas les les utiliser comme moyens d'indexation ou d'optimisation et je décide de ne pas les montrer au robot en les plaçants dans un fichier .js .
Ces informations recueillies sont bien en rapport avec mon sujet et sont là uniquement comme services complémentaire et utile pour le visiteur.
Je risque la sanction?
Il n'y a donc qu'une question à se poser pour résoudre ce problème … Se mettre dans la peau d'un internaute.
Je partage l'avis de BLOG PARADI SEO : Google a-t-il du bon sens ?
Et comment parvient-il réellement à faire la distinction entre un javascript de "plié-déplié" et un javascript destiné purement à une optimisation black hat ?
Je serais curieux de connaître les résultats du test de TOTOBOX.
J'ai peut etre (surement) un probleme de sandbox avec Google vu l'effondrement de mon site en un an.
J'ai utilisé une petite zone cachée en entete pour insérer quelques mots clés complémentaire. De plus, ces petites zones se retrouvaient quasiment identiques sur des dizaines de pages, donc, risque de duplicate.
je viens de tout enlever car je n'avais plus que 900 pages indéxées dans l'index primaire sur un total de 110 000 … il y a encore quelques mois, j'avais encore 4 000 pages dans l'index primaire …
Depuis 3 jours, la seule chose qui a changée, c'est que je suis remonté a 1400 pages indexées dans le primaire …
Reste a attendre, je vous donnerais le resultat …
toutefois, je ne saurais pas si la cause etait le texte caché, le duplicate content ou les 2 …
Totobox
Merci pour ce billet qui apporte des réponses très éclairantes.
j'aime bien le gars qui dit : "D'experience les display none et visibility hidden sont quand même à proscrire."
alors que le gars de google dit l'inverse dans la réponse 😉
Comme quoi rien n'est figé et que bon nombres de règles change, car j'ai toujours vue que l'ont déconseillais le contenue caché. merci pour cette éclaircissement.
Evidemment tout est une question d'harmonie.
Le contenu caché web 2.0 ou pas n'est pas un probléme en soit.
Beaucoup de site cache du contenu !!
les methodes CSS et javascript ne sont pas pour autant les moins dangereuses !!
D'experience les display none et visibility hidden sont quand même à proscrire. (sandbox)
Par contre les methodes pures html valide w3c ont toujours été accepté par google.
Pour ma part j'utilise pour les sites 2.0 des blocs statique pure html toujours aussi efficace en terme de ref.
Bien sur ce "bombing" reste en harmonie avec le contenu du site et ne vient que renforcer le visible.
Bjr
@Laurent : euh, quel est le rapport entre le duplicate content et le sujet du post ???
Merci de cet éclaircissement.
PS : pour le duplicate content, la balise "link rel canonical" simplifie maintenant la donne…
Cdt
Pire !
Lisez bien les recommandations de Joachim Kupke, éminent Googler, http://www.audettemedia.com/blog/9-seo-takeaways-smx-east/
Il est écrit noir sur blanc que le webmaster ne devrait pas interdire le crawl du contenu, même dupliqué. Il faudrait laisser Google décider lui-même quelle est la page qui prime.
Sous les conseils de Ambroise Fensterbank je viens d'installer lynx pour voir ce que voit le moteur ( cf http://www.fdisk.com/doslynx/wlynx/lynx_w32.2.8.2rel.1.zip ) , résultat Googlebot est une TAUPE ! D'un autre coté si tout le monde repassait en mode textuel on irait certainement très vite au niveau du chargement des pages ..
Je ne comprends pas pourquoi la règle d'or énoncée par Google "tout ce que l'internaute voit, le moteur doit le voir" devrait s'appliquer uniquement au contenu textuel. C'est une limitation technologique , un site tout en Flash est invisible pour Googlebot , est-ce qu'il faut arrêter de faire des sites en Flash ?
Le moteur Googlebot ressemble à la machine de Joseph Cugnot ( le fardier à vapeur) qui essaye de rouler sur les autoroutes 4 voies d'aujourd'hui .
A quand un moteur capable de reconnaître les images et les vidéos ? Rouler avec le moteur de Googlebot sur les autoroutes de l'information en 2009 c'est déjà enfreindre le code de la route numérique , le moteur est en sous vitesse et c'est dangereux pour les autres conducteurs.
C'est dommage que Googlebot fasse aussi fonctionner "Radarbot" qui pénalise tout ceux qui passent a coté de lui trop vite pour pouvoir être reconnu. Il y a des excès de vitesse partout car il y a des des chauffards partout mais si le moteur textuel GoogleBot est lent et poussif et qu'il n'est plus adapté au système routier à qui la faute ? La pénalisation peut effectivement empêcher certains excès de vitesse mais pendant combien de temps va t-on rester textuel car un moteur n'arrive pas a suivre ce qui se fait en matière de contenu non plus basé sur du texte mais de plus en plus sur des images et des vidéos ?
car bcp sont sanctionner par Google
Et quels sont ces techniques selon toi ?
Il y a de nombreuses façons de cacher du contenu, google ne le verra pas et votre site s'est trouvera mieux classé.
Progression de la 9è place à la 2è en un mois alors qu'il s'agit de la seule modif….
Il y a ce que veux google et il y a la réalité.
Un "keyword stuffing à l'ancienne" 🙂 lèvera tout de suite un flag.
Finalement, on en revient à la qualité du contenu… Le keyword stuffing, même visible, ne serait-il pas simplement détecté ?
Alors que dans le même temps un texte unique bien rédigé et invisible ne passerait-il pas inaperçu ?
Je me le demande …
Euh… il est dans quelle direction le bon sens ?
A part ça, merci Google et Olivier pour cet éclaircissement.
Récemment je me demandais l'opportunité de ne pas afficher un formulaire d'inscription pour des personnes déjà inscrites.
Visiblement, Google ne pénaliserait pas. (ou tout du moins, si on l'est et que ce n'est pas légitime/justifié selon sa direction du "bon sens", on pourra leur envoyer cette page :-).
Gautier
On sait très bien que Google ne fait pas la différence, mais qu'il tente d'aiguiller les webmasters dans le droit chemin (le sien) à coup de "conseils" et sanctions.
comme toujours avec google il y a une différence entre la théorie et la pratique.
Certes, mais un bot est-il capable de bon sens, même avec une armée d'ingénieurs de grand talent derrière ?
Exact !
Ouf, Google ne sera pas pénalisé…
:-)))
a+
C'est d'autant plus logique que Google utilise une telle pratique dans son centre d'aide aux webmasters 🙂
http://www.google.com/support/webmasters/bin/answer.py?hl=fr&answer=156412
(Quels éléments souhaitez-vous supprimer ?)
Je crois plutot que Google dit ce qu'ils aimeraient pouvoir faire. Sur pas mal de cas, le visibility hidden avec une tartine de mots clés avec des liens vers d'autres pages, et bien ca marche.
Cette logique du bon sens est appréciable et rassurante…
Même si j'ai parfois vu des sanctions pour cette raison alors qu'aucune volonté de tricher n'était présente, et qu'en contrepartie, je vois parfois de véritables entourloupes non sanctionnées.
Encore une fois, merci à Ambroise et Google pour ces éclaircissements de règles parfois indigestes des conseils aux webmasters, et bravo à Abondance pour avoir convaincu Google d'accepter de s'exprimer ici.
"Tout est question de bon sens et de nuances"
Exacte et c'est ce qui fait tout la richesse de ce métier 😀