Matt Cutts explique dans une vidéo qu'un phénomène de duplicate content n'est pas constaté par Google entre deux sites en IP v4 et v6, tout comme sur des sites à extensions géographiques différentes. Etonnant ?...
Matt Cutts a posté une nouvelle vidéo (1'15", tee-shirt vert à motifs), sur le thème Will having a site available on both IPv4 and IPv6 cause a duplicate content issue? ou, en français, "Est-ce qu'un même site disponible en IP v4 et v6 peut créer une situation de contenu dupliqué ?".
La réponse de Matt Cutts est claire : non, ce ne sera pas considéré comme du "duplicate content", du spam ou tout autre chose et cela n'aura pas d'impact sur la visibilité du site dans les résultats de Google. Matt indique par ailleurs que la situation est similaire au fait de proposer le même contenu sur des sites à extensions géographiques (ccTLDs) différentes et qu'il existe peu de spam effectué sur ce type de configuration. On peut s'étonner cependant que Matt Cutts indique qu'un même contenu proposé sur des sites à extensions géographiques différentes (.fr, .be, .ch ou .ca) ne soient pas considérés comme du contenu dupliqué, et ce même sans attribut hreflang ? Ou est-ce une mauvaise interprétation de notre part ?...
Source de l'image : Google |
Bonjour Olivier,
Pour Prestashop effectivement, le duplicate content (contenu dupliqué) est récurrent, c’est même la plus grosse tare du CMS e-commerce le plus populaire.
Il est généré la plupart du temps par la pagination et les filtres de recherches avancées (bloc de navigation à facettes, filtres de déclinaisons, etc.).
Pour le combattre, deux solutions existent :
La première, rentrer dans le code, pas toujours évident, et qui a ses avantages et inconvénients :
Avantages :
-Gratuité (si l’on maitrise un peu le code/développement)
Inconvénients :
– Nécessite de certaines connaissances et compétences
– Ne passe pas les mises à jour
– Peut nécessiter une prestation en développement payante
La seconde solution, qui est la plus simple à mettre en oeuvre, est l’adjonction de module. Certes cette solution à un coût, mais modique en comparaison d’un développement spécifique et au bienfait qu’elle apporte en terme SEO d’une boutique Prestashop.
Deux manières de combattre le contenu dupliqué existent, par non indexation et par balise canonique. Ces deux possibilités ne sont malheureusement pas incluses nativement dans Prestashop, d’où la nécessité de passer par du développement spécifique ou par des modules. C’est là qu’interviennent les modules Noindex et Canonical, complémentaires, qui permettent à eux deux de réduire efficacement et le taux de doublons/duplicate content et de désindexer de nombreuses pages inutiles qui diluent le jus SEO.
La suppression du duplicate content Prestashop par non indexation :
http://presta-seo.fr/boutique/no-index-premium/
La suppression du contenu dupliqué par balise canonique :
http://presta-seo.fr/boutique/canonical-url/
Pour celles et ceux qui rencontrent des soucis avec le Duplicate Content sur Prestashop,
je propose une astuce gratuite pour vous aider à corriger ça:
http://www.i-luc.fr/199.php
😉
Bonjour à vous !
Je vous remercie pour vos échange sur ce sujet qui aujourd’hui me touche de près ! Loin d’être aussi calés que vous en référencement, j’espère que certains d’entre vous pourront éclairer ma lanterne.
Je bosse au service communication d’un groupe avec une présence nationale (physique), plus de 1 000 collaborateurs … Bref pas la petite PME du coin mais pas un groupe du CAC 40 non plus.
On bosse avec un agence en Rhône Alpes qui a pignon sur rue et avec laquelle case passe plutôt bien. Je comprends de quoi on me parle et eux sont ravis d’avoir quelqu’un qui les comprend, ça change de Jacqueline 50 ans. (Je n’ai rien ni contre les Jacqueline ni contre les quinquagénaires).
Mon PDG viens me voir aujourd’hui et me demande de rencontrer au pied levé une de se connaissances qui s’est reconvertie en commerciale pour une agence de com. Autrement dit, elle n’en touche pas une en SEO, ni SEM d’ailleurs, bref. Cette dame était accompagnée d’un monsieur qui avait l’air de savoir de quoi il parlait.
Et est arrivé le moment ou ce dernier nous propose de poursuivre notre collaboration avec notre agence actuelle sur nos sites mais de travailler de son côté sur la duplication des deux sites en parallèles, lesquels devraient faire l’objet d’un referencement naturel de leur part.
Première question : un site dupliqué (2 en l’occurrence dans mon cas) a 100 % n’est-il pas considéré comme du Duplicate content ? Même si le nom de domaine varie légèrement du nom de domaine original ?
Seconde question : cette agence nous promet des résultats incroyables obtenus par l’automatisation de la réalisation de pages de contenus. On nous assure 500 pages indexées en début de prestation et ensuite tout dépend des contenus mis en ligne … Ce genre de pratique n’est pas recommandée non ?
Troisième question : admettons que ces deux répliques de nos sites bénéficient d’un super referencement naturel, qu’en est-il de mes « vrais sites » ?
Merci d’avoir lu jusqu’au bout et sorry pour les fautes ! #IpadKeyBoard
Toto
@Adifco : Merci pour l’exemple mais les deux sites sont en Français et ciblent la France ? Car pourquoi comparer et quel intérêt d’avoir un .com (gTLD) et un .fr (ccTLD) en France ? Aux USA, que Matt Cutts compare le .com et le .pl ne m’étonne pas car le .us est loin d’être utilisé (sauf pour del.icio.us).
Entre nous, l’extension c’est une chose, mais le contenu reste essentiel ! À mes débuts en SEO il y a près de 10 ans (ok le contexte n’était pas le même), j’ai optimisé un site à l’international (7 langues) sans pouvoir utiliser de ccTLDs. J’ai par exemple référencé du contenu anglais sur Google UK, US, AU etc. Idem pour du contenu Chinois sur Baidu.
Mais uniquement via un site en .fr (www.sniw.fr) ! Le site était bien positionné dans les SERPs, en 1ère page 😉
Enfin reste un problème : le youtu.be et le youtube.com ^^
Bonjour Olivier,
J’avais fait un commentaire en ce sens en décembre 2011 sur ton article concernant la gestion de duplication concernant les contenus traduits, je remets le lien vers la vidéo de l’époque qui indique bien que les sites identiques avec ccTLD n’impliquent pas de duplication car ils s’adressent à des populations différentes : http://www.youtube.com/watch?v=Ets7nHOV1Yo
Michel
C’est rassurant en un sens, car cela a été longtemps une plaie.
Cela dit, c’est à mettre à l’épreuve des faits.
Dans tous les cas, je conseillerais une étude approfondie de l’utilisation de hreflang.
Le fait que Google ne considère pas comme duplicate content un même contenu sur des sites avec des extensions nationales différentes n’est pas nouveau: je l’ai déjà vu indiqué explicitement dans google webmaster (GW) support il y a quelques années (et aussi dans une vidéo de Cutts en 2011). Et dans un certain sens, cela peut se comprendre et cela se vérifie dans des cas notoires de « grosses boîtes ».
Recherchant maintenant l’info dans GW, je ne l’ai toutefois pas retrouvée. Par contre, un texte de GW sur le sujet est nettement plus nuancé que la vidéo de Cutts.
En fait, il faut garder à l’esprit que le référencement est bien plus complexe qu’une « simple » question de duplicate content et ne pas faire dire à Cutts plus que ce qu’il ne dit réellement.
Et aussi que les cas sont très divers.
Je ne conseillerais pas de commencer à dupliquer des contenus uniquement sur cette base et à cette seule fin.
Exemple réel de deux sites identiques en .com et .fr
Nombre de pages indexées sur le .com : 1 120
Nombre de pages indexées sur le .fr : 80
@Baptiste : whoa !
C’est légitime, Matt parle de duplicate intégral du site, Google peut ensuite choisir de ne pas ranker tel ou tel domaine selon le pays de recherche. Le traitement du duplicate peut prendre bien des formes, souvenez vous du « hack » découvert pas DejanSEO http://dejanseo.com.au/mind-blowing-hack/
@ Fabien BRANCHUT : on parle ici de contenu strictement identiques, donc dans la même langue, mais sur des ccTLDS différents…
Oops j’ai modifié pour « attribut ». Dire que je suis le premier à râler quand j’entends parler de « balise ALT » :)))
Pas d’attribut hreflang pour que Google détecte la langue d’un site. GG sait reconnaître un texte en FR ou EN (Merci Google Trad). Et puis, il va également s’appuyer sur la langue des sites qui font des BL.
Et pis hreflang c’est un attribut, pas une balise (ah, c’est pas possible ça !! 😉
Oula comme d’habitude, voila une annonce étrange non ? Est un piège (mode parano activée). il est vrai que de nombreuses sociétés importantes utilisent différentes extensions (tiens comme Google d’ailleurs) ET pour autant cela n’est pas prit pour du spam non ?
La déclaration de Matt me semble impressionnante! La duplication de contenu un un facteur majeur dans l’algo de google, si c’est vrai comme info alors Bonjour les spameurs.
Je ne pense pas que ce soit une erreur d’interprétation car je l’ai déjà lu sur les forums GG et vu dans une autre vidéo de Matt si je ne me trompe pas.
Je dois réfléchir à cette problématique tous les jours pour mon employeur, et nous verrons bientôt si cela fonctionne réellement ou pas. Dans tous les cas, il faut juste respecter les spécificités de chaque pays, et tout devrait bien se passer 😉