Matt Cutts explique que l'algorithme du moteur de recherche va être prochainement modifié pour afficher moins de résultats issus d'un même site dans les SERP...
Matt Cutts a posté une nouvelle vidéo (4'47", tee-shirt noir "spam report"), répondant à la question Why does Google show multiple results from the same domain? ou, en français, "Pourquoi Google montre-t-il parfois plusieurs résultats d'un même site (i.e. même nom de domaine) dans ses SERP (pages de résultats) ?.
Matt Cutts explique qu'au début de Google, il n'y avait aucune restriction : un même site pouvait fournir de très nombreux résultats dans une même page. Puis, ceux-ci ont longtemps été "clusterisés" (système de "host clustering") et on ne pouvait alors voir que deux liens au maximum, émanant d'un même site dans une SERP.
La situation était alors meilleure et les résultats plus diversifiés, mais les webmasters ont alors "éclaté" leurs sites en différents sous-domaines, chacun étant considéré comme un site à part entière par le moteur. La situation s'est donc rapidement dégradée. Matt Cutts explique qu'aujourd'hui, un même site web peut afficher un ou deux liens dans la SERP, mais les liens suivants auront de plus en plus de difficultés à se positionner, pour laisser la place à d'autres sources d'informations. Mais, selon lui, si les meilleurs résultats, sans contestation possible, se trouvent sur une même site, il se peut que celui-ci truste de nombreuses positions dans la SERP.
Il annonce également une nouveauté qui devrait prochainement être mise en production sur le moteur à ce niveau : lorsque vous voyez, dans la SERP, un ensemble (par exemple 4 ou 5) de résultats issus d'un même site et que vous visualisez les pages de résultats suivantes, Google ne vous montrera plus de liens issus de ce même site. Le but est alors de proposer les meilleurs résultats possibles à l'internaute tout en garantissant une diversité de bonne qualité dans les sources d'information.
Matt Cutts termine la vidéo en demandant de lui envoyer, par mail, tweet ou toute autre voie, des exemples de page de résultats de mauvaise qualité car "truffées" de liens issus de sources uniques, afin d'améliorer le système.
Google a fait plusieurs communications de ce type par le passé, indiquant que la situation s'améliorerait à l'avenir. Beaucoup de ces tentatives n'ont hélas pas donné des résultats extraordinaires. Espérons que celle-ci sera plus efficace...
Source de l'image :Google |
Encore une directive de google qui vise a reduire le travail des SEO… Bonne nouvelle pour celui qui recherche, mais pas dans notre camp ! 😛
Je trouve cette décision de google être une assez bonne idée. Pourquoi? par le simple raison qu’avec un seul site qui figure dans le moteur de recherche, les internautes iront alors vérifier les autres pages du site, donc y rester beaucoup plus longtemps. Mais à ce moment là, le site doit impérativement être de bonne qualité, contenu et visuel, et doit attirer l’attention.
Merci pour la news, je pense que c’est une bonne chose car cela va faire du ménage dans les SERP enfin en théorie car en pratique on voit encore des sites dégueu truster encore la première page ( SERP domination ).
Les MFA « propre » vont remonter je pense.
Au plaisir.
Mouarf… sur certaines requetes je vois toujours plusieurs ndd/sous ndd genre les over-blog (qui sont des sous dom) peuvent encore truster le truc ^^
Il est très drôle de lire que le numéro 1 des moteurs de recherche pour la pertinence conseille aux webmasters qu’il ne se gêne pas de sanctionner selon son bon vouloir, de l’aider (avant il s’agissait seulement de spam report) dans la lutte contre ses propres failles.
Google serait-il en bêta test ?
Google nous fait souvent des annonces mais sans réelle résultats sur les SERP, je suis assez pessimiste quand à la mis en œuvre de cette mise à jour
Une maj qui parait normale car afficher 3 fois le même site sur une requêtes n’est pas vraiment pertinent pour un moteur de recherche. Le max que j’ai vu c’est un site présent 5 fois en première page, adword, google map et 3 résultats…, ça limite la concurrence.
… J’ai l’impression que je lis cette annonce tous les ans… avec la lutte contre le spam on page et le fait que faire des backlinks c’est pas bien…
+1
Le niveau de serpomètre était à 6 hier et de 7 aujourd’hui! On peut se demander si l’algo de diversification vient d’être lancé ou si on est en plein dans l’élaboration de pingouin 2.0
Comment savoir, en tout cas ça bouge beaucoup et je trouve cet algo génial pour les petits sites qui se font marché dessus par les leaders qui bloquent les premières pages..
C’est vraiment bien que Google réagisse aux commentaires des webmasters et décide donc de protéger « pour une fois » les petits sites.
Ca fait penser aux lois qui protège les petits commerçants en empêchant les leaders de s’implanter dans n’importe quelle zone géographique.
Bref, hate de voir ce que ca va donner dans les SERPs.
J’ai l’impression que je lis cette annonce tous les ans… avec la lutte contre le spam on page et le fait que faire des backlinks c’est pas bien…
Ce qui m’a titillé, c’est qu’il y a peu, Google a conseillé de passer en sous-domaine puis là, il déclare que c’est la faute de passer en sous-domaines, comme si l’on était des tricheurs.
Hors, il y a quelques semaines, c’est vrai qu’en tapant « machine industrielle 94 » on avait la liste avec 94 puis du 78 puis d’autres département, de sorte que les pages trustaient les 3:4 des résultats. Nous avons un linking pour les départements limitrophes afin d’aider l’internaute.
C’est a Google de rectifier le tir (il semble que ce soit déjà fait) et vu que je n’ai pas une bonne interprétation de l’Anglais, je prends cela (les sous domaines) comme un reproche d’abus qui pourrais être sanctionné, ce qui n’est peut etre pas le cas …? (c’est la parano de l’annuairiste aussi …)
C’est pas trop top… depuis le temps qu’ils nous le promettent. Enfin on va voir, ne nous excitons pas trop avant de voir les résultats.
c’est très bien il va donc y avoir beaucoup de surprise car la recherche sera aussi unique
Encore de l’effet d’annonce sur la pertinence du moteur et ces modifications perpétuelles pour une qualité maximale blablabla … et pourtant, il suffit de regarder dans les serps pour trouver du blackhat en tête de liste et sur certaines longues traînes des sites qui trustent l’ensemble des résultats d’une page.
Google met le doigt sur les sous domaines … ceux-ci sont rares a truster des pages.
Si l’on compare le 188000 et Pgaes jaunes, le premier ayant des sous-domaines ne trust pas les résultats ou très rarement, a contrario de Pages jaunes qui démultiplie les techniques black hat reproché par Google.
En effet, pages jaunes démultiplie les pages sans résultat, avec des réponses sur des villes voisines, passant de 8 millions a 1 milliard de pages …. rien que ca! Outre les redirections de plus de 2000 noms de domaines, les pages construites uniquement pour les moteurs et tout le reste en BL et réseaux sociaux, Google est bien complice avec PJ qui trust parfois 600 résultats sur 1000 ….
Mais, selon MattC, si les meilleurs résultats, sans contestation possible, se trouvent sur une même site, il se peut que celui-ci truste de nombreuses positions dans la SERP.
Et ce jour là … les poules auront des dents …
Pour nous, pas de soucis, au besoin nous restructurerons une nouvelle fois .
Une maj qui parait normale car afficher 3 fois le même site sur une requêtes n’est pas vraiment pertinent pour un moteur de recherche. Le max que j’ai vu c’est un site présent 5 fois en première page, adword, google map et 3 résultats…, ça limite la concurrence.
Tu le dis très bien à la fin de l’article, c’est pas la première tentative. A surveiller.
Après c’est peut être un peu vicieux ce que je vais dire, mais c’est un excellent, nouveau, moyen trouvé par GG pour enlever de la visibilité aux « gros » pour en récupérer un peu 😉
Sur le fond une amélioration positive ! Mais Google continue à semer une ambiance délétère au sein du monde du référencement. Outil de disavow, envoie « des exemples de page de résultats de mauvaise qualité car « truffées » de liens issus de sources uniques ».
Si, je me répète, sur le fond cette amélioration permettra une plus grande diversité des résultats et, a priori, une remontée de plus de sites, certains SEO vont se laisser tenter par le « collaboratisme » introduit par nos chers amis Googlers
Je pense que c’est une bonne chose pour diversifier les résultats dans les Serps et laisser plus de chance au plus petit sur certaines requêtes concurrentielles… Puis Google se veut pertinent, alors mettre 7 urls d’un même domaine sur une requête ne va pas dans ce sens !
Donc c’est une bonne MAJ 😉
Cela pose un souci pour les sites chez free.fr.
Le nom de domaine définit un site à part entière, indépendant des autres.
Ce système va favoriser un site plutôt qu’un autre, et en occulter d’autres tout aussi pertinents…
Oui c’est très bien …
Mais d’un autre côté, qu’en est-il du: » Chaque page est référencée individuellement »?
Qu’est-ce que cela va donner pour les entreprises multi pôles?
…. et si c’est efficace, Comment se faire rémunérer pour le référencement ?
Au lieu de causer, Matt Cutts ferait mieux de travailler.
Il répète souvent les mêmes choses depuis des années et cela change à peine à travers le temps.
Est-ce si compliqué de limiter le nombre de fois qu’un même site apparaît sur la première page ?? S’il a dix doigts, il devrait y arriver sans trop de problème !
Une très bonne initiative pour évité de tourouvé le même résultat je tombe toujours dans cette situation
En gros ils vont faire un random sur les résultats…
J’attendais cette MAJ avec impatience face à ces gros qui abusent souvent des sous domaines.
Il était temps parce que depuis l’ouverture de la ménagerie, les SERP sont devenus un joli bazar sur certaines requêtes.