Matt Cutts, porte-parole "référencement" de Google, a fait une annonce importante lors de la conférence PubCon de Las Vegas via le site Search Engine Roundtable : il semblerait que le moteur de recherche se mette à traiter prochainement les sous-domaines (actu.votresite.com, info.votresite.com, clients.votresite.com) comme un répertoire du même site (www.votresite.com/actu/, www.votresite.com/infos/, www.votresite.com/clients/...).
L'info est importante car les moteurs de recherche llimitent actuellement le nombre de pages d'un même site à 2 (système de clustering) dans une même page de résultats :
Les sous-domaines, en plus d'être un raccourci intéressant pour l'internaute, permettaient de faire "sauter" cette limite et d'obtenir plus de pages d'un même site dans les 10 premiers liens proposés par le moteur.
Par exemple, une recherche sur le mot google ne renverra plus, en première page, les sites www.google.fr, news.google.fr, maps.google.fr, images.google.fr et video.google.fr mais uniquement www.google.fr, les autres sous-domaines étant "éliminés" des résultats. Enfin, si Google applique son nouvel algorithme aux requêtes sur son nom, bien sûr... 🙂
Restera à résoudre des cas plus épineux avec des sites "persos" hébergés par certains FAI et ayant des adresses du type site-perso.free.fr par exemple, ou les sites Skyblog, qui se présentent sous la forme quelque-chose.skyblog.com...
Ce projet de nouvel algorithme fait certainement suite à de nombreux abus mis en place, parfois par des sites majeurs du Web dans ce domaine, depuis quelques mois. On ne peut que regretter que certaines stratégies, excellentes pour la visibilité d'un site lorsqu'elles sont mises en place de façon "intelligente" et constructive, soient souvent combattues in fine par les moteurs suite à la bétise de certains qui vont trop loin de façon manifeste et casse tout un système à vouloir trop en faire. Après les balises meta, le cloaking, les pages satellites, cela risque bien d'être le tour des sous-domaines... Rageant...
Mise à jour (11/12/2007) : Matt Cutts a parlé du sujet sur son blog, devant le mini-cyclone provoqué par sa discussion avec un webmaster lors du salon PubCon. Il a été moins "rigide" qu'on aurait pu le penser en lisant pas mal de papiers parus à ce sujet depuis quelques jours. Il se pourrait donc que Google considère les sous-domaines comme des répertoires uniquement dans certains cas "extrêmes" pouvant être assimilés à du spam. Dont acte...
Si un site n’a pas assez de clicks afin de générer des sites links, le fait de faire des sous domaines de façon intelligente permettrait d’avoir des résultats intéressants, non ?
Bonjour Olivier,
Petite explication de Matt Cutts :
http://www.mattcutts.com/blog/subdomains-and-subdirectories/
Ca invalide donc votre (non pas taper :D) titre.
Notamment Sergi de Moteurs-News :
http://www.moteurs-news.com/blog/index.php/2007/12/07/160-google-sous-domaines-dossiers
Une précision d’un commentaire sur http://www.seroundtable.com/archives/015621.html :
I was just thinking that – my recollection is that Matt said Google were looking at ways to ‘reduce’ the occurrence of sub-domains appearing, not the elimination of sub-domains appearing. If they removed them across the board it could actually reduce result quality I’m sure.
Bonjour,
Certains auraient plutôt compris qu’il ne s’agissait pas de traiter les sous-domaines comme des répertoires mais plutôt d’augmenter la difficulté à obtenir une 3ème position pour un domaine et, ainsi de suite pour les résultats suivants.