Depuis novembre 2011, Google communique chaque mois une liste de modifications de son algorithme de pertinence. Ce mois-ci, ce sont pas moins de 86 changements qui sont proposés, mais pour les deux mois qui viennent de s'écouler...
Google a publié d'un coup ses changements d'algorithme pour les deux mois de juin et juillet 2012, soit 86 modifications plus ou moins importantes (et détaillées) de son moteur de recherche, comme c'est le cas depuis près d'un an.
Parmi ces changements, beaucoup sont mineurs. Voici cependant ceux qui semblent les plus importants :
- Meilleur classement des premiers résultats de la SERP en combinant de façon plus approfondie différents facteurs (difficile d'en savoir plus...).
- Meilleure détection des "pages officielles" à l'international.
- Meilleure détection des "sites de confiance", de façon native ainsi que dans l'algorithme de Panda.
- Meilleure prise en compte des requêtes de Longue Traîne.
- Meilleure prise en compte des questions en langage naurel et des synonymes dans les requêtes.
- Diverses améliorations dans les "onebox" (affichage de la météo, de résultats sportifs, etc. directement sous le formulaire de recherche).
- Affichage de titres "plus pertinents" par l'utilisation de synonymes.
- Amélioration du système de clustering (affichage d'une ou plusieurs pages pour un même site web).
- Détection du contenu d'une page pour analyser s'il s'agit d'un "article" ou pas.
- Nouvel affichage des "fils d'Ariane" dans les résultats.
Rajoutons-y quelques corrections de bugs et d'autres points déjà évoqués ces mois derniers ici-même et le compte sera bon.
Comme d'habitude, on reste plus ou moins satisfait devant ce type de communication de la part de Google : d'un côté, on est heureux de voir que Google communique sur ses changements d'algorithme, mais de l'autre, on est souvent déçu devant le peu d'informations fournies, notamment sur des modifications un peu plus importantes que la moyenne. En même temps, peut-il réellement en être autrement ?
Voici les autres "bulletins météo" émis par Google ces mois derniers :
- Les 39 changements de l'algorithme de Google pour le mois de mai 2012 (mai 2012)
- Les 52 changements de l'algorithme Google en avril (avril 2012)
- Les 50 changements dans l’algorithme de Google pour le mois de mars (mars 2012)
- 40 changements dans l'algorithme de Google : nouvelle évaluation des liens, référencement local, etc. (février 2012)
- Les 17 nouveautés de l'algorithme de Google en janvier 2012
- Nouveautés du mois de décembre 2011 (6 janvier 2012)
- Nouveautés du mois de novembre 2011 (1er décembre 2011)
- Nouveautés du mois d'octobre 2011 (15 novembre 2011)
Source de l'image : Luis Ceifao |
Information très intéressante pour tous les référenceur seo, grâce à ce nouvel algo, on ne peut plus faire un référencement massive. Merci à vous
il y a un facteur qui a beaucoup impacté la pertinence de google depuis juin/juillet. Parfois sur une requete type, les 20 premier résultats vont appartenir au même site. Je ne sais pas ce que vous en pensez mais je trouve ça un peu nul, avoir 3,4 resultats d’un meme site me semblait largement suffisant et pertinent.
Lorsque que ce site en question n’est pas pertinent, on arrive a un gros bug de google qui nous offre aucun résultat de ce que l’on recherchait.
un exemple concret, je cherchait à loué un vélo dans ville de chatellerault : je tape : vélo chatellerault
je n’ai rien de pertinent a perte de vu et ça cela ne m’arrivait pas par le passé.
Dans BING cette requête est beaucoup plus pertinente, et j’obtient des liens intéressant en haut de page.
Cette recherche n’est pas un cas isolé, cela m’est arrivé plusieurs fois ces dernières semaines/mois.
La pertinence de google en a pris un coup…. bing bientôt plus pertinent que google ?
ou un bug qui sera prochainement résolu ?
Racheter Digg devant eatre enrcoe trop cher pour Google, et la menace du like Facebook se faisant de plus en plus pre9cise pour le business SEO classique, il fallait bien que Google re9agisse, surtout apre8s le flop Buzz.Oserais-je pointer du doigt un manque d’innovation e0 Mountain View ?(pour ne pas les appeler copieurs , eux qui re9cemment enrcoe se plaignaient de Bing pour les meames raisons )
Impressionnant ce nombre de changement en si peu de temps ! Les pauvres SEO ne doivent plus savoir ou donner de la tête…
D’après ce que j’ai lu ici ou ailleurs, Google n’a pas l’intention de s’arrêter, bon courage les SEO
Pour rebondir sur : « Meilleur classement des premiers résultats de la SERP en combinant de façon plus approfondie différents facteurs (difficile d’en savoir plus…). » Peut-on y voir une meilleure prise en compte de la sémantique? En tout cas, certaines modifications vont dans le sens du contenu avec une meilleure détection des synonymes et des requêtes de longue traîne; c’est plutot bien.
Effectivement, ca bouge bcp dans les serps, c’est assez curieux parfois.
J’ai un peu le sentiment que certaines pages sont parfois introuvables ou plus difficilement, par exemple un article que je trouvais avant sur la base 4D facilement a quasi disparue selon les requetes habituelles … je sais , j’aurais du le mettre en bookmarks … c’est résolu.
Baisse un peu de pertinence, parfois, et en ce qui concerne notre gros annuaire en fin de dev et de SEO légé, nous pouvons sentir en positif chaque changement … c’est nettement visible CHAQUE semaine, avec un up constant global. Par contre, ca bouge en permanence sur les positions précises (rubrique + ville), un jour 1er, le lendemain 5eme, la semaine suivante plus rien, puis un retour en 9eme place … C’est un yoyo permanent.
Peut-être que Google fait une rotation en « testant » des positions variées pour établir des stats sur une requete, puis peu a peu, stabilise la position?
Pour info, il y a trois ou 4 semaines, nous avons quasi doublé l’index en ligne (+1,2 millions de fiches), mais Google traine bcp a ajouter ces nouvelles pages (uniques).
L’ajout d’un sitemap (qui n’existait pas) il y a 2 semaines n’a pas accéléré les choses, environ 30 000 nouvelles pages maxi par jour sont indexées. Patience donc, juste pour donner l’info que Google decide de son rythme tout seul, et selon ses critères.
Il y a aussi des bugs importants dans le webmasterstools que j’ai noté ;
– réapparition des liens 404 corrigés (erreur venant de pages qui ont été corrigées depuis longtemps, ou de sitemap corrigés aussi et renvoyés depuis longtemps).
– erreur de champ et de tables , certains départements (site individuel dans webmastertool) ne peuvent pas voir le nombre de pages indéxées , le champ « date d’envoi » comporte le nombre de liens du sitemap, des erreurs de config de certains data apparement …
C’est un peu « brouillon » dans webmastertools, mais a part cela, globalement, on ne note que des améiorations des résultats de Google …
Merci pour l’info Olivier
bien utile..