Google vient de publier un document (43 pages, format PDF) regroupant les principales recommandations formulées à ses 'Quality Raters', personnes employées par le moteur de recherche pour juger de la qualité de ses résultats...
Le document était un secret de polichinelle depuis qu'il avait été déniché sur le web, c'est certainement pour cette raison que Google a décidé de publier ses Quality Raters Guidelines (version du 3 novembre 2012) sous la forme d'un document PDF de 43 pages.
Rappelons ici qu'un "Quality Rater" est une personne employée par Google pour juger de la qualité d'un résultat du moteur de recherche. Il utilise différents critères pour attribuer une note la plus objective possible à une page de manière générale, ou à un contenu vis-à-vis d'une requête précise. Les résultats de ces notes sont ensuite transmises aux développeurs de Google qui vont les prendre en compte pour affiner ou non l'algorithme global du moteur de recherche.
Le document dévoilé officiellement par Google cette semaine est donc le guide qui explique à ces "Quality Raters" comment évaluer une page web, sa qualité et sa pertinence. Il semblerait cependant que ce soit une version raccourcie de celui réellement utilisé par les évaluateurs, mais il contient la plupart des informations importantes déjà décrites sur ce site.
Ces recommandations destinées aux Quality Raters sont intéressantes pour comprendre les objectifs de Google quant à la qualité des résultats des moteurs de recherche. On y apprendra qu'un bon contenu :
- couvre tous les aspects de la requête de l'internaute ;
- est précis, pertinent et exhaustif ;
- est récent ;
- est en adéquation avec le reste du site ;
- est facilement associé à un auteur ;
- se trouve sur un site populaire, si possible sur l'un des sites officiels liés à la requête ;
- possède des informations de localisation géographique relatives à cette même requête ;
- dispose d'un design "convenable".
Les guidelines peuvent donc servir le graphiste, le rédacteur de contenus, le référenceur ou encore le développeur à analyser et noter leurs propres sites pour optimiser le contenu afin qu'il soit reconnu par l'utilisateur et le moteur de recherche.
Malheureusement, il reste à déterminer dans quelle mesure chacun de ces critères est implanté dans l'algorithme actuel du moteur de recherche, ou dans ses versions futures...
A vos téléchargements donc pour obtenir ce document et comprendre ces critères d'évaluation ! Mais n'espérez quand même pas trop y découvrir des informations "secret défense" 🙂
Source de l'image :Search Engine Land |
Je m’étonne qu’une bonne information récente soit plus valorisée par google qu’une information datée. Il faut bien reconnaître que les UNE sont souvent un ramassis de conneries publiées par des internautes ou journalistes avides de faire un scoop.
En quoi une bonne information véridique et vérifié serait moins bonne pour l’internaute qu’une info identique ( sans duplicate hein) mais plus récente.
Que du réchauffé et pour ce qu’elles sont appliquées…………
Salut,
J’ai fait une petite analyse avec quelques sites qui sont apparus sur le webspam en temps réel. Les sites qui sont capturés le sont en traitement automatique.
Les guidelines données sont largement moins fournis que ceux trouvé par @seoblackout (lire article que tu as mis en lien)
J’ai sélectionné quelques sites qui ont un design, une ergonomie, et une expérience utilisateur qui n’auraient pas dû passer en webspam.
http://www.love-moi.fr/2013/03/analyse-de-site-webspamme-par-google.html
Une bonne piqûre de rappel ! Merci pour ce PDF Olivier 🙂
Bonne journée à tous,
Gaëtan.
Il en a de bien beaux jolis polos notre Matt cutts ! ^^On en revient tooujurs e0 la meame rengaine : faire de la qualite9. Oui, c’est bien, et c’est logique d’un point de vue utilisateur. Mais qu’en est-il des gros sites bidons/pourris/nazes/sans contenus/spammy/MFA qui sont en premie8re page !?!? Matt, re9pond-moi stp car e7a me bouffe le foie sur certaines requeates !Bon bah e7a ne sert e0 rien mais e7a fait un peu de bien !A bon entendeur. Alex ^^
L’art de la manipulation de masse par Google…
A noter qu’une nouvelle version (Version 4.0 des General Guidelines) a justement été publiée la semaine dernière…
Et pour parachever l’info, je précise que ces recommandations sont complétées de webinars très régulièrement.
Bonjour Olivier et merci pour ce PDF !
Je ne l’avais pas vu avant, donc même s’il date un peu, je suis contente d’être en sa possession. Je viens de l’imprimer et le lire… Pas grande chose de nouveau, mais toujours intéressante d’écouter ce que monsieur Google a à nous dire ! 🙂
C’est vrai qu’il était sorti il y a quelque temps ce document, mais toujours sympa de l’avoir sous le coude même si de nombreux critères sont déjà connus.
Disons que cela va permettre de mettre les choses sur Papier, mais je pense que nombreuses directives présentes dans ce document étaient déjà présentes lors des fameuses directives Panda sorties il y a prêt de 2 ans.
Et on retrouvera toujours des sites à la con dans les SERPs à base de sous domaines KW, de blast ping et au design moisi.
secret de polichinelle, a tel point que je croyais que GG avait publié officellement ces guidelines … MDR !
parceque ca fait un moment que je les ai lues …
Sebastien
ah toujours intéressant d’obtenir des documents comme celui-ci même si on connaissait déjà la plupart de ces critères. Ce qui est navrant c’est que Google privilégie le site officiel par rapport à une requête (parfois ces sites officiels n’ont guère de contenu et sont peu intéressant … un critère un peu limité à mon sens).