Google a communiqué quelques informations sur la nouvelle version de la Search Console (pas de date de lancement prévue pour l'instant) avec deux nouveaux rapports (Index Coverage Report et AMP Fixing Flow), un nouveau look et une nouvelle philosophie de rendu des résultats...
On savait depuis quelques jours que Google testait un nouveau look et de nouvelles fonctions pour la Search Console. Depuis hier, on en sait un peu plus avec un post sur le blog pour webmasters du moteur de recherche qui confirme les tests et propose un aperçu de deux nouvelles possibilités qui devraient voir le jour prochainement...
Selon Google, cette future version aura plusieurs objectifs :
- Des informations plus exploitables, avec un regroupement des erreurs par ce qu'il est estimé être la cause commune à leur origine. Ces erreurs seront organisées en "tâches" qui ont un "état". Il sera également possible de suivre le traitement des pages affectées par la résolution du problème au fur et à mesure.
- Un meilleur alignement avec l’organisation de l'entreprise. Des possibilités d’assignation de tâches et de partage avec d'autres personnes impliquées dans le projet en interne, comme par exemple des développeurs ou des chefs de projet, seront rajoutées.
- Des retours plus rapide de Google sur les modifications. Un mécanisme qui permettra d'obtenir plus rapidement qu'auparavant la confirmation que les changements effectués sur le site corrigent effectivement des problèmes sera mis en place. Des tests "live" qui déclencheront automatiquement un re-crawl du site seront possibles..
Deux nouveaux outils vont notamment être lancés en version bêta pour un petit nombre d'utilisateurs dans les semaines qui viennent : "Index Coverage Report" et "AMP Fixing Flow".
Index Coverage Report montrera le nombre de pages indexées sur le site, ainsi que des informations sur les raisons de la non-indexation de certaines pages, avec des exemples et des conseils pour régler ces problématiques d'indexation. Il contiendra également la possibilité de soumettre des Sitemaps XML, et des options de filtrage, pour ne voir dans l'outil que les données relatives à un Sitemap en particulier. Rien a priori, hélas, sur la possibilité tant attendue d'obtenir en téléchargement la liste des pages indexées. On notera sur la copie d'écran ci-dessous que l'outil semble enfin devenir compatible mobile (ce qui n'était pas le cas jusqu'à maintenant. Un comble !)...
Fonction "Index Coverage Report" dans la Search Console... Source de l'image : Google |
AMP Fixing Flow montrera les erreurs actuelles sur vos pages AMP (comme actuellement), regroupées par type d’erreur. Il sera alors possible de regarder plus en profondeur pour un type d’erreur en particulier, y compris des exemples de pages affectées. Un bouton permettra de confirmer qu'un problème est réglé, et les URL affectées seront alors explorées à nouveau par Googlebot. Le progrès de cette ré-exploration des pages et la disparition éventuelle des erreurs qui avaient été trouvées sera alors notifié.
Fonction "AMP Fixing Flowt" dans la Search Console... Source de l'image : Google |
A noter que Google n'a donné aucune date de disponibilité pour ces fonctionnalités et la nouvelle version de la Search Console. Wait and see donc !
Et bien pour ma part ( je trolle un peu) je trouve ces nouveautés assez alléchantes et j’ai hâte de les tester.
J’espère surtout plus de rapidité sur les crawls et que la nouvelle version sera plus claire et « pro ». Pour un produit google je ne le trouve pas vraiment excellent même si il peut être d’une très très grande utilité. Ceci dit, les améliorations ont l’air intéressantes.
Déjà Google admet des bugs de crawl « Nous allons regrouper les erreurs que nous trouvons par ce que nous pensons être la cause commune à l’origine de ces erreurs » … Google n’est pas a l »abris des erreurs de crawl, nous en avons subit plusieurs les effets néfaste.
Pour notre annuaire qui est constitué de 1000 sous-domaines pour un total de 10 millions de pages et mis a jour 1 à 3 par semaine, se taper des corrections d’erreurs crées par Google sur 1000 sous-domaines, un par un, chaque jour, est une vraie plaie (4h de travail quotidien).
Ce qui est assez incompréhensible, c’est que des erreurs remontent parfois 6 mois plus tard. COmme si Google crawlait en masse, puis étale sur 6 mois l’analyse des pages, qui, entre-temps, ont été modifiée 10 à 30 fois … Sur des erreurs de liens, lorsque Google fait remonter une erreur de lien sur une page qu’il analyse, il trouve des liens morts car la page source a depuis changé 20 fois …
C’est assez abérant pour un moteur comme google !!! Ils ont assez de ressources pour vérifier, avant d’analyser une page, si la source n’a pas été modifié…
EX : sur le site http://frigorifique.annuairefrancais.fr , des erreurs remontent a la surface le 1 Aout , sur des destinations qui n’existent plus, mais les pages sources ont été modifiées en Avril et ne comportent plus ces liens depuis cette date … C’est tous les jours comme ça, sur chacun des 1000 sous domaines… Et trop d’erreurs fini par faire tomber le site en trafic de manière significative, jusqu’à -20%.
Il y a un ecart bcp trop important entre la date d’affichage de la date d’erreur etle crawl lui-même, et apparement pas de re-crawl avant d’afficher l’erreur (les) …
Bref, Espérons que cette nouvelle mouture simplifiera grandement la gestion globale des erreurs en pouvant regrouper les sous-domaines, et la correction de plus que 1000 erreurs par jour pour les très gros sites.
Avez-vous constaté un tel comportement de vos requêtes – massives – sur Google.es, par exemple ? Ou Google.uk ? À la sonnette de Legifrance, on en dirait autant de l’idiotie… Une culture nationalisée, à mon avis, c’est au aussi un Public du « Mass-Medias ».
Je n’y vois qu’une raison supplémentaire de penser à qui et pour qui on travaille, qu’il s’agisse de mots ou de supports virtuels d’infographistes. Et de rencontrer ces personnes : la poignée mains du Contrat Tacite définissant le fil d’Ariane qui au final, aura conclu le marché plus que le crawl à l’aveugle – et je m’entends.
Le relationnel peut par exemple permettre d’avoir des Noms, même une zone géographique … Que sais-je ? Pour cercler sa recherche en termes concurrentiels, visuels, productifs : le client de la prestation « Diagnostic » étant partie prenante…
Vôtre réflexion me renvoie à un sacré songe. Mais est-ce que ces données de recherches intranet sont assimilables (puisque revenues à une mesure plus discrète) à un algorithme différencié, donc pour chacune de ces données ; et en fonction du Nombre de Dossiers en Gestion ?
Bonjour.
Merci et Bravo pour vôtre Lettre d’Information – à ne pas manquer, notamment en ce qui concerne Le Vrai des Faux : cela reste à penser. Malgré ce petit différent… J’espère que vous ne m’en tiendrez pas rigueur (ou pas davantage). Enfin, il est vite dit que je ne sache pas me faire comprendre. Dernière un phrasé achalandé, on peut trouver un appel préventif – et me comptant « avec » ce genre de prévention.
Ma question est la suivante :
Serait-il possible de programmer un Macro Excel, pour assumer les fonctions précitées dans vos articles, depuis un codage Access / (X)HTML, afin de concevoir une requête de l’algorithme (via le Macro Excel) en out-into ? Requête personnalisée, orientée vers les cibles d’un Marché BtoB / BtoC…
Il a des personnes, autant artistes qu’artisants, qui aurait peut-être bien besoin de cette petite Main-d’œuvre pour veiller à leurs détracteurs, et/ou rééquilibrer les Charges Postales avec le Budget Net des Ventes effectives. Enfin, il me semble…
J’avoue ne pas avoir lu l’ensemble des sujets proposés, probablement bien travaillés – à en voir les Titres, de Prime Abord. Du moins, je n’ai pas encore lu ces sujets.
Des travaux à suivre, à l’égard d’un rappel : « Le WEB 1.0, +1 ! »
__________________
Une Idées se suffit rarement, et avec style, si vous en oubliez la Mémoire.
Manye