La lettre professionnelle "Recherche et Référencement" du site Abondance.com pour le mois de décembre 2015 est sortie cette semaine et propose (en 53 pages A4 pour le format PDF) les articles suivants (n'hésitez pas, abonnez-vous !) :
Comment détecter le passage des robots via Google Analytics
Par défaut, les outils de WebAnalytics permettent d’analyser en temps réel et sur le long terme le trafic des visiteurs sur un site web : on y analyse par exemple le canal d’acquisition, leur comportement ou encore les URL visitées. En référencement naturel, on peut également s’intéresser au trafic des robots (spiders, crawlers) de Google et des autres moteurs de recherche pour mieux comprendre leur indexation et trouver des leviers d’amélioration SEO. Nous allons voir ainsi comment détourner les scripts des outils de Webanalytics pour analyser les visites de Googlebot et de ses « collègues », sans pour autant avoir besoin d’analyser les logs de son serveur.
Par Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).
L'incroyable argument de défense de Google devant la Commission européenne
On connait les déboires de Google devant la Commission européenne, notamment en termes d'abus de position dominante. La société de Mountain View s'est récemment défendue en indiquant que la notion de gratuité de ses services la disculpait de ce type de raisonnement. Un argument assez incroyable qui ne tient pas la route un seul instant...
Par Alexandre Diehl, Avocat à la Cour, cabinet Lawint (http://www.lawint.com/).
Google, Javascript et Ajax : limites techniques et réalité actuelle (2e partie : Angular JS)
De plus en plus de sites web sont réalisés en utilisant des technologies comme Javascript ou l'Ajax. Pour les explorer, les moteurs de recherche doivent s'adapter quotidiennement à cette nouvelle donne. Mais arrivent-ils réellement à crawler et analyser aujourd'hui tous les sites, parfois complexes, qu'ils explorent ? Cet article en deux parties a pour objectif de faire un point impartial sur la réalité actuelle et les limites, obligatoires, que l'on trouve actuellement dans les possibilités des robots d'aujourd'hui. Le mois dernier, nous avons expliqué les limites de l'Ajax. Ce mois-ci, nous étudions le fonctionnement et évoquons la compatibilité SEO de frameworks Javascript comme Angular JS.
Par Philippe Yonnet, Directeur Associé MySEO, groupe MyMedia (http://www.search-foresight.com/).
TensorFlow : un système d'apprentissage automatique pensé par Google
Google a dernièrement annoncé RankBrain, son algorithme d'apprentissage automatique et d'intelligence artificielle (dont nous avons parlé le mois dernier) et TensorFlow, une bibliothèque logicielle autour de fonctionnalités de deep learning. Il nous semblait donc intéressant de décrire de façon plus approfondie ce nouvel outil disponible en Open Source, tout en expliquant de façon claire les notions de machine learning et deep learning, si souvent utilisées par Google pour bon nombre de ses produits.
Par Sylvain Peyronnet, co-fondateur et responsable des ix-labs, laboratoire de recherche privé (http://www.peyronnet.eu/blog/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).
Bien gérer le cache serveur pour un site plus performant
Dans le cadre de l'optimisation de l'accélération du temps d'affichage de vos pages web, pour le plus grand bénéfice de Google mais surtout de l'internaute, il existe une large gamme de possibilités à mettre en œuvre. Nous avons parlé précédemment de la configuration des en-tête http transmises par le serveur afin de gérer au mieux le cache du navigateur distant. Analysons maintenant la mise en place de modules de cache et de reverse proxy sur le serveur, et notamment l'outil Varnish, très souvent utilisé à cette fin.
Par Aymeric Bouillat, consultant SEO Resoneo et éditeur du site YaPasDeQuoi (http://www.yapasdequoi.com).
Revue d'outils moteurs et SEO
Cette rubrique signale chaque mois 5 outils (site web, logiciel, plug-ins Firefox...) qui nous ont parus intéressants (ou parfois étonnants...) pour le référencement naturel ou la recherche d'information. Des outils pas obligatoirement très récents, mais parfois méconnus ou qui gagnent à être utilisés selon nous. Chaque outil est décrit en quelques phrases, sous la forme d'une fiche signalétique vous permettant de le tester au plus vite...
Par Olivier Andrieu, éditeur du site Abondance.com.
Revue d'URL
Les articles de notre veille sur les moteurs de recherche et le réferencement en français et en anglais, ainsi que le dossier du mois (lorsque l'actualité fait ressortir un fait marquant).
Pour en savoir plus :
- Description de la lettre "Recherche et Référencement"
- Sommaire du numéro de décembre 2015
- Accès direct au numéro de décembre 2015 (pour les abonnés) (ce numéro a été publié le mardi 15 décembre 2015).
- Numéro 100 (janvier 2009) téléchargeable gratuitement
- Comment s'abonner ?
- Tous les articles de 2015
super ce numéro, toujours un plaisir de vous lire. J’apprends beaucoup de choses de vous !
Merci pour les informations, toujours aussi pratiques !
Numéro très intéressant, toujours un plaisir de vous lire. Nous avons également un blog sur le référencement dans le cadre de nos études.