Une infographie qui nous explique en images le concept de l'A/B Testing, utilisé (notamment en SEO, mais pas que) pour tester et comparer plusieurs techniques ou méthodes marketing...
Notre infographie du vendredi est proposée aujourd'hui par le site Inéolab (un habitué de cette rubrique, l'un des rares sites en France à créer des infographies intéressantes et à nous les signaler pour qu'on en parle) et propose un résumé de ce qu'est l'A/B Testing (souvent utilisé en SEO mais aussi par Google avec ses tests incessants) : définition, astuces, usages, différences avec d'autres techniques, etc. Bref, un bon aperçu des méthodes utilisées aujourd'hui mises en place pour tester et comparer des méthodologies marketing, notamment sur un site web (cliquez sur l'image pour en obtenir une version agrandie) :
Infographie(s) : L'A/B Testing en une image. Source : Inéolab. |
Merci Olivier pour le partage de notre infographie !
Pour répondre à Patrick et Nicolas, chez Inéolab on a remarqué qu’un test était fiable lorsque ces 3 critères étaient remplis :
1. 15 jours de test
2. la tendance n’ai pas changé dans les 7 derniers jours
3. 150 conversions minimum
De mon point de vue, un test ne peut donc pas être réalisé pour 200 visiteurs sur la page : les résultats risquent de ne pas être très pertinents. Évidemment, c’est toujours sujet à caution car si le test A/B est réalisé sur une page qui a déjà un fort taux de conversion, l’amélioration peut être très claire. Alors que sur une page avec 1000 visites, les résultats pourraient être confus malgré tout.
Pareil si le test est réalisé sur plein d’éléments de la page. Les résultats seraient noyés dans le nombre de modifications.
De mon point de vue, cela dépend énormément, une variation de 50% peut être pertinente avec 100 visiteurs sur chaque page alors qu’une variation de 2% demandera peut être un peu plus de volume. Il faut bien penser a tester les pages en parallèle et sur la même période afin d’éviter des variations dues aux évènements externes (Même la météo peut avoir un effet sur le taux de conversion)
Une question À partie de combien de visite peut on dire que le résultat est fiable ? Est-ce que 100 visites sur chaque version suffit à se faire un opinion fiable ?
100 est considéré comme le minimum.
Vous pouvez considérer que les résultats sont alors suffisamment pertinents pour prendre une décision si vous avez 20 % d’écart, ou plus.
Cela résumé bien la mentalité des tests A/B et de l’amélioration continue. Un point que je trouve important dans l’A/B testing est de bien définir les hypothèses. Il est de mon point de vue très peu intéressant de proposer, par exemple, un test en mettant en concurrence des pages totalement différentes. Dans ce cas nous ne serions pas en mesure de vérifier quelle modification est performante ou non.
Réaliser de nombreux « petits » tests est bien plus intéressant en terme d’analyse que de mettre en concurrence deux pages totalement différentes. Quite à réaliser des tests A/B/C/D (si le volume le permet)
Un exemple assez parlant : l’utilisation des -er ou -ez dans les call to action. Il est intéressant de voir qu’une modification aussi minime à un impact sur le taux de clic sur lesdits CTA.