La société Rosetta propose une nouvelle étude d'eye-tracking sur les différents services de Google : Instant, Instant Previews, recherche universelle, Google Adresses et services d'autocomplétion...
Une nouvelle étude d'eye-tracking, proposée par la société Rosetta donne des résultats intéressants sur divers services de Google, à savoir Instant, Instant Previews, Adresses, Recherche universelle et les différents système d'autocomplétion du moteur de recherche.
Voici, en résumé et en images, les principales conclusions de cette étude :
- Google Instant (affichage des résultats au fur et à mesure de la saisie de la requête) n'a que peu d'impact sur le comportement de l'internaute.
Source de l'image : Rosetta |
- Instant Previews (copies d'écran des pages web proposées dans les résultats) a connu des résultats divers : certains testeurs ont aimé, d'autres n'ont pas compris de quoi il s'agissait. Une fonctionnalité pas encore mûre ?
Source de l'image : Rosetta |
- En recherche universelle, les images et les vidéos attirent l'oeil de l'internaute. Un résultat qui n'est pas nouveau...
Source de l'image : Rosetta |
- Google Adresses joue un rôle majeur dans les résultats de recherche, basé sur une visibilité importante. Logique... :
Source de l'image : Rosetta |
- Le système d'autocomplétion (de type Google Suggest : proposition de requêtes au fur et à mesure de la saisie) est très utilisé par la majorité des testeurs :
Source de l'image : Rosetta |
Ces résultats - qui doivent être tempérés par le fait qu'ils ne portent que sur 11 testeurs - restent intéressants et nous donnent un nouvel éclairage sur la façon dont les internautes utilisent Google.
je n'ecrit pas trop bien le francais, mais je comprends que beaucoup penses que le panel etait trop petit. la plupart de nos clients utilizent de 10 a 15 testeurs pour un veritable "usability study" pour tester un nouveau website. c'est vrais qu'on peut recevoir plus "commentaire avec a panel plus grands, mais vraiment je ne vois pas grande difference avec "eye tracking" data si on utilize plus testeurs. aussi, c'est cher pour chaque testeur et les deux jours de testing. (encore j'excuse mon Francais je sais que j'ecrit horriblement 🙂 )
Pour tirer quelques conclusions que ce soit, ce n'est sérieusement pas évident avec un si faible panel. Mais cela donne quand même une bonne idée… J'ai appris qqch sur le instant search par exemple
11 testeur peuvent représenter un panel suffisant et pertinent dans un cas ou il y a peu de variabilité, c 'es a dire que tout le monde est d'accord. dans un cas extreme, si la variabilité est nulle , un seul juge suffit 🙂 )
Le screen de recherche universelle montre qu'on est presque aussi visible en top 1 ou 4 si on a "la chance" de passer devant un résultat shopping ou images 🙂
C'est bien pour cela que ces résultats "doivent être tempérés" :))
Disons que c'est un éclairage à rajouter aux autres de ce type, mais qui, la plupart du temps, dans les expériences d'eye-tracking, ne portent pas sur beaucoup plus d'expérimentateurs…
Cdt
J'ai du mal à comprendre comment 11 testeurs "donnent un nouvel éclairage sur la façon dont les internautes…" En quoi cet échantillon de 11 personnes serait de près ou de loin représentatif des pratiques de plusieurs centaines de millions d'individus ?