Tests et mesures des productions interactives (1/2) : des sciences cognitives aux tests d’interfaces

Comment un outil technologique interagit-il avec notre cognition ? Question complexe, mais éminemment pratique et concernant au premier chef designers, concepteurs de jeux et chercheurs en sciences cognitives. C’est donc au problème des “tests et mesures des productions interactives” qu’à été consacrée la journée d’études PraTIC du 13 février, conçue et organisée par Etienne-Armand Amato et Etienne Perény pour Gobelins, l’Ecole de l’Image, en partenariat avec le laboratoire Paragraphe de l’université Paris 8 et l’Observatoire des mondes numériques en sciences humaines.

De la sensation à la perception

Premier intervenant, le professeur Charles Lenay du laboratoire Costech de l’université de technologie de Compiègne s’est demandé comment “questionner par des cas limites le caractère observable et mesurable des interactions numériques”. Des cas limites, car l’approche de Charles Lenay consiste justement à effectuer des expériences très minimalistes dans des conditions où des mesures objectives sont possibles.

Il a commencé par donner son approche théorique et méthodologique qui est “énactive”. Cette théorie, popularisée par Francesco Varela, postule que la cognition ne peut s’effectuer que par un couplage entre l’organisme et l’environnement. Nous ne percevons pas le monde de manière passive, ce sont nos actions qui forment nos perceptions. On trouvera un exemple d’énaction avec l’expérience des chatons de Held et Hein, ici. Mais il est vrai que l’énaction est un concept subtil, difficile à comprendre et à expliquer. Les expériences décrites par Charles Lenay lors de son intervention clarifient grandement la signification d’une tell ! e notion.

La question qui dirige ses recherches est de savoir comment un outil peut devenir “invisible”, transparent et ouvrir des possibilités d’expériences nouvelles. Et comment un dispositif quelconque est-il en mesure d’orienter notre activité ? Lenay est parti des expériences de Paul Bach-y-Rita effectuées dans les années 60. Ces recherches avaient réussi à redonner une certaine forme de “vue” aux aveugles. Pour ce faire, Bach-y-Rita avait utilisé une caméra reliée à une grille de picots posée sur le ventre du patient (voir l’article de Strabic sur le travail de Paul Bach-y-Rita). L’image capturée était transformée en stimuli tactiles grâce au mouvement de picots. Il restituait en quelque sorte une image en braille. Mais à cette occasion, le chercheur découvrit un phénomène étrange. Si la caméra était posée sur la table, l’aveugle avait du mal à repérer ces formes, il ressentait juste des chatouillis. En revanche, s’il prenait la caméra dans la main, il apprenait assez vite à reconnaître un très grand nombre de formes. Il devenait capable d’obtenir une vraie perception de la distance des objets dans l’espace et perdait la sensation de chatouillis. Il faisait le lien entre les actions et les retours sensoriels. “Les sensations s’étaient transformées en perceptions”.

Pour ses travaux Charles Lenay a simplifié grandement le dispositif de Bach-y-Rita. Plus de caméra, mais une seule et unique cellule photoélectrique connectée à un unique stimulateur tactile, situé au bout du doigt et qui ne s’active que devant une cible lumineuse (vidéo). Par rapport aux images générées par le système de Bach-y-Rita, l’expérimentateur (les yeux bandés) ne dispose donc plus que d’un bit d’information. Pourtant, malgré un dispositif aussi limité, les sujets arrivent à repérer lesdites sources lumineuses dans l’espace, évaluer leur distance, leur profondeur. Et ce, par un système de triangulation. Mais pour ce faire, ils doivent effectuer une multitude d’actions et de retours sensoriels.

Là aussi, on observe que peu à peu, l’attention à la stimulation tactile disparaît : l’outil devient donc invisible. En fait a rappelé Lenay, “tout ce qui donne à voir est invisible, ce que je vois c’est ce qui m’empêche de voir” (parce que cela bloque la lumière !).

Le “système Tactos” est basé sur les mêmes principes, mais cherche à reconnaître les formes (vidéo explicative). Les sujets (qui peuvent être de vrais aveugles) promènent leur doigt sur l’écran et, chaque fois que leur curseur rencontre un objet à l’écran, ils ont un retour tactile. Là encore, si on diminue les inputs et qu’on simplifie à un seul bit d’information, les gens réussissent à reconnaître des formes à travers l’exploration active.

Ces interfaces minimalistes peuvent également être utilisées pour les interactions interindividuelles. On utilise pour ce faire un système Tactos partagé, dans lequel l’espace d’action est limité à une seule dimension (c’est-à-dire une ligne). Chacun peut “toucher” son partenaire, qui explore l’écran simultanément. Mais on peut également comme précédemment toucher des objets. Et pourtant, les utilisateurs arrivent à faire la distinction entre une “personne” et un “objet”. Ils ne reconnaissent pas leur partenaire à partir de l’observation de son comportement, mais petit à petit, les mouvements des deux participants se synchronisent et c’est cette synchronisation qui permet de différencier la présence d’un humain d’un simple objet.

Ces situations minimalistes peuvent-elles être utiles pour en comprendre d’autres, plus compliquées ? C’est la question à laquelle il faut chercher à répondre. A cette fin, Lenay appelle de ses vœux la naissance d’une “technologie”, c’est à dire, au sens étymologique, d’une “science de la technique” qui permettrait de donner sens à ces expériences.

Comment évaluer l’expérience utilisateur ?

Nicolas Esposito (@neposit) est enseignant chercheur et responsable de la recherche à Gobelins, l’école de l’image. Il s’est penché sur les “techniques et méthodes d’évaluation de l’expérience utilisateur” et nous a présenté les activités du “laboratoire d’ErgoDesign Lutin-Gobelins”. Ce labo, lancé à la fin 2013, possède à la fois un aspect recherche et enseignement et propose également des offres de service.

Le labo utilise bien entendu une multitude de techniques pour tester le produit. Très souvent ce sont des combinaisons de méthodes qui sont utilisées. Par exemple, on enregistre ce qui se passe sur l’écran, les mouvements de la souris et du clavier et simultanément, on emploie une webcam pour observer les expressions faciales. Autre technique fréquemment employée, l’oculométrie, qui enregistre le chemin du regard. Mais les autres paramètres physiologiques ne sont pas négligés. Pour mesurer l’état émotionnel, un casque Emotiv Epoc permet de prendre en compte les ondes cérébrales, mais on n’oublie pas non plus les autres facteurs, comme le taux de sudation, le rythme de la respiration ou les battements cardiaques. A côté des outils classiques qui impliquent une immobilité du sujet, le ! labo dispose aussi d’une espèce de ceinture qui permet de traquer ces mesures en conditions de mobilité. Enfin, il ne faut pas négliger les outils moins “technologiques” comme les questionnaires, seuls à même de nous permettre de mieux comprendre les motivations et les réflexions de l’utilisateur.

Nicolas Esposito a commencé son intervention en nous donnant l’exemple d’un test effectué dans ses locaux. Il s’agissait de comparer l’activité de lecture d’un livre papier et de son adaptation numérique : on s’est demandé ce qu’apportent les enrichissements, comprend-on mieux ou moins bien ?

Lors de cette expérience effectuée avec des enfants, on filmait le regard pour capter le mouvement de l’œil, ainsi que les gestes et expressions des lecteurs. A la fin, les chercheurs effectuaient des entretiens, et demandaient aux jeunes de reformuler l’histoire, pour voir comment elle avait été comprise.

Ce genre d’expérience permet de révéler des erreurs de design dans l’interface. Dans un livre électronique, par exemple, on pouvait “attraper” sur l’écran des ballons qui émettaient un son ; mais ce n’était pas le cas de tous les ballons ; ce qui posait des problèmes de cohérence.

Nicolas Esposito nous a ensuite parlé de son travail avec un catalogue d’objets 3D de Dassault Systèmes, et de l’utilisation de la leap motion, ce nouveau périphérique qu’on place devant son écran et qui permet de reconnaître manière assez précise des gestes qu’on effectue devant celui-ci, afin de manipuler lesdits objets. Les membres du labo ont pu ainsi découvrir des problèmes liés à cette nouvelle génération des interfaces gestuelles, filles de la Wii et de la Kinect. La leap motion possède un “cône de captation”, autrement dit, et c’est logique, nos gestes ne sont pris en compte que s’ils se situent dans le cône des capteurs de la leap. Problème : il n’y pas de retour concernant les limites de ce cône, ! pas de rétroaction. La perception est incomplète… Les chercheurs du labo des Gobelins ont pu découvrir qu’il était difficile dans ces conditions de savoir si les gestes étaient reconnus ou non, tout autant que savoir quand on rentrait dans ce cône et quand on en sortait.

De quoi dépend la multiplicité des stratégies que nous utilisons pour aborder les affordances ?

Un grand apport de ce genre d’étude est la mise en valeur de la notion de stratégie : nous n’utilisons pas les outils de la même façon. Il existe une grande diversité de stratégies. En revanche, les catégories traditionnelles que nous utilisons pour décrire des personnes ou des relations ne permettent souvent pas de dégager une classification : ainsi, dans le cas de l’expérience sur la lecture auprès des enfants, la distinction lecteur/non-lecteur n’était pas très significative. En revanche, on a découvert que frères et sœurs partageaient fréquemment les mêmes stratégies de lecture.

Pour illustrer la variabilité des stratégies, Nicolas Esposito a également testé le site web des Gobelins. Ainsi, il existe des personnes qui dissocient complètement l’attention visuelle et le pointeur de la souris au point de déplacer le curseur pour pouvoir lire ce qu’il y a en dessous.. D’autres au contraire lient profondément le curseur et l’attention visuelle : elles “lisent avec la souris”.

La notion d’affordance est également au cœur des études du labo. L’affordance, rappelons-le, est la capacité que possède un outil de “suggérer sa propre utilisation” , comme le dit la Wikipédia. Autrement dit, quand un objet propose une bonne affordance, vous n’avez pas besoin de lire la doc. Pour exemple Nicolas Esposito nous a présenté une “app” très sophistiquée du point de vue du design graphique, mais beaucoup moins en design d’interaction. Il s’agissait pour la faire fonctionner de déplacer un pictogramme du pourtour de l’écran vers l’intérieur, mais rien ne l’indiquait. Là aussi, on a pu découvrir une classification intéressante des utilisateurs, selon la stratégie employée. Ceux qui s’en tiraient le ! mieux avec ce programme étaient les joueurs, plus habitués que les autres utilisateurs à explorer et découvrir les aspects cachés d’une interface.

Rémi Sussan

À lire aussi sur internetactu.net