Aider le cerveau à faire deux choses à la fois

Par le 22/05/12 | 4 commentaires | 3,380 lectures | Impression

L’interface directe cerveau-machine suscite beaucoup de fantasmes, mais, au-delà de ceux-ci, certaines applications réelles commencent à voir le jour. S’il est loin le temps où l’on pourra piloter aisément un environnement numérique à partir de ses données cérébrales (et encore plus loin le jour où l’ordinateur pourra directement affecter le cerveau) on recherche depuis longtemps le moyen d’utiliser les BCI (Brain Computer Interface, interfaces cerveau-machine) pour harmoniser le fonctionnement mental avec l’usage des interfaces informatiques. C’était déjà le coeur du projet Augcog de la Darpa. Si ce projet insistait sur la notion de cognition augmentée, il ne s’agissait pas de bourrer des sujets de drogues ou d’implants pour les rendre plus performants, mais, plus modestement, d’adapter l’environnement numérique à leurs niveaux de stress et d’attention. De plus lors de la sortie des premiers casques électro-encéphalographiques (EEG) commerciaux, certains commentateurs avaient déjà souligné que leurs rôles consisteraient sans doute moins à piloter intégralement des jeux vidéos qu’à adapter ces derniers de façon intelligente au comportement de l’utilisateur.

La Darpa pensait que les premiers outils du genre apparaîtraient vers 2030. L’agence américaine partait en effet sur l’existence de systèmes d’imagerie par résonnance magnétique portable (IRM), et on en est loin. Pourtant, une équipe multiuniversitaire (MIT, université de l’Indiana et Tuft) vient de réaliser un premier prototype du genre (.pdf), nommé Brainput. Elle n’emploie pas l’IRM, mais une autre technologie, bien moins onéreuse, la spectrographie à l’infrarouge proche. (le site ExtremeTech nomme cette technique “l’IRM du pauvre”).

La question que se sont posée précisément les chercheurs est la suivante. Est-il possible de mettre au point un système qui serait en mesure de soulager l’utilisateur en proie à une surcharge cognitive en faisant passer certaines tâches en mode automatique ?

Les chercheurs ont distingué de manière très précise les différentes définitions du multitâche, c’est-à-dire la capacité à accomplir plusieurs choses à la fois. Plusieurs processus mentaux sont en effet recouverts par ce terme.

La première forme de multitâche est le “branchement”. C’est ce qui se passe lorsqu’il faut abandonner provisoirement une occupation importante pour se charger d’une seconde de manière urgente : par exemple “lorsqu’un utilisateur en train de régler un problème de programmation reçoit subitement un e-mail de son patron auquel il lui faut répondre de manière urgente”.

La deuxième version est la “tâche retardée”. Dans ce cas expliquent les chercheurs en poursuivant leur exemple, le programmeur continue son travail, mais reçoit simultanément une série de SMS qu’il choisit d’ignorer.

Le troisième processus est nommé dual. C’est ce qui se passe lorsqu’on doit passer d’une tâche à une autre sans nécessairement qu’il soit nécessaire de garder à l’esprit la première tâche.

Chacune de ces trois formes de multitâche peut être repérée par la technique de l’infrarouge proche. Les auteurs de l’étude se sont en fait surtout concentrés sur la première.

crédit Erin Treacy Solovey

Crédit Erin Treacy Solovey

Pour étudier le phénomène, ils ont mis au point un environnement expérimental sur lequel ils ont effectué trois expériences différentes. Il s’agissait pour l’utilisateur de piloter simultanément deux robots, un bleu et un rouge (à l’aide de contrôles ordinaires, et pas avec une BCI). Il devait guider ces machines vers un point précis d’un labyrinthe. Le robot bleu était totalement sous le contrôle du sujet. Celui-ci devait constamment le piloter. Le robot rouge, en revanche, pouvait alterner entre un guidage par l’humain ou le pilotage automatique pendant lequel il fonctionnait de manière autonome, mais évidemment pas forcément de manière optimale.

Les chercheurs ont alors mis au point trois sessions de travail différentes. L’une était dite “non adaptative” : autrement dit, les robots bleu et rouge étaient tous deux sous contrôle complet de l’humain, il n’y avait pas de phase d’autonomie.
La seconde était baptisée “adaptative”. Lorsque l’interface repérait que le cerveau du sujet se trouvait en phase de “branchement” et qu’il lui était difficile de gérer les deux robots à la fois, le robot rouge se mettait alors en mode autonome.

La troisième, dite “mal adaptative”, proposait l’option inverse. Le robot était en mode autonome la plupart du temps. Au moment des phases de branchement, en revanche, il se retrouvait sous le contrôle de l’utilisateur.
Avant le commencement de l’expérience, les chercheurs avaient pensé que les méthodes adaptative et mal adaptative se révéleraient supérieures à la technique “non adaptative”. Après tout, dans les deux premiers cas, le cerveau n’est-il pas aidé par la mise en autonomie du robot rouge ?

L’expérience a montré que cela ne se vérifiait pas, en fait, si la méthode “adaptative” s’est bien montrée la plus performante, la technique “mal adaptative” s’est révélée la plus inefficace, derrière même l’approche “non adaptative”.
Un des sujets a ainsi décrit son expérience subjective de la “méthode adaptative”: “Bien que le robot rouge désobéissait parfois, la plupart du temps il se montrait coopératif et trouvait son objectif. Le robot bleu était toujours coopératif.”

En revanche, dans le cas de la méthode “mal adaptative” : “le robot bleu était beaucoup plus coopératif que le robot rouge, qui désobéissait fréquemment à mes commandes et partait souvent dans sa propre direction”.

Cela montre, expliquent les chercheurs, l’importance de bien corréler l’état mental d’un utilisateur avec l’interface informatique.

Il reste bien sûr du travail à accomplir dans ce domaine. Tout d’abord, employer de vrais robots. Brainput utilise pour l’instant des robots logiciels, fonctionnant dans un monde virtuel. Ensuite, multiplier le nombre de robots.

Les applications, concluent les auteurs du papier, pourraient se révéler très importantes pour les situations impliquant à la fois beaucoup de stress et le contrôle d’un grand nombre de robots, comme dans les opérations militaires ou lors de sauvetage en milieu trop dangereux pour les êtres humains. Des objectifs très proches de ceux que poursuit la Darpa. Reste qu’on peut se demander si, plus modestement, de tels travaux n’aideront pas à élaborer de meilleures interfaces pour monsieur Tout-le-Monde et permettent de concevoir des ordinateurs qui sauront mieux s’adapter à notre état cognitif ou émotionel, en modifiant les fonctions auxquelles on accède selon le contexte et notre disposition cognitive.

Rémi Sussan

Rétroliens

  1. Se “décraniser” pour mieux réfléchir « Your Storytelling

3 commentaires

  1. par Gérard-André Deniger

    Alternative intéressante: mofifier des ordinateurs qui sauront mieux s’adapter à notre état cognitif ou émotionel ou modifier l’organisation du cerveau pour réfléchir sur nous-même de façon plus objective ?

  2. par Gérard-André Deniger

    Alternative intéressante: modifier des ordinateurs qui sauront mieux s’adapter à notre état cognitif ou émotionel ou modifier l’organisation du cerveau pour réfléchir sur nous-même de façon plus objective ?

  3. par ليلى

    هام للجميع
    عليكم قراءة معانات شباب و شابات وكيف تخلصوا منها
    بسبب السعادة التي يعيشونها ينقلون لكم تجاربهم لتجدون السعادة و تسعدون بتجاربكم الآخرين… و هكذا ….
    زوروا موقع قوقل
    ابحثوا عن
    الصحفي عبد الله عمر نجم