Un robot piloté par la pensée

le robot piloté par la pensée de Rajesh RaoL’équipe de Rajesh Rao, à l’université de Washington, a réussi à créer une interface permettant le contrôle d’un robot par la pensée. Ce genre de nouvelle n’est plus rare aujourd’hui, mais le travail de Rao présente plusieurs caractéristiques qui méritent qu’on s’y attarde.

Tout d’abord, l’expérimentateur contrôle bien un robot, une machine se déplaçant dans un environnement réel et parfois complexe, et non un programme d’ordinateur, ou un petit appareil simple comme un train électrique. Ensuite, l’interfaçage se fait par une technologie relativement ancienne, mais également bon marché et surtout non invasive (pas d’électrodes plantées dans le crâne), l’électroencéphalogramme ou le repérage des ondes cérébrales (EEG) : on ne recourt pas à l’IRM ou à la topographie optique dans cette installation.

Mais contrairement aux méthodes plus récentes, l’EEG ne permet qu’une analyse superficielle du cerveau, et de plus contrôler ses ondes n’est pas une sinécure : cela exige une concentration mentale importante.

« L’un des points importants de cette démonstration, explique Rao, est que nous utilisons un signal « bruité » pour contrôler le robot. La technique utilisée pour récupérer les signaux cérébraux est non-invasive, mais cela implique que nous ne pouvons obtenir ces signaux qu’indirectement, à l’aide de capteurs situés à la surface de la tête, et non là où ils sont générés, dans les profondeurs du cerveau. La conséquence en est que l’utilisateur peut seulement utiliser des commandes de haut niveau, telles qu’indiquer quel objet prendre ou vers quel endroit aller, et le robot doit être assez autonome pour exécuter la tâche. »

Autrement dit, on a affaire à une espèce de double intelligence, de cyborg virtuel. L’utilisateur est la conscience de la machine, et lui donne des ordres très généraux. Au robot d’utiliser ses propres facultés pour gérer les détails. Ce n’est pas si loin de notre propre mode de pensée. Si je décide de me rendre dans la cuisine ouvrir le réfrigérateur, je n’ai qu’à me formuler cette demande, l’ensemble des étapes à franchir pour arriver à ce résultat étant effectivement délégué à des modules semi-conscients qu’on pourrait qualifier de « mécaniques » !

Pour sélectionner un objet le système utilise, en plus de l’EEG traditionnel, l’onde « P300 » qui se manifeste dans le cerveau lorsque nous sommes surpris : l’utilisateur voit une série d’objets s’allumer les uns après les autres sur un écran, et lorsque celui qu’il souhaite manipuler est mis en surbrillance, une onde P300 est automatiquement et inconsciemment produite, ce qui effectue la sélection. (Voir « le contrôle par la pensée, interface ultime » pour plus de détails sur la P300).

Une vidéo (.avi), nous montre tout le processus, incluant le déplacement du robot et le choix d’un objet.

À lire aussi sur internetactu.net

2 commentaires

  1. j’ai pas compris vraiment le procedure

    vous utilisez l’onde P300 pour la command mais les détille sur les méthodes utilisées reste insufisente .

    svp parllez nous sur les métodes de traitement de signal et de classification

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *