Interfaces cerveau-machines : défis et promesses

Les BCI (Brain Computer Interfaces ou interfaces neuronales directes) vont elles se généraliser ? Pour quelles applications ? C’est la question que se sont posée divers spécialistes dans un papier publié dans ArXiv (.pdf) réalisé pour la branche neuroscience des laboratoires de recherche de l’armée américaine.

De la médecine au grand public

On le sait, la plupart des interfaces cerveau-machine ont tout d’abord été conçues dans un objectif médical, pour permettre à des patients atteints de paralysie partielle ou totale de communiquer avec leurs prothèses ou leur entourage. Depuis, on essaie de les adapter au grand public. Pourtant soulignent les auteurs, cette transition n’est pas aisée. En effet, la plupart de ces interfaces sont orientées vers une tâche particulière et une seule. De plus, les signaux exploités proviennent surtout du cortex, alors que c’est plutôt la connexion entre les muscles et le cerveau qui est employée par les sujets non handicapés. De fait, ces BCI « médicales » sont largement moins efficaces que les méthodes utilisées par les personnes en bonne santé : faire bouger une main mécanique depuis les signaux du cortex demande un temps d’adaptation assez long et se révèle finalement bien moins précis que ce que nous sommes tous capables de faire. Pour migrer vers le grand public, les interfaces cerveau machines devront donc apprendre dépasser ces limitations.

Le modèle issu de la recherche médicale se concentre essentiellement sur les BCI « associées à une tâche ». Autrement dit, on demande à son cerveau de se concentrer sur une action précise à accomplir et l’interface se contente de transmettre un ordre à une machine. Ce qui signifie qu’à court terme, prédisent les auteurs, la plupart des applications impliquant les BCI resteront orientées vers une seule et unique tâche.

Pourtant, à l’avenir, les BCI devraient endosser un rôle beaucoup plus riche. Mais il faudra que les interfaces deviennent suffisamment portables et accessibles pour s’intégrer de manière permanente à la vie quotidienne de leurs utilisateurs. On assistera alors à l’apparition de BCI « opportunistes » qui tiendront constamment compte de l’état nerveux de leur possesseur et adapteront l’environnement à ses émotions. Ce seront des « ABCI » (Augmented Brain Computer Interfaces). Contrairement aux systèmes actuels, celles-ci pourront interagir avec l’utilisateur dans le cours de sa vie quotidienne. L’exemple donné, assez classique, est la modification de l’environnement immédiat afin de réduire le stress (musique, lumière, etc.). Parmi les applications actuelles, citons le fameux Necomimi du japonais Neurowear, ces oreilles de chat placées sur la tête qui se dressent selon votre humeur. Bien entendu, pour l’avenir, on envisage aussi des ABCI médicales, capables de repérer des anomalies dans le fonctionnement cérébral afin de nous conseiller de consulter voire d’appeler un service d’urgence.


Vidéo : vidéo publicitaire des Necomimi.

Encore beaucoup de problèmes à résoudre

Peut-on imaginer les « pouvoirs » de ces futurs appareils ?

Pour l’heure, la recherche sait faire beaucoup de choses. Parmi les exemples cités, les auteurs mentionnent, entre autres, le fait de repérer certains stimuli visuels, comme celui de savoir si l’image traitée est un visage ou un lieu ; de distinguer les performances moteur d’un expert de celle d’un novice ; de repérer les préférences de consommation, la gestion des conflits internes ou le niveau d’effort conscient associé à une tâche… et la liste est beaucoup plus longue ! Malheureusement, les résultats, obtenus dans des conditions de laboratoire très précises, ne sont pas facilement reproductibles dans la vie quotidienne. La plupart de ces travaux se basent, en effet, souvent sur des corrélations établies via l’étude d’un grand nombre de sujets, ou après de multiples essais sur un individu, et supposent des protocoles très précis, ce qui évidemment n’est pas envisageable lors d’un usage quotidien. La solution serait donc de développer des algorithmes complexes de traitement et d’interprétation du signal, autorisant le système à fonctionner dans des conditions moins spécifiques (par exemple en allégeant les contraintes de temps, et en permettant des analyses sur cinq à dix minutes de signal cérébral).

Il faudrait aussi que ces technologies se montrent en mesure de travailler sur de grosses masses de données sur un assez long terme, ce qui exige des utilisateurs une importante durée de personnalisation. Des contraintes qui risquent de retarder l’apparition à court terme de ces ABCI.

Autre perspective d’avenir, le passage des BCI « directes » aux BCI « indirectes ». Les premières reposent sur un contrôle direct du cortex sur un système informatique. Mais on l’a vu, ce n’est pas forcement intéressant. Le cortex ne peut pas tout contrôler aisément, et les interfaces traditionnelles comme la souris sont souvent bien plus précises.

Certaines tâches sont particulièrement difficiles : les auteurs donnent comme exemple un système à quatre bras, exosquelette ou robotique qui implique pour l’utilisateur une forme de multitâche pour les diriger, opération dans laquelle le cerveau est notoirement limité. En revanche, les BCI peuvent gagner à repérer des « activités de haut niveau » comme l’intention et la détection d’erreur, en laissant l’exécution du travail de plus bas niveau aux systèmes informatiques. Ainsi, les auteurs imaginent qu’un robot qui doit ouvrir une porte et en tourner la poignée pourrait proposer plusieurs stratégies à l’utilisateur pour accomplir sa tâche, celui-ci se contentant de « sélectionner la meilleure option » par la pensée. (l’expérience citée dans un précédent article pourrait bien être un exemple de cette méthode. De même, cet autre exemple peut servir à envisager une gestion du multitâche).

Les auteurs se penchent aussi sur deux sujets plus spéculatifs : l’importance des BCI sur la communication et la modification directe du fonctionnement du cerveau.

Les interfaces cerveau machines pourraient notamment être utilisées pour augmenter la qualité du rapport entre l’homme et la machine. La reconnaissance de phénomènes comme l’ennui, le stress, la fatigue, permettrait, entre autres, le développement de « professeurs virtuels » capables de tenir compte des réactions de l’élève. Dans le domaine de la communication interpersonnelle, les auteurs imaginent un système observant les échanges entre les personnes d’un groupe et suggérant des méthodes pour faciliter leur interaction, un peu sur le modèle des systèmes capables d’augmenter notre capacité émotionnelle.

Dans le périmètre de la modification cérébrale, il existe enfin deux pistes. L’une consiste à rester dans la « lecture » des signaux, le système suggérant des méthodes ou des activités pour accéder à un état mental spécifique ou pour le maintenir. C’est une approche déjà bien connue sous le nom de « neurofeedback« , mais qui pourrait connaître un important développement avec les futures interfaces. Par exemple, un logiciel capable de repérer la différence de fonctionnement mental entre un novice ou un expert serait en mesure de suggérer des exercices pour améliorer les compétences du débutant. Un tel dispositif favoriserait aussi la réduction de la dégradation cognitive associée au vieillissement.

Reste la stimulation directe de certaines zones du cerveau, comme la stimulation magnétique ou électrique transcraniale, mais elle pose de multiples problèmes de sécurité et d’éthique.

De toute façon, concluent les auteurs, la modification cérébrale est un univers mal connu et il est aujourd’hui difficile de définir les meilleurs états cérébraux possibles pour un individu donné. Ces facteurs laissent donc à penser que « bien que des BCI susceptibles de modifier le cerveau puissent être utilisées pour améliorer l’entraînement et la rééducation, il est douteux qu’elles révolutionnent ce domaine à court terme. »

Des interfaces pour une informatique ubiquitaire encore à venir

Que retenir de cette étude ? Trois points me semblent importants. Tout d’abord, les interfaces cerveau-machine se développeront dans un environnement adapté qui nécessitera leur existence : celui de l’informatique pervasive, et donc un environnement très largement numérisé.

Ensuite, ces interfaces ne dépendent pas seulement du hardware, mais aussi et peut-être plus encore du software : sans l’élaboration d’algorithmes suffisamment complexes, elles resteront des gadgets ou des outils expérimentaux.

Enfin, le signal cérébral n’est qu’un élément parmi d’autres dans un arsenal de capteurs. Il ne résoudra pas tout tout seul.

Des objectifs certes assez difficiles à atteindre, mais qui constituent en tout cas une feuille de route assez solide.

Les réflexions engagées dans le papier d’ArXiv ne concernent bien sûr que les applications à court et moyen terme. Certains auteurs sont beaucoup plus audacieux et n’hésitent pas à spéculer sur leur avenir lointain. Pour exemple, Dorion Sagan (fils des célèbres Carl Sagan et Lynn Margulis), qui n’hésite pas, dans son livre Up From Dragons, à imaginer la possibilité qu’un jour les enfants, dès leur plus jeune âge, se feront remplacer tout ou partie des os de leur crâne par une version transparente et bourrée de capteurs neuraux, afin de rendre plus immédiate la compréhension de leurs états cérébraux !

Via Next Big Future

Rémi Sussan

À lire aussi sur internetactu.net

2 commentaires

  1. Salut Rémi!

    Quelques mots en vrac, ton sujet me faisant penser à la multitude de recherches aux différentes possibilités d’interfaçage cerveau-environnement…

    La lecture fine des champs EM (Electro-Magnétique) du cerveau est en pleine recherche, et pleine de riches promesses dans de nombreux secteurs… Les méthodologies d’approche sont relativement nombreuses, mais au fond elles convergerons. Notre corps physique (système nerveux non compris) nous aie un réel handicap, aussi merveilleuse que puisse être la machinerie humaine, nous ne vivons pas bien longtemps et nos corps sont que par trop énergivores…

    Un article qui devrait te plaire, et que tu connais peut-être, sur l’approche nanorobots (nanites)…

    http://revel.unice.fr/alliage/index.html?id=3438

    A propos de Bounthavy Suvilay

    Étudiante en doctorat de Littérature Comparée à l’université Sorbonne Nouvelle (Paris III), elle participe à des revues spécialisées dans le manga et le dessin animé japonais depuis 1995. Commissaire d’exposition pour le Festival International de Bande Dessinée en 2007, elle travaille actuellement dans le domaine du jeu vidéo( Ankama Presse & Games

    Pour certaines personnes il est dangereusement intrusif d’utiliser ce genre de technologie, alors que pour d’autres, bien plus conscient des enjeux, de mon avis, c’est l’une des voies royales de nos espoirs (justifiés et réalistes) de délivrance face aux maladies, à la mort, évidemment, et absolument le contraire d’une aliénation que nous pourrions imaginer et qui fait peur à bien des gens… A ce niveau cela dépendra de qui détendra la commande!

    Tu te souviens sûrement de ton petit article de 2008:
    http://www.internetactu.net/2008/03/26/un-cerveau-pour-les-nanorobots/

    En ce moment les approches sont nombreuses entre les non invasives, lecture des ondes cérébrales au-delà de notre boîte crânienne, où seule une intelligence software (parfois harware) arrive à produire quelques prouesses, mais pas que la simple lecture, ces systèmes sont capables d’apprendre pour une meilleure connexion entre les intentions et besoins de nos pensées/envies et le monde environnemental. Les invasives, qui se fondent dans le cerveau même, déjà avec les pulsations EM, nous avons bcp de choses à découvrir encore en ce domaine, mais aussi les nanotechs. Enfin, les fusionnelles, entre vastes promesses et grands dangers plausibles…

    Quoiqu’il en soit, et j’ai réellement survolé à peine le sujet, nous vivons une courses contre la montre dans un monde où la quasi majorité des gens ne connaît à peu près rien de ces réflexions et réelles recherches.

    Comme je le dis à chaque fois que je peux, nous n’avons pas le temps de philosopher sur l’éthique des problèmes liés à notre sujet, ici, simplement parce que nous sommes absolument dans une gestion de crise de l’urgence!

    Aussi parce qu’en temps de survie nous ne pouvons qu’accepter ces technologies (et plus encore), parce que les biohackers (bio black hats), eux, ne prendrons nullement le temps de la réflexion, ils vont foncer pour maîtriser tout ce qu’ils peuvent maîtriser! Ainsi donc les pensées des humains seront leurs champs de méfaits jusqu’au terrorisme…

    Et face à ces inévitables dangers nous ne pouvons répliquer qu’en les prenant de vitesse. Il est impossible d’arrêter ces évolutions et les peureux ne font que ralentir ce bon côté « de la force » dont nous voulons être les représentants quelque part. Et en ce domaine, la peur cherche l’éthique et l’éthique fait ralentir le bon côté des choses dans l’urgence.

    Ceux qui n’auront pas d’éthique du tout ne ralentirons pas, eux. Nous sommes en plein dans un changement non plus simplement générationnel, mais évolutionnaire, et ce changement est bien trop puissant et précipité, véloce, pour nous permettre le temps de trop de réflexions éthiques, nous connaissons la dualité de l’outil/arme et la fragilité de la mentalité humaine…

  2. L’article cité dans le commentaire précédent est intéressant, cependant le reste du commentaire fait froid dans le dos (même s’il n’est rédigé « qu’en vrac’). Une soi-disant course à la recherche, dans un contexte de « crise », de « survie » face à une mondialisation exponentielle, de risque de retard face à d’autres états, acteurs privés (souvent des multinationales) voire des « biohackers », ou tout autre cause (celle qui vous fera plaisir), nous donnerait donc le droit de nous passer d’éthique pour les ‘rattraper’, VRAIMENT ? Quand bien même les comités d’éthique sont parfois longs à répondre, est-ce là un raisonnement digne d’une quelconque ‘science’ ?

    Pour ceux qui me jugeront au travers de ce commentaire, j’anticipe en leur répondant que d’une part je ne me prétends en aucun cas expert dans les domaines que j’évoque, seulement un étudiant, citoyen de ce monde. D’autre part, étant dans le domaine de la santé avec un pied dans la recherche, je suis clairement en faveur des sciences et de ce qu’elles peuvent nous apporter, pour autant je trouve essentiel le fait de pouvoir se demander si l’on a le droit de faire certaines choses ou non, même si on est techniquement capable de les réaliser.

    Les exemples de science sans conscience sont innombrables par le passé (un exemple – quasi trollesque je l’admets mais au combien révélateur – serait le projet Manhattan, dont les recherches compartimentées n’autorisaient qu’une douzaine de personnes parmi les milliers d’ingénieurs, chercheurs et techniciens, à connaître la finalité réelle de leur travail !), ne devrions-nous pas apprendre de nos erreurs avant de risquer d’en commettre de nouvelles ? Où commence la « fragilité de la mentalité humaine » d’après vous ?

    Quant aux interfaces hommes-machine, NBIC (et le mouvement transhumaniste sous-jacent), je ne me prononcerai pas sur le sujet (libre à chacun de se faire une opinion), mais j’aimerais recentrer le débat sur une question essentielle à mes yeux (et de plus en plus effacée, à tous les niveaux d’ailleurs, et pas seulement dans celui des techno-sciences) : qu’est-ce qu’être humain ? Qu’est-ce qui nous définit en tant que tel, quel est le sens de la ‘vie’ quand on le rapporte au genre humain ?

    Il aurait été intéressant de rebondir sur le transhumanisme, ses enjeux et la place que pourrait être celle de l’homme dans le monde de demain, plutôt que de se cantonner aux enjeux « actuels » des recherches.

    Pour ceux que le sujet intéresse et qui l’auraient raté, voici un récent (et je trouve excellent) reportage d’Arte sur ce sujet trouvable à cette adresse : http://www.arte.tv/fr/un-monde-sans-humains/6968786.html

    Ou encore en intégralité ici :
    https://www.youtube.com/watch?feature=player_embedded&v=L8xP6OJVRvY

    Avec ici l’interview de l’auteur du reportage (qui n’est sans doute pas tout à fait objectif, mais qui reste intéressant à lire) :
    http://www.arte.tv/fr/philippe-borrel-les-technologies-numeriques-ont-envahi-notre-quotidien/6973196.html

    Vous trouverez également quelques commentaires constructifs sur ce reportage dans le sujet de reflets.info qui lui est consacré :

    http://reflets.info/transhumanisme-nbic-un-monde-sans-humains/

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *