Quand nos gadgets connaîtront nos émotions

La lecture de la semaine, il s’agit, cela faisait longtemps, du dernier édito de Clive Thompson dans la magazine américain Wired. Il est intitulé : « des gadgets qui savent ce que nous ressentons ».

« Beverly Woolf, commence Thompson, est une chercheuse en informatique qui étudie l’enseignement par ordinateur. Elle crée des logiciels intelligents capables de s’adapter automatiquement à la vitesse d’apprentissage de l’élève. Ces programmes marchent plutôt bien : les enfants qui utilisent ces autotuteurs en math progressent beaucoup plus vite que les autres.

Cependant, il y a un problème : les autotuteurs n’arrivent pas à déceler si l’élève est fatigué ou déçu. Un enseignant normal le perçoit immédiatement et peut intervenir. Woolf a donc décidé de s’attaquer à ce problème en créant un ordinateur qui puisse sentir les émotions de l’élève.

Elle a donc équipé les ordinateurs de détecteurs d’expression capable de suivre le regard de l’élève. Elle a installé des capteurs sur les chaises pour détecter la posture des enfants et a fourni aux élèves des bracelets mesurant la réponse énergétique sur la peau. Si le logiciel d’enseignement identifie une perte d’intérêt chez l’élève, il donne un encouragement, change de problème ou en donne un plus facile, comme le ferait un enseignant humain.

emotiondeseleves
Images : Comprendre l’émotion des élèves avec les autotuteurs du Centre pour la connaissance de la communication de Beverly Woolf. Image extraite d’une des communications de l’auteur.

Et ça marche. Le logiciel arrive dans 80 % des cas à identifier l’émotion des élèves et à la fin d’une leçon de 15 minutes, les utilisateurs de ces autotuteurs sont trois fois plus engagés et concentrés que des enfants qui ont travaillé sur des ordinateurs qui ne sont pas équipés.
« Si un élève est émotionnellement troublé ou s’il est frustré, il n’apprendra pas », explique Woolf. « Si nous voulons donc avoir des tuteurs qui soient performants et intelligents, il faut qu’ils soient capables de percevoir ces états. »”

Bonne idée. Et pourquoi s’arrêter là ? se demande Thompson. Je pense, ajoute-t-il, que tous nos logiciels et tout notre matériel informatique fonctionneraient mieux s’ils comprenaient nos émotions. Il faut une « émo-révolution » high-tech.

Aujourd’hui, les ordinateurs se comportent comme des domestiques limités et maladroits, avides de rendre service, certes, mais échouant par absence de tout sens commun émotionnel. C’est particulièrement notable dans la manière dont le logiciel vous interrompt : vous avez finalement réussi à vous concentrer sur un problème, vous êtes dans le truc et « ding », retentit l’alerte e-mail.

Eric Horvitz, poursuit Thompson, est chercheur chez Microsoft, il a passé des années à développer une Intelligence artificielle qui puisse prévenir cet inconvénient. En observant tout, de votre agenda au bruit ambiant dans votre bureau, le logiciel décide si c’est le moment de vous interrompre. Si vous êtes occupé, il repousse l’alerte à plus tard et attend un nouvel e-mail avant de se décider à faire retentir l’alerte. En ce moment, la technique d’Horvitz fait fonctionner un assistant virtuel en 3D qui est posté à l’extérieur de son bureau et fait savoir aux visiteurs s’il est occupé ou pas.

Un logiciel sensible à l’émotion peut vous faire gagner du temps, il pourrait aussi vous sauver la vie. Clifford Nass, un expert en interaction homme-machine de l’université de Stanford, a créé un véhicule qui analyse les modèles de conduite pour reconnaître quand son conducteur devient trop nerveux au volant. Les conducteurs en colère ont un champ de vision restreint, la voiture le sachant, elle peut compenser en attirant l’attention sur des risques de collision potentielle provenant des côtés.

Des projets comme ceux-ci sont encore dans les laboratoires. Mais ils ne devraient pas y rester longtemps, parce que les gadgets d’aujourd’hui – en particulier les smartphones – sont pleins de technologies qui sont mures pour la détection des émotions : les capteurs de mouvement qui savent si vous êtes en train de courir à toutes jambes ou d’être tranquillement assis, ou le GPS qui peut dire si vous êtes dans votre bureau ou dans un bar.

Evidemment, il n’est pas toujours facile de trouver la manière de répondre aux émotions. C’est même un problème pour beaucoup d’être humains. Mais si on y parvient, je prédis, conclut Clive Thompson, que nous verrons très vite apparaître toute une moisson de nouveaux services : des lecteurs MP3 qui adaptent leur playlist à votre humeur, des téléphones qui retiennent les textos si vous êtes dans une conversation en tête à tête particulièrement intense. Nos ordinateurs sont restés des robots trop longtemps ; il est temps qu’ils s’adoucissent. »

Voilà pour le dernier édito en date de Clive Thompson dans Wired. Au départ, je me suis dit que j’allais vous le lire pour mettre fin à une série de textes assez critiques, je me suis dit qu’il fallait réinsuffler un peu d’optimisme technologique, et dans ce cas, c’est souvent dans Wired qu’on le trouve. Mais au fur et à mesure de la traduction de ce papier de Thompson, l’enthousiasme a laissé place à un léger malaise. Puis un malaise carrément lourd. Car je ne suis pas du tout certain que l’horizon imaginé par Clive Thompson soit désirable. Au fond, je n’aime pas l’idée que nos technologies soient en phase avec nos émotions. Qu’un tuteur automatique sache s’adapter à la capacité de l’attention de l’élève pourquoi pas, mais que mon lecteur MP3 établisse une playlist en fonction de ce qu’il interprète de mon état émotionnel, ou que mon téléphone croie savoir quand il peut me signaler les textos arrivant, je ne suis pas sûr que ce soit souhaitable. Et même, je trouve plus intéressant dans le rapport à la technologie les deux attitudes que sont la volonté (je peux éteindre mon téléphone si je veux être tranquille, je peux choisir moi-même d’écouter Barbara si j’ai envie de pleurer) ou le hasard (un texto arrive quand il arrive, la fonction random du lecteur MP3 choisit des musiques au hasard). Je ne vois pas comment la machine pourrait savoir mieux que moi ce qui est bon pour moi. Parce qu’il ne me semble pas y avoir de corrélation automatique entre un état émotionnel et un désir. La tristesse n’entraîne pas forcément l’envie d’écouter Barbara, ça peut être l’inverse exact. Bref, savoir ce qui est bon pour nous est l’apprentissage d’une vie, je ne vois pas comment la machine pourrait être programmée à la savoir. Sauf à devenir une sorte de parent qui décide pour son enfant en fonction de ce qu’il croit être son bien, et qui décide le plus souvent en fonction de ce qu’il considère comme devant être la norme. Mais là, c’est encore un autre problème.

Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 7 novembre 2010 était consacrée au thème « Vivons-nous vraiment une révolution ? » en compagnie de Dominique Cardon, auteur de La Démocratie internet, parue au Seuil, et de Christophe Deshayes, co-auteur avec Michel Berry des Vrais révolutionnaires du numérique, paru aux éditions Autrement.

À lire aussi sur internetactu.net

0 commentaires

  1. Bonjour,
    J’abonde instinctivement à la perplexité de Xavier de la Porte. Je refuse une informatique prothèse là où mes facultés sont, jusqu’à nouvel ordre, l’expression de ma personne. En y réfléchissant, ce feed-back via des outils – quand bien même je l’aurais paramétré, un peu comme on se lifte sous photoshop -, ce feed-back asservissant ce que débite un MP3 en fonction de mes états-d’âme, ce serait me rendre objet de… moi-même ! Je ne quitterais ainsi plus ce même. Ce serait toujours plus de ce « Moi » ; ce serait Moi-Je se fermant à l’inconnu et au mystère. Un enfermement dont je serais le geôlier…
    Serge Meunier

  2. En même temps on se doute bien que les choses se feront en douceur et pas d’un coup histoire de ne pas effrayer le chaland. Vous et moi. Le système vous proposera tout un tas de curseurs vous permettant d’aller du mode manuel au pilotage automatique. Il sera fait pour s’adapter au mieux à vos besoins et apprendre au mieux de vos actions pour encore mieux s’y adapter, ainsi que mieux vous vendre de la pub évidemment (http://bit.ly/ud5ja). Il vous apprivoisera pour que vous vous livriez à lui et oui, il pourrait vous entretenir dans le plaisir de votre propre compagnie. La question est de savoir jusqu’où ce type de solutions sera ensuite capable de passer à l’étape suivante, celle qui consistera à influencer votre comportement par petites touches afin, par exemple, de vous amener vers des actes d’achat (mais on peut tout envisager ici). Ce n’est pas de la science fiction, toute l’informatique décisionnelle dasn une optique CRM tend vers cela. Elle n’avait comme moyen de ses ambitions pour l’instant que les bons d’achat distribué à la sortie des caisses de supermarchés. Mais avec les smartphones et autres extensions numériques, ces systèmes aboutissant à des recommandations de moins en moins grossières, ont trouvé leur média.

  3. Il me semble qu’essayer de comprendre quand les technologies relationnelles passent de l’acceptable à l’inacceptable serait intéressant. On accepte qu’un système apprenant sache s’adapter au niveau d’attention d’un élève, mais pas qu’il interprète mon niveau émotionnel. Est-ce à dire que si le système détecte les émotions des autres c’est bien, s’il détecte les miennes cela me convient beaucoup moins ? A moins que ce soit plutôt la perception du degré d’émotion ou leur nature qui me gène ? Un système qui surveille mon attention n’a pas la même portée qu’un système qui surveille ma peine…

  4. @Christophe, @Hubert Guillaud
    Pour ma part, je mettais l’accent sur le désir de ne pas borner mon univers. Christophe souligne qu’il y a risque d’emprise de par un marketing allant un cran plus loin que seulement nous satisfaire, mais en nous « pilotant ». De là on va naturellement vers la question soulevée de l’acceptable à l’inacceptable. On peut en effet très bien saisir a postériori que l’inacceptable est advenu et n’avoir pas agi à temps. Quand une démocratie vire au totalitarisme, les gens font le commentaire rétrospectif qu’ils auraient pu voir venir, mais ils n’ont pas pas pu, pas voulu, pas eu le courage. Ici toutefois, il s’agit d’éducation et ça ne sera pas sans regards critiques…

  5. Enjoy Yojen,
    C’est le site d’échange d’émotions. Partager, commenter textes, images, liens vers vos musiques et videos préférées sur http://yojen.com/
    Et si notre réseau social se construisait sur la base de nos émotions… humainement.

  6. @Yojen
    Bjr, à mon avis vous avez dit beaucoup concernant les émotions : elles sont probablement plus ce qui nous relie à autrui que ce qui nous enferme en nous-mêmes. Maintenant on parle bien d’émotion et pas de conscience : je ne fais pas affront à Socrate…

  7. Une question particulièrement troublante est celle des conséquences sur notre psychisme. L’exemple des élèves est particulièrement perturbant: si la machine s’adapte aux moindres émotions des élèves, comment les élèves pourraient-ils apprendre à s’adapter à un professeur humain? Ou à n’importe quelle difficulté demandant un effort d’écoute et de communication? Avec les gadgets modernes, notre psychisme a déjà pris un sacré coup (taylorisme de la pensée multitâches, difficultés de concentration accrues, tendance à zapper)…

    La facilité qu’offrira une adaptation des machines à nos émotions va probablement augmenter notre addiction aux technologies: stimulus ==> satisfaction immédiate sans effort ==> recherche de d’avantage de satisfaction immédiate. L’addiction serait-elle le moyen de contrôle et d’asservissement le plus redoutable au monde?

    Si je déroule encore le fil…
    Tout un tas de marchés se sont développées pour palier aux éléments déshumanisant de la vie moderne. Faire des cours de yoga pour ré-apprendre à se concentrer et se vider de notre stress, s’inscrire à des salles de sport pour ré-équilibrer un corps ramolli par des heures passées devant l’ordinateur. Je me souviens d’un article ahurissant paru dans Courrier International, où un Saoudien expliquait qu’il fallait d’avantage de salles de sport pour les Saoudiennes, ces dernières n’ayant aucun autre sport que marcher un peu sur le trottoir en bas de chez elles et devenant obèses… ou comment « patcher » la vie inhumaine de ces femmes. Y aura-t-il des « patchs » pour répondre aux addictions accrues aux technologies, aux capacités encore amoindries d’adaptation aux autres? Ou les gens seront-ils finalement heureux de ne plus avoir à faire ce genre d’effort?