Des limites de l’analyse de l’émotion – Hopes&Fears

Dans son livre, Le contrôle social de la technologie (1980), le philosophe David Collingridge résumait assez bien le dilemme de la maîtrise des technologies. Lorsqu’on imagine et développe une nouvelle technologie, nul ne connaît ses conséquences et ne peut vraiment prévoir son impact. Nous manquons d’information. Lorsque l’on commence à en comprendre les répercussions, il est souvent trop tard pour exercer un contrôle efficace sur sa diffusion. Nous manquons de pouvoir. Un dilemme toujours aussi pertinent aujourd’hui qu’hier, rappelle Elise Thomas dans un article pour Hopes&Fears sur l’informatique émotionnelle (voir notre article de 2011). 

La capacité de nos machines à analyser notre état émotionnel et à y répondre (donc à pouvoir aussi le manipuler) promet des applications aussi éblouissantes qu’intimidantes, rappelle la journaliste en retraçant l’évolution de ce secteur de recherche et des différentes startups qui se partagent ce marché. Etica, le programme de recherche sur les enjeux éthiques des applications émergentes des TIC, avait souligné que l’informatique émotionnelle posait, comme bien d’autres technologies, des problèmes éthiques. Notamment des erreurs d’interprétation, des atteintes à la vie privée et des risques de manipulation et d’instrumentation.

Mais comment adresser ces problèmes dès à présent ?  

Les travaux de Rosalind Picard, qui est à l’origine de l’informatique émotionnelle, ont souligné dès l’origine le rôle des émotions dans la prise de décision. Pour elle, la capacité des machines à reconnaître et répondre à nos émotions est la clef de l’amélioration de l’intelligence de nos machines. Bien sûr, le monde du marketing est le domaine le plus intéressé par ces recherches. L’enjeu pour le marketing consiste à être capable de créer des messages publicitaires individualisés en masse selon nos réponses émotionnelles. 

Elise Thomas a testé les logiciels d’analyse émotionnel. Pour elle aussi, le fait que la machine ne connaisse pas le contexte de l’utilisateur est une porte ouverte à la démultiplication des erreurs d’interprétations. Qui portera la responsabilité des réponses émotionnelles inadaptées de nos machines ? Y’aura-t-il des limites aux réponses émotionnelles apportées selon le niveau de détresse émotionnel des gens ? L’informatique émotionnelle a le potentiel d’affecter intimement les rouages de la société et de façonner la vie des individus, explique encore la journaliste. Son caractère très invasif nécessite que les utilisateurs soient très informés de ses possibilités. Affectiva et le Media Lab du MIT avaient lors d’une étude de 2013 utilisé des webcams pour tenter de cerner les intentions de vote d’utilisateurs regardant des débats politiques, leur permettant de prédire leurs préférences politiques à partir de leurs expressions faciales avec une précision de 73 %. Une façon de souligner les limites de l’informatique émotionnelle appliquée. “Le même programme utilisé pour analyser les réponses à la publicité pourrait aussi être utilisé pour surveiller les visages des gens devant des films politiques et identifier des dissidents potentiels”. Pour Drew Mitnick du collectif pour les libertés numériques Access, la collecte de ce type de données devrait être bien plus encadrée qu’elle ne l’est. Ne nous laissons pas prendre au piège du dilemme de Collingridge : initions un dialogue précoce sur son encadrement pour non pas devenir dépendants des technologies que nous allons avoir, mais pour rester maître du type de société que nous voulons avoir.   

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *