L’internet des émotions : comment réintroduire nos personnalités dans la personnalisation ?- Mashable

Sur Mashable, John C. Havens (@johnchavens), auteur de Heartificial Intelligence : embracing our humanity to maximise machines, nous explique que l’avenir de la connectivité est l’analyse et la manipulation de nos émotions. Nos objets connectés, via leurs capteurs, via la reconnaissance faciale ou l’analyse de l’émotion, vont mesurer nos sentiments pour les influencer. Le problème est que cet “internet des émotions” n’a pas de normes éthiques. Qui décide des normes qui vont demain commander notre vie émotionnelle ? Qui jugera si les dispositifs sont “positifs” pour les utilisateurs ? 

Pour John C. Havens, cela implique la nécessité d’étendre la notion de “populations vulnérables”. Nos machines nous connaissent déjà mieux que nous mêmes et ces données, combinées à l’analyse émotionnelle, nous seront demain renvoyées pour nous manipuler. Si l’analyse de l’émotion est construite par devers nous, ces technologies nous rendront tous plus vulnérables que nous le sommes. 

Pour l’éthicien Wendell Wallach, du Centre interdisciplinaire de la bioéthique de l’université de Yale, auteur de A dangerous master : how to keep technology from slipping beyond ou control, l’encadrement de l’émotion n’est pas encore très subtile. Les dispositifs auront du mal à décoder notre intelligence émotionnelle tant qu’ils n’expérimenteront pas eux-même des émotions. Reste qu’ils sont déjà très forts pour reconnaître nos expressions et pour simuler l’empathie pour générer une réponse positive de notre part.  

Pour le journaliste du New York Times, John Markoff, qui vient de publier Machines of loving grace : the quest for common ground between humans and robots, ces machines vont nous permettre de comprendre nos comportements comme nous ne les avons jamais compris. L’enjeu, estime Havens, pour nous, est d’être à la fois mieux conscients de nos propres biais et conscients des effets que ces machines cherchent à avoir sur nous. “Lorsqu’elle est plus transparente, les bénéfices de l’informatique affective, peuvent nous aider à améliorer l’empathie des humains les uns entre les autres”. Pour la futurologue Heather Schlegel, de la même manière que nos téléphones ont amélioré notre intelligence, les dispositifs qui vont discerner nos comportements devraient nous aider à mieux les comprendre. 

Reste bien sûr que la question de confiance est au coeur de ces dispositifs. Ces systèmes affectifs doivent être transparents sur leurs raisonnements, estime Rob High, l’un des responsables de Watson d’IBM. Pour Michelle Finneran Dennedy, responsable de la vie privée chez Cisco et auteur du Manifeste de la confidentialité de l’ingénieur, l’enjeu est de permettre aux gens de contrôler cette intelligence émotionnelle embarquée. Plutôt que ces systèmes soient conçus par les entreprises pour leurs propres services, chacun devrait pouvoir modifier, adapter, personnaliser ces systèmes pour les construire pour soi. Cette nouvelle étape de la personnalisation qui s’annonce nécessite non seulement que les utilisateurs contrôlent les données, mais qu’ils contrôlent les services. 

Pour Scott Smith, fondateur de la société de conseil Changeist et initiateur du projet Thingclash (un projet qui souhaite remettre des valeurs humaines dans l’internet des objets), les produits de l’internet des objets sont conçus pour effectuer des tâches fonctionnelles. La plupart du temps, ils sont bien intentionnés à notre égard. Mais ils déterminent nos intérêts par défauts, sans qu’on ait exprimé, réellement, concrètement, nos désirs et nos émotions subjectives. C’est en cela qu’ils nous rendent vulnérables. Or notre bien-être repose sur le contrôle, et c’est encore plus vrai de ce qui concerne notre vie affective et émotionnelle. “Nous devons permettre aux individus de s’exprimer avec clarté dans l’internet des émotions”

Les bonnes intentions des technologies ne suffisent pas, explique Natalie Kane sur le blog de Thingclash (@thingclash). Le solutionnisme technologique ne nous dit rien d’autre que ce qui nous est montré et surtout, ne nous dit pas comment gérer ce type d’objet, socialement. Comme le soulignait la designer Georgina Voss à la conférence Thingscon 2015 en parlant d’objets sensibles (vidéo), la honte et la stigmatisation se construisent socialement et un objet tel qu’il est conçu n’a rien à voir avec un objet tel qu’il peut être utilisé. Trop souvent, on pousse la technologie comme une solution, à l’image de l’excellente vidéo de Design-fiction de Superflux (qui rappelle le tout aussi excellent Unfitbit) qui montre comment une personne âgée va détourner des objets connectés conçus pour la surveiller, tel qu’un appareil pour mesurer son sommeil ou une fourchette connectée pour mesurer la qualité de son alimentation. En fait, ces objets montrent surtout à ceux qui les proposent qu’ils ne sont pas de très bons enfants face à la vieillesse de leurs parents. 

L’enjeu n’est pas de ne pas concevoir des technologies altruistes, mais de se poser la question du comment elles vont l’être. Et c’est tout de suite bien plus compliqué !

À lire aussi sur internetactu.net