Sommes-nous encore autonomes ?

A l’heure où l’électronique s’intègre dans presque n’importe quel objet (des voitures aux appareils électroménagers, aux vêtements que nous portons…) et se connectent sans fil sur le web, nous entrons dans l’ère de l’internet des objets, explique l’éditorialiste Christine Rosen pour The New Republic. Un monde où nos interactions quotidiennes avec les objets du quotidien laissent une trace de données, de la même manière que le font déjà nos activités en ligne. « Avec l’internet des objets, nous sommes toujours (et souvent sans le savoir) connectés à l’internet, ce qui apporte des avantages évidents en terme d’efficacité et de personnalisation. Mais cela accorde également aux technologies de nouveaux pouvoirs, pour nous persuader ou nous obliger à nous comporter de certaines façons. »

« La pratique de la technologie est toujours en avance sur la théorie, c’est pourquoi nos points de référence culturels en la matière proviennent plus de la science-fiction que de la philosophie », estime la journaliste. C’est peut-être pourquoi nous sommes dans une illusion persistante sur la neutralité de la technologie. « Si l’on en croit ce raisonnement, nos iPhone et les pages Facebook ne sont pas le problème, le problème est de savoir comment nous choisissons de les utiliser. Si l’on suit cette perspective, nous serions toujours autonomes, libres de mettre de côté nos technologies et de nous livrer à un Sabbat numérique chaque fois que nous le choisissons ». Poutant, comme l’explique le philosophe hollandais Peter-Paul Verbeek (@ppverbeek) dans son dernier livre – Moraliser la technologie : comprendre et concevoir la moralité des objets -, ce n’est déjà plus le cas.

A qui devons-nous attribuer la responsabilité de nos actions ?

Les technologies peuvent ne pas avoir d’esprit ou de conscience, affirme Verbeek, mais elles sont loin d’être neutres. Elles nous « aident à façonner notre existence et les décisions morales que nous prenons, ce qui leur donne indéniablement une dimension morale ». A l’heure où de plus en plus de nos activités sont médiées par la technologie, à qui devons attribuer la responsabilité de nos actions ?

S’appuyant sur les théoriciens de la technologie comme Don Ihde (Wikipédia) et Bruno Latour, ainsi que sur les travaux de Michel Foucault, Verbeek propose une approche « postphénoménologique » qui reconnaît que nos actions morales et nos décisions sont devenues une affaire conjointe entre les humains et les technologies. L’échographie par exemple, explique Christine Rosen, a transformé notre expérience de l’enfant à naître. Conçue pour améliorer notre connaissance médicale, l’échographie a généré involontairement de graves dilemmes moraux. «  »Cette technologie n’est pas simplement un moyen fonctionnel pour rendre visible un enfant à naître », affirme Verbeek, « elle contribue activement à façonner la manière dont l’enfant à naître nous est humainement connu. » Cette expérience est à la fois d’une grande transparence et d’une grande abstraction. Nous voyons l’enfant comme quelque chose de distinct de sa mère : le ventre devient un « environnement ». »

La technologie modifie fondamentalement non seulement ce que nous voyons, mais aussi la qualité et la quantité des choix qui nous sont proposés. Dans le cas d’une interruption de grossesse par exemple, la technologie joue un rôle actif dans les questions morales et fixe désormais le cadre pour y répondre. Comme demain le décodage par la technologie des signaux non verbaux dont nous ne sommes pas nécessairement conscients, transformera le cadre par lequel nous comprenons le monde.

Nos machines exercent-elles un contrôle sur notre libre arbitre ?

« Que nos machines puissent exercer un contrôle sur notre prise de décision morale est une idée impopulaire. Nous aimons nous considérer comme capables d’exercer notre autonomie sur les choses que nous créons et les actions que nous entreprenons. » Nous voudrions bien pouvoir continuer à nous accrocher à ce principe des Lumières, mais à une époque où les technologies sont aussi omniprésentes et puissantes que les nôtres, nous devons déplacer la source de la morale, estime Rosen à la suite de Verbeek. La raison humaine n’en est plus la seule origine. Dans son livre, Signaux honnêtes, Alex Pentland affirmait déjà : « Nous ne ressemblons plus aux êtres idéalisés, aux êtres rationnels imaginés par les philosophes des Lumières. L’idée que notre conscience, que la pensée individuelle est le facteur déterminant de notre comportement peut désormais être considérée aussi folle que la vanité qui nous plaçait avant au centre de l’univers. »

En 1997, BJ Fogg (@bjfogg) a inauguré à l’université de Stanford le Laboratoire des technologies persuasives, qui peuvent être vues comme un des modèles de la « moralité des objets ». Les technologies persuasives prennent aujourd’hui sans cesse de nouvelles formes : applications de téléphones mobiles, podomètres sophistiqués qui utilisent des stratégies familières (comme les simulations ou le « renforcement positif ») pour nous permettre d’atteindre leurs objectifs. Le conditionnement opérant (qui utilise la technique du renforcement positif pour modifier nos comportements) se manifeste dans nombre de techniques de micropersuasion utilisées par des sites comme Amazon ou eBay ou les classements encouragent un sentiment de confiance entre utilisateurs, où la personnalisation vous accueille par votre nom, où nombre de fonctions vous incite et vous persuade à revenir. Ces technologies savent également prendre des formes moins subtiles et peuvent agir comme des dispositifs de surveillance efficaces, à l’image d’HyGenius un dispositif pour surveiller si vos employés (notamment dans la restauration ou dans les services de santé) se lavent bien les mains.

captologybjfrog
Image : BJ Frog présente la « captologie » à la conférence Meet The Media Guru en 2009.

Les technologies persuasives sont plus efficaces, car elles sont persistantes, permettent de gérer de grands volumes d’information et ont une mémoire, estime Christine Rosen. Une journaliste du Boston Magazine qui a utilisé un smartphone pour perdre du poids écrivait ainsi que son téléphone « est devenu un entraîneur, un coach de vie, et mon confident. Il sait maintenant ce que je mange, comment je dors, combien je dépense, combien je pèse et combien de calories je brûle (ou pas) à la salle de gym chaque jour ».

« La littérature des technologies persuasives utilise autant le langage de la séduction que celui de la persuasion. Ces technologies tentent activement de provoquer en nous une réaction émotionnelle ou comportementale, qui peuvent être une expérience riche pour les personnes qui ont besoin de motivation ou d’encouragement. Mais ces technologies dont l’objectif déclaré est la persuasion interpersonnelle soulèvent également d’importantes questions relatives à la vie privée et à l’autonomie », rappelle Christine Rosen.

« Pour comprendre ces défis, Verbeek nous invite à nous tourner vers la conception et l’ingénierie des objets technologiques eux-mêmes. Comme l’architecture du code a joué dans la création d’internet pour Lawrence Lessig, Verbeek estime que tous les utilisateurs doivent être plus engagés dans la lutte contre la façon dont ces technologies sont conçues et utilisées. »

Mais Verbeek n’explique pas comment, regrette Rosen. A quoi pourraient ressembler des technologies développées démocratiquement ? Les utilisateurs mesurent-ils bien l’impact que de nombreuses technologies ont sur eux ? Peut-on « cofaçonner » un environnement conçu par d’autres justement pour vous empêcher de l’influencer ? Et ce, alors qu’il devient de plus en plus difficile de refuser certaines technologies, nous ne pouvons plus toujours décider de nous retirer de ces environnements. Comment un travailleur d’un service alimentaire ou médical peut-il « cofaçonner » quelque chose quand son employeur lui délivre un badge qui permet de mesurer le nombre de minutes qu’il a passées à se laver les mains ? Les fabricants de ces technologies sont-ils intéressés aux conséquences morales et psychologiques de leurs créations ?

Sommes-nous conscients de la mesure de soi ?

Verbeek exhorte également les concepteurs de ces technologies à réfléchir sur les conséquences prévues et imprévues qui sont susceptibles de résulter de l’utilisation de leurs créations. « Mais comment les techniciens qui fabriquent ces objets pourraient-ils être motivés à construire des garde-fous éthiques ou à céder le contrôle aux utilisateurs, comme les y encourage Verbeek, alors qu’ils ont jusqu’à présent montré bien peu d’intérêt pour les conséquences involontaires de leurs créations ? », interroge Christine Rosen, qui estime que la tension est de savoir si l’on veut rendre ces technologies moins ou plus transparentes…

Un contributeur à l’ouvrage le Nouveau quotidien, un livre sur l’intelligence ambiante, appelle ces technologies de la persuasion les « technologies de dématérialisation » et affirme : « C’est sûrement plus proche de ce que nous voulons : la connaissance, l’excitation, le divertissement, l’éducation, la productivité, le contrat social – sans l’importune proéminence de la technologie qui les délivre. » Comme le partage sans friction de Facebook, les technologies persuasives seront plus convaincantes lorsque nous ne réaliserons pas que nous les utilisons. Comme la technologie est reléguée au second plan, il en va de même de notre volonté de les questionner. « Moins ces technologies ressemblent à des biens ordinaires, plus elles sont à l’abri de tout examen. »

Les préoccupations de Verbeek sur la moralité des choses font partie d’un plus vaste débat sur notre libre arbitre à une époque où les découvertes scientifiques et technologiques prétendent offrir de nouvelles perspectives, estime Christine Rosen. « On nous dit que nos gènes nous déterminent, que notre cerveau nous contrôle, que les vestiges de notre biologie évolutionniste nous induisent en erreur. « Comment définissons-nous la responsabilité morale quand les neuroscientifiques affirment que notre inconscient est le principal moteur de notre comportement et que les ingénieurs en logiciel nous rappellent que leurs algorithmes sont supérieurs à notre intuition ? » » Dans ce contexte, la conscience de soi semble mieux assurée par l’analyse de données. La magie informatique paraît une meilleure réponse que la contemplation et l’introspection.

Les données seront-elles notre nouvelle conscience ?

« La technologie a aidé l’homme à contrôler son environnement naturel. Maintenant, elle est la « nature humaine » à laquelle les technologues, en toute confiance, proposent de nous soumettre. Comme le déclare le site web du laboratoire des technologies persuasives de Stanford : « Notre objectif est d’expliquer clairement la nature humaine et de cartographier les connaissances sur les nouvelles possibilités de la technologie. » »

« En fait, ces nouvelles technologies séduisent souvent en invoquant quelque chose de beaucoup plus banal : le langage de l’auto-amélioration. C’est peut-être la raison pour laquelle, nous n’avons pas à ce jour, discuté publiquement et sérieusement de leurs conséquences, comme nous l’avons fait sur l’énergie nucléaire. Les technologies actuelles semblent trop banales. Elles semblent plus susceptibles d’améliorer que de bouleverser nos vies et la plupart d’entre elles ne sont pas radicalement utopiques sur la façon dont leur utilisation va transformer ce que signifie l’être humain. Leur objectif comme le décrit Pentland est la création de sociétés sensibles basées sur l’analyse rationnelle des données. Et c’est un message plus attrayant et rassurant qu’effrayant. »

« Nos technologies nous aident à apprivoiser nos appétits pour les calories ou les dépenses excessives en agissant comme une sorte de conscience externe. Comme Ulysse lui-même s’arrimant au mât de son navire pour éviter le chant des sirènes, ces nouveaux programmes et dispositifs visent à contrecarrer nos désirs turbulents. Ils le font non par le renforcement de notre capacité d’auto-contrôle, mais par son externalisation. Pourquoi méticuleusement compter les points Weight Watchers d’un régime quand vous pourriez, dans un avenir proche, programmer votre « maison intelligente » pour verrouiller le réfrigérateur et le garde-manger pour éviter le grignotage de fin de soirée ? »

« Les technologies persuasives et l’intelligence ambiante promettent un monde où le contrôle sera plus efficacement externalisé. Ginger.io est une application pour smartphone qui déclenche une alerte quand il remarque que vous êtes restés à la maison plusieurs jours d’affilés où que votre activité d’échange en ligne a baissé, en envoyant à votre médecin, à des proches ou à vous mêmes un message pour vous prévenir des premiers signes de la dépression. »

« Il est un fait évident, mais rarement mentionné que l’attribution de l’intelligence dans ces scénarios est toujours le fait des technologies et non des personnes qui les utilisent. Contrairement à nous, ils sont susceptibles de devenir « plus intelligents » avec le temps. Les simulacres algorithmiques de l’empathie humaine sont l’avenir. En fin de compte, le but des créateurs de l’intelligence ambiante, des technologies de persuasion et de l’internet des objets n’est pas seulement de les rendre plus sensibles au contexte, de s’y adapter, de nous offrir des réponses personnalisées en temps réel, mais de deviner nos besoins futurs (voir La capacité prédictive de nos systèmes sociotechniques va-t-elle tuer notre libre arbitre ?). Comme un collaborateur du Nouveau Quotidien le note, finalement ces technologies visent à « anticiper vos désirs sans médiation consciente ». C’est le summum de l’efficacité : voir ses besoins et désirs prévus et les vicissitudes de futures possibles expériences contrôlées. »

Notre jugement est-il déjà façonné par les algorithmes ?

« Les philosophes doivent-ils suivre cette vision ? », s’interroge Christine Rosen. « Les êtres humains sont les produits de la technologie tout comme la technologie est un produit des êtres humains », écrit Verbeek. « Les promoteurs de l’intelligence ambiante et des technologies persuasives souhaitent identifier, quantifier et tracer tout ce qui concerne l’expérience ordinaire dans l’espoir d’améliorer la vie des gens », souligne Christine Rosen. Mais en externalisant tant d’aspects de notre vie quotidienne à la technologie, nous faisons un choix moral. Nous remplaçons le jugement humain par des algorithmes programmés qui appliquent leurs propres normes et les normes de notre comportement, habituellement dans le but d’une plus grande efficacité, d’une plus grande productivité et d’une vie plus saine. »

« Mais en révélant comment fonctionne la machine humaine, ces technologies sapent une qualité humaine cruciale (même si elle est souvent décriée) : la tromperie de soi », estime Christine Rosen. « Bien sûr, la tromperie de soi est inefficace. Elle pose des problèmes – ce qui explique pourquoi les technologues voudraient la remplacer par l’apparente honnêteté des données, qui, une fois traitées, promettent de nous connaître mieux que nous-mêmes. Mais être humain est une affaire compliquée. Faire preuve de jugement et de maîtrise de soi, apprendre les normes sociales complexes qui signalent un comportement acceptable sont aussi les choses qui nous rendent humains. Nous ne devrions pas avoir besoin ou envie de compter sur un capteur pour le faire pour nous. Les hypocrisies quotidiennes et les compromis qui rendent la vie supportable (même s’ils ne sont pas toujours honnêtes) sont précisément ce que l’intelligence ambiante et les technologies persuasives espèrent éliminer. Le droit de ne pas savoir certaines choses (comme c’est le cas des tests génétiques, du droit à l’oubli…) est aussi d’une importance cruciale (si ce n’est plus) à notre époque que la poursuite vorace d’information et de transparence. »

En « améliorant » qu’allons-nous perturber ?

« Or, Verbeek est d’accord avec les technologues pour dire que la tromperie de soi est intéressante à contrôler ou à éliminer ». Ce qui n’est pas si sûr, estime Christine Rosen. « Il ne s’intéresse pas non plus à une question plus large : est-ce parce que nous pouvons faire quelque chose que nous devrions le faire ? Si quelque chose est possible, est-elle pour autant souhaitable ? Dans The Demon Forlorn, le poète Allen Tate déclare : « Nous ne pouvons plus demander « est-ce juste ? ». Nous demandons : « est-ce que cela fonctionne ? » »

« Dans notre engagement avec la technologie, nous devrions passer plus de temps à répondre à la première question, alors que nous vivons des vies toujours plus médiatées qui nous demandent sans relâche une réponse à la seconde », conclut Christine Rosen.

La technologie doit-elle nous aider à mieux comprendre les relations interpersonnelles ? Doit-elle nous aider à les « améliorer » ? Et en les améliorant, qu’allons-nous perturber ? Si demain nous sommes plus conscients des signaux non verbaux que nous échangeons de manière souvent inconsciente, qu’est-ce que cela va modifier dans nos interactions sociales ? Cela va-t-il juste « améliorer l’efficacité de nos échanges » ? Changer nos relations sociales ? En s’immisçant toujours plus intimement, les technologies se proposent de changer notre rapport aux autres et à nous-mêmes… Sauf qu’on a tendance à ne vouloir en voir que le côté positif, pas les dégâts que ces changements vont produire.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Algorithmes, données, computation,… tout cela n’est pas simple.

    Qualifier une personne de calculateur n’est pas un compliment. En aucun cas nous ne ferrions confiance à une telle personne Pourquoi la technologie changerait-elle cela ?

  2. Mais le débat n’est pas seulement moral ; il est aussi politique. C’est à nouveau la difficile question de savoir comment il serait possible de mettre les évolutions technologiques dans la discussion collective. Les fronts technologiques sont tellement nombreux et complexes qu’il va falloir sacrément réfléchir pour pouvoir trouver les dispositifs adéquats et opératoires.

  3. Bon à toutes ces spéculations sur des usages non encore advenus – l’internet des objets est-il pratiqué à ce jour – il peut être utile de rappeler que l’ethnographie des usages actuels des technologies de communication documente aujourd’hui plutôt une relation de compagnonnage en quête de contrôle pour rester autonome que d’abandon à des machines pensant ou calculant pour nous…la perspective morale condamne l’abandon l’usage ordinaire le combat…

  4. Il y a quelques années lorsque je voyais une personne en panne sur le bas côté de la route, la plupart du temps, je m’arrêtais. Désormais, c’est l’exception je pense qu’elle a un portable et d’ailleurs mon comportement semblerait suspect. Non ?

    J’ai donc abandonné quelque chose de ma conscience au système !

  5. La conception même des outils (qu’ils soient technologiques ou autres) projette en soi un usage qui est inscrit dans l’outil (voire l’excellent livre de Don Norman: The design of everyday things) et dans ce sens, le design des objets a toujours participé de l’action humaine avec une certaine responsabilité éthique, bien avant qu’on parle même de design persuasif où la dimension de motivation s’imbrique dans l’intention de conception – pour le meilleur ou pour le pire comme B.J Fogg le souligne lui-même dans ses articles de recherche à titre de mise en garde relative à sa notion de ‘captology’,