Design de nos vulnérabilités : la Silicon Valley est-elle à la recherche d’une conscience ?

En juin dernier, nous avions longuement rendu compte des propos du designer Tristan Harris (@tristanharris). Bianca Bosker pour The Atlantic l’a récemment rencontré à une soirée de désintoxication numérique à San Francisco, Unplug SF, organisé par le collectif Digital Detox. Une soirée qui montre bien que face à nos outils, nous n’avons pas vraiment le choix : soit nous devons subir les sollicitations insatiables de ceux-ci, soit complètement nous en déconnecter. Ce choix du tout ou rien, ce choix qui n’en est pas un, est pour Harris un échec de conception.

Addiction : comment organiser la résistance ?

Pour Bosker, Harris est en passe de devenir la conscience de la Silicon Valley. Une espèce de Jiminy Cricket, qui travaille à rappeler à ceux qui conçoivent nos logiciels qu’ils ne peuvent pas faire l’économie d’une morale… Que nous faire passer plus de temps, nous rendre accros et dépendants ne peut être une fin en soi. Ils doivent nous aider à nous déprendre des dispositifs qu’ils imaginent. Pour lui, nos faiblesses cognitives ne sont pas les raisons de notre addiction. Nos faiblesses personnelles et individuelles, notre manque de volonté ne sont pas en cause. Notre absence de maîtrise de soi ne relève pas de nos responsabilités quand, de l’autre côté de l’écran des milliers de personnes travaillent à nous faire perdre pied. Via son groupe de travail autour du Manifeste du temps bien employé, Harris veut promouvoir un label, une sorte de « serment d’Hippocrate pour les designers », promouvant de nouvelles normes de conception qui ne soient pas basées sur l’exploitation de la dépendance des utilisateurs.

time-well-spent

Pour son comparse, le designer Joe Edelman (@edelwax), fondateur de Livable.media (une association en forme de manifeste puisqu’elle prône le développement de « médias vivables »), l’industrie de la technologie ressemble à celle des cigarettiers : offrir aux clients plus qu’ils ne veulent, malgré les dommages collatéraux que cela provoque.

Chez Google, Harris était chargé d’améliorer la boîte de réception de Gmail. Mais pour lui, l’enjeu n’était pas le bon. Il n’était pas tant d’améliorer Gmail, que de se demander comment l’e-mail pourrait améliorer nos vies. Il a alors rédigé pour Google un appel pour minimiser la distraction et respecter l’attention des utilisateurs, qui a ouvert une discussion dans l’entreprise, mais qui semble s’être heurtée à une certaine inertie. C’est ce qui l’a conduit à quitter Google et à lancer son Manifeste, qui a touché de nombreuses personnalités, comme Scott Heiferman, le PDG de Meetup ou Justin Rosenstein, l’un de ceux qui aurait inventé le bouton like de Facebook. Reste que pour l’instant, ce groupe de travail semble tenir plus de l’intention que d’une organisation structurée et financée… Preuve qu’il n’est pas si simple de faire bouger les lignes.

Harris partage quelque chose avec les participants de Unplug SF, estime Bianca Bosker : il appartient à cette élite de la technologie qui prend conscience des effets indésirables de ce qu’ils ont contribué à créer. Pour Soren Gordhamer, le créateur des conférences Wisdom 2.0 (que nous avons déjà évoqué), tous ces gens se sentent coupables d’avoir créé des « monstres addictifs ».

En attendant que la résistance collective s’organise, Harris a mis en place des tactiques d’autodéfense personnelles. Sur son téléphone, il a désactivé la plupart des notifications. Les SMS vibrent d’une manière différente pour mieux ressentir la différence entre un message envoyé par un humain et les notifications automatisées. Sur le premier écran de son téléphone, il n’a mis que des applications qui n’ont qu’une fonction, comme Uber ou Google Maps. Les applications addictives sont cachées dans des dossiers pour être moins accessibles. Quant à son ordinateur, il est couvert d’un post-it : « ne pas ouvrir sans intention ». Autant de tactiques personnelles qui sont loin de faire une réponse structurée aux nouvelles formes de design auxquels nous sommes confrontés.

Pour Harris, le design devrait au contraire nous aider à nous défendre. Nos boites e-mail devraient nous aider à définir le temps que nous souhaitons passer à leur traitement et nous alerter quand nous le dépassons. Nos téléphones devraient nous aider à prendre conscience du nombre de fois où nous les utilisons. Et la technologie devrait nous aider à atteindre nos objectifs, nous donner le contrôle de nos relations, nous permettre de nous désengager sans générer d’anxiété. Via son groupe de travail, il souhaiterait mettre au point un label. Il a déjà signalé une liste d’applications qu’il trouve exemplaires, comme Pocket, Calendly ou f.lux. Il travaille ainsi à un logiciel permettant aux utilisateurs de connaître la durée d’utilisation des applications de leurs téléphones. Edelman a publié Hindsight, un plug-in pour Chrome permettant de définir les usages des sites auxquels on accède.

Voulons-nous ne plus être accros ?

Le plus grand obstacle à l’intégration d’une conception éthique de nos outils n’est pas la complexité technique, mais la volonté, estime Harris. Elle ne consiste pas à ajouter plus de technologie, mais à en développer une autre. « Aujourd’hui, l’économie de l’attention est comme une ville où il y aurait beaucoup de pollution et d’accidents. Nous ne réparerons pas cette ville en disant aux résidents d’en partir (ou d’éteindre leurs appareils). Nous ne réparerons pas non plus cette ville en étendant sa structure. Nous la réparerons en ajoutant des pistes cyclables, des feux de signalisations et des passages piétons pour restructurer les interactions afin de faire en sorte qu’il y ait moins de pollution et d’accidents », explique-t-il sur son site manifeste.

bingebreaker

Le problème est que tout ce qui porte atteinte à l’engagement ou la croissance des utilisateurs est très mal vécu par la culture entrepreneuriale de la Valley. Pour Harris, créer des alternatives nécessite de réévaluer les modèles d’affaires afin que la mesure de leur succès ne repose plus sur la captation de l’attention des utilisateurs. Pour Harris, beaucoup de gens seraient capables de payer pour une version de Facebook qui les respecte par exemple. Le risque bien sûr est que cela crée de nouvelles inégalités attentionnelles entre ceux qui pourront payer pour retrouver le contrôle de leur attention et les autres. Pour l’instant, le risque n’est pas celui-là, insiste Harris. La tendance actuelle est plutôt celle d’une manipulation toujours plus sophistiquée, explique-t-il en pointant par exemple les fonctions de réciprocité sociale plus avancées de Snapchat par rapport à celles de Facebook. Alors que Facebook Messenger vous indique quand votre destinataire a lu votre message, Snapchat, lui, vous indique quand un interlocuteur est en train de vous écrire. Une autre fonction, Snapstreak, récompense votre fidélité avec vos interlocuteurs en mesurant la fréquence des échanges. Une fonctionnalité qui pousse parfois les plus jeunes à confier leur compte à des amis quand ils doivent se déconnecter trop longtemps, pour maintenir leurs scores.

Pour Harris, l’enjeu est que les utilisateurs soutiennent les technologies qui les respectent, comme ils peuvent le faire en privilégiant les technologies qui respectent leur vie privée. Reste que cette demande doit émaner des utilisateurs eux-mêmes.

Pour son complice, Joe Edelman, l’espoir est que l’industrie s’y mette aussi, notamment parce que les designers et ingénieurs hésitent à construire des produits et services qui ne soient pas très éthiques. « Plus les gens vont se rendre compte des répercussions des techniques de persuasion, plus travailler pour elles va devenir de moins en moins cool ». A l’heure où les grandes entreprises des technologies promeuvent la pleine conscience ou la méditation auprès de leurs employés, le grand écart entre leurs discours et leurs produits risque de devenir vite intenable. Ce serait comme d’inciter les gens à faire du sport pour se maintenir en bonne santé tout en ne leur proposant que de la malbouffe à la cantine.

Reste que pour l’instant, on ne peut pas encore dire que ces discours, aussi stimulants soient-ils, semblent avoir changé quelque chose.

Comment créer des produits addictifs ?

La raison est peut-être à trouver dans les techniques mises au point par ceux qu’il dénonce, quand toutes les entreprises s’intéressent à comment rendre leurs services irrésistibles.

Pour cela, il faut revenir à celui qui est à l’origine de la « captologie« , l’étude des formes d’influences numériques, le directeur du Laboratoire des technologies persuasives de Stanford qu’il a créé en 1997 : BJ Fogg (@bjfogg). Ca tombe bien, Ian Leslie pour 1843, le magazine de TheEconomist, a récemment rencontré le gourou de ces techniques de persuasion et de manipulation.

Pour Fogg, lorsque nous voulons que les gens fassent quelque chose, nous tentons de les persuader. Mais c’est une mauvaise option. Souvent, elle marche assez mal. Pour Fogg, il est plus efficace de rendre le service plus facile. Un politicien qui veut que les gens votent pour lui peut faire un discours ou passer à la télé… Mais il peut aussi choisir d’envoyer un bus pour ramasser les électeurs et les emmener voter, donne-t-il comme exemple. Lorsque vous arrivez à la fin d’un épisode d’une série, Netflix joue automatiquement le suivant, à moins que vous lui disiez d’arrêter. Le niveau de difficulté est réduit à zéro, voire à moins que zéro : il devient plus difficile d’arrêter que de continuer. Lorsque la tâche est facile, l’utilisateur motivé, il suffit de mettre en place des déclencheurs bien conçus (« chauds ») sur le chemin des utilisateurs… Faire qu’ils se sentent bien, en capacité, puissants… est le second ingrédient des services réussis.

Fogg a construit ses théories en s’inspirant des travaux du psychologue comportementaliste BF Skinner, le père du conditionnement. Fogg a développé ses théories avant que les médias sociaux ne conquièrent le monde. Facebook, Instagram et d’autres ont porté la question de la conception comportementale à des niveaux de sophistication qu’il n’avait pas même envisagée, car les interactions sociales sont un puissant moteur de nos comportements. Le numérique leur permet qu’elles deviennent encore plus raffinées et de moins en moins perceptibles à mesure qu’elles disparaissent au coeur même de nos outils quotidiens.

Pourtant, Fogg se défend d’avoir cherché à asservir les gens avec la technologie. Il est même critique envers certain de ses anciens étudiants, comme le célèbre Nir Eyal (blog, @nireyal), l’auteur de Accroché : comment construire des produits addictifs.

hookedLe livre d’Eyal mérite d’y consacrer un moment. C’est un court manuel qui présente des techniques, des recettes de manipulation, pour « accrocher » les utilisateurs. Le succès des services qui s’inscrivent dans les habitudes des utilisateurs repose sur des stimuli, des déclencheurs de comportements qui transforment nos usages en usages compulsifs, addictifs, explique-t-il. Nos automatismes, nos habitudes, « nos actions ont été mécanisés », transformées en produits et la « valeur économique des entreprises dépend de plus en plus de la force des habitudes qu’elles ont créées chez leurs utilisateurs ». Tout l’enjeu désormais explique-t-il consiste à trouver les bons déclencheurs pour faire agir les utilisateurs. Pour cela, il est nécessaire de créer une motivation, de « l’envie » qui prend la forme d’une boucle de rétroaction qui doit prendre la forme d’une récompense variable. Variable, car c’est le côté intriguant qui nous accroche. « La réponse sans surprise de la lumière du frigo qui s’allume quand vous ouvrez la porte, ne vous invite pas à l’ouvrir et à l’ouvrir encore ». C’est la variabilité de la réponse qui nous accroche. « Il faut nous habituer à associer une action et une récompense, mais pas de façon systématique. Savoir qu’il y aura quelque chose, mais ignorer quoi  : c’est le coeur du « hook » », explique Claire Richard sur Rue89 qui revient également en détail sur les méthodes décrites par le livre de Eyal. Les récompenses variables sont la méthode qui permet d’exploiter nos biais cognitifs et sociaux, c’est-à-dire nos besoins fondamentaux pour la connexion et l’approbation sociale. Pour Eyal, « une application est réussie quand elle répond aux besoins émotionnels les plus élémentaires de l’utilisateur ».

Qui manipule qui ?

Reste que même dans son livre, Eyal tente de se montrer prudent. « Construire des produits persuasifs doit être utilisé avec beaucoup de précautions », même si, reconnaît-il, il s’adresse avant tout à ceux qui souhaitent faire de la persuasion un business. S’il est conscient que les lecteurs de son livre sont avant tout des gens qui souhaitent comprendre ces techniques pour mieux les utiliser, il n’en est pas moins aussi lucide que Tristan Harris sur leurs limites. « Aujourd’hui, les utilisateurs amènent ces technologies jusque dans leurs lits. Quand ils se réveillent, ils regardent leurs notifications, les tweets qu’ils ont reçus, avant même parfois que de dire bonjour aux êtres chers qui les entourent. Ian Bogost, le créateur de jeu, appelait ces technologies addictives « les cigarettes du XXIe siècle » et mettait en garde contre leurs effets secondaires également addictifs et potentiellement destructeurs. »

Dans son livre, Nir Eyal commence à répondre aux critiques. Mais pour lui, les comportements pathologiques, de « dépendance préjudiciable », sont extrêmement rares. Surtout, les entreprises technologiques ont la capacité technique de connaître les utilisateurs qui développent des addictions et peuvent donc leur adresser des réponses adaptées, que ce soit parce qu’ils en ont l’obligation morale comme parce qu’ils en auront peut-être un jour l’obligation légale. Pour Eyal, les gens gardent toujours la capacité de faire des choix libres de toutes contraintes – oubliant de voir, justement que les contraintes cognitives que la conception intègre est un moyen de les pousser toujours plus loin. Pour Eyal, l’un des moyens de garder une ligne de conduite est de toujours se demander si on voudrait utiliser le produit qu’on propose… et si on le trouve soi-même utile. L’altruisme des solutions (faire pour les autres, sans eux) n’est jamais une raison suffisante, rappelle-t-il. Et proposer un outil qu’on ne trouve pas utile consiste seulement à proposer du divertissement. Quant à créer un produit dans lequel le designer ne croit pas et qu’il ne voudrait pas lui-même utiliser, consiste juste à créer de l’exploitation, pareille au dealer qui fournit une drogue.

Face aux critiques qu’il rencontre, le gourou des technologies addictives a dû pourtant encore ajouter de l’eau dans son vin.

Dans une tribune publiée fin août sur The Atlantic (qui part de notre addiction aux cotons-tiges !), Nir Eyal estime que les sociétés technologiques sont négligentes sur l’éthique. Il juge qu’il a été mal compris : rendre les choses plus attrayantes, les rend également potentiellement plus addictives. Alors que son livre visait à aider les concepteurs de produits à construire des habitudes saines chez les utilisateurs, les mêmes tactiques peuvent être utilisées pour rendre les gens accros à leurs plus mauvaises habitudes. Pour Eyal, les produits numériques notamment, permettent pourtant à leurs concepteurs de bien connaître leurs utilisateurs et donc d’avoir des réponses adaptées pour éviter de générer des formes addictives ou les atténuer plutôt que de les développer. Ainsi, explique-t-il, au lieu de lancer automatiquement le prochain épisode d’une série, Netflix pourrait demander aux utilisateurs s’ils veulent limiter le nombre d’heures de visionnage… Facebook pourrait permettre aux utilisateurs de désactiver leurs fils d’information à certains moments. Apple et Androïd pourraient permettre de désactiver les notifications…

Pour Eyal, comme ces services connaissent leurs utilisateurs, ils pourraient eux-mêmes suggérer à leurs utilisateurs des moyens de décrocher. Toutes les entreprises de technologie n’ont pas un modèle économique qui dépend d’une petite fraction d’utilisateurs très dépendants, comme c’est le cas pour les casinos ou les jeux en ligne : que Facebook aide les gens qui sont accros à Facebook ne nuirait pas beaucoup à Facebook, au contraire, explique-t-il. Les entreprises technologiques devraient essayer de guérir leurs utilisateurs les plus dépendants. Elles ne devraient pas tenter de le faire de manière paternaliste, en désactivant l’accès unilatéralement, mais tendre la main « comme un ami concerné pourrait le faire ». Mais là encore, en rappelant les limites des technologies persuasives, Eyal minimise leur nouvelle puissance et leur intrication dans l’économie elle-même.

Cette vision a un autre avantage. Elle permet d’inviter les entreprises à établir elles-mêmes leurs propres règles, plutôt que de se voir imposer des modalités de régulation, de normalisation ou de labellisation qui leur échapperaient. Et de voir donc les utilisateurs ou l’acteur public s’intéresser trop activement à ce qu’ils font.

Mais si « nos comportements sont conçus pour nous », les designers sont alors responsables… C’est là que se situe justement la critique de Tristan Harris. Celle de l’éthique de la conception comportementale. Pour Natasha Dow Schüll : « l’expérience conçue par votre banque est la même que celle de Candy Crush. Il s’agit d’enfermer les gens dans un flux d’incitation et de récompense. (…) Chaque interface devient une machine à sous. » Et nous en avons désormais tous une dans nos poches. Pour Eyal, si les produits parviennent de mieux en mieux à vous accrocher, ce n’est pas un problème, c’est seulement le progrès ! Or, rappelle Schüll, « la relation est asymétrique. Pour les joueurs, la zone de la machine est une fin en soi. Pour l’industrie, c’est un moyen de faire des bénéfices ! »

Pour Tristan Harris également : « il y a un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ». Le problème est que ce qui est important pour l’utilisateur est lié à ce qui est important pour l’entreprise : « la machine sur laquelle vous perdez votre temps est aussi celle que vous utilisez pour savoir si votre enfant est malade, vous ne pouvez donc pas l’éteindre ou la laisser derrière vous ». Pour Harris, nos machines ne cessent de développer de nouvelles manières de nous persuader, nous faisant passer d’une transe l’autre. Si nous pouvons toujours choisir de nous retirer des boucles d’incitation et de récompenses qui nous encerclent, peu de personnes décident de le faire. Il est bien plus facile d’accepter et de se connecter. La captologie est conçue pour nous « rendre volontaire ». Et c’est en cela, qu’elle est une technologie de pouvoir.

Hubert Guillaud

À lire aussi sur internetactu.net

4 commentaires

  1. A l’heure où les grandes entreprises des technologies promeuvent la pleine conscience ou la méditation auprès de leurs employés, le grand écart entre leurs discours et leurs produits risque de devenir vite intenable : merci pour ça, cet article fait un bien fou. Ce cher Tristan pose les bonnes questions et conclut surtout très bien : « il y a un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».

    Bernanos disait « La seule machine qui n’intéresse pas la Machine, c’est la Machine à dégoûter l’homme des Machines, c’est-à-dire d’une vie toute entière orientée par la notion de rendement, d’efficience et finalement de profit. »

    En effet il faut des mécanismes de conscientisation dans les machines, et donc de nouveaux business models. Hormis l’organisation personnelle de son bureau, l’hygiène des applications, il y a l’art, et parfois des façons originales de concevoir des objets (outils, machines), je creuse ça ici en soulevant aussi le paradoxe entre la notion de « seamless » qui rendra bientôt la technologie invisible, et le besoin de rendre ces mécanismes visibles, ne serait-ce que pour ne pas en devenir totalement dépendant, voire manipulé. http://maisouvaleweb.fr/internet-doit-il-disparaitre-episode-i-pile-et-face/

  2. Autoriser un réseau social public a censurer les mensonges est autorisé la censure généralisé. Il est facile de déclarer que les arguments d’un parti politique sont des mensonges (En payant une étude). La seul censure qui puisse se justifier est celle effectuer par les robots sur des critère très simple et prononcer (pornographie, pédophilie…)
    C’est le but d’un réseau social de diffuser des idées bonne ou mauvaise quand à la manipulation qui peux être faite, elle a un effet limité et n’est certainement pas nouvelle ni plus efficace sur facebook que par la pub, la radio…

  3. Au croisement des questions attentionnelles, des bulles de filtres et de la propagation de la désinformation via les médias sociaux, l’universitaire Mike Caulfield explique sur Quartz que le design même de Facebook nous façonne pour nous transformer en théoriciens de la conspiration. La nature des médias sociaux nous pousse à plus partager des informations incendiaires que le contraire. L’écosystème de FB nous pousse à la radicalité. Alors que les designers et développeurs utilisent plutôt la conception pour favoriser des comportements utiles à la communauté, FB les utilise pour favoriser son modèle économique. FB a 2 buts, et aucun ne cherche à vous encourager à développer le bien être ou la qualité de votre communauté. Le premier est d’encourager le partage de contenus qui produiront du partage, des like ou des commentaires. Le second, d’encourager le partage sans lire, sans penser… bref, de vous garder le plus longtemps possible dans ses pages. Pour résoudre le problème, estime l’universitaire, FB doit promouvoir la lecture en profondeur plus que l’interaction et faciliter le fait de quitter ses pages. Pour le chercheur, FB rend la conspiration et familière, et nous fait croire que la familiarité équivaut à la vérité. Pertinent !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *