Pour un rétro-Design de l’attention

La prise en compte de l’expérience utilisateur par les systèmes numériques pose la question de l’attention de ceux qui sont amenés à les utiliser. Comme l’a très bien pointé le designer Tristan Harris dans son article « Comment la technologie pirate l’esprit des gens », les services et produits numériques portent la question de la conception comportementale à des niveaux de sophistication inédits, notamment en s’appuyant sur l’exploitation de nos biais cognitifs et de nos interactions sociales, puissants moteurs d’activation de nos comportements. Il montre comment le design « capte », « accroche » les utilisateurs en stimulant leurs comportements.

Trop souvent, la seule réponse qu’obtiennent les utilisateurs à ces problèmes attentionnels est qu’elle relève de leur responsabilité, alors que des milliers de designers agencent toujours plus finement la frontière entre l’incitation et la manipulation, en façonnant chaque boucle de rétroaction du moindre de leurs outils. Les stratégies d’exploitation attentionnelle que produisent les concepteurs vont devenir de plus en plus visibles à mesure que de plus en plus d’outils vont les utiliser. Elles sont donc appelées à être de plus en plus critiquées, pointées du doigt… voire certainement régulées. En même temps, ces conceptions permettent aussi de les voir agir et nous offrent un outil inédit pour les décomposer, les analyser, les comprendre et agir collectivement sur leurs effets. Cela permet au vaste champ de l’économie de l’attention d’avoir enfin accès à des objets granulaires pour en construire une critique et donc des réponses ciblées.

L’angle du design pour observer l’économie de l’attention que pointe Harris est un levier pour comprendre et déconstruire ce qu’il se passe. Il permet également de reconstruire, de reconcevoir, ce qui a été conçu en pointant précisément les problèmes que cause la conception. Que changerait aux stratégies des concepteurs le fait d’avoir des systèmes attentionnellement respectueux des utilisateurs ? Qui permettent aux utilisateurs de gérer leur attention, de modifier les paramètres qui la façonnent, plutôt que de le faire pour eux ? Qu’est-ce que cela libérerait ? Quels nouveaux services et modèles économiques cela permettrait-il d’imaginer ?

Tel est l’enjeu du nouveau sujet que souhaite explorer la Fing : partir à la recherche de pistes d’innovation pour un design de l’attention responsable.

Il est temps de reprendre un train d’avance sur le rôle des utilisateurs dans l’expérience utilisateur qu’entreprises et institutions façonnent ! De redonner du pouvoir aux utilisateurs !

Révéler l’exploitation de notre attention

« Jamais jusqu’à présent une poignée de gens et d’entreprises n’ont façonné ce que pensent et ressentent 1 milliard de personnes chaque jour par les choix qu’ils font depuis leurs écrans. » – Trisan Harris, « Brain Hacking ».

En entr’ouvrant le monde de la captologie (ces techniques et technologies de la persuasion (du nom de ce laboratoire de l’université de Stanford ouvert en 1997 par BJFrog, héritiers des technologies du conditionnement théorisées par le psychologue BF Skinner, produisant des manuels et recettes de manipulation comme celles popularisées par Nir Eyal dans son livre Accroché : comment construire des produits addictifs…), Tristan Harris a dressé une première liste de « trucs », de secrets, d’astuces, de tours… utilisés par les concepteurs des services numériques qui favorisent – sans qu’on en soit nécessairement conscients – notre propre manipulation.

Autant de moyens utilisés qui expliquent en grande partie comment ces systèmes manipulent nos biais cognitifs, sociaux et comportementaux, comment ces systèmes nous rendent « accros », « dépendants », « compulsifs », « stressés », « anxieux« … Ces outils ne nous permettent pas par exemple de paramétrer nos choix : nous dépendons des objectifs que conçoivent les plateformes pour nous. Ces outils exploitent très bien notre besoin atavique de réciprocité et d’approbation sociale, transformant celui-ci en obligation : on like ceux qui nous likent. Ces outils instrumentent leurs interfaces pour nous faire passer le plus de temps possible dans celles-ci plutôt que de nous donner des moyens pour gérer nos besoins… Ils favorisent l’interruption instantanée pour générer de l’urgence, sans nous permettre de régler ni la cadence ni l’intensité des notifications et alertes… Plus largement, ils posent des questions sur le consentement des utilisateurs et la protection de leurs libertés.

La force du constat de Tristan Harris est de souligner combien dans l’alarme attentionnelle en cours, nous, utilisateurs, ne sommes pas coupables, mais victimes. Notre absence de maîtrise de soi ne relève pas de nos responsabilités quand, de l’autre côté de l’écran des milliers de personnes travaillent à nous faire perdre pied. Pour lui, « il y a un conflit fondamental entre ce dont les gens ont besoin et ce dont les entreprises ont besoin ».


Présentation réalisée pour la conférence Ethics by Design, mai 2017, posant quelques-uns des enjeux du sujet.

Le problème est que ce qui est important pour l’utilisateur est lié à ce qui est important pour l’entreprise : « la machine sur laquelle vous perdez votre temps est aussi celle que vous utilisez pour savoir si votre enfant est malade, vous ne pouvez donc pas l’éteindre ou la laisser derrière vous ». Effectivement, c’est en cela que la réponse par la déconnexion, qui incite chacun à se doter de pratiques vertueuses, oublie que l’hyperconnexion à laquelle nous avons succombé, malgré ses défauts, permet d’abord de nous libérer, de nous mettre en capacité, d’élargir les formes d’interaction sociale auxquelles nous aspirons. Notre hyperconnexion n’est pas une faute morale, mais est d’abord et avant tout un moyen de gagner en autonomie.

Reste que le design, du moins la conception centrée utilisateur, arme désormais notre désir d’autonomie contre nous-mêmes. La captologie est conçue pour nous « rendre volontaires ». Mais elle est, comme le pointait l’anthropologue Stefana Broadbent, un environnement coercitif de plus (après la salle de classe, les espaces de travail ou la maison…), pour contrôler notre attention. A mesure que le contrôle de notre attention se développe dans nos espaces informationnels, nous cherchons les moyens d’y résister pour conserver l’autonomie qu’ils nous offrent. Comme le soulignait le journaliste Alexis Madrigal : « une grande partie de notre connexion compulsive est le symptôme d’un problème plus important, pas le problème lui-même. »

Le numérique impose une transformation massive, industrielle, de nos process cognitifs et de nos rapports sociaux instrumentés par les technologies. De nouvelles formes de contrôle social, d’enfermement, entre l’incitation et la manipulation, entrent en scène. Invisibles, subtiles, anodines… Une « écologie » se met en place, sur laquelle nous avons peu de maîtrise, mais qui nudge, exploite et manipule nos comportements, nos biais cognitifs, nos capacités sociales, notre capital attentionnel… Cette transformation passe par une conception qu’il faut rétroéclairer.

La psychologie cognitive et l’économie comportementale – et notamment Daniel Kahneman – ont souligné combien nous étions psychologiquement et cognitivement sensibles à des erreurs d’appréciation multiples, à une intuition erronée, à une difficulté à décider… à ce que l’on a appelé nos biais cognitifs liés à la surinformation, au manque de sens, à la nécessité d’agir vite ou aux limites de notre mémoire. Notre cerveau semble fait pour être trompé sans que nous nous en rendions nécessairement compte. Nous sommes foncièrement manipulables. La conception des interfaces, l’expérience utilisateur, permet de créer une exploitation massive, industrielle, de ces biais. La fluidité des outils numériques permet de les adapter en permanence aux utilisateurs, de trouver les moyens de les « accrocher », de les « retenir »… d’exploiter et manipuler leurs comportements. « Il semblerait bien que la force de certains conditionnements invisibles logés au sein des programmes numériques soit de plus en plus puissante », comme le note le chercheur Anthony Masure dans sa thèse portant sur « le design des programmes ». Nous sommes désormais cernés de contraintes invisibles et qui s’imposent à nous, qui nous poussent à répondre, à interagir, à nous inscrire dans ce que l’anthropologue Natasha Schüll, l’auteur d’Addiction by Design, appelle « la zone de la machine », ce piège de la conception où le mécanisme lui-même devient le point, le coeur de son objet. Ce design de la dépendance qui nous rend toujours plus vulnérables à des formes de manipulation non conscientes.

Pour un rétro-Design de l’attention : le constat d’un dialogue nécessaire

Le constat que nous tirons de ces évolutions, c’est que les plateformes et les systèmes ne pourront pas contraindre sans limites l’utilisateur contre sa liberté. Qu’après nous être intéressés aux systèmes (via le groupe de travail Nos Systèmes), il nous faut nous intéresser aux interfaces.

Pour Natasha Schüll, nous ne pouvons pas demander aux entreprises qui conçoivent des interfaces qui ont pour but de retenir l’attention des gens, de favoriser « l’engagement », le temps passé dans leurs interfaces… de faire le travail éthique nécessaire, de définir leurs propres limites. C’est certainement à la réglementation de le faire. Les systèmes techniques disposent d’informations très détaillées sur les comportements des gens : ces données peuvent être utilisées pour intensifier l’emprise de ces environnements ou réduire les conduites addictives et compulsives. Tout le problème est de trouver un compromis entre les motivations, stratégies et modèles économiques des entreprises et celles des utilisateurs. Or, les objectifs des entreprises ne poursuivent pas les mêmes objectifs que leurs usagers.

Les interfaces qui calculent ce que les systèmes nous affichent ne sont pas tant optimisées pour personnaliser l’information ou pour améliorer notre propre capacité de traitement, comme on nous le raconte trop rapidement, que pour optimiser leurs propres objectifs. Facebook, comme les autres, vous affiche des informations augmentées de critères sociaux dans le but de vous faire rester le plus longtemps possible sur sa plateforme.Le moteur de recommandation de YouTube n’a pas pour fonction de recommander les meilleures vidéos selon les critères que chacun déterminerait, mais les vidéos sur lesquelles vous allez passer le plus de temps, selon des critères de fraîcheur (une vidéo plutôt récente) et de temps passé (une vidéo plutôt longue sur laquelle vous allez rester parce que d’autres sont restés longtemps sur cette vidéo). D’où le fait que l’interface de YouTube développe ses propres biais, qu’elle soit tout sauf neutre, et qu’elle recommande des contenus plus polémiques que d’autres, comme l’a montré Algotransparency. L’exploitation de notre anxiété, les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… n’ont pas pour objectifs de vous fournir des informations qui collent à votre personnalité, mais de produire des calculs depuis notre personnalité pour mieux exploiter les contenus et les propositions que nous font ces services.

Tristan Harris lui-même, qui était designer de l’éthique chez Gmail, a proposé d’améliorer la boîte de réception de Gmail afin que les utilisateurs aient plus de contrôle et d’autonomie sur celle-ci, afin qu’ils puissent en gérer les paramètres pour en améliorer la commodité et leur bien-être. Google ne l’a visiblement pas écouté. Il a lancé Inbox, une évolution de Gmail, qu’il n’a pas réussi à imposer. Il faut dire qu’Inbox n’évacue pas le stress, la fatigue et la charge attentionnelle que génère le courrier électronique. Au contraire. La pratique de l’Inbox zéro, consistant à tenir sa boite e-mail… vide, a valorisé une forme d’hypercontrôle, qui ne permet ni de mieux formuler nos e-mails, ni de mieux maîtriser le temps toujours plus important que nous sommes contraints de leur dédier. L’absence d’accès à des possibilités de réglage et la pratique de l’Inbox zéro nous mobilisent seulement sur la manière dont veulent nous mobiliser les entreprises. En passant à Inbox, Google souligne que son objectif n’est pas le nôtre. Que son modèle reste basé sur des métriques d’engagement et de croissance et qu’elles passent par des formes toujours plus sophistiquées de manipulation des utilisateurs. Pire : plus nous consacrons du temps au courrier électronique plus la perception de sa productivité s’abaisse alors que le stress qu’il génère augmente. Les personnes qui contrôlent leur courrier électronique par des interruptions volontaires ont le sentiment d’avoir une productivité plus élevée alors que le temps de traitement de leur courrier est souvent plus long que ceux qui répondent immédiatement aux sollicitations. L’exploitation de nos biais cognitifs fonctionne à fond. Et nous n’avons pas la main ! Inbox veut nous faire lire tous nos e-mails. Mais est-ce vraiment ce que nous nous voulons ?

Ces évolutions conçues par-devers l’utilisateur pour son plus grand bien l’oublient à mesure qu’elles cherchent à mieux le servir. « Rien pour nous sans nous », clame la règle du co-design, cette conception participative. Nous nous en éloignons. Il est certainement temps de remettre l’usager au pouvoir.


Image : Quelques formes d’exploitation de nos vulnérabilité….

Le problème, de surcroît, c’est que la frontière entre l’incitation et la manipulation est poreuse. Pourtant, rappelle la psychologue Liane Davey en observant les interfaces de travail des chauffeurs d’Uber, si l’utilisateur « n’a pas l’option de dire « non », ce n’est pas une motivation, mais une coercition ». En obscurcissant le but et l’existence de ces programmes de motivation ludiques et séducteurs, en supprimant ou limitant la capacité du conducteur à les contrôler ou à les décliner, le système demeure conçu pour maximiser les résultats de l’entreprise au détriment des conducteurs. Pour la psychologue, les interfaces d’Uber ont franchi une ligne rouge visant à « manipuler le comportement même des chauffeurs au service de la croissance de l’entreprise ». Le problème est que ce n’est pas la seule entreprise à avoir franchi la ligne rouge. Et tout l’enjeu est de parvenir à la délimiter à nouveau.

C’est en exerçant un rétro-design, une observation et une analyse des interfaces, c’est-à-dire en observant la manière dont le comportement de l’utilisateur est instrumenté, « rendu productif », manipulé, que nous pourrons comprendre ce qui se trame. C’est en décortiquant les expressions de la captologie que nous pouvons aider les utilisateurs à reprendre la main, à faire une critique qui va permettre de retrouver le sens de l’innovation. Le design doit réengager un dialogue avec l’utilisateur. L’entreprise doit réinterroger son lien avec ses clients. Si l’expérience est au coeur de son offre, alors permettre à l’utilisateur de construire sa propre expérience plutôt que de lui en imposer une, est certainement un nouveau levier d’innovation pour nous permettre de dépasser les limites dans lesquelles les interfaces sont en train de s’enfermer.

La question que posent ces systèmes qui optimisent leur propre optimisation relève bien d’un problème éthique. Quelles formes de régulation imaginer qui soient plus respectueuses de l’attention des usagers, qui les aident à développer leurs propres objectifs plutôt que d’être contraints par ceux qui conçoivent les systèmes pour eux ? Nous avons besoin d’innover depuis d’autres valeurs que la compétition ou la prédation, en privilégiant par exemple l’autonomie, la résilience, la capacitation ou l’empathie. Cette “écologie de l’attention » dont parle Yves Citton, reste à inventer, afin d’ouvrir les paramètres à un meilleur contrôle des utilisateurs… Nous avons besoin d’une innovation centrée sur, pour et par les utilisateurs.

Comment ? Loin de nous d’avoir déjà les solutions, au mieux peut-on tenter d’en esquisser quelques-unes qui mériteraient d’être travaillées… Mais ce qui est sûr, c’est que le changement d’échelle dans la manipulation des utilisateurs risque, à terme, de créer de la défiance et du rejet. A moyen et long terme cette défiance risque de s’accélérer à mesure que ces techniques vont se développer d’une manière industrielle, qu’elles vont apparaître comme plus visibles, plus massives et plus toxiques. Notre sensibilité à la captologie sera-t-elle la même quand tout le monde l’utilisera ?

Ce qui semble sûr c’est que ce sujet semble plus à même demain de s’inscrire dans l’agenda des régulateurs, notamment parce que la question de la manipulation de l’attention en devenant sociale et en s’inscrivant au coeur des outils numériques – et notamment de nos outils de travail – adresse des questions auxquelles la société devra répondre. Si, comme le soulignait le prospectiviste Kevin Kelly, l’avenir est cognitif (et il n’évoquait pas là que la question du développement de l’intelligence artificielle), nous devons prendre au sérieux ces enjeux. Pour poser ces questions d’une manière plus ouverte aux concepteurs d’interfaces et aux entreprises, d’une manière qui invite plus à la réponse qu’à la critique, on pourrait se demander alors ce que changerait aux modèles d’affaires des entreprises le fait que leurs applications soient respectueuses de l’attention des utilisateurs ? Quelles opportunités d’affaires nouvelles cela ouvrirait-il ?

Le projet de la Fing : pour une attention responsable

L’enjeu de ce programme de recherche-action est d’observer ce point de croisement entre l’exploitation de nos comportements et la façon dont les interfaces les implémentent. Notre travail consistera à recueillir des critiques. À faire travailler des utilisateurs à démonter les fonctionnalités qui leur sont proposées. À observer comment les systèmes contraignent les utilisateurs, avec l’aide de spécialistes en psychologie cognitive et en design notamment. À produire des grilles d’analyse des interfaces sous forme de pistes d’innovation permettant de produire des valeurs partagées pour construire une nouvelle relation entre les utilisateurs et les concepteurs.

Méthode : déroulé de l’expédition
Un travail de veille, de rencontres d’acteurs et de chercheurs et de scénarios extrêmes permettra de regarder en profondeur ce sujet pour en produire des pistes d’innovation via un cahier d’enjeux. La Cnil, associée à cette expédition, explorera la question de la régulation de l’attention, en proposant un benchmark international des outils de régulation. Des spécialistes des sciences cognitives (notamment l’association Chiasma) en coopération avec des designers viendront éclairer la manière dont nos biais comportementaux sont exploités et la manière dont ils se traduisent dans des interfaces.

Avec la contribution d’étudiants, un travail d’analyse de la conception d’une sélection d’interfaces sera produit pour en comprendre les mécanismes. À partir duquel, de nouvelles conceptions seront proposées en retour pour montrer comment les interfaces pourraient prendre en compte d’autres valeurs. L’un des livrables attendus de cette expédition est la réalisation de “proof of concept” (POC) afin de montrer qu’une autre conception est possible.

L’enjeu, est enfin de mobiliser des étudiants en design, en psychologie sociale, mais aussi des étudiants en communication pour lancer une grande campagne de sensibilisation autour de ces enjeux de la conception.

Notre objectif est de faire monter en compétence tous les acteurs de l’innovation sur ces questions, notamment pour anticiper les questions de régulation qui se poseront.

Pour assurer ce travail, nous sommes à la recherche de partenaires qui souhaitent s’investir sur ces questions.

Des organisations et entreprises qui souhaitent :

  • participer activement aux ateliers et réflexions que nous organiserons ;
  • proposer un terrain d’observation et d’expérimentation (une interface, une application, un système, un service…) ouverte aux interventions de nos experts et d’étudiants.

Des écoles qui souhaitent :

  • comprendre ces enjeux et les faire réinterroger par leurs étudiants.

Pour plus d’information, nous vous invitons à consulter le dossier de présentation de notre groupe de travail. Et à rejoindre l’espace de discussion que nous ouvrons sur Facebook.

N’hésitez pas à nous contacter

Hubert Guillaud et Véronique Routin
hubertguillaud@gmail.com & vroutin@fing.org


Dossier de partenariat.

MAJ du 18/012019 : Les recommandations et pistes produites par ce groupe de travail sont désormais accessibles en ligne !

À lire aussi sur internetactu.net

0 commentaires

  1. Amha, ce ne sont pas seulement nos « biais » ou notre « atavisme » (termes vagues) qui sont en jeu, mais notre nature cognitive et sociale la plus profonde, à savoir notre capacité de langage qui est dans la balance. Dans cette exploration, on peut procéder par des expériences « à l’aveuglette », à savoir sans hypothèse sur notre cognition et voir ce que cela donne (probablement pas mal de confusion). On peut aussi procéder à partir d’hypothèses fortes, à savoir une ou plusieurs théories du langage, et voir dans quelle mesure elles recoupent les faits.

  2. C’est pas paradoxal d’ouvrir un espace de discussion portant sur l’attention responsable… sur facebook ?

    Quant au design éthique, design responsable, quel que soit le nom qu’on lui donne, gare à une certaine tentation de Max Havelaarisation du design, qui aurait pour effet de créer une zone de « design valeureux » en marge d’un espace abandonné à… à quoi d’ailleurs ? Un design irresponsable ? Un design non éthique ? Et pourquoi ne pas partir de là ?

    1. Oui, ça peut être paradoxal d’ouvrir un espace de discussion sur FB. Mais le travail que nous souhaitons mener ne consiste pas à rejeter les solutions numériques, quelles qu’elles soient (aucune n’aurait convenu), mais de tenter de regarder où se font les bascules, où vont-elles trop loin et comment faire autrement. L’enjeu n’est donc pas de rejeter en bloc FB (ou autre), mais de regarder ses défauts pour tenter de voir comment y remédier.

      Sur le 2nd point, on va tenter de ne pas faire de réponses avant de commencer à travailler le sujet en profondeur ;).

  3. Paradoxal et excluant. Je ne peux pas participer n’ayant pas de compte. Il y a tout de même l’embarras du choix…

    Ensuite, pourquoi situer dés le départ la réflexion sur un terrain qui exclue l’idée qu’il faille peut-être précisément rejeter certaines solutions numériques (solutions à quoi d’ailleurs ?). N’est-ce pas « faire une réponse » avant d’avoir commencé à travailler en profondeur ?

    Je ne sais pas de mon côté, par exemple, si j’ai envie d’aider à remédier aux problèmes de facebook, qui plus est bénévolement.

    Bref, je salue l’idée de réfléchir à ces sujets. Mais la méthode a son importance et l’exclusion d’emblée de certaines idées à explorer me semble problématique.

  4. Merci pour cet article et pour ce site qui offrent des sources de réflexion sur cet univers digital. Le concept d’économie de l’attention est passionnant mais je reste perplexe par rapport à une approche cognitiviste de la manipulation. Les sciences sociales, la philosophie pourraient apporter une approche critique pour comprendre la manipulation et ses ressorts.
    Je suivrais avec grand plaisir et intérêt l’avancé de vos travaux (sans doute à cause du bon design de votre projet :))

  5. On dirait du Ertzcheid mais en moins fouillé 😉
    Plus sérieusement, l’enjeu est de taille, mais je suis étonné que la question ne sorte que maintenant dans les media mainstream alors qu’elle est d’actualité depuis l’avènement des smartphones et des jardins fermés, bref de la transformation de l’accès au Web.

    1. Ici, me semble-t-il, c’est moins la question qui importe que les propositions à mettre en oeuvre (ce que peut permettre le design)

  6. de manière pratique, je cherche un site sur les outils de la captologie. Il y en a quelques uns ici avec les pages infinies etc. mais je cherche un outils complet qui recense les différents outils fonctionnalités utilisées aujourd’hui (et en français pak pas bon en anglais svp)