Le concepteur éthique Américain Tristan Harris (@tristanharris) était l’un des invités du sommet Tech for Good, réuni par Emmanuel Macron à l’Élysée. Il était l’un des rares représentants d’une « société civile » dans un quarteron exclusivement entrepreneurial qui a surtout servi à faire des annonces sur le développement de leurs activités. Caution éthique plutôt inaudible d’une technologie en quête de garde-fous ? Certainement.
Dans la salle du Maif Social Club où Harris était invité la veille à intervenir en petit comité, il a commencé par montrer une vidéo, où des adolescents témoignent de leurs difficultés à gérer les sollicitations de leurs smartphones et de leurs services sociaux. Une vidéo où les adolescents soulignent combien ils sont conscients de l’accroche attentionnelle dont ils sont à la fois les cibles et les victimes, mis en parallèle avec un discours décomplexé des entrepreneurs de la technologie via des citations où ceux-ci sont montrés dans leur plus simple objectif, à l’exemple du patron de Netflix, Reed Hastings, avouant que son service est « en concurrence avec le sommeil ». Une vidéo qui souligne, à l’image de l’ONG qui l’a produite, Common Sense Media, que la question du « bien-être numérique » est devenue une question de société et un enjeu d’intérêt général.
Comment l’attention contrôle la société
Le propos de Tristan Harris depuis qu’il a commencé à faire parler de lui en mettant à jour la question de captation attentionnelle par le design est devenu clairement politique. On pourrait dire qu’il s’est radicalisé à mesure qu’il a en a soulevé les enjeux. « L’enjeu ne consiste pas seulement à décrypter comment les enfants utilisent le numérique, mais à comprendre comment l’attention peut contrôler la société », explique-t-il avec aplomb. « Il y a aujourd’hui un problème dans les choix que l’industrie de la technologie fait pour nous ». La technologie capture notre attention pour tout contrôler : les croyances, les élections, l’éducation, la santé publique et mentale… Elle s’insère dans chaque aspect de notre société, de manière invisible. Et, contrairement à la question des données personnelles par exemple, le thème de l’attention, de notre fonctionnement cognitif et social pour l’intérêt général, lui, n’est défendu par personne, souligne Tristan Harris.
Image : Tristan Harris au Maïf Social Club.
Harris rappelle qu’avant de travailler pour Google et de démissionner suite à une présentation interne (enfin disponible), qu’avant d’avoir lancé Apture qui a été racheté par Google et qu’avant d’être étudiant à Stanford, il s’était essayé à être magicien. Or, qu’est-ce qu’être prestidigitateur si ce n’est détourner les lois du fonctionnement de l’esprit ? Manipuler l’attention est au coeur de la magie, qui consiste à voir le monde sous l’angle de la vulnérabilité des esprits de ses contemporains. C’est en rêvant encore d’être magicien qu’il a étudié au Persuasive Technology Lab de Stanford, afin de mieux comprendre la psychologie et l’influencer. La technologie aujourd’hui utilise les mêmes techniques de persuasion. Pour nous faire utiliser un produit tous les jours, les techniciens les transforment en machines à sous qui nous délivrent des récompenses permanentes et aléatoires. Nos outils nous promettent des récompenses en permanence : que ce soit des messages, des likes ou de nouveaux followers… Des milliers de designers et d’ingénieurs décident ainsi du fonctionnement attentionnel de milliards de personnes. Ce n’est pas nous, utilisateurs, qui choisissons ces effets qui nous conduisent à consulter nos téléphones 150 fois par jour. « Je ne dis pas que c’est conçu de façon diabolique, mais qu’une multitude de petits choix, faits par-devers nous, nous influencent profondément ». Nous devons réancrer ces petits choix dans la réalité. Plutôt que de se livrer à une course pour capter l’esprit des gens, les ingénieurs et les designers ont une responsabilité à protéger les gens.
Le Brexit, l’élection de Trump, l’affaire Cambridge Analytica… nous montrent bien – toute limite gardée quant à l’influence exacte du numérique sur ces questions politiques qui vont bien au-delà de la seule influence des outils sociaux, puis-je me permettre de nuancer – que nous ne sommes pas là devant de simples machines pour partager des photos, mais que nous sommes confrontés à « des machines d’influences pour contrôler les esprits ». Les algorithmes de Facebook calculent pour chaque utilisateur ce qu’il va voir apparaître, dans des langues que les ingénieurs de Facebook ne parlent pas. Personne chez Facebook ne parle le birman, le tamil, le rohingya… mais des milliers d’ingénieurs calculent néanmoins ce qu’il faut mettre dans l’esprit des gens qui parlent ces langues. Des gens en meurent, rappelle-t-il en faisant référence au rôle de Facebook dans le drame à l’encontre des Rohingya dénoncés par l’ONU. Il est temps d’avoir un débat, de comprendre comment cela fonctionne et de tenter de nous attaquer à ce problème, pointe Harris.
« L’extractivisme attentionnel consiste à extraire toujours davantage, à fracturer toujours plus notre capacité attentionnelle »
« Quand je termine ma bouteille d’eau, le fait qu’elle soit vide me dit que c’est fini. Je peux en vouloir encore, mais il me faut alors en prendre une autre », explique Tristan Harris en joignant le geste à la parole. « Il faut le vouloir ». Une expérience de psychologie cognitive a montré que nous ne nous rendions pas compte de ce que nous ingurgitions devant des bols de soupes truqués, qui se remplissaient sans fin. Les cobayes de l’expérience de Brian Wansink du Food & Brand Lab de l’université Cornell ont absorbé deux fois plus de soupe que ceux qui n’avaient pas de bols qui se remplissaient discrètement, et ce, sans s’en rendre compte et sans s’en trouver plus rassasiés que le groupe test qui buvait une soupe dans des bols normaux. « Notre cerveau a besoin d’indicateurs. Or, nos outils numériques nous cachent ces indicateurs, à l’image des fils d’information sans fin ou des vidéos qui se lancent automatiquement, pour nous inviter à consommer davantage. » Si notre quantité d’attention est limitée, finie, les géants des technologies ont construit des modèles économiques sur l’exploitation sans fin de notre attention. Nous sommes piégés dans une course à l’armement où chacun lutte pour capturer notre attention. Pour Harris, le constat est clair. Pour limiter cette guerre, il faut trouver des modalités, des lois, des protections, des normes attentionnelles, comme on l’a fait pour l’écologie. Si on déréglemente l’exploitation de la nature, nous savons que nous nous retrouverons rapidement sans plus aucune forêt, sans plus d’eau potable…
« L’extractivisme attentionnel consiste à extraire toujours davantage, à fracturer toujours plus notre capacité attentionnelle », à l’image de notre recours au multitâche nécessaire pour répondre à la démultiplication des sollicitations et qui conduit, par épuisement attentionnel, à renforcer encore plus l’exploitation dont nous sommes l’objet. Notre perception est désormais enfermée dans un instrument débilitant qui modifie notre capacité d’attention. Harris souligne que ce constat s’amplifie avec le développement du modèle publicitaire, comme si l’intérêt perçu sur notre attention devait augmenter tous les trimestres… à l’image des résultats de ces entreprises. « Ces entreprises ne minent pas seulement nos données personnelles, elles minent également notre attention ; et notre capacité de contrôle, elle, diminue proportionnellement en retour ».
Harris fait la promotion du Center for Humane Technology, l’association qu’il a lancé et qui prolonge le Time Well Spent, avec un ancien associé de Zuckerberg, l’investisseur Roger McNamee, avec lequel il s’est rendu au Congrès américain pour alerter les sénateurs américains sur ces questions. Alors que le Time Well Spent était une adresse aux concepteurs à retrouver le sens éthique, le Centre pour une technologie humaine semble avoir un objectif plus politique.
Quand les gens pensent aux méfaits à venir de l’intelligence artificielle, ils pensent souvent à Terminator et à Skynet. Nombre de ceux qui évoquent la nécessité d’encadrer l’IA, estiment qu’il faudrait la limiter, afin que sa puissance, que son potentiel ne s’échappe pas des laboratoires et qu’elle ne puisse devenir hors de contrôle, qu’elle ne puisse poursuivre son propre but, au détriment de l’humanité. « Mais l’IA s’est déjà échappée », annonce Harris. Elle est déjà là, dans le fil d’information de Facebook ou dans les algorithmes de recommandation de YouTube. Quand on utilise ces services, on active à distance de superordinateurs, les plus puissants du monde, ceux capables de battre les humains aux échecs. Kasparov a été le dernier humain à battre un ordinateur. Le moteur de publicité de Facebook, les algorithmes de YouTube sont des systèmes qui visent directement nos cerveaux et qui jouent aux échecs avec. Et ils gagnent. « L’IA n’est pas de notre côté ». Elle joue pour nous proposer un contenu toujours plus idéal, comme nous-mêmes nous jouons avec Tinder pour trouver une personne toujours plus idéale. « ,Mais l’IA ne joue pas avec nous, elle joue contre nous ».
Et Harris d’en appeler à des environnements numériques différents. « Personne ne veut vivre dans un monde qui cherche à accaparer votre capacité d’attention ».
Le risque d’une éthique entre moralisme et dépolitisation
Harris n’a pas de solutions toutes prêtes qu’il sortirait de son chapeau. Au contraire. Il prône des techniques réflexives et personnelles, une prise de distance outillée de pratiques et de patchs. Il invite chacun à trouver des rustines (comme le Facebook News Eradicator, un plug-in pour Chrome qui fait disparaître le fil d’information de Facebook), en attendant que les services prennent ces questions au sérieux. Autant de solutions qui ne sont pas sans critiques, comme le pointaient, très justement les journalistes et chercheurs Ben Tarnoff (@bentarnoff) et Moira Weigel (@moiragweigel) dans un récent article du Guardian. Ils soulignaient d’ailleurs, comme le résume très bien Mais où va le web ?, que la prise en compte du « temps bien employé » par les géants du Net risque de rendre l’attention encore plus performante et rentable. Et pointaient combien le discours moralisateur et paternaliste des designers éthiques, en renvoyant individuellement les utilisateurs à leur « addiction » (avec toutes les limites qu’il faut porter à cette question d’addiction) risquait de dépolitiser le problème en en faisant un problème individuel plus que collectif.
S’il reste flou sur l’écueil du moralisme, reste que Tristan Harris semble plutôt vouloir s’extraire de ce dernier piège, en politisant son propos. Comme le changement climatique, « nous devons sortir du paradigme de l’extraction, du minage publicitaire de l’attention ». Le charbon ne coûtait rien et était très profitable, résume-t-il. Son exploitation a donné une phase économique de prospérité sans précédent, mais a pollué notre environnement pour longtemps. La pub relève du même fonctionnement : elle extrait notre attention et l’exploite de manière efficace, mais pollue notre environnement politique, démocratique, psychique, mental… « La publicité est le modèle économique le plus cher, quoiqu’on en pense ». Il nous faut concevoir un modèle de remplacement. Nous avons besoin d’ingéniosité pour répondre au problème, comme nous le faisons pour le climat en cherchant des solutions renouvelables. Tristan Harris reste optimiste. Cela fait 5 ans qu’il travaille sur ces questions. Et en un an, beaucoup de choses ont changé. Qui aurait pu penser que Zuckerberg serait convoqué pour témoigner et que le Sénat américain ou la Commission européenne lui demanderaient d’adresser ces problématiques ? La question a bougé. Il reste encore du chemin à faire. Mais « c’est la conscience publique et la mobilisation de tous qui permettront de changer les choses ».
Bien sûr, Harris a dû répondre à quelques questions. L’une des premières visait à éclaircir l’un des points d’ombre des propositions de Tristan Harris, à savoir qui décide de ce qui est bon pour le cerveau ? Si ce n’est Google ou Facebook, est-ce pour les remplacer par le Centre pour les technologies humaines ?
Harris rappelle que son propos n’est pas d’être alarmiste de façon naïve ni d’être contre la technologie. Pour lui, il faut distinguer l’attention artificielle de l’attention consciente. Il faut tenter de comprendre quand la technologie détourne nos ressources spirituelles et cognitives. Le problème aujourd’hui c’est qu’on lit des quantités infinies d’informations, mais que nous ne nous rappelons de rien. Un livre n’est pas nécessairement « mieux » qu’internet, mais la manière dont nous nous immergeons dans l’un ou l’autre est très différent, notamment en terme de durabilité. Est-ce que quand on utilise ces machines on se sent seul ? Certainement, mais le but n’est pas pour autant de les optimiser pour le bonheur ou le plaisir, mais de nous permettre de regarder à l’intérieur de soi. Ce que la capture attentionnelle ne permet pas toujours. « Les téléphones programment les expériences humaines », insiste-t-il. « Qui décide ? C’est la question effectivement. Mais il n’y a aucune raison que Facebook et ses ingénieurs décident pour tout le monde ». C’est comme si on n’avait choisi que des mathématiciens pour construire Paris… et qu’ils avaient construit Paris pour maximiser les revenus des loyers au détriment de toute autre considération… Quelle ville cela aurait permis ? Le modèle économique retenu doit permettre de faire de l’urbanisme… « La publicité personnalisée est trop dangereuse à utiliser à long terme », avance-t-il encore. « Il nous faut provoquer la transition économique qui nous fera passer du modèle économique de la publicité personnalisée à autre chose. » Bien sûr, Facebook ou Google ne veulent pas lâcher. C’est le modèle le plus profitable. D’où l’enjeu à ne pas relâcher notre pression sur eux. Certes, Google a annoncé une initiative de Bien-être récemment (voir les explications du Monde.fr). C’est une étape. La pression publique va nous permettre de grignoter des avancées… Mais elles ne suffiront pas. Il nous faut enclencher un changement structurel. D’autres modèles existent. Les fournisseurs de services qu’on paye ont moins tendance à mobiliser notre attention, estime-t-il (certainement un peu rapidement, car ni la capture attentionnelle ni le minage des données n’est lié au tarif que vous payez, mais bien à une volonté de ne faire ni l’un ni l’autre). « Il faut provoquer une transition ! » Le témoignage de Zuckerberg est une diversion, affirme-t-il. « Nous devons leur demander une responsabilité permanente », leur demander de changer les mesures de succès, de changer l’organisation de leurs équipes au profit de plus de diversité…
Mais peut-on prouver que les entreprises créent de l’addiction ? Et si c’est le cas, quelle institution pourrait contrôler le « bon design » ? C’est juste, concède-t-il. Personne dans l’industrie de la technologie ne dit qu’il « faut « accrocher les gens » ». Mais cet objectif est caché derrière d’autres mots, comme le si célèbre « engagement ». « L’engagement – et le modèle d’entreprise qu’il implique – masque les objectifs attentionnels des entreprises et le contrôle qu’elles s’assurent pour les réaliser ». Ceci dit, la normalisation et la régulation sont compliquées. Mais elles ne sont pas plus simples dans d’autres domaines comme l’environnement. Il faut du temps pour trouver des accords et des lois pour réguler le monde.
Reste à savoir ce qu’est une « technologie humaine ». Pour Harris, une technologie qui n’est pas humaine est une technologie qui exploite ou influence les instincts biologiques ou psychologiques des hommes. C’est une technologie qui vole l’action humaine. Bien sûr, décider de ce qui est éthique et de ce qui ne l’est pas est compliqué d’autant que nous sommes là confrontés à des choses subtiles, persuasives… Certaines technologies vont mieux fonctionner, c’est-à-dire mieux nous rendre humains que d’autres, estime Harris qui les compare aux ciseaux les plus adaptés à nos mains par rapport à ceux qui ne le sont pas du tout. Le design est basé sur l’humain. C’est cela que le design ne doit pas oublier.
« Avec votre approche, ne risque-t-on pas de jeter la pertinence que nous apportent ces technologies avec l’eau du bain, à l’image de la pertinence que nous apporte YouTube pour trouver des contenus ? », lance quelqu’un. Le problème de YouTube, répond Harris, c’est que ses objectifs ne sont pas les vôtres. Son but est de vous garder le plus longtemps possible. Quand bien même vous y cherchez quelque chose d’important pour vous, consciemment, il transforme, par la multiplicité de ses réponses, votre objectif. Vous oubliez que vous aviez autre chose à faire par exemple. « Je pense que la technologie doit respecter les objectifs des gens » plutôt que de faire que les objectifs de la technologie deviennent les vôtres. Elle doit mieux comprendre nos besoins et les respecter.
Si le propos de Tristan Harris est toujours stimulant, reste que, selon moi, il peine à montrer comment faire de l’attention une question réellement politique. Comment la réguler ? Comment la circonscrire ? Quels leviers de normalisation mettre en place ? Quelle autorité de contrôle développer ?… Sont autant de questions dont il n’existe pas de réponse unique. Quand on parcourt avec attention les solutions que propose le Centre pour une technologie humaine (voir par exemple ces vidéos qui montrent comment les messageries instantanées pourraient nous aider à rester concentré, comment nos outils pourraient intégrer des limites de durée, ou comment faire qu’ils intègrent nos valeurs) on se rend compte que bien des solutions esquissées, relèvent bien plus de la conception que de la politique, visent à élargir nos capacités de choix et avec elles, mieux définir nos modalités d’interactions, plutôt que d’être seulement limités par les choix que font pour nous les concepteurs d’outils.
Hubert Guillaud
0 commentaires
Bonjour Hubert,
Je pense de plus en plus qu’il y a une confusion dans la proposition d’Harris. D’une part sa dénonciation reprend les vieux arguments contre « la fabrique du consentement » de Lippman et Bernays (voir le docu d’Arte : https://www.arte.tv/fr/videos/071470-000-A/propaganda-la-fabrique-du-consentement/ ), une discussion dénonçant l’utilisation de la psycho (rebaptisée sc cognitives) un peu datée depuis « La société du spectacle » de Debord. D’autre part une dénonciation du design UX, qui est une méthode de conception, une méthode qui s’appuie sur l’analyse de l’expérience de l’utilisateur. C’est notamment cette approche, associée à l’architecture de l’information, qui fait ressortir l’importance de l’attention de l’internaute, qui tend aussi à rendre caduque l’expression « société du spectacle », et qui mériterait plus de réflexions, sans a priori (https://medium.com/designers-interactifs/manipulateurs-voleurs-de-temps-dealers-dattention-les-designers-num%C3%A9riques-sont-ils-des-46876dfc69db ).
A la suite de l’intervention de Tristan Harris, intervenait le chercheur Igor Galligo, venu défendre une conception technique de la culture. Il rappelait justement que la pensée ne fonctionne pas naturellement, que tous nos processus cognitifs sont médiatisés, c’est-à-dire que notre attention est toujours liée à des supports techniques qui nous aident à développer notre pensée. Le papyrus, le livre comme l’ordinateur formatent notre culture… et nous vivons désormais une technologisation qui change notre culture.
Le design – du papyrus au livre à l’ordintaeur – formate notre culture et la technologie la change. Foucault notamment a montré que le pouvoir se distribue dans l’ensemble des objets qui nous guident, nous contraignent. En cela, le pouvoir est aussi dans le design des objets que nous manipulons, comme le soulignait le philosophe Giorgio Agamben dans Qu’est-ce qu’un dispositif ?. En 2008 déjà, Bernard Stiegler dans Prendre soin évoquait les psychotechnologies qui influent sur nos pensées et pas seulement sur nos gestes. Le psychopouvoir, cette organisation systémique de l’attention, en génère une captation à l’échelle industrielle. Cette relation entre la technologie et le modelage de la pensée n’est pas récente. Le sociologue Daniel Bell la pointait déjà en évoquant la société postindustrielle. Dans son livre, Le cercle démocratique, Fred Turner rappelle que pour résister au fascisme, le Committee for National Morale préconisait d’abandonner les médias de masse pour des environnements médiatiques « multimédias »…
Mais la France n’a pas eu le même rapport à la technologie. En 1959, quand Malraux invente la politique culturelle française, il souhaite rendre accessible les oeuvres capitales de l’humanité en permettant à tous d’y accéder. Mais pour lui, c’est le choc artistique qui fait l’action culturelle, pas le dispositif pédagogique. Dans cette conception, on ne considère pas la condition médiatique de la culture. Si les Américains avaient compris le déterminisme technologique de la culture qui a façonné leur culture en retour, ce n’était pas le cas chez nous. Cela explique en partie que l’impérialisme économique américain en matière culturelle se soit aussi appuyé sur la technologie. On a besoin de faire de la technologie notre culture, estime le chercheur qui prône un ministère de la culture et de la technologie, afin que nous soyons mieux sensibles à ces questions de médiatisation. Pas sûr que cela soit suffisant pour adresser la question.