Bodyware : Neuroself

bodywareLa question de la compréhension de notre fonctionnement cognitif, psychique, psychologique est indissociable de celle de notre fonctionnement corporel, individuel comme social. Dans le cadre des travaux du groupe de travail Bodyware de la Fondation internet nouvelle génération, la question de l’intelligence de nos systèmes techniques pose nécessairement des questions à la nôtre. Quels nouveaux enjeux se font jour quand notre environnement technologique se « cognitise » ? Comment nous réapproprier ce qui nous en distingue ?

Après la question du corps au travail, de de l’augmentation ordinaire, des l’évolution des apparences, et de l’innovation dans le domaine de la santé, intéressons-nous à notre caractère distinctif : notre intelligence. Dernière piste de notre groupe de travail.

Intuition : notre cerveau est à nous !

Le double paradigme du cerveau, celui de sa compréhension et de sa réplication (via le développement des intelligences artificielles) est aujourd’hui un territoire de recherche dévolu aux spécialistes. Il y manque un élément essentiel : les hackers et les citoyens !

Les sciences cognitives et l’intelligence artificielle sont deux domaines de recherche pointus, peu ouverts au grand public, alors que leurs conséquences pour les citoyens sont sans communes mesures.

Est-il raisonnable de laisser la neuroéconomie au neuroéconomistes, le neuromarketing aux neuromarketers, la neuroergonomie aux neuroergonomes, la neuroscience aux neuroscientifiques, l’économie comportementale aux économistes comportementaux, ou le développement des intelligences artificielles aux seuls spécialistes de l’IA, alors que se multiplient les applications issues de ces recherches dans nos vies quotidiennes ?

Ne faut-il pas au contraire agir pour une plus grande diffusion de ces connaissances auprès de publics profanes afin qu’ils puissent prendre leur distance par rapport à la manière dont elles sont utilisées aujourd’hui, et disposer des ressources pour y porter un regard critique ?

Problématique : le cerveau, entre réplication et compréhension

“Le cerveau est l’objet le plus complexe de l’univers connu, et c’est de sa compréhension que dépendra l’avenir de nos technologies futures et singulièrement l’intelligence artificielle et la robotique” écrivait Rémi Sussan à l’issue d’un atelier Bodyware avec les chercheurs de l’Inria à Bordeaux. Des experts en cognition, modélisation et neurosciences nous ont donné ce jour-là un saisissant aperçu de leurs recherches, qui combinent mathématique, médecine, sciences cognitives et numériques pour développer des modèles computationnels de notre fonctionnement cérébral, comme l’apprentissage, la décision ou la perception de notre environnement, dans la perspective de développer des agents autonomes, robotiques ou logiciels, qui soient physiologiquement crédibles. Une parfaite illustration de ce double paradigme de la compréhension du cerveau et de sa réplication, qui oriente le développement de l’informatique depuis ses origines.

Des premiers supercalculateurs conçus pendant la Seconde Guerre mondiale jusqu’aux objets connectés, de l’architecture de Von Neumann, première description bio-inspirée de ce que pouvait être un ordinateur, formulée à la fin des années 50 et toujours en vigueur aujourd’hui, à l’utilisation des réseaux de neurones et du machine learning pour faire fonctionner Deepface, le puissant algorithme de reconnaissance faciale des photos postées sur Facebook, le cerveau et l’ordinateur ont fonctionné dans un jeu de miroir permanent, l’exploration de l’un inspirant et accélérant celle de l’autre, dans les deux sens [1].

C’est l’autre enseignement de cet échange avec les chercheurs de l’Inria, l’interdisciplinarité qui structure leurs travaux, et les dialogues, parfois de sourds, que ces praticiens tissent à l’intersection de leurs disciplines respectives. Pour ne prendre que l’exemple de l’équipe du projet Mnémosyne de l’Inria, les neurosciences mobilisent des ressources du coté de la biologie, de la médecine, des sciences cognitives, des sciences numériques et des technologies, tout en constituant elles-mêmes un des champs des sciences cognitives, qui regroupent de leur coté la linguistique, la psychologie, la philosophie, l’anthropologie et l’informatique. La compréhension de cet objet si complexe qu’est notre cerveau nécessite de le regarder sous tous ces angles, de mobiliser toutes les ressources disponibles, de l’explorer à toutes les échelles, de celle du synapse et du neurone à celle des grandes aires fonctionnelles déjà découvertes, et sur tout le spectre de ses usages : raisonnement, mémoire, perception, apprentissage, décision, émotion. Ce faisant, les sciences cognitives brouillent les frontières entre sciences dures et sciences molles, sciences de la vie et sciences humaines, non sans créer de polémiques.

Frank Ramus, du Département d’études cognitives de l’Ecole Normale Supérieure, parle à propos des neurosciences d’un double effet de fascination et de répulsion. Une fascination bien réelle, alimentée par un flux incessant de données et de magnifiques images de notre cerveau, abondamment diffusées dans les médias, et une répulsion, de la part de leurs collègues des sciences humaines qui pointent les risques de réductionnisme de cette approche déterministe qui ne produirait qu’une vision incomplète de l’homme, et des perspectives inquiétantes pour le devenir de nos sociétés. Pour Franck Ramus nous n’en sommes pas là, tant s’en faut, les neurosciences ne sont pas plus réductionnistes que la biologie ou l’économie, il n’y a pas plus de sens à vouloir décrire l’être humain en termes exclusivement moléculaires qu’économiques. Les neurosciences sont simplement comme les autres sciences, elles pensent que les phénomènes qu’elles étudient ont des causes, sans prétendre tout réduire à celles-ci.

Au-delà de ces débats entre scientifiques, nous sommes confrontés aujourd’hui à un usage critiquable des connaissances issues du croisement de ces deux univers de recherche, sciences cognitives et intelligence artificielle, par des organisations, publiques et privées, qui s’approprient des connaissances sur la compréhension de nos mécanismes cognitifs, biologiques ou émotionnels pour en faire des usages qui n’éclairent pas forcément les gens, mais semblent surtout chercher à les manipuler. Le marketing a su tirer depuis longtemps les bénéfices de recherches menées par des psychologues et des économistes pour mieux comprendre nos comportements, nos prises de décision, et les biais cognitifs qui nous orientent à notre insu, par exemple lorsque nous privilégions sans le savoir les produits se situant au centre des rayons du supermarché. Capter l’attention du consommateur, déclencher les bons stimuli sensoriels, influencer ses choix, constituent aujourd’hui le B.a.-ba des futurs marketers, aidés en cela par les multiples études réalisées par les départements de psychologie et d’économie comportementales qui ont essaimé partout dans le monde développé.

De son coté Facebook a récemment créé la polémique après avoir lancé, sans avertir les 700 000 membres concernés du réseau social, une étude sur la contagion émotionnelle, en “manipulant” leurs flux d’actualité, certains affichant plus d’informations positives, d’autres moins, afin de mieux comprendre l’incidence de ces variations sur le comportement des utilisateurs. S’abritant derrière ses conditions d’utilisations, acceptées par tous ses membres, pour expliquer le fait de n’avoir pas prévenu ceux qui étaient concernés, Facebook n’est donc pas dans l’illégalité, même si le doute subsiste sur la légitimité de sa décision, et que se pose désormais la question de mettre en place pour ce genre d’expériences un système d’opt-in/opt-out.

GIF-thedress64A rebours de ces pratiques opaques, la discussion virale et mondiale qui a occupé en février dernier pendant deux jours les internautes pour trancher sur la couleur, blanc et or ou bleu et noir, d’une photo de robe postée sur Instagram, leur a fait prendre conscience de leurs biais biologiques (avec l’âge notre rétine est moins sensible à la couleur bleue), mais aussi contextuels (comme l’éclairage), qui peuvent faire varier la perception d’un même objet par des sujets différents.

Or, derrière ces univers scientifiques se dissimulent d’importants progrès dans la compréhension des mécanismes et des biais cognitifs, physiologiques, psychologiques ou émotionnels (qu’ils soient relatifs à l’apprentissage, aux motivations, à la décision, à l’émotion…). La compréhension de ces phénomènes est complexe, exigeante, pointue… Mais en même temps que progressent les connaissances sur ces mécanismes, émerge une demande, une pression sur le numérique qui va permettre de mieux capter, interpréter, révéler, bidouiller, hacker ces signaux non verbaux et dont le décodage s’invite dans les communications entre les individus médiés par les technologies. L’enjeu n’est pas seulement que les machines comprennent mieux nos émotions, notre biologie et nos biais comportementaux, mais que la société et que chacun d’entre nous en soit également plus conscients et plus maîtres.

Controverses et pistes

En brossant – toujours trop rapidement – les conséquences des avancées de la réplication et de la compréhension du cerveau, nous pouvons tenter d’esquisser quelques questions difficiles.

L’intelligence artificielle nous augmente-t-elle vraiment ?

L’intelligence artificielle va-t-elle nous détruire ? C’est l’alerte qu’ont voulu lancer au mois de juillet dernier plus d’un millier de personnalités, en majorité des chercheurs en robotique et intelligence artificielle (IA), qui réclamaient l’interdiction des armes autonomes “capables de sélectionner et de combattre des cibles sans intervention humaine”. Parmi les signataires figuraient Bill Gates, cofondateur de Microsoft et philanthrope actif, Elon Musk, serial entrepreneur high-tech avec Tesla ou SpaceX, l’astrophysicien Stephan Hawking, ou le linguiste Noam Chomsky. Même si les signataires de la lettre prenaient soin de distinguer le bon grain de l’ivraie, les usages “civils” de l’IA restants à leurs yeux bénéfiques pour l’humanité, seuls les usages militaires devant être mieux contrôlés, l’écho médiatique retentissant de leur démarche, avec une couverture parfois sensationnaliste et caricaturale du sujet, s’est révélée contre-productive, certains journalistes n’hésitant pas à noyer le bébé avec l’eau du bain.

Et si cette controverse en cachait une autre ? Pour le chercheur de l’Inria Frédéric Alexandre, interrogé par le mensuel Pour la science, on nous alerte sur un problème qui n’est pas nouveau. On élabore depuis longtemps des systèmes de raisonnement dont la complexité est bien supérieure à l’intelligence humaine. L’exemple récurrent sur ce sujet, c’est bien sur celui de la finance et du trading haute fréquence, qui délègue à des algorithmes informatiques, bien plus rapides et puissants que l’intelligence humaine, la responsabilité de choix et d’arbitrages qui se font à des échelles de temps inaccessibles au commun des mortels, avec des conséquences qui peuvent être parfois démesurées dans des situations de crise, comme celle de 2008. L’argument de la puissance de calcul qui croit régulièrement, la fameuse loi de Moore, reprise par de nombreux relais médiatiques, ne tient pas une seconde aux yeux de Jérôme Pesenti, le chercheur français responsable chez IBM de la R&D de Watson, son supercalculateur : « Aujourd’hui, nous sommes capables d’atteindre une puissance de calcul équivalente à quelques millions de neurones et quelques milliards de connexions neuronales. L’humain compte 100 milliards de neurones et 100 trillions de connexions. Nous en sommes donc très loin ». La vraie question à se poser, rappelle Frédéric Alexandre, est moins celle de la puissance combinatoire et mathématique dont disposent ces applications, que la nature des valeurs qui a guidé les concepteurs de telles applications.

Quelles sont en effet les valeurs qui guident les grands acteurs du numérique, quand ils font usages de technologies issues des recherches en intelligence artificielle ? C’est l’IA « canal historique » qui “a permis de concevoir de très nombreux algorithmes que l’on retrouve aujourd’hui dans un très grand nombre d’applications grand public”, pour reprendre la formule de Nicolas Rougier, autre chercheur de l’Inria. Car l’intelligence artificielle a été et reste un champ de recherche extrêmement fécond, d’où sont sorties des technologies aussi variées que la reconnaissance de la parole, les algorithmes pour la génétique, la fouille de données, la vision par ordinateur, les réseaux de neurones artificiels, ou le machine learning, qui sont utilisés effectivement par les GAFA, NATU et les kyrielles de startups qui les accompagnent pour façonner le web d’aujourd’hui et de demain.

Pour un observateur avisé des transformations numériques comme Kevin Kelly, nous entrons dans un “moment” cognitif qui ne fait que commencer. « Tout ce qu’autrefois nous avons électrifié, nous allons désormais le cognitiser », écrit-il. Pour lui : « Les business modèles des prochaines 10 000 startups sont facile à prédire : prendre X et y ajouter de l’intelligence artificielle ». Pour Laurent Alexandre, Google est le leader mondial des neurotechnologies. Il est déjà une neuroprothèse. L’intelligence des machines ne va pas se développer en dehors de nous, elle est appelée à devenir invasive, systémique.

Cette profusion d’intelligence, cette multiplication d' »agents autonomes » (Google Now, Siri…), toujours plus compétents, auxquels travaillent les spécialistes de l’intelligence artificielle, semblent surtout réduire toujours un peu plus notre autonomie. Leur autonomie se construit-elle au détriment de la nôtre ? Après la mémoire, le calcul, la communication… vont-ils externaliser demain nos compétences sociales et cognitives, comme s’en inquiète Nicholas Carr dans son dernier livre [2] ? Quelles compétences nous laisseront-ils et pourrons-nous encore les cultiver, comme le résume Dominique Cardon [3] : « Dans les activités complexes, les habiletés manuelles ont été transférées vers les machines. Les pilotes d’avion ne conduisent plus vraiment les avions, mais les surveillent. Les architectes ne font plus de dessins à la main, mais modélisent directement en 3D. Les algorithmes de détection visuelle sont en train d’apprendre à lire les radiographies et les IRM que valideront ensuite les médecins. Face à ces grands systèmes techniques qui capturent nos habiletés, il est de plus en plus nécessaire d’apprendre à ne pas désapprendre. »

Face à cette perspective, les utilisateurs ne peuvent être passifs. Ils doivent comprendre ce dont ils sont l’objet et comment répondre : à l’heure de l’informatique émotionnelle, du développement de l’économie comportementale, les utilisateurs ont besoin de médiation pour comprendre les tentatives de manipulation qui les menacent. La sous-veillance cognitive est un territoire à inventer.

Aujourd’hui, si la compréhension de nos mécanismes cognitifs passe par les machines, force est de constater qu’il n’y a pas de connaissance sans corps, comme le souligne le paradigme de la cognition incarnée. Les machines et les robots mettent en miroir nos corps et nos cerveaux entre nous et la machine et nous adressent des nouvelles questions sur le fonctionnement de nos cerveaux. Ils ouvrent un territoire de recherche sur la réintroduction de la corporalité.

« Nous sommes confrontés à un faisceau de questions qui montrent que nos outils numériques doivent penser leur corporalité.

Nous avons besoin d’appareils de lecture, de systèmes cartographiques électroniques, d’ordinateurs qui réintroduisent de la corporalité… c’est-à-dire capables de compenser l’absence de physicalité de nos outils numériques. C’est en tout cas là, un enjeu de conception de demain. Nos outils numériques doivent apprendre à mieux mobiliser notre corps. »

Hubert Guillaud, « Numérique : la représentation spatiale en question », InternetActu.net, 06/10/2014 : https://www.internetactu.net/2014/10/06/numerique-la-representation-spatiale-en-question/.

filtredamour
Image : présentation du prototype de philtre d’amour imaginé par les étudiants du CRI dans le cadre d’un des ateliers de l’expédition Bodyware.

Et la complexité de cette question risque d’aller croissante, notamment avec le croisement des recherches sur la biologie, permettant demain de créer des capteurs ou diffuseurs de phéromones, permettant à nos machines de comprendre ce que l’autre va ressentir ou de lui faire ressentir des choses par la manipulation, à l’image du philtre d’amour biologique imaginé lors d’un de nos ateliers avec les étudiants du CRI. Même chose au niveau du croisement des données génétiques avec d’autres types de données à l’image de Singldout, un site de rencontre qui propose de croiser les préférences comportementales avec des informations génétiques.

personalityinsightswatson
Image : page d’accueil du service Personality Insights de Watson.

Ces questions complexes en posent une autre, plus générale… sur la façon dont nous sommes modélisés par l’ensemble de ces systèmes. La manière dont les sciences cognitives, la psychologie et les sciences du comportement nous normalisent, nous standardisent, découpent nos profils de personnalités selon des conventions communes, des modèles de compréhension, des méthodes d’analyse que l’on retrouve partout au prétexte qu’elles produisent un compromis entre simplicité et exhaustivité, mais qui génèrent leurs propres clichés interprétatifs. Le risque est que les systèmes techniques, en nous traitant à partir des mêmes modèles, finissent par nous classer selon des systèmes uniformes, générant des visions simplistes et redondantes de nous-mêmes. Quels sont les modèles des profils cognitifs, psychologiques, comportementaux qui structurent la manière dont nos machines nous analysent ? Quelles limites à la compréhension de nous-mêmes risquent de générer la généralisation de l’utilisation des mêmes modèles d’analyse à l’image des cinq traits centraux de nos personnalités (le fameux Big Five) que l’on retrouve dans toutes les constructions d’analyses de profils [4] ? Que nous dit cette fabrique de stéréotypes, cette « physique sociale », ces modèles d’analyses du comportement très balisés qui structurent l’analyse du psychologique dans tous les champs du social ? Quels profils de nous-mêmes deviendrons-nous quand tous nos outils d’analyses se référeront aux mêmes modèles d’analyses ? Comme le souligne brillamment le sociologue Dominique Cardon dans son livre [5] : les modèles algorithmiques risquent de nous enfermer dans notre conformisme, dans la régularité de leurs modèles qui le deviennent parce qu’ils calculent nos propres habitudes. Quel miroir de nous-mêmes nous renverra demain les modèles d’analyses psychologiques ou cognitifs qui tendent à devenir unique, à l’image du Big Five ou de l’API personality Insights de Watson qui propose un modèle d’analyse de personnalité de profils ou de contenus disponible sous forme de services web pour faire fonctionner tous les systèmes selon les mêmes modèles d’analyse ? La tendance à nous réduire à des catégories risque de produire de nouvelles questions à mesure que leurs modélisations vont se généraliser.

De la compréhension de l’intelligence à l’autonomie cognitive

Comme le montre les plus récents programmes de recherche sur le cerveau, les théories sur sa compréhension ne sont pas partagées. Le projet américain BRAIN (Brain Research through Advancing Innovative Neurotechnologies) vise à comprendre le cerveau dans son ensemble, et notamment le fonctionnement de tous ses neurones. Le défi pour ce projet sera de “cartographier les circuits du cerveau, mesurer les fluctuations d’activité chimique et électronique se produisant dans ces circuits ; et à comprendre comment leur interaction donne naissance à nos capacités uniques tant dans les domaines cognitifs et comportementaux.” Le projet européen, Human Brain Project, lui, se propose de bâtir une simulation informatique du cerveau humain, en fonction des connaissances que nous avons déjà acquises. Deux approches différentes donc, mais qui mobilisent chacune des moyens considérables pour faire avancer les travaux des laboratoires et chercheurs directement impliqués, et au-delà ceux de toutes les communautés concernées. Il est trop tôt pour le dire, mais les concepteurs de ces deux grands projets aimeraient sans aucun doute réussir pour la recherche sur le cerveau ce que la cartographie du génome humain a réussi à faire pour la biologie.

En attendant que ces résultats soient disponibles, il faut faire avec les définitions existantes, qui sont fort nombreuses et l’objet de débats entre spécialistes de chaque branche concernée. On peut néanmoins, comme le suggère Frédéric Alexandre, mettre l’accent sur deux caractères importants de ce qu’on appelle l’intelligence. En premier lieu l’intelligence formelle, qui mobilise des traitements logiques, combinatoires, mathématiques, rationnels, et qui nous permet par exemple de procéder à des déductions ou d’inférer une chose d’une autre. En second lieu l’intelligence émotionnelle, incarnée dans un corps situé dans un environnement, avec lequel elle interagit de multiples manières. Pour beaucoup de chercheurs, ces deux aspects, logique et émotionnel, de l’intelligence sont fortement imbriqués, une thèse confirmée par de nombreuses études qui confortent ce paradigme de la cognition incarnée et qui oriente de nombreux travaux aujourd’hui. Ces deux faces émotionnelle et rationnelle de notre intelligence [6] sont également présentes dans les travaux de l’économie et de la psychologie comportementale, notamment ceux de Daniel Kahneman, prix Nobel d’économie, qui a popularisé la distinction entre deux systèmes de pensée, le « système 1 » rapide, instinctif et émotionnel et le « système 2 » plus lent, plus réfléchi et plus logique, notamment pour expliquer le comportement souvent irrationnel de l’homo œconomicus dans ses choix [7].

Dans ce cadre, que signifie alors « hacker le cerveau » ? Quelle part de notre intelligence veut-on transformer ? Quelles données veut-on recueillir ? Pour quoi faire ? Quand on cherche à faire un régime, on cherche des moyens pour agir sur son poids en suivant des méthodes pour tenter de le faire baisser. Mais quand on cherche à agir sur le cerveau, sur quoi cherche-t-on à agir ? L’intelligence ? La mémoire ? La créativité ? L’imagination ? Le système 1 ? Le système 2 ?…

Comment mesure-t-on les effets ? Est-ce que favoriser la mémoire a un impact sur la créativité et inversement ? Que signifie augmenter l’intelligence ? Quelles données doit-on recueillir ? Sur quels facteurs doit-on agir ? Est-ce que ce sont les bons ? On sait que les fonctions mentales peuvent être contradictoires… Par exemple, vaut-il mieux favoriser le repos du cerveau ou sa concentration ? Si on prend un produit comme la ritaline, qui favorise la concentration, mais réduit la créativité, aura-t-on pour autant une meilleure capacité à résoudre un problème, quand on sait que ceux-ci sont souvent résolus quand le cerveau est au repos ? Vaut-il mieux travailler par cycles de 2 heures ou de 6 heures ?… Le rêve lucide peut-il augmenter l’apprentissage et la prise de décision ?… La méditation rend-elle le cerveau plus actif et quels sont ses effets ?… La liste des questions à adresser serait ainsi sans fin. Quand on s’intéresse aux applications pratiques des sciences cognitives, la réponse “personne ne sait vraiment » est bien celle qui revient le plus souvent comme le souligne Rémi Sussan [8].

Dans le flot de théories et d’expérimentations qui les remettent sans cesse en cause, ces questions n’ont pas vraiment de réponse. Elles permettent le développement d’un flot (d’un flow) de théories, de méthodes, de logiciels et d’applications de santé et bien-être dans le flou du développement personnel [9] (application pour la méditation, jeux pour exercer sa mémoire, outils de stimulation transcraniens, produits chimiques ou naturels à ingérer… comme le thé

Dans ces controverses sur le hacking de soi, les questions de normes sociales et éthiques sont fortes. Il faut aussi prendre la mesure du caractère hautement incertain de toutes ces formes d’auto-expérimentations qui viennent du Quantified-Self, tout comme de bien des recherches, qui ne prennent leur valeur que par des démonstrations répétées, comme l’explique très bien Normand Baillargeon en démontant, à la suite des travaux du spécialiste de l’éducation, John Hattie, bien des idées reçues sur la cognition et l’apprentissage [10]. Nous sommes dans un domaine où l’effet placebo, la méthode Coué et les facteurs culturels prédominent, comme l’explique notre collègue Rémi Sussan dans Frontières grises.

coglab
Image : page d’accueil du Coglab.

Pourtant, comme le répètent les neuroscientifiques, notre évolution est néanmoins le fruit du piratage constant de notre cerveau [11]. Reste que mieux comprendre ses réactions pour mieux comprendre son fonctionnement et améliorer le monde, mieux décoder les techniques de persuasion du marketing, de l’argumentation ou de l’économie comportementale… demeurent des moyens à notre portée pour tenter de comprendre le monde et agir sur lui. Si les écueils sont nombreux, l’usage de technologies pour mieux comprendre notre fonctionnement cérébral et comportemental va se développer à mesure que la technologie le permettant va se répandre (même si beaucoup utilisent des techniques encore simples à l’image des outils de mesure des associations implicites ou d’eye tracking, permettant de mesurer vos réactions à des stimulis et apprendre de vos biais culturels). Si les limites de ces outils doivent être autant de garde-fous, si le secteur est très spéculatif, ce n’est pas pour autant qu’il ne faut pas s’intéresser à ces nouveaux développements, comme le propose le CogLab incubé à la Paillasse. Nous avons besoin d’un plus grand intérêt encore pour ces questions et d’une plus large distribution des expérimentations. Le développement de nos capacités cérébrales passe par le développement de nos cerveaux à tous, pas seulement par le développement de systèmes techniques. Nous sommes les premiers moteurs de notre propre augmentation cognitive, du piratage de notre propre cerveau. C’est à chacun d’entre nous d’en prendre soin et c’est d’abord à nous tous de le pirater, plutôt que de le laisser se faire pirater par d’autres.

Scénarios et démonstrateurs

Que faire pour explorer ces controverses ? Continuer à faire comme nous avons toujours fait : pirater notre cerveau ! Et démultiplier les formes d’expérimentations pour associer toujours plus de monde à la compréhension de soi.

SHSLab

Pour des Paillasses des sciences humaines

A l’heure des labs et des processus d’expérimentation ouverts (hackathons, barcamps, « mix », tiers-lieux, fablabs, infolabs…) qui se développent dans de nombreux champs pour faire se croiser citoyens chercheurs et innovateurs… Force est de constater que les sciences humaines semblent en retard dans ce domaine. Les Paillasses ont invité les chercheurs en sciences dures à s’ouvrir au public. Les FabLab, ont convoqué les sciences de l’ingénieur à croiser le fer avec le grand public. Mais les sciences humaines, les sciences « molles », semblent encore relativement rétives à initier ce type de croisement. Où sont les Paillasses de la sociologie, de l’économie, de la psychologie, du journalisme… ?

Pourtant, ces formes et formats nouveaux se révèlent souvent stimulants pour incuber des projets, décloisonner les questions disciplinaires, ouvrir ses enjeux à un public plus large et inventer de nouvelles formes de sciences, pour lire, écrire, enquêter, restituer, communiquer, débattre, enseigner, vulgariser… faire de la recherche d’autres manières.

Une paillasse SHS devrait favoriser la fertilisation croisée entre toutes les disciplines concernées. Ces croisements existent déjà bien sûr. Frédéric Lordon, économiste contrariant et philosophe contrarié, en donne un exemple éclairant [12]. Il hacke Spinoza, pour innover dans ses analyses, en lui empruntant les concepts de désir, la force motrice principale du comportement individuel, c’est l’énergie du désir, et celui d’affects, qui décident de l’orientation de cette énergie, et font se mouvoir les individus dans telle ou telle direction. En posant un cadre méthodologique hybride qui mixe théorie de la régulation, l’école économique à laquelle appartient Lordon, et la géométrie des passions telle que Spinoza l’a conçue dans l’Ethique, il fabrique une grille d’analyse, ce qu’il désigne comme un structuralisme des passions, pour décrire et comprendre autrement les dynamiques sociales à l’oeuvre aujourd’hui, celles des individus entre eux et celles des individus avec les institutions. Ce n’est pas le lieu ici pour détailler plus en profondeur ses analyses, mais cet exemple illustre la fertilité d’une approche décloisonnée de tous les champs des sciences sociales, et donne des idées pour une prochaine programmation d’une Paillasse SHS, qui, à l’instar de celles existants dans le champ de la biologie, serait aussi une plateforme de laboratoires connexes partageant principes et méthodes : open science, culture geek, expérimentations…

Emotion Lab

Les émotions, clef d’entrée sur le fonctionnement de notre cerveau

Par exemple toutes les questions que nous avons traité auparavant, sur la nature des émotions, le monitoring dont elles sont l’objet, le neuromarketing et la neuroéconomie, mais aussi celles traitées autour de la question des apparences ou de la santé disruptive, trouveraient dans un dialogue avec les thèses de Frédéric Lordon, mais aussi d’autres en provenance d’autres champs un éclairage supplémentaire à même de faire émerger des perspectives nouvelles. Produire toutes ces frictions intellectuelles autour de la question des émotions serait une première mission d’un Emotion Lab au sein de la Paillasse SHS.

La Paillasse de Paris accueille déjà un CogLab, « un programme d’exploration des sciences cognitives au croisement de l’art numérique, de l’intelligence artificielle et de l’open science ». Un laboratoire d’expérimentation citoyenne autour du cerveau, pour que professionnels, innovateurs et grand public se rencontrent. Une initiative qui mériterait de recevoir plus de partenaires pour en démultiplier les projets et leur impact.

C’est sur ce modèle (ou celui du Backyard Brains), qu’il nous semble intéressant d’imaginer un Emotion Lab. Un programme d’expérimentation ouvert s’intéressant aux émotions, à leur détournement, à leur compréhension, qui pourrait être plus accessible au grand public. A l’heure du neuromarketing, de l’informatique affective, de l’analyse de sentiment, de l’économie comportementale… un espace d’expérimentation pourrait être un moyen pour favoriser l’autonomie et la sous-veillance cognitive que nous appelons de nos voeux dans notre analyse. L’émotion est un enjeu moins impressionnant que la cognition et qui nous confronte à des formes de manipulation auxquelles nous avons trop souvent du mal à répondre.

Aider les gens à monter en compétence sur ces questions, accompagner des projets visant à décrypter les émotions, leur langage, favoriser des partenariats ouverts et divers, nous semble un enjeu fort pour développer des réponses innovantes, qui viennent autant des sciences cognitives, que du marketing, de la psychologie, de la sociologie ou de l’économie.

L’Emotion Lab permettrait d’interroger le rôle des dispositifs existants de captation et d’analyse de nos émotions, sous la forme d’objets connectés ou d’applications, pour mieux nous les approprier, en comprendre leurs limites et en imaginer de nouveaux, comme la piste des “100 projecteurs de soi” formulée dans Apparences hybrides. A l’heure de la montée du dressage de nos comportements par les technologies couplées à l’économie comportementale, les réponses et détournements initiés par les gens seront les meilleurs moyens d’apprendre de leurs limites et de permettre à chacun de reconquérir son autonomie cognitive.

Leurromarketing

10 adblocks pour le neuromarketing

Une autre mission de cette Paillasse SHS serait d’innover dans les formats de vulgarisation des connaissances produites par les différentes disciplines qui relèvent des sciences humaines et sociales, et dans les formats événementiels qui permettent de mixer publics profanes et spécialistes d’un sujet.

Par exemple un workshop associant chercheurs en économie et marketing, sciences cognitives, designers et développeurs, pour imaginer comment nous défaire dans le monde réel de l’invasion publicitaire qui joue de nos biais cognitifs pour nous pousser à consommer. En s’inspirant de l’Adblock, qui est une extension qui permet de bloquer et réduire au silence, sur le web, les bannières publicitaires, comment déjouer le marketing auquel nous sommes confrontés, en prendre conscience et imaginer des systèmes permettant de leurrer le marketing ? Pourrait-on initier des projets pour répondre ou nous faire prendre conscience des manipulations dont nous sommes l’objet ? Tel pourrait être l’enjeu d’un atelier de prototypage de projets pour nous aider à reconquérir notre autonomie cognitive.

Hubert Guillaud et Thierry Marcou

Hubert Guillaud est journaliste, rédacteur en chef d’InternetActu.net et de AlireAilleurs, médias de la Fing. Thierry Marcou est responsable du programme Bodyware de la Fing.

Retrouvez toutes les conclusions du groupe de travail Bodyware de la Fing :

_______
Notes

1.Voir notamment Draaisma (Douwe), Une histoire de la mémoire, Bibliothèque des savoirs, Flammarion, 2010, qui détaille les différentes métaphores avec lesquelles nous avons abordé, dans le temps, la mémoire. Ou comment la machine a servi à penser la mémoire et comment la structure du cerveau a servi de modèle aux machines.
2.Carr (Nicholas), The Glass Cage : automation and us, W. W. Norton & Company, 2014. Voir également https://www.internetactu.net/2015/03/30/technologie-avons-nous-raison-detre-critiques/.
3.Cardon (Dominique), A quoi rêvent les algorithmes, nos vies à l’heure des big data, « La République des idées », Seuil, 2015.
4.Sur la critique de ces modèles de compréhension psychologique, voir « Vers des technologies de l’empathie ? », ainsi que les articles qui interrogent les modèles de traitement des profils, comme le test de personnalité Myers-Briggs, – notamment ici, ou des articles critiques sur le modèle des Big Five comme ceux de Saulsman, Lisa M, and Andrew C Page, « The five-factor model and personality disorder empirical literature : A meta-analytic review », Clinical Psychology Review 23.8 (2004), 1055-1085 et McCrae, Robert R, and Oliver P John, « An introduction to the five‐factor model and its applications », Journal of personality 60.2 (1992), 175-215.
5.Cardon (Dominique), A quoi rêvent les algorithmes, nos vies à l’heure des big data, « La République des idées », Seuil, 2015.
6.Attention, Gardner parle de nombreux autres types d’intelligence. Pour Kahneman lui-même, le système 1 ne se confond pas exclusivement avec « l’émotionnel », mais se caractérise plus par sa rapidité, son caractère instinctif, habituel, intégré… Enfin, les dualités cognitives sont nombreuses et ne se recoupent pas les unes les autres : intellect/émotion, système 1/système 2, cerveau gauche/cerveau droit, limbique/néocortex/reptilien, mode concentré/mode diffus
7.Kahneman (Daniel), Système 1 / Système 2 : Les deux vitesses de la pensée, Flammarion, 2012.
8. Sussan (Rémi), Frontières grises, François Bourin Editeur, 2013.
9.Marquis (Nicolas), Du bien-être au marché du malaise, la société du développement personnel, « Partage du savoir », PUF, 2014.
10.Baillargeon (Normand), Légendes pédagogiques : l’autodéfense intellectuelle en éducation, Les éditions Poètes de brousse, 2013.
11.Comme l’explique notamment les travaux de Stanislas Dehaene. Voir également : https://www.internetactu.net/2013/02/28/les-nouvelles-technos-ne-detruisent-pas-le-cerveau-elles-sy-adaptent/, https://www.internetactu.net/2013/01/29/enfants-et-ecrans-psychologie-et-cognition/ et https://www.internetactu.net/2013/01/04/notre-cerveau-a-lheure-des-nouvelles-lectures/.
12.Lordon (Frédéric), La société des affects : pour un structuralisme des passions, « L’ordre philosophique », Seuil, 2013.

À lire aussi sur internetactu.net