Le cerveau, objet technologique (4/8) : De nouvelles façons de parler… et de penser

Comment penser mieux ? Comment organiser notre vie mentale ? Pas forcément pour devenir un athlète du sudoku, ou un génie à la Léonard de Vinci, mais simplement pour intégrer dans notre mode de vie ce que nous connaissons aujourd’hui du cerveau et de l’esprit ?

Reconnaissons-le : du cerveau, de l’esprit, on ne sait aujourd’hui pas grand-chose, en tout cas pas grand-chose de pratique. Et lorsqu’une technique marche, on ne peut savoir si oui ou non on a affaire à un effet placebo ou pire, à quelque chose de vraiment efficace, mais qu’il faudra payer au prix fort.

Les modes d’action sont multiples. On peut chercher à travailler au niveau des composants de base de notre cerveau, en modifiant directement le fonctionnement de nos neurones ou synapses. Cela se fait aujourd’hui directement de façon chimique à l’aide de produits comme la caféine, l’alcool, ou des composés plus risqués ou moins recommandables, et peut être demain à coup d’implants cybernétiques. On peut travailler sur son fonctionnement par l’entraînement, en lui faisant faire des exercices destinés à booster certaines fonctions primaires, comme la mémoire. C’est le tout nouveau champ en plein boum de l’entrainement cérébral. On peut peut-être, mais c’est plus mystérieux, agir sur les fonctions au plus haut niveau de la conscience, contrôler les fonctions qui gouvernent la religion, l’art, et celles qui structurent la personnalité elle-même.

Mais avant d’aborder ces technologies complexes, examinons une approche plus simple : apprendre de nouvelles méthodes qui nous aident à penser mieux, à faire un bon usage de nos perceptions, de nos connaissances, à prendre de bonnes décisions.

Mieux comprendre comment on apprend à connaître

L’une des premières méthodes que nous pouvons chercher à adopter consiste à renforcer notre « épistémologie ». L’épistémologie est la discipline philosophique qui cherche à comprendre l’acte de connaître. A première vue, il s’agit donc d’un champ très abstrait réservé aux spécialistes universitaires. Pourtant, dans notre monde gouverné par l’information, l’épistémologie devient une science de la navigation, une disciple qui nous concerne tous.

C’est la voie choisie notamment par Richards Heuer, dont le livre Psychology of intelligence analysis a été placé gratuitement en ligne par son éditeur… la CIA, dans un souci de transparence si louable qu’on serait presque tenté de le trouver suspect.

L’essentiel du livre de Heuer consiste à enseigner aux analystes de l’Agence les bases de la formulation et de la vérification d’hypothèses. Ainsi, il applique au Renseignement la thèse de la « réfutabilité » de Karl Popper, le plus célèbre épistémologue du XXe siècle. Selon lui, il est impossible de déterminer si une théorie scientifique est vraie : car elle pourra toujours être démentie plus tard. En revanche, on peut toujours essayer de voir si elle est fausse. Une théorie véritablement scientifique est donc réfutable. Ce sage conseil est aujourd’hui sorti du milieu de la philosophie des sciences pour envahir des domaines beaucoup plus prosaïques. Dans son manuel, Richards Heuer précise ainsi qu’il est préférable de chercher à rejeter des hypothèses plutôt que de chercher à les confirmer. La meilleure hypothèse est en général celle qui a le moins d’éléments contre elle, et non pas pas celle qui possède le plus d’indices en sa faveur. Idée reprise aussi par Nicholas Nassim Taleb dans son Cygne noir, qui suggère de l’appliquer au domaine financier.

Un autre exemple de nos limites cognitives est la trop grande stabilité de ce qu’il nomme les « structures mentales » (mind-set). Autrement dit, lorsque nous percevons un motif, une structure (pattern), nous avons du mal à en changer par la suite. Par exemple, ceux qui voient dans la continuité auront tendance à voir dans la série de dessins représentés ci-dessous un visage masculin, alors que la dernière image représente de toute évidence le corps d’une femme. A l’opposé, ceux qui voient la série à l’envers auront tendance à continuer à y voir une femme, malgré les modifications qui l’approchent de plus en plus d’un visage masculin.

une image extraite de Psychology of intelligence analysis
Image extraite de Psychology of Intelligence Analysis.

Ce qui est frappant lorsqu’on lit le livre de Heuer, c’est le peu de place consacré aux émotions. Il est vrai que ce texte date un peu : 1999. Une décennie, c’est long dans le domaine de la recherche en cognition. Les analystes de la CIA apparaissent comme des « acteurs froids », dotés de biais cognitifs, certes, susceptibles d’être corrigés par la « bonne » méthode, mais pas de place pour « le cerveau du lézard » ou pour le « système 1 » que nous évoquions précédemment… On peut bien sûr se demander si cette vision purement intellectuelle du fonctionnement mental est à l’origine de la multitude d’erreurs qui ont émaillé l’affaire des « armes de destruction massive », un exemple quasi parfait du « biais de confirmation » qui consiste à choisir les éléments qui vont dans le sens de l’hypothèse présélectionnée, en ignorant tout ce qui pourrait la réfuter. Mais peut-être la responsabilité de l’erreur ne repose-t-elle pas sur les analystes de la CIA, puisque dès 2002, le patron de l’Agence, George Tenet aurait prévenu George Bush de l’improbabilité de l’existence de ces armes.

Parler de nouvelles langues pour comprendre autrement

On peut envisager une autre méthode pour « penser mieux ». Peut-être peut-on penser différemment en employant de nouveaux systèmes linguistiques ?

L’idée d’une possibilité d’influence du langage sur la pensée est le produit des travaux de deux linguistes de la première moitié du XXe siècle, Benjamin Lee Whorf, et dans une moindre mesure Edward Sapir. Whorf affirmait que selon le langage qu’elles utilisaient, les différentes cultures pouvaient développer des perceptions et visions du monde qui leur étaient propres jusque dans des catégories aussi abstraites que l’espace ou le temps. Depuis plusieurs décennies, l’hypothèse Sapir Whorf était tombée en désuétude… De récentes recherches tendent à la réhabiliter, sans pour autant aller jusqu’à nier l’existence d’un fond commun à toute l’humanité, un relativisme cognitif auquel l’hypothèse Sapir-Whorf risquerait de conduire (mais que ni Sapir ni Whorf n’ont jamais revendiqué). Ainsi, on a découvert que les membres des sociétés traditionnelles dont le système numérique se limitait à, « un, deux, beaucoup », avaient plus plus de mal à compter les objets lorsque ceux-ci dépassaient une certaine quantité. Mais plus récemment encore, une série d’expériences étonnantes laissent à penser que Whorf et Sapir avaient finalement peut-être raison, mais de manière limitée.

La question qui était posée était : le langage influence-t-il la perception des couleurs ? Par exemple, si on ne possède pas de mots pour distinguer plusieurs nuances de rouge (tyrien, magenta, vif, etc.) deviendrait-on incapable de percevoir celles-ci ? Dans une première expérience, menée par Aubrey Gilbert à l’université de Berkeley, on a montré à des sujets des disques de couleurs aux nuances variées situées entre le bleu et le vert, en les plaçant soit à gauche du champ visuel (dirigé par le cortex droit, traditionnellement non linguistique), soit à droite (contrôlé par l’hémisphère gauche du cerveau, celui du langage). Lorsque les cercles étaient vus à droite, les sujets faisaient très nettement des différences entre les cercles considérés comme « bleus » et ceux catégorisés comme « verts ». Lorsqu’ils apparaissaient sur le côté gauche, il leur était plus difficile de tracer la frontière entre les deux nuances. Selon les chercheurs, c’est parce qu’ils avaient plus difficilement accès aux catégories linguistiques leur permettant d’effectuer la distinction.

Une autre expérience (.pdf) opposait des Russes et des anglophones. Les Russes possèdent plus de mots pour désigner les nuances de bleu. On leur demanda de distinguer ces nuances sur des carrés colorés, tout en effectuant une tâche non verbale (visualiser une image), et ils y réussirent mieux que les locuteurs anglais. En revanche, ils furent bien plus lents à montrer leurs talents lorsqu’ils devaient simultanément effectuer une tâche verbale (se répéter des séries de nombres). Leur cerveau gauche étant occupé, ils avaient plus de mal à mobiliser ses ressources pour reconnaitre les couleurs. Autrement dit, Whorf avait raison, mais pour une partie du cerveau seulement. Et uniquement pour les adultes, apparemment, puisque le système de perception des couleurs semble différent chez les enfants de moins de six mois, comme l’a montré une troisième expérience. Ceux-ci semblent en effet utiliser plus volontiers leur cerveau droit (non-linguistique) pour reconnaitre les couleurs, au contraire des adultes, qui recourraient plus volontiers au côté gauche.

Si l’hypothèse Sapir-Whorf est vraie, même de manière limitée, est-il possible de changer nos perceptions en apprenant des langues, voire en créant de nouveaux dialectes ? Rien n’est moins sûr, car il faudrait s’assurer que non seulement le langage influence grandement la pensée, mais que cette capacité n’est pas réservée exclusivement à notre langue maternelle. Cependant, cela n’a pas empêché certain de tenter l’expérience. En fait, comme on le verra, l’idée est partiellement à l’origine de la naissance des actuelles interfaces informatiques.

Peut-on créer par exemple des langages entièrement logiques, qui nous éviteraient de commettre les erreurs épistémologiques qui empoisonnent nos décisions. C’est ce qu’ont tenté les créateurs du lojban (issue d’un projet plus ancien, le loglan). Cette langue construite se conçoit explicitement comme un test de l’hypothèse Sapir-Whorf. Mais une telle idée n’est pas neuve. Umberto Eco, dans son livre La recherche de la langue parfaite dans la culture européenne mentionne déjà le désir, à la fin de la Renaissance, de créer des « langues a priori » qui élimineraient les « fausses idées » implantées en nous par les langages naturels. Il cite notamment le travail du savant écossais George Dalgarno, qui, dès 1661, nous explique-t-il, « affirmait la nécessité d’une langue qui parvienne à réduire, les redondances, les anomalies, les équivoques et les ambiguïtés, et précise que cela ne pourra que favoriser la communication entre les peuples et guérir la philosophie de la maladie des sophismes et des logomachies ». Eco oppose ce projet de « langue philosophique » avec l’autre vision de la langue parfaite, celle des alchimistes, qui imaginaient eux une « langue des oiseaux » basée essentiellement sur la métaphore, dont ils considéraient (à tort) les hiéroglyphes égyptiens comme l’exemple parfait.

De nouvelles interfaces pour parler et penser autrement

Engelbart et deux sourisL’idée de changer de mode de pensée ou de langage pour acquérir une meilleure compréhension du monde est en fait à la racine de l’informatique personnelle. Dans son texte séminal de 1962, »Augmenter l’intellect humain« , Douglas Engelbart, l’inventeur de la souris, s’inspirait de ces thèses pour proposer une hypothèse « néo-whorfienne » : l’idée selon laquelle notre pensée n’est pas seulement liée au langage, mais aux systèmes que nous utilisons pour exprimer nos concepts. En conséquence, changer notre appréhension des choses peut se faire par l’usage de nouvelles interfaces. Des systèmes comme l’hypertexte, qui ont donné naissance au web, ou les systèmes bureau clavier-souris de l’informatique contemporaine pouvait donc servir, selon Engelbart, à augmenter nos capacités cognitives. « Si l’hypothèse néo-whorfienne pouvait être prouvée », explique-t-il, « et si nous pouvions voir comment nos méthodes de manipulation des symboles influencent à la fois notre langage et notre manière de penser, alors nous possèderions une aide précieuse à l’augmentation des capacités humaines ».

Pour des chercheurs comme Mitchel Resnick, du Lifelong Kindergarden (le « jardin d’enfants pour la vie ») du MIT, les langages de programmation peuvent être conçus comme des moyens d’élargir nos capacités cognitives. Ainsi, le langage inventé par Resnick, Starlogo, destiné à simuler les comportements des entités collectives, a moins pour but de recréer des situations réalistes que faire toucher du doigt à l’utilisateur un phénomène contre-intuitif pour lequel nos manières de penser ne nous ont pas préparées. Il s’agit, comme le dit Resnick, « de stimulation, pas de simulation ».

Dans cette optique « néo-whorfienne », la réalité virtuelle apparait comme l’interface, le langage, capable de changer le plus en profondeur nos habitudes mentales et qui, évitant les erreurs de la cognition classique, intègre avec le plus de facilité le corps et l’émotion. Jaron Lanier ne pensait pas autrement lorsqu’il a inventé le concept, puisqu’il imaginait qu’une telle technologie permettrait une communication post-symbolique qui ferait de nous tous des poètes. Une idée qui ressemble fort à cette « langue des images » des hermétistes de la Renaissance, mentionnés par Eco.

De son côté, Jean-Michel Cornu, s’inspirant en partie de l’art de la mémoire des mêmes penseurs prémodernes promeut l’usage d’une « pensée 2 » qui permettrait de cartographier et positionner dans un espace sémantique des idées qui s’opposeraient si elles étaient exposées dans une logique linéaire propre au langage traditionnel. Il deviendrait ainsi possible d’utiliser l’espace virtuel pour obtenir une représentation « allocentrée » de la plupart des débats en cours, et autoriserait le dépassement des rapports de force difficilement évitables dans les débats politiques ou éthiques. « Cette vision cartographique », explique-t-il, « nous donne la possibilité, contrairement à la pensée linéaire du discours, d’appréhender pleinement la combinaison des différentes positions dans un groupe. Elle permet en cela de sortir des oppositions pour inventer de nouvelles convergences »

De fait, si, comme on l’a vu, la réalité virtuelle a trop souvent tendance à augmenter nos biais plutôt qu’à les éliminer, elle a également montré, à plusieurs reprises, ses aspects positifs. Du traitement des douleurs après amputation à celui des désordres post-traumatiques en passant par l’augmentation de la confiance en soi, les mondes virtuels nous offriront-ils une possible confirmation que notre pensée ne se résume pas au langage, mais est aussi influencée par les interfaces que nous utilisons pour l’exprimer ?

Rémi Sussan

À lire aussi sur internetactu.net

0 commentaires

  1. Ayant travaillé en fin de carrière sur l’introduction de la bureautique en entreprise, et participé à une association pour l’Utilisation et L’Intégration des Sciences Humaines en Entreprise (ULISSE) j’ai lu avec intérêt ce texte.

    Je note avec plaisir que, dans le paragraphe relatif aux langues, l’auteur évite de citer des langues comme l’espéranto (et ses dérivés ido ou interlingua) parmi les langues qui, en effet, ne sont pas des langages entièrement logiques.

    Seule leur grammaire l’est, ce qui en fait la facilité. Leur sémantique reste humaine…et illogique, ou plutôt « plurilogique ». Le fait que l’espéranto (je ne connais pas les autres) utilise un système normé d’affixes n’empêche pas d’attribuer aux mots formés avec ces affixes des significations étendant le champ sémantique de la racine. De ce point de vue j’ai cru comprendre (mais de l’extérieur) que l’espéranto fonctionne comme les langues agglutinantes ou le chinois, et qu’il reste donc un membre à part entière de l’immense famille des langues naturelles…

    La critique souvent formulée à son égard, d’être une langue « artificielle », a donc été, heureusement, évitée par les auteurs.

  2. En fait, je ne serai pas étonné que la carte du Tendre soit un dérivé des pratiques de l’art de la Mémoire. Je crois que Frances Yates n’en parle pas dans son bouquin sur le sujet, il faudra que je vérifie…