Les métaphores aux sources de la pensée

L’essayiste Michael Chorost (Wikipédia, @MikeChorost) a publié un long article dans la Chronicle Review sur la connexion profonde existant entre métaphore et langage. Sujet sur lequel le linguiste George Lakoff travaille depuis plusieurs décennies, et qu’il a notamment exposé dans son livre écrit en compagnie de Mark Johnson et publié en 1980, Metaphors We Live by (traduit en français sous le titre : Les métaphores dans vie quotidienne). Pour ce chercheur, en effet, toute notre pensée est conditionnée par notre corps : elle est incarnée. Les chercheurs parlent d’ailleurs de « cognition incarnée » ou embodied cognition.

L’un des exemples les plus puissants de cette pensée métaphorique, selon Lakoff, est la façon dont nous exprimons le temps en fonction de l’espace. Ainsi, les mots « avant » et « après » sont des termes spatiaux utilisés pour exprimer des relations temporelles. Même nos formes de réflexion les plus abstraites procèdent de métaphores issues de notre perception corporelle. Par exemple, l’ensemble des entiers en mathématiques peut-il être perçu comme une ligne dotée d’un point de départ (le zéro), et sur laquelle on peut avancer ou même reculer (les nombres positifs et négatifs).

Lakoff ne s’est pas imposé facilement. Au début de sa carrière, il s’est heurté à Noam Chomsky et à ses disciples qui considèrent le langage comme un système formel de relations câblées dans le cerveau. Mais aujourd’hui, de plus en plus, son point de vue tend à se répandre. Il faut dire qu’il est frappé au coin du bon sens !

Les travaux de Lakoff ne sont pas nouveaux. Mais l’article de Chorost nous parle d’une série d’expériences effectuées en IRM, destinées à tester cette pensée métaphorique. Rappelons ici ce principe de base, souvent oublié : les images IRM ne sont pas paroles d’évangile, ce sont juste des indications…

George Lakoff
George Lakoff

Comment notre cerveau réagit aux métaphores

Dans un article publié en 2011 dans le Journal of Cognitive Neuroscience (.pdf), l’équipe de Rutvik Desai, psychologue à l’université de Caroline du Sud est arrivée à la conclusion que lorsque nous pensons en fonction d’une métaphore utilisant un verbe d’action (par exemple « prendre un râteau »), les zones moteur du cerveau qui lui sont associées tendent à s’activer. Les chercheurs ont également travaillé sur les métaphores texturales : si vous dites : « elle a vécu un moment très dur » les régions du cerveau liées à la perception de la dureté se mettent effectivement en route.

La question se pose toutefois pour les « idiomes » qui, nous explique Chorost, sont des « métaphores mortes », si anciennes qu’on a perdu complètement le lien entre la signification de l’expression et la réalité sensorielle sur laquelle elle repose. Par exemple, « saisir une idée » serait un tel idiome, ou le « fil de la conversation ». Certaines des recherches, explique Chorost, tendent à montrer une absence de corrélation, tandis que d’autres, comme celles (.pdf) de la Française Véronique Boulenger, sont plus positives.

Les travaux de Desai et de son groupe tendent à concilier les deux versions. En fait, plus la métaphore est « fixée », ancienne, moins les zones concernées du cerveau s’activent. « Quand les métaphores sont très fortement conventionnalisées, comme c’est le cas avec les expressions idiomatiques, l’engagement des systèmes sensorimoteurs est réduit ou très bref », selon Desai.

Lakoff lui-même reste cependant réservé sur ces conclusions. La plupart des chercheurs en IRM n’ont pas de formation en linguistique et ne savent pas comment fonctionne notre usage du langage, souligne-t-il. En effet, les locuteurs peuvent se reposer sur différents types de métaphores lorsqu’ils emploient un idiome. Ce qui évidemment rend difficile le repérage par IRM. Il mentionne ainsi l’expression : « kicking the bucket » (« taper dans le seau »), qui signifie tout simplement « mourir ». Si on demande à des gens quelle image mentale cela leur évoque, les réponses peuvent être très différentes, et donc les zones cérébrales associées ne seront pas les mêmes (en fait, l’origine de cette mystérieuse expression vient de l’usage d’un seau sur lequel se trouvait un condamné à mort par pendaison, comme le montre l’image ci-dessous).

angif-kick-the-bucket-def

Lakoff prend comme autre exemple l’idiome anglo-saxon : « toe the line » qui signifie se conformer, obéir, et qu’on pourrait approximativement traduire par « filer droit ». La moitié des gens, note-t-il, ont tendance à écrire « tow the line » (tow signifiant « remorquer », on pourrait dire que cela correspond à « être à la remorque »). Dans ce cas encore, explique Lakoff, les analyses des zones cérébrales donneraient des résultats différents.

Cela me fait penser à l’expression française « au temps pour moi ». Comme beaucoup de monde, je pensais au début qu’elle s’écrivait « autant pour moi », ce qui dans mon cas, ne devait pas activer grand-chose de spécifique dans mon cerveau. Mais depuis que je connais l’orthographie exacte « au temps pour moi », la métaphore militaire et l’idée d’un rythme de tambour me viennent immédiatement à l’esprit. Je suis sûr que les zones du cerveau idoines doivent s’activer chez moi !

Un échec de l’IA, vraiment ?

Quelles sont les conséquences de ces travaux sur la recherche en intelligence artificielle ? La notion de métaphore et de cognition incarnée rend-elle vains tous les efforts pour créer une intelligence sur un substrat machinique ?

Selon Chorost, pour Lakoff, aucun doute : cela tue toute tentative dans ce domaine, et concernant la fameuse singularité de Kurzweil, Lakoff « n’y croit pas une seconde ». Cette théorie sur l’échec de l’IA se retrouve d’ailleurs mise en avant dans un article de Nicholas Carr présentant les thèses de Chorost, intitulé : « L’insoutenable lourdeur de l’IA ».

Malheureusement, pour Carr, la situation est beaucoup plus complexe qu’il ne la présente. Du reste, Chorost, dans l’article original, est beaucoup plus objectif, il mentionne plusieurs points de vue et n’oublie pas de citer entre autres Rodney Brooks, qui affirme qu’on peut donner des corps aux ordinateurs à l’aide de la robotique (Carr ne cite pas ce passage dans son compte rendu). Plus près de chez nous, les travaux de l’Inria reconnaissent complètement cette notion de cognition incarnée, que soit Pierre-Yves Oudeyer, qui étudie l’apprentissage chez les robots, ou Fréderic Alexandre, qui se penche sur le cerveau humain, mais avec le projet explicite de construire une intelligence artificielle.


Vidéo de l’intervention de Pierre-Yves Oudeyer lors de la dernière édition de Lift France.

La théorie de Lakoff élimine avec un bon degré de probabilité la croyance que de vastes systèmes informatiques comme Watson d’IBM ou les serveurs de Google puissent développer du « sens commun », être capables de comprendre le monde exclusivement en maniant des chaînes de symboles suivant des règles logiques ou mathématiques. Cela n’élimine pas les robots, on l’a vu. Tout au plus peut-on dire que notre appareillage sensorimoteur étant bien plus riche et complexe que celui des robots actuels, ceux-ci ne peuvent développer qu’une intelligence très très primitive. Mais là, on se trouve dans une différence de degré et non plus de nature : les robots sont stupides parce qu’ils ne sont pas assez perfectionnés, et non à cause d’une limitation philosophique fondamentale.

On peut même aller plus loin. On fait souvent l’erreur de demander si « les ordinateurs arriveront un jour ou l’autre à l’intelligence ». Ce qui en soi est peut-être une mauvaise question. Plutôt que de considérer les ordinateurs comme des entités en elles-mêmes, mieux vaudrait les voir comme des environnements dans lesquels des agents logiciels seraient en mesure se développer et évoluer. Peut-on dire que ceux-ci seront munis d’un « corps virtuel » ? Qu’est-ce au juste qu’un « corps » ? Si un agent logiciel possède l’équivalent fonctionnel d’un métabolisme, avec non seulement des capteurs et actionneurs mais également les fonctions nécessaires pour maintenir sa stabilité dans un environnement numérique, ne peut-on dire qu’il a un corps ? Et par environnement virtuel, je n’entends pas seulement des systèmes de simulation à la Second Life, mais tout dispositif d’une complexité potentiellement infinie dans lequel ces agents peuvent se mouvoir et se développer, comme le jeu de la vie de Conway, ou un système de vie artificielle comme Tierra. Bien sûr, ce « monde » étant très différent, l’intelligence qui pourrait y apparaître n’aurait pas grand-chose à voir avec la nôtre. Même Carr (bien qu’il ne prenne pas en compte cette idée d’ordinateur comme environnement) reconnaît qu’il serait possible d’imaginer un ordinateur pensant de manière métaphorique, mais que son intelligence ne serait pas reconnaissable par des êtres humains. Finalement rencontrer (ou créer) des aliens aux processus mentaux radicalement différents des nôtres n’est-ce pas bien plus fascinant que l’idée de machines prenant la place d’êtres humains pour le meilleur ou pour le pire ?

Rémi Sussan

À lire aussi sur internetactu.net

0 commentaires

  1. Dans une langue pivot comme l’Ido il n’y a pas confusion entre le temps et la spatialité.
    Il y a des jeux comme par exemple Dwarf Fortress qui a un début d’autonomie.