Un jeu de Tetris pour comprendre la nature de la conscience

Une équipe de chercheurs a mis au point un système dans lequel des programmes ont appris à jouer à Tetris, nous explique le site KurzweilAI, la newsletter de « Mr Singularité » alias Ray Kurzweil (Wikipédia).

L’expérience rapportée par Plos consistait donc à mettre en scène des « agents intelligents » capables de capturer les blocs au fur et à mesure qu’ils tombaient sur l’écran et les placer le plus efficacement possible. Ces petites IA, ces « animats » comme on les appelle, ne disposaient en tout et pour tout que d’un réseau de 8 neurones pour effectuer leurs calculs : deux moteurs, deux capteurs, et quatre éléments internes effectuant la coordination et prenant les décisions. On le voit, des systèmes très simples, donc…

On a lancé la simulation, et, suivant la méthode propre aux algorithmes génétiques, on a sélectionné les animats qui se débrouillaient le mieux pour engendrer les générations suivantes. Au bout de 60 000 de ces itérations, les animats avaient développé des systèmes d’interconnexions très élaborés entre leurs 8 neurones. Ce qui laisse à penser que la complexité d’un environnement tend à favoriser l’évolution mentale, sans pour autant nécessiter un changement dans la quantité de neurones d’un cerveau.

La principale auteur de l’article est Larissa Albantakis, chercheuse à l’université de Wisconsin-Madison, mais on remarquera d’autres signatures intéressantes ; celle de Chris Adami, par exemple, créateur d’un système de vie artificielle bien connu, Avida. Mais surtout celles de Giulio Tononi et de Christof Koch directeur scientifique à l’institut Allen pour les sciences du cerveau, (créé par Paul Allen, de Microsoft).

Le but de l’expérience était en fait de tester une nouvelle théorie de la conscience, celle dite de l’intégration de l’information (Integrated Information Theory, ou IIT), élaborée par Tononi et largement soutenue par Koch, que ce soit dans son livre Consciousness, Confessions of a Romantic Reductionist ou dans divers articles et interviews, dans la Technology Review, Scientific American ou Nautilus.

journal.pcbi.1003966.g001

Le retour du « panpsychisme » ?

Qu’est-ce que la théorie de l’information intégrée ? Celle-ci part du principe que la conscience est déterminée par le degré d’intégration des éléments d’un système. Le nombre de ces éléments importe finalement assez peu, et agira essentiellement sur la richesse de états mentaux (mais pas sur la présence de la conscience elle-même). On peut donc soupçonner la conscience non seulement chez les humains, mais aussi chez les grands mammifères, et même chez de petites créatures comme les abeilles. L’IIT redonne un peu de lustre à la vieille notion de panpsychisme, très présente dans les philosophies orientales mais également défendue par Leibniz et Spinoza, et qui affirme que la conscience est universellement présente, chez les humains, les animaux, et même dans des rochers. Mais il existe cependant une nette différence entre l’hypothèse de Tononi et le panpsychisme classique. Pour ses adeptes, hors de question de dire que la conscience est partout, y compris dans un caillou. Au contraire, elle est limitée à certains types d’organisation, les plus « intégrées », c’est-à-dire celles où les éléments sont le plus connectés entre eux. Cela expliquerait par exemple que la conscience soit générée par le cortex préfrontal et non par le cervelet, qui contient pourtant beaucoup plus de neurones. En effet les neurones du cervelet sont surtout connectés de manière locale à leurs voisins les plus proches, au contraire de leurs équivalents dans le cortex frontal, où un certain nombre de connexions « lointaines » assurent l’inter-connectivité de l’ensemble. De fait, les systèmes conscients appartiennent à la catégorie des « réseaux en petits mondes » : autrement dit chaque élément peut être relié à n’importe quel autre en un nombre très limité d’étapes (c’est la fameuse théorie des « six degrés de séparation« )…

Du coup, cela exclut d’accorder de la conscience à n’importe quel phénomène complexe comme les écosystèmes ou l’internet. Pour en venir au sujet inévitable des machines intelligentes, Christof Koch explique ainsi dans la Technology Review qu’il n’y aurait aucun obstacle à ce qu’une machine construite sur les principes du cerveau avec des éléments métalliques remplaçant les neurones et leurs axones se retrouve consciente. En revanche, une simulation de personnalité, basée sur une structure différente de la physiologie du cerveau (et c’est le cas de la plupart des programmes d’intelligence artificielle) resterait une simulation, incapable de d’éprouver des expériences et donc d’être consciente, et ce même si elle passe sans encombre le test de Turing (en philosophie de la conscience, on nomme « zombies » ces êtres hypothétiques capables de se comporter en tout point comme des être humains, mais dépourvus d’états internes – je suis sûr que j’en ai rencontré un ou deux).

51vN8bGOh3L._SY344_BO1,204,203,200_

La conscience quantifiée

Il existe déjà des tas de théories sur la conscience, mais l’excitation actuelle autour des travaux de Tononi vient surtout du fait qu’il affirme pouvoir mesurer précisément le degré de conscience d’un entité, à l’aide d’un nombre mesurant la complexité de interactions du système, qu’il désigne par la lettre grecque Phi, &#934.

En dessous d’une certaine valeur de &#934, la conscience n’existe pas. Au dessus, plus le nombre est grand, plus on est conscient. Car s’il est hors de doute, selon l’IIT, que si les abeilles les chiens ou les singes sont bel et bien doués de conscience, il existe cependant une gradation au sein de celle-ci : nous sommes plus conscients que les abeilles. Ainsi, les « animats » jouant à Tetris ont, au cours des générations, développé un &#934 de plus en plus élevé.

L’IIT possède aussi quelques conséquences contre-intuitives. Ainsi, explique Christof Koch dans son livre, regarder un paysage dans un silence absolu implique un degré de conscience différent de la contemplation du même paysage alors qu’un produit chimique a inhibé l’activation des neurones de l’audition. Dans les deux cas, la scène que j’observe est dénuée de sons. Mais dans le premier exemple, mes neurones auditifs continuent à contribuer à la complexité générale de ma conscience. Dans le second, en revanche mon degré de conscience diminue, mon &#934 prend une valeur inférieure.

Cela pose aussi des questions sur la nature de la conscience chez des patients qui auraient subi une section du corps calleux, qui relie les deux hémisphères cérébraux. Chez la plupart des gens, le cortex est un unique ensemble intégré. Chez ces personnes, on a affaire à deux systèmes différents, eux aussi très intégrés, mais séparés : y-a-t-il deux consciences chez une même personne ?

Évidemment, l’IIT a ses partisans et ses adversaires. Parmi les premiers, le physicien Max Tegmark (dont nous avons parlé tout récemment à propos de la superintelligence), qui, dans un récent papier (.pdf), va jusqu’à affirmer que la conscience est un « nouvel état de la matière ». De son côté Stanislas Dehaene, qui défend dans son dernier livre Le code de la conscience, la thèse concurrente de l’espace de travail neuronal (la conscience serait produite par un système particulier synthétisant toutes les informations venues des différentes parties du cerveau), trouve la théorie de Tononi « problématique », lui reprochant justement son côté panpsychiste et, qui de surcroît, selon lui, n’expliquerait « absolument pas pourquoi de nombreuses fonctions complexes et intégrées, telles que la compréhension des mots, peuvent se dérouler sans la moindre conscience dans le cerveau humain ».

Il est sûr qu’on en a pas fini avec la conscience ; en attendant, Tononi a même publié une librairie python permettant de mesurer le &#934 d’un système. Au travail les codeurs !

Rémi Sussan

À lire aussi sur internetactu.net

5 commentaires

  1. Si « le but de l’expérience était en fait de tester une nouvelle théorie de la conscience », quels sont les résultats du test ? En quoi le robot-Tetris teste-t-il cette théorie?

    Je suis sceptique. On sait optimiser la structure des réseaux de neurones avec des algorithmes génétiques depuis au moins 7 à 8 ans. On explique le succès de ces IA sans avoir besoin de faire référence à une quelconque conscience.

  2. En fait le résultat du test serait donc qu’il est possible d’augmenter son « phi » sous la pression de l’environnement, sans pour autant changer le nombre de neurones. Le texte de l’expérience a un peu trop de maths pour moi, mais d’après ce que j’ai compris, le but n’était pas d’optimiser les réseaux de neurones avec des algorithmes génétiques, (comme vous dites, on sait faire depuis un bout de temps) mais bel et bien de vérifier si cette optimisation allait dans le sens d’une plus grande « intégration »…

  3. D’accord avec Hadrien, il s’agit encore d’un problème de définition du mot « conscience ». Les anglophones sont encore plus embarrassés que nous car leur « consciousness » est étymologiquement éloigné de « knowledge » alors que la conscience n’est fondamentalement pas éloignée de la « connaissance ». Tononi et Dehaene ne parlent pas de la même chose, Dehaene parle de la « connaissance de soi » qui est le propre des gros systèmes neuronaux (= qui ont assez de mémoire pour avoir une image d’eux-mêmes assez nette ; et dans le cas des humains, d’en parler).

    Il est clair en tout cas que la conscience (de soi) émerge de systèmes assez simples, mais répliqués en grand nombre. Pour moi l’arrivée de l’IA (humanoïde) n’est qu’une question de temps (et de capacité de calcul). Le Google Brain est sur cette voie.

    Comme l’écrit Kurzweil dans « How to Create a Mind » la question principale est de savoir si l’option « éducative » (éduquer un cerveau artificiel pendant plusieurs années) l’emportera sur l’option « prêt-à-porter » (partir d’un connectome existant). Je parie sur la seconde option (même si il est a priori extrêmement difficile d’analyser fonctionnellement un réseau de neurones déjà constitué : cependant, il y a des pistes : http://www.nature.com/nmeth/journal/v10/n6/full/nmeth.2451.html )

    Par contre je ne comprends pas pourquoi Koch nous ressort le coup des zombies…

  4. @Rémi Sussan: Ok, donc la pression de sélection fait augmenter Phi (ce qui n’a rien d’étonnant si le nombre de neurones est limité par régularisation ou autre), mais ça n’indique pas que la valeur de Phi correspond à un degré de conscience.

    J’ai une autre théorie : j’appele Gamma le nombre de neurones. J’entraîne des réseaux de neurones à résoudre un problème un peu complexe, mais en régulant la connectivité (Phi) pour éviter que l’ordinateur trouve des solutions dans l’espace des solutions qui ont une grande valeur de Phi.
    Résultat : si je commence avec un petit Gamma, Gamma augmente sous la pression de sélection.

  5. Le papier original est un peu dur à digérer mais il a le mérite de s’attaquer à un problème difficile en IA : analyser les résultats d’une simulation dirigée par des objectifs fixés par un humain. À partir de quand les ŕésultats (parfois spectaculaires) ne sont pas déjà dans les prémisses de la simulation (c.à.d. les objectifs prédéfinis par le programmeur) ? Ça me rappelle les simulations d’émergence du langage : les chercheurs sont surpris de découvrir qu’en faisant jouer des IA entre elles, un vocabulaire et une grammaire peuvent émerger. Mais à un moment donné les programmeurs ont dû définir explicitement les règles du dispositif de communication et les mettre en relation à un objectif (gagner le jeu), avant de laisser les algorithmes génétiques optimiser les paramètres du dispositif de communication. C’est difficile de mesurer l’absence de contribution du programmeur dans le succès de ces simulations.

    Bon sinon la thèse IIT n’est pas inintéressante et j’ai le sentiment qu’elle a un fond de vrai, au moins sur ce qui la rapproche des thèses de Dennett : 1) la conscience n’est pas un chef d’orchestre isolé et 2) il est tout aussi légitime d’octroyer une conscience à un humain qu’à un système artificiel simple, dès lors que je peux trouver une explication rationnelle à son comportement en termes de croyances (ex: « l’ordinateur fait ceci parce qu’il croit que cela »). Consciousness is in the eye of the beholder.

    Comme le fait remarquer Emmanuel EmG, Dehaene et Tononi ne s’intéressent pas tout à fait à la même conscience. Dehaene parle de la conscience DE quelque chose (une conscience dirigée) tandis que Tononi parle plutôt d’une forme de lucidité. Or on peut être lucide, tenir compte d’une multitude de sources d’informations, sans en être conscient. Un joueur de tennis professionnel doit être lucide sur le terrain, mais il est plus efficace en laissant son inconscient s’occuper du traitement de l’information, car la conscience (humaine) est lente.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *