A la recherche de la conscience (1/2) : la conscience, un « problème difficile » ?

S’il est déjà difficile de définir l’intelligence, une compréhension exacte de ce qu’est la conscience nous apparaît comme encore plus inaccessible. Pourtant, les hypothèses se multiplient sur son origine et sa signification, et le domaine concerne toute une gamme de chercheurs, des philosophes aux spécialistes du comportement animal, des informaticiens aux experts en physique quantique.

Mais d’abord, pourquoi tant d’agitation autour de ce concept ? Pourquoi, la conscience est-elle considérée comme un problème dans la science contemporaine ?

Dans la revue Aeon, Margaret Wertheim se penche sur les racines de ce problème. Cette historienne des sciences a toujours manifesté un intérêt pour les nouvelles technologies comme en témoigne son livre assez ancien The Pearly Gates of the Cyberspace, qui traitait déjà des liens entre la structure du monde virtuel naissant et les conceptions médiévales et Renaissance de l’espace.

C’est encore l’espace qui est au centre de la réflexion actuelle de Wertheim sur la conscience.

Mais tout d’abord qu’est-ce que ce fameux « problème de la conscience », ce hard problem comme l’a nommé l’un des principaux philosophes de ce domaine, David Chalmers ? C’est avant tout celui de la nature des objets de conscience, ce qu’on appelle les « qualia« . Notre cerveau enregistre la longueur d’onde d’un objet bleu, on sait à peu près comment ça fonctionne. Mais à quel moment ce tourbillon d’échanges électriques et chimiques devient-il la sensation du « bleu ». Comme nous l’explique Margaret Wertheim, n’importe quel appareil est capable de reconnaître la longueur d’onde du bleu. Mais tout le monde sera d’accord pour dire que ledit engin ne perçoit pas « réellement le bleu ». Et aussi qu’est-ce qui me prouve que ma conscience d’une couleur est ressentie de la même manière par une autre personne ?

Mais où y a-t-il un problème ?

Margaret Wertheim ne cherche pas à donner une réponse à ces épineuses questions, qui selon elle resteront débattues encore pendant un bon bout de temps. C’est en tant qu’historienne qu’elle se penche sur le sujet, car si aujourd’hui la conscience est un problème, ça n’a pas toujours été le cas.

C’est bien sûr la naissance du matérialisme qui peut être considérée comme à l’origine du débat. Mais selon elle, le matérialisme est fortement lié à nos conceptions de l’espace.

Avant Copernic, nous explique-t-elle, l’univers était fini. La terre était au centre, mais également en position la plus basse. On grimpait ensuite les sept sphères entourant notre monde, où l’on trouvait les sept planètes (le soleil et la lune étaient considérés comme des planètes). Enfin, l’Empyrée s’étendait au-delà de ce système clos, et là se trouvait le royaume de Dieu.

L’espace n’était donc pas seulement fini, il était aussi, et peut-être surtout, « qualifié ». Votre nature était représentée par votre position dans l’espace, ainsi que le montre une peinture de Giotto située dans l’église de l’Arena de Padoue : « Vous pouviez littéralement lire le statut moral de personnes dans les images médiévales en fonction de leur taille. Jésus était la plus grande figure parce qu’il avait la plus grande stature morale ; venaient ensuite les anges qui étaient un peu plus petits, suivis de saints et de martyrs, puis enfin les humains ordinaires. Les pécheurs en enfer étaient les plus petits de tous dans l’interprétation de Giotto, minuscules figures centrées sur leur douleur, écrasées par leur morale dérisoire. »

b9f4b451ecddfeb243fb1a480dd76b584002d1f0La révolution copernicienne avait déjà été précédée au XIIIe siècle par la découverte de la perspective. Celle-ci, nous explique Wertheim, donne de la profondeur à la scène, mais met fin au rôle moral de la taille. Quand finalement le mécanisme des sphères célestes explose, l’univers devient homogène. Il n’y a plus de place réservée pour les âmes, plus d’Empyrée. En conséquence, plus de place pour l’âme.

Pour Wertheim, une fois qu’on a éliminé l’âme de l’équation, rien n’empêche de faire de même pour la conscience. Si la conscience n’est autre que le produit des interactions entre particules matérielles, argue-t-elle, alors elle peut tout simplement être éliminée de la description du monde. On pourrait imaginer un univers peuplé de « zombies » : une expression employée par le philosophe David Chalmers pour décrire des individus présentant tous les comportements associés aux êtres humains, mais dépourvus d’états internes, de « conscience ».

L’argument me paraît personnellement un peu contestable. Le fait qu’un phénomène émerge à partir des lois régissant un niveau plus fondamental ne signifie en rien que cette structure émergente ne présente aucune valeur et qu’on puisse s’en dispenser entièrement. Un scientifique comme Stuart Kauffman, dans son livre Réinventer le sacré : Une nouvelle vision de la science, de la raison et de la religion, va précisément dans l’autre sens. Le fait qu’il puisse exister des phénomènes émergents, c’est-à-dire constitués de parties, mais non réductibles aux propriétés de ces parties, pourrait fournir au contraire la base à un « retour vers le sacré », à une réévaluation du phénomène de la conscience.

Margaret Wertheim fait partie de ceux qui pensent qu’il ne sera jamais possible de comprendre la conscience exclusivement en termes physiologiques ou neuronaux. Tout ce dont nous serons capables, selon elle, c’est d’observer les corrélations entre mécanismes cérébraux et états de conscience. C’est un questionnement de grande importance dans la champ bourgeonnant de la « neurothéologie ». La sainte Hildegarde de Bingen était peut être épileptique, explique-t-elle, mais cela ne veut pas dire que ses visions mystiques étaient causées par l’épilepsie. Cela peut tout aussi bien signifier que la contemplation du Divin est un phénomène tellement puissant qu’elle entraîne une crise d’épilepsie.

Comment créer une « consciences artificielle »

walkingdead_apSans renoncer à une optique matérialiste ou « réductionniste », différents scientifiques cherchent à redonner une valeur à la conscience et ainsi échapper au cauchemar du « monde de zombies ». Nous avons déjà parlé des thèses de Tononi et Koch. C’est aussi le cas de Michael Graziano qui présente, encore dans Aeon, sa théorie sur la conscience comme un un « schéma de l’attention ».

Pour ce neuroscientifique, la conscience n’est pas un phénomène insoluble et mystérieux, et il devrait être possible de créer une « conscience artificielle ». Mais pour autant, Graziano ne se range pas aux côtés de ceux qui voient dans la conscience un simple épiphénomène sans importance, une production spontanée, mais finalement secondaire de nos fonctions cognitives. « Ils sont finis les jours », explique-t-il, « où il suffisait de croire qu’il suffisait d’attendre que les ordinateurs soient suffisamment compliqués pour qu’ils deviennent spontanément conscients« (une idée souvent répandue chez les partisans de la Singularité). Au contraire, pour Graziano, la conscience reste un aspect fondamental de notre structure mentale.
Prenant l’exemple d’un robot voyant une balle de tennis, Graziano explique les étapes nécessaires pour construire une « conscience ».

Dans un premier temps, le robot possède une description du monde lui permettant de reconnaître la balle à partir d’une multitude d’informations arrivant par ses capteurs, ses « sens ». Cela demande du calcul et la capacité de choisir un modèle parmi la multitude existant dans son unité de traitement, son « cerveau ». Mais cela ne constitue en rien une solution au « problème difficile » de Chalmers. En gros c’est le stade où nous en sommes aujourd’hui avec les logiciels de reconnaissance des formes.

Pourra-t-on améliorer la situation en donnant en plus au robot une description interne de son corps, de ses perceptions ? Cela paraît s’apparenter à une véritable conscience de soi ! (Des travaux ont déjà été effectués dans ce domaine) Mais c’est malheureusement insuffisant selon Graziano. Le robot disposera alors de deux modèles indépendants, l’un de lui-même et l’autre de la balle de tennis. Mais en l’absence de connexion entre ces deux descriptions, il ne pourra pas être « conscient de la balle ». Il faut donc un troisième niveau de description susceptible de prendre en compte la relation entre le robot et l’objet de sa perception. C’est ici qu’entre en jeu la théorie de Graziano, celle du « schéma de l’attention ».

En gros un cerveau possède plusieurs « cartes » de son environnement (balles de tennis, son propre corps, etc.) tous ces modèles entrant en compétition pour attirer l’attention. Mais il faut pouvoir contrôler cette attention, d’où la nécessité d’établir un nouveau modèle, celui de l’attention elle-même. Comme toutes les autres « cartes » situées dans le cerveau, ce modèle n’est pas complet. Il ne possède aucune information sur les états neuronaux, les programmes sous-jacents qui sous-tendent son fonctionnement. Autrement dit, le robot serait « conscient », mais serait incapable d’expliquer pourquoi. Tout comme nous ! A noter un point intéressant : si Graziano a raison, cela met à mal la théorie de l' »explosion de l’intelligence » d’Irvin John Good, souvent revendiquée par les adeptes de la superintelligence et de la Singularité. Rappelons qu’il s’agit de la thèse selon laquelle une intelligence artificielle plus évoluée qu’un être humain serait capable de se « mettre à jour » à une vitesse grand V, augmentant de plus en plus ses facultés mentales. Mais si la « conscience » de cette IA est en fait ignorante des mécanismes qui permettent son apparition, il ne lui serait pas plus capable d’effectuer cette « update » que nous ne sommes en mesure de le faire avec notre propre esprit…

Sur sa page Web, Michael Graziano affirme que sa théorie est « testable ». Ça va quand même être difficile de programmer tout ça…

Rémi Sussan

Le dossier « A la recherche de la conscience » :

À lire aussi sur internetactu.net

0 commentaires

  1. Il me semble que la difficulté pour l’être dit « conscient » de définir la conscience n’est pas étrangère au théorème de Gödel dit « d’incomplétude ». Si l’on prend l’Homme comme un système axiomatique conscient, il existera toujours une proposition extérieure indécidable qui empêchera d’établir une définition complète – et juste – de la conscience.

  2. Le physicien Roger Penrose -dont je parlerai un peu dans la deuxième partie de cet article, mais pas sur cet aspect « Gödelien »- utilise lui aussi le théorème de Gödel pour affirmer que la conscience humaine est un phénomène « non computable »…

  3. Il existe un livre assez étonnant qui s’attache à définir la conscience… en commençant pas ce qu’elle n’est pas!

    Julian Jaynes, La naissance de la conscience dans l’effondrement de l’esprit, publié en 1976 en américain et en 1997 en français (éd. PUF).

    On trouve les deux versions sur Internet.

    P.S.: Cessez de faire de la pub à Amazon, svp.

  4. Bonne introduction, quoique très courte.

    Des chercheurs ont déjà essayé de définir les spécifications d’un programme conscient en y intégrant des mécanismes méta-cognitifs pré-construits, une approche similaire au “schéma de l’attention” de Graziano. Le problème avec ce procédé, c’est que les mécanismes pré-construits ne peuvent se connecter qu’avec un réseau de connaissances dont on peut faire sens du contenu. Or, les meilleurs IA sont des boîtes noires, et il est impossible d’y brancher quoi que ce soit qui ne « parle pas le même langage » si ce n’est pas une entrée/sortie déjà utilisée lors de son apprentissage. Il y a une discontinuité entre la couche méta-cognitive et les représentations du monde de la boîte noire.

    Je n’ai pas de statistiques mais il me semble que la majorité des robiticiens / chercheurs en IA, ceux qui ne sont pas agnostiques sur ces questions, défendent depuis longtemps l’idée que la conscience émergera d’elle même de la complexité du cerveau artificiel, et de manière progressive plutôt que via La Singularité. Ce n’est pas très argumenté ni très précis, et donc pas très convaincant pour le moment, mais je pense que l’idée mériterait d’être mieux défendue par les philosophes. La sensation du bleu serait provoquée par l’activation des millions de neurones engagés dans le traitement de l’information « l’objet est bleu », ce que ne fait pas un instrument de mesure. Le ressenti en lui-même est de même nature que le ressenti d’une douleur, mais il est individué par les informations sur l’objet visualisé, de sorte que la sensation du bleu est unique et reconnaissable. Selon cette perspective, les animaux ont aussi une conscience mais elle est moins développée parce que le flot d’informations qui accompagne la perception de l’objet bleu est moins riche. càd ils sont conscients de moins de choses, plutôt que d’être « moins conscient ».

    Plus récemment la mode est à la « cognition incarnée » et elle a envahit le champ de la conscience. Grosso modo, il n’y aurait pas de conscience sans corps et sans environnement. Et donc la recette pour créer une conscience, ça serait de construire un corps qui peut interagir librement avec son environnement.
    Pour ma part, je trouve l’importance du corps grandement surévaluée.

    Je n’ai jamais compris le lien entre la conscience et les théorèmes de Godel, que j’ai pourtant étudiés. Quelqu’un peut m’expliquer ?

    Ceci étant dit, pour ce qui est de la création d’une intelligence artificielle, je trouve la question du libre arbitre plus intéressante, plus ciblée, et plus importante que celle de la conscience.

  5. Hadrien,

    je vais essayer de rassembler mes souvenirs concernant Penrose et le théorème de Gödel, mais je ne suis pas mathématicien, donc ne prenez pas ce que je raconte trop au sérieux.
    En gros et si j’ai bien saisi, le théorème de Gödel prouverait qu’il existe des vérités mathématiques pour toujours indémontrables. La théorie de Penrose est que l’esprit humain est capable d’accéder à des vérités qui, de la même manière, seraient non computables, auxquelles on ne pourrait pas accéder via un algorithme (je ne suis pas sûr, mais je suppose que cela a aussi un rapport avec le « problème de l’arrêt » en science informatique). Donc l’esprit humain (et donc la conscience) ne saurait être reconstruit algorithmiquement.
    Penrose double cette hypothèse purement philosophique d’une théorie sur la « conscience quantique » dont je parlerai un peu dans le deuxième volet. enfin, il faut noter que cette théorie (l’accès à des vérités « non-computables ») repose sur une vision très platonicienne supposant un « univers mathématique » réel (et non seulement une description) dont l’univers physique ne serait qu’un sous-ensemble (une thèse à mon avis assez proche de celle de Max Tegmark, dont je parlerai également dans le second volet). La conscience, elle, pourrait être « en contact direct » avec cet univers d’Idées platoniciennes. (là, je ne crois pas que Tegmark le rejoigne sur ce point)

  6. « Il existe des vérités mathématiques pour toujours indémontrables ». Oui, parce que justement le théorème d’Incomplétude rend caduque le principe de vérité absolue – et donc d’information définitive. Vous ne pouvez démontrer une vérité qu’eu sein d’un système axiomatique donné, borné. Mais comme il existe toujours un système axiomatique « supérieur » – qui inclut le « système donné » – (c’est ce que démontre Gödel), la quête de la Vérité est mathématiquement infinie. Philosophiquement, c’est peut-être une autre question. L’esprit humain est sans doute insoluble dans les mathématiques (notamment la computabilité). Ce qui ma foi est plutôt une bonne nouvelle, non ? Quant à la conscience qui émergerait de l’informatique, pourquoi pas ? Mais il faut peut-être considérer plusieurs formes (ou niveaux) de conscience, celle de l’Homme étant la plus évoluée (fonction de la complexité du cortex cérébral). Vastes débats en tout cas…

  7. @Remi : difficile pour moi de critiquer un auteur que je n’ai pas lu, mais ce monsieur Penrose ne m’inspire guère confiance. Pour que sa théorie fonctionne, il faut abandonner le physicalisme, et ce faisant il devient possible d’expliquer les qualias sans recours à Gödel. En outre, il n’est pas très clair en quoi « être conscient de » se réduit à « accéder à une vérité mathématique », même dans un monde Platonicien, entre autres parce que la conscience peut se tromper. J’ai juste l’impression que Penrose part du postulat que l’ordinateur ne peut pas avoir de conscience et que l’homme a une conscience. Il a un « agenda », comme diraient les anglo-saxons.