Du 8 au 12 août s’est tenu, à la Cité universitaire de Paris, le colloque 2011 sur la « Vie artificielle, retour aux origines ». L’occasion de faire le point sur une discipline à l’histoire complexe et aux contours flous.
Le concept de « vie artificielle » est né aux États-Unis, le premier colloque sur le domaine ayant eu lieu à Santa Fé en 1987. A l’origine de l’idée, un de ces personnages hors du commun comme seule la côte Ouest peut en produire, Christopher Langton. Le projet de Langton était simple, mais extrêmement ambitieux : si la vie peut être considérée avant tout comme un type d’organisation de l’information, pourquoi se limiterait-elle à la chimie du carbone ? Partout où une organisation présentant les caractéristiques du vivant (notamment la réplication et la mutation) peut s’incarner, on pourrait parler de « vie ». Pourquoi donc ne pas la générer in silico, au sein même des ordinateurs ? Il ne s’agit pas, dans l’esprit de Langton, de produire une simulation de la vie, mais de créer la vie pour de bon. Une vie « virtuelle », purement logicielle, mais réelle. Et ainsi, de s’intéresser, non pas à la vie telle qu’elle est, mais telle qu’elle pourrait l’être. On peut humer dans ce projet un parfum de recherche des extraterrestres. Puisque nous ne pouvons pas aller voir les aliens dans un vaisseau spatial, donnons leur naissance ici, chez nous ! Une telle filiation avec l’exobiologie ne doit pas étonner. Avant de lancer le concept de vie artificielle, Chris Langton fut membre bénévole de la L5 Society, un groupe des années 70 qui envisageait la colonisation de l’espace indépendamment des gouvernements.
Le premier colloque de l’Artificial Life tel que nous le montrent les actes publiés à l’époque, est un rendez-vous d’ultra futuristes. Parmi eux, à noter deux autres fameux ex-membres de la « L5 Society »Eric Drexler, créateur du concept de nanotechnologie, ou encore Hans Moravec, professeur de robotique à Carnegie Mellon, qui deviendra célèbre pour avoir prédit le remplacement de l’homme par les robots, ses « enfants par l’esprit », et suggéré la possibilité de « l’uploading » (le téléchargement du cerveau dans un ordinateur).
De l’autoréplication à l’autonomie
Pour les premiers adeptes de la vie artificielle, l’outil de base de la nouvelle discipline est l’automate cellulaire. C’est un petit programme représentant une grille, dont les cases, les « cellules », prennent différents aspects selon leur voisinage (le Jeu de la Vie est le plus célèbre d’entre eux). Ils se placent ainsi directement sous la houlette du fondateur, John Von Neumann, le père de l’informatique contemporaine qui, le premier, avait étudié les propriétés complexes et étranges de ce genre de systèmes. Langton, pour sa part, est connu pour avoir créé un de ces automates, qu’on appelle justement la « boucle de Langton » : il s’agit d’un automate auto-reproducteur, dont le développement rappelle assez bien celui des massifs de corail. Une forme de base se reproduit indéfiniment, générant une structure de plus en plus large (voir cet applet).
En 1991, en France trois chercheurs en intelligence artificielle, Paul Bourgine (.pdf), Hugues Bersini et Francisco Varela, se retrouvent et partagent leur intérêt pour ce nouveau mouvement entamé aux Etats-Unis. « Pourquoi ne pas créer un événement analogue de ce côté-ci de l’Atlantique ? », se demandent-ils. C’est ainsi qu’est né Ecal (European Conference on Artificial Life). 20 ans après, le colloque Ecal 2011 verra toujours Hugues Bersini et Paul Bourgine aux commandes en compagnie de René Doursat ainsi que de Marco Dorigo, Tom Lenaerts et Mario Giacobini. Francisco Varela, lui, nous a quittés en 2001 et le colloque de cette année lui était dédié.
Francisco Varela est aussi un personnage hors du commun. Biologiste chilien, exilé de son pays lors de la prise au pouvoir de la junte, bouddhiste convaincu capable de jongler avec les subtilités de la logique à quatre termes de Nagarjuna et les théories phénoménologies d’Husserl ou de Merleau-Ponty, il est surtout connu pour avoir élaboré deux concepts très féconds dans les domaines des sciences cognitives. Le premier est celui d’autopoïèse, développé en association avec son compatriote Humberto Maturana. L’autre est celui d’énaction.
L’autopoièse est en quelque sorte le degré ultime de l’autonomie. On peut dire d’un système qu’il est autonome s’il dispose d’un système d’échange filtré avec l’environnement, et donc une certaine indépendance d’action par rapport à son milieu. Un système autopoiétique va encore plus loin : il est capable de fabriquer ses propres constituants, de s’autocréer et de s’automaintenir. Une telle propriété peut paraître miraculeuse, mais elle est à la base de l’unité fondamentale du vivant : la cellule est en effet capable de créer les molécules qui la constituent.
L’autre idée importante de Varela, qu’il développera en compagnie d’Eleanor Rosch et Evan Thompson, dans leur livre « L’inscription corporelle de l’esprit » repose sur l’idée que le cerveau (biologique ou mécanique) n’est pas un organisme de traitement de l’information isolé dans une boîte et connecté à l’extérieur par les portes des sens, comme le croyait Descartes. Au contraire, la cognition nait de l’action et nécessite un corps pour se former, comme nous l’avions déjà expliqué). On comprendra donc pourquoi l’énaction est un concept très prisé en robotique.
Langton comme Varela pensent la vie comme un « phénomène émergent », un système se constituant de manière bottom-up, à partir de l’interaction d’éléments multiples. Pourtant, on a l’impression que si Langton est avant tout un informaticien, Varela reste d’abord un biologiste. Il semble que, par bien des côtés, ces deux chercheurs exemplifient des approches différentes existant depuis bien longtemps, tant au sein de la biologie que de l’informatique ou de l’intelligence artificielle. Si Langton, avec son usage des automates cellulaires, se réclame volontiers de Von Neumann et d’une pensée numérique, la notion d’autopioièse se rapproche plus des idées du « concurrent » de Von Neumann, Norbert Wiener, partisan des ordinateurs analogiques, et dont la théorie, la cybernétique, a fourni les notions de rétroaction ou de feedback à l’origine des concepts d’autopoièse et de causalité circulaire.
De même, le vivant dans le premier colloque de Santa Fé, est souvent décrit par ses capacités d’autoréplication et de mutation. Au contraire, quelqu’un comme Varela s’intéressait plus à la notion d’autonomie. Cela aussi reflète une polémique ancienne sur les origines de la vie : d’un côté on trouve ceux qui insistent sur le fait que la vie est essentiellement la manifestation d’un métabolisme qui implique un système autonome capable de conserver son identité malgré les perturbations de l’environnement, contre ceux qui y distinguent avant tout un processus autoréplicateur. Enfin, on voit aussi poindre la trace d’une opposition au sein de la notion d’intelligence. Si un Moravec, présent au premier colloque d’Artificial Life, allait bientôt devenir un champion de l’uploading, (qui partage avec la notion de vie in silico la conviction que la vie et donc la conscience est une forme d’organisation de l’information finalement indépendante du support) la notion d’énaction, au contraire, tend à rendre sceptique sur la possibilité de séparer la cognition de son support biologique fondamental dont elle serait en fait une propriété.
Systèmes formels et simulation biologique
Qu’en est-il de la vie artificielle, 20 ans après ? Force est de reconnaître que les résultats sont mitigés. Par bien des côtés, cette recherche n’a pas réussi à convaincre : les automates cellulaires ne sont pas parvenus à développer une complexité proche des véritables formes vivantes. Comme le dirait un des chercheurs du domaine, Thomas Ray, on a bien réussi à recréer certains des aspects primitifs du vivant, mais pas l’explosion cambrienne, cette période de l’histoire de la Terre où les organismes biologiques se sont multipliés et ont exploré toutes les formes possibles, n’a pas eu lieu in silico. A cela s’ajoute l’exil, volontaire ou pas, on ne sait trop, de Chris Langton, qui a vite cessé toute vie publique : il semblerait que ses spéculations plutôt aventureuses n’aient pas forcément été bien reçues par l’institution universitaire.
De fait, la vie artificielle a continué, mais sa définition est devenue plus floue. Elle a intégré les notions de biologie computationnelle, s’est ouverte à l’analyse des sociétés et des organisations… Il devient difficile aujourd’hui de donner une définition exacte de la vie artificielle : il est plus simple de dire que celle-ci concerne l’ensemble des interactions possibles entre la biologie et l’informatique, que ce soit sous la forme de simulations, de robotique, d’étude des systèmes complexes, ou de recréation de la vie in silico au sens plus traditionnel du terme.
Le colloque du 8 août reflétait largement cette disparité des voies. On y trouvait de la biologie des systèmes, pas mal de robotique, un peu de « vie artificielle langtonienne ».
Par exemple, j’ai participé à une initiation à Stringmol, un système logiciel disponible en ligne, destiné à créer une « chimie artificielle ». Cette tentative, plutôt « langtonienne » consiste à élaborer une chimie virtuelle, abstraite, donc existant à un niveau encore plus bas que la vie artificielle proprement dite (à noter que certains chercheurs, comme Stephen Wolfram ou Ed Friekin, se sont même intéressés à l’idée d’une « physique artificielle » qui chercherait à reproduire en virtuel certaines propriétés fondamentales de l’espace-temps, par exemple : mais je n’ai pas rencontré de telles applications lors d’Ecal 2011). Ici l’expérience consistait à créer des molécules et les faire « muter » pour explorer les liaisons possibles entre les différentes versions. Essayez, si vous voulez !
Cela dit, il semblerait que même sous ses aspects les plus abstraits, la vie artificielle ne nourrisse plus l’ambition de créer une nouvelle forme de vie. Il s’agit plutôt, désormais, de découvrir une série de principes formels qui nous aideraient à comprendre la mécanique profonde du vivant : de la biologie théorique, en fait…
De nombreuses sessions ont en revanche été consacrées à la modélisation de systèmes biologiques précis. Ainsi, David Harel lors de sa conférence « Peut-on informatiser un éléphant », a tenté d’explorer les principes de base de la biologie computationnelle et insisté sur la nécessité de posséder un maximum de données sur le phénomène à simuler pour obtenir des résultats applicables dans le monde réel. Encore plus concret, James Murray nous a expliqué comment une simulation informatique pouvait prédire le développement futur d’une tumeur au cerveau, et ainsi éviter à à certains patients déjà condamnés de subir des opérations chirurgicales douloureuses, invalidantes et au final inutiles.
La conférence de Ricard Solé a été particulièrement intéressante, car elle semble faire le lien entre les disciplines de la vie artificielle et celles de la biologie synthétique, deux domaines, qui, aussi étonnant que cela paraisse, semblent se rencontrer plutôt rarement, alors que tout semblait destiné à les voir fusionner – que cela soit dû à de réelles différences de fond, ou à des réseaux sociaux qui ne se rencontrent pas, je l’ignore. En tout cas, Ricard Solé, envisage de créer des systèmes logiques à partir des composants du vivant. Il s’agit donc moins de créer du vivant dans un ordinateur, que créer des ordinateurs avec du vivant.
Cela n’est pas sans poser certains problèmes : en effet notre conception habituelle d’un programme est celle d’une machine de Turing, c’est-à-dire une bande sur laquelle sont inscrites des instructions, et parcourue par une « tête de lecture » exécutant ces instructions les unes après les autres. Or note Solé, si certains aspects du vivant comme la structure de l’ADN se rapprochent d’une machine de Turing, dans bien des cas, le style de computation, est plus proche de celui des termites ou des sociétés, dans lesquelles une multitude d’acteurs interagissent simultanément, de manière massivement parallèle. Solé envisage donc de créer une population de systèmes logiques implémentés dans des organismes et de les gérer comme des systèmes multi-agents.
Une « épistémologie fabulatoire »
En a-t-on donc terminé de la vie artificielle classique, celle qui cherchait à produire de la vie réelle in silico ? Au cours du « panel des pionniers », qui s’est tenu à la fin du troisième jour, certains des vieux routiers de la vie artificielle ont répondu à un « questionnaire de Proust » de Hugues Bersini sur la nature et la définition de la vie artificielle. Ainsi, à la question « Qui selon vous incarne le mieux la vie artificielle ? », une très nette majorité a répondu « Chris Langton ». Et ce, bien que l’homme ait disparu de la circulation et que ses théories n’aient pas été universellement adoptées. Lors de cet hommage général, un des participants au colloque s’est levé pour rappeler que Langton n’était pas mort, et que selon ses sources, il serait même prêt à revenir dans le jeu.
Autre grand vainqueur de ce panel des pionniers, le logiciel Tierra de Tom Ray, mentionné par la majorité des participants comme le programme de vie artificielle archétypique. Si Ray ne fait pas partie des tout premiers participants au colloque de Santa Fé, son système, Tierra est l’exemple même de la vie artificielle classique langtonienne : il s’agit d’une soupe de « virus informatiques » capables de s’autorepoduire et d’entrer en compétition pour la seule véritable ressource du monde numérique : l’occupation du temps de calcul. En 1996, Ray avait même lancé une « Tierra en réseau ». Il espérait, en se servant de l’internet comme environnement global pour ses créatures, produire l’explosion cambrienne qu’il appelait de ses vœux. A l’époque, l’affaire avait même créé une polémique, les gens craignant (de manière irrationnelle, car les tierrans ne peuvent fonctionner que sur une « machine virtuelle » spécifique) que les « vers » de Ray ne contaminent la Toile tout entière. Il avait du s’adjoindre alors les services de Tsutomu Shimomura, spécialiste de la sécurité informatique qui avait fait « tomber » Kevin Mitnick, pour rassurer les utilisateurs inquiets. Mais, ici encore, cette expérience n’a pas connu de véritable suite.
Peut-être encore plus intéressantes, les réponses à la question de Bersini sur les « résultats concrets apportés par la vie artificielle ». Dans la plupart des cas, elles insistaient sur la création d’une communauté interdisciplinaire de chercheurs et son maintien à travers le temps. Autrement dit, l’apport de la vie artificielle est bien plus d’ordre sociologique que purement scientifique : la vie artificielle a créé un espace loin des spécialisations académiques et permis la rencontre entre des chercheurs de disciplines différentes pour discuter de mécanismes transversaux comme la réplication, l’autonomie, la mutation, la complexité…
En écoutant ce panel, on avait le sentiment d’assister à l’élaboration d’une mythologie contemporaine, les chercheurs se référant souvent à un temps mythique (dans le lointain passé des années 80, ou dans un lointain futur) peuplé de vie in silico tandis qu’ils se consacrent essentiellement à des travaux plus concrets et plus terre-à-terre. Louis Bec, artiste invité au colloque, inventeur de nouvelles espèces vivantes et créateur de l’Institut scientifique de recherche paranaturaliste, a employé les termes « d’épistémologie fabulatoire », une expression très heureuse qui définit bien la vie artificielle : une discipline dont les ambitions initiales appartiennent, sans aucun doute, aux utopies futuristes les plus extrêmes, à la « science-fiction » (au sens noble et non péjoratif du terme). Un imaginaire futuriste qui nourrit des recherches bien plus concrètes, mais qui reste, pour presque tous les chercheurs du domaine, le point de référence de leurs travaux.
Toutefois, lorsqu’on dit que la « vie artificielle » présente un lien avec la biologie théorique, on oublie de dire que son champ d’action et ses méthodes s’étendent bien au-delà : elle aborde aussi le thème de la société, de la culture, du langage. Et aussi, elle n’est pas dénuée de fructueuses applications pratiques, dont on a vu poindre le nez au colloque. Deux thèmes que nous allons explorer dans les prochains articles de ce dossier.
Rémi Sussan
Le dossier « La vie artificielle, 20 ans après »
- 1e partie : entre la machine et le vivant
- 2e partie : comprendre le langage pour comprendre la culture
- 3e partie : quand l’embryogénèse des machines remodèle la fabrication personnelle
- 4e partie : quelles perspectives ?
0 commentaires
Merci d’écrire sur le sujet de la vie artificielle. Le sujet a été très à la mode il y a une quinzaine d’années, au même moment que l’explosion de l’Internet en Europe. C’est grâce au défunt magazine « Interactif » que j’ai pris connaissance du phénomène.
Un article sur la les apports de la programmation génétique (façon Koza) serait intéressant !
Bonjour,
Je cherche à savoir quels sont les arguments qui permettent d’assimiler les êtres vivants à des machines.
J’ai autour de moi des gens qui prétendent que les êtres vivants ne sont pas des machines, essentiellement sur la base de leur expérience subjective, et je voudrais bien savoir quoi leur répondre…
Merci
Une définition de la limite entre le vivant et le non-vivant peut être trouvé dans le processus d’autopoiese proposé par Varela.
« L’autopoïèse (du grec auto soi-même, et poièsis production, création) est dans sa définition la plus simple la propriété d’un système à se produire lui-même et ainsi à maintenir sa structure malgré le changement de ses composants. » from Wikipedia http://fr.wikipedia.org/wiki/Autopo%C3%AF%C3%A8se
Un système vivant serait donc un système présentant cette propriété. (ex: les virus n’en feraient pas parti.)
Ce point de vue est grandement exposé dans la première partie du livre de Capra « les connexion invisibles » que je conseille vivement.
Ceci répond peut-être d’une façon décalé à ta question, mais permet, je pense, de lancer une piste de réflexion par rapport au statut des machines.
@Bertrand – Un argument être-vivant-machine a été posé par A.Turing sur le facteur de l’intelligence et de la pensée ; un groupe sur FaceBook http://www.facebook.com/groups/245228208863568/246162195436836/?notif_t=like fait une lecture de ses recherches.
Ce sont des monstres abominable sans âme qui crée ces horreurs atroces!
@Tarik: Je connais déjà Varela, son autopoïèse n’est qu’un nom pompeux pour désigner la génération, c’est-à-dire précisément le phénomène inconnu des machines. Varela ne l’explique pas, il lui donne seulement un autre nom pour continuer à faire comme si les êtres vivants étaient des machines alors qu’il sait pertinement que c’est faux. Mais parce que son approche scientifique et cybernétique lui dicte de tout transformer en machines, il tente de dissimuler ce qui ne rélève pas de la machine sous un jargon pédant. Tour de passe passe digne plus d’un joueur de bonneteau que d’un philosophe de la biologie!
C’est ridicule.