Vie artificielle : le bilan

La couverture des actesLorsqu’en 1989 parurent les premiers actes du colloque « Vie artificielle » qui s’était tenu à Santa Fé un peu plus tôt, en septembre 1987, les lecteurs de l’ouvrage eurent sans doute l’impression d’être projetés dans un roman de science-fiction. Nombre d’idées visionnaires, qui allaient exploser souvent des années plus tard, y étaient exposées pour la première fois…

L’initiateur du projet (et inventeur de l’expression « vie artificielle »), Christopher Langton, y postulait que, puisque la vie était avant tout un système d’information, il était possible de la créer sous forme logicielle, indépendamment du support matériel : non pas simuler la vie derrière un écran, mais la créer pour de bon ! Dans le même colloque, Hans Moravec parlait du possible remplacement de la vie carbonée par son équivalent robotique in silico, posant les bases du transhumanisme et des théories de la Singularité ; Eric Drexler exposait ses spéculations sur la nanotechnologie ; Richard Dawkins dissertait sur l’évolution, tandis que Mitchel Resnick y présentait son système « Lego/logo », première brique de ce qui allait devenir un jour Lego Mindstorms… Rares sont les livres contenant autant d’idées inédites à la fois.

Pendant quelques années, la Vie Artificielle devint le concept « branché » de la science informatique, influençant notamment la recherche sur les « agents intelligents » qui furent un moment la coqueluche du Web naissant.


Grandeur et décadence ?

20 ans après, il faut bien admettre que l’enthousiasme s’est quelque peu émoussé. Cet été, la conférence Artificial Life XI s’est tenue dans les brumes de Winchester, dans le sud de l’Angleterre, bien loin du soleil brulant de Santa Fé ou avait eu lieu le premier évènement du genre. A cette occasion, Roger Highfield (également journaliste au New Scientist) a écrit pour le Telegraph un article tentant de faire le bilan de ces vingt ans de recherche.

Force est de reconnaitre que les résultats promis sont absents. Finalement, la vie artificielle n’a pas tellement plus progressé que son inspirateur direct, l’intelligence artificielle. La vie logicielle n’a pas crû et multipliée, et surtout, elle n’a pas évolué vers plus de complexité.

Highfield cite l’exemple du travail le plus prometteur de cette génération, celui de Thomas Ray, qui avec son programme Tierra avait essayé de créer de manière purement logicielle un écosystème de créatures analogues à des virus informatiques, mais capables de se reproduire et muter, sous la pression d’une force sélective purement numérique : le temps machine, une ressource pour laquelle les « tierrans » entraient dans une compétition à mort.

Très vite, Ray, avait affirmé voir dans les données de son programme (n’imaginez surtout pas Tierra comme un monde virtuel peuplé de créatures en 3D bizarres, comme dans le futur Spore de Will Wright ; l’interface de Tierra se présentait essentiellement sous la forme d’un tableau de chiffres, ce qui rend les interprétations bien sûr un peu aventureuses) divers éléments propres à la vie biologique, comme par exemple les cycles prédateurs-proie, les équilibres ponctués chers à Stephen Jay Gould (l’idée selon laquelle l’évolution s’effectue par sautes brusques et non de manière graduelle) voire le sexe lui-même (ayant mis à zéro la variable « taux de mutation », Ray avait eu la surprise de voir ses créatures continuer à évoluer en se partageant leurs génomes).

Pourtant malgré le succès des premières expériences, Tierra allait vite tourner à vide. Certes, sous l’influence de la sélection naturelle, les créatures numériques évoluaient, mais pas assez. Elles restaient bloquées à un niveau très primitif. Pour employer une expression de Ray, son système n’aboutissait pas à une « explosion cambrienne » : cette phase de l’histoire de la vie qui a vu une multiplication des organismes différents. Ray lança alors une expérience de Tierra en réseau, espérant qu’un écosystème de plusieurs ordinateurs pourrait favoriser l’explosion de la complexité. Mais l’expérience ne connut pas de suite et Ray lui-même se focalisa sur d’autres centres d’intérêt.

Une complexité trop complexe
Selon Highfield, le problème viendrait du fait que les programmes de vie artificielle se baseraient essentiellement sur le processus de sélection naturelle darwinienne, et que ce dernier serait en fait insuffisant pour expliquer la complexité.

Comme le souligne le docteur Richard Watson de l’université de Southampton, co-organisateur de la conférence, « bien que Darwin nous ait donné un composant essentiel de la complexité, ce n’est pas une théorie suffisante (…) Il y a d’autres composants essentiels qui manquent ».

Pour Highfield, l’un de ces composants pourrait bien être l’auto-organisation, cette mystérieuse faculté qu’à la matière de générer des formes de plus en plus complexes, dont la constitution spontanée des cristaux de glace est un exemple. Comme le dit un autre des organisateurs de la conférence, Seth Bullock : « L’évolution par elle-même ne semble pas capable de causer les sauts créatifs qui se sont produits lors de l’histoire de la vie… C’est un très bon moyen de raffiner, de retoucher, etc. Mais nous avons besoin de l’auto-organisation en plus de la sélection naturelle afin que se manifeste le pouvoir créatif que nous constatons autour de nous. »

Certes, mais il serait toutefois un peu injuste de penser que la sélection naturelle a été le facteur unique privilégié par les chercheurs en vie artificielle. C’est peut être vrai de Tom Ray, mais cela ne l’est pas de Chris Langton lui même, ni de Craig Reynolds, par exemple, l’inventeur de la notion de boids, qui montre comment les vols d’oiseaux et les bancs de poissons sont capables de s’auto-organiser (vidéo). De fait, l’auto-organisation, en compagnie des autres théories de la « complexité », a connu son heure de gloire dans la mouvance de la vie artificielle, et l’ébauche d’une mini révolution informatique s’est même esquissée, avec pour épicentre, qui s’en étonnera, Santa Fé. Ce qu’on a nommé « l’info mesa » au début des années 2000 désignait une pépinière d’entreprises se proposant d’appliquer les théories de l’auto-organisation et de la complexité à différents aspects du monde qui nous entoure : données financières, systèmes multi-agents, génétique… Parmi les fondateurs de ces entreprises, quelques-uns des théoriciens les plus brillants de la complexité, tel Langton lui-même, qui créa Swarm Corporation (systèmes multi-agents), ou Stuart Kauffman, dont les thèses sur les « réseaux autocatalytiques », capables de créer leurs propres composants, pourraient expliquer l’apparition de la vie, et qui a créé le Bios Group (application de la complexité aux affaires). La plupart de ces compagnies disparurent peu après l’éclatement de la bulle internet au début de la décennie. Aujourd’hui, l’auto-organisation est plus que jamais à l’ordre du jour, mais sa mise en oeuvre et sa compréhension nous semblent de plus en plus, euh… complexes !

Mais peut-être voit-on les choses par le petit bout de la lorgnette. Ces systèmes sont ils vraiment si peu satisfaisants ? Peut-on dire que leurs promesses n’ont pas été tenues ? Peut-être entre-t-on au contraire dans des domaines de la recherche fondamentale qui s’accordent mal avec le cycle enthousiasme/déception qui caractérise les technologies du Web ? Il est vrai que nous accumulons tous les jours un nombre d’informations en croissance exponentielle, ce qui pourrait laisser penser à une accélération tout aussi exponentielle des découvertes. Mais il faut reconnaitre que les défis auxquels les chercheurs sont confrontés sont aussi de plus en plus exigeants… Trouver le secret de la vie, ce n’est pas aussi facile que concevoir un nouveau plug-in pour Firefox ! Contrairement à ce que pourrait penser un Chris Anderson, jamais on n’a eu autant besoin de modèles, de méthodes. Les théories de l’auto-organisation, de la vie artificielle sont peut-être tout simplement des pas dans la bonne direction, de tout petits pas. Sans doute faut-il les laisser grandir sans leur demander immédiatement de fournir des réponses aux problèmes les plus difficiles… Il s’est écoulé trois milliards d’années entre l’apparition des premières formes de vie et l’explosion cambrienne. N’était-il pas un peu prématuré d’abandonner l’expérience de Tierra au bout de quelques mois ?

À lire aussi sur internetactu.net

2 commentaires

  1. Je m’interromps dans ma lecture pour une précision : « Spore » n’est pas un jeu futur, il est sorti depuis dix jours. J’imagine que l’article a été commencé avant 🙂

  2. Pour pouvoir faire des robots qui fonctionneraient comme un être humain, je pense qu’il est d’abord nécessaire de savoir comment un être humain fonctionne.

    En clair, il s’agit de savoir quel cycle de relations de causes à effets lui permet d’élaborer une pensée et le conduire ou non à agir

    De plus, il faut que cette suite logique de relation de causes à effet soit universelle, en ce sens qu’elle puisse s’appliquer à tout acte de la vie, du plus simple au plus compliqué et qu’elle soit déclinable à l’infini afin de pouvoir être utilisée pour une intelligence artificielle.

    Je propose une telle théorie sur ce lien http://www.trce.org mais n’ayant pas de connaissances techniques, je serais bien incapable d’en tirer une application numérisée pour créer une intelligence artificielle.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *