La vie artificielle, 20 ans après (4/4) : quelles perspectives ?

Pour conclure ce dossier sur la vie artificielle, j’ai interrogé Hugues Bersini, professeur à l’université libre de Bruxelles et codirecteur du Laboratoire Iridia (Institut de recherches interdisciplinaires et de développements en Intelligence artificielle). Hugues Bersini est l’un des coorganisateurs d’ECAL 2011 mais aussi l’un des trois initiateurs des conférences ECAL, en compagnie de Paul Bourgine et Francesco Varela, il y a 20 ans…

InternetActu.net : Quelle est l’actualité de la vie artificielle aujourd’hui, au sens où l’entendaient des gens comme Langton ou Ray ?

Hugues Bersini : Je pense que le projet originel de la vie artificielle reste toujours celui de transposer les mécanismes fonctionnels inhérents au vivant que nous connaissons, dans des substrats qui ne soient plus biochimiques. Les raisons pour cela sont multiples. Mieux cerner la complexité du vivant, comprendre les ressorts fondamentaux de cette complexité, s’en inspirer pour la conception d’artefacts capables d’une meilleure maîtrise des processus complexes qui nous entourent… Lorsque Langton souhaitait générer du vivant tel qu’il pourrait être, je devine que sa motivation première était d’extraire et de reproduire de manière logicielle ou robotisée les processus fonctionnels essentiels au vivant : métabolisme, compartimentalisation, existence d’une matrice informationnelle codant la machinerie nécessaire à ces fonctions, autoreproduction et évolution de ce codage.

Bersini
Image : Hugues Bersini.

InternetActu.net : Si ces techniques un peu « formelles » ne marchent pas, ne risque-ton pas de rencontrer l’autre problème, celui de la gestion des « big data » avec la difficulté de prévoir un système complexe même si on connait tous les éléments qui le constituent ?

Hugues Bersini : Une définition possible de la complexité est, en effet, l’existence de multiples niveaux d’observation selon le degré de grossissement du microscope utilisé par l’observateur. Des phénomènes apparemment nouveaux dits « émergents » apparaissent à chacun de ces niveaux. Tout un débat philosophique est en cours sur ce mystérieux concept d’émergence qui autoriserait l’existence de multiples niveaux ontologiquement neutres par rapport aux mécanismes sous-jacents qui « sembleraient » les faire exister. Je m’oppose rigoureusement à cette vision – j’ai écrit une réfutation du caractère mystique de l’émergence intitulée Qu’est-ce-que l’émergence aux éditions Ellipse. J’accepte bien évidemment que la connaissance des parties prises indépendamment ne suffise pas à la compréhension des phénomènes qui résultent de leurs interactions, qu’il est nécessaire de simuler leur interaction, d’où le rôle essentiel joué ici par la simulation (les mathématiques du non linéaire sont à la traîne, pour ne pas parler de la prise en compte de l’espace et de la matérialité). J’accepte aussi que la non-linéarité de ces interactions, leur caractère spatio-temporel rend l’élucidation des phénomènes globalisants assez délicate. Mais je pense que toute démarche scientifique a, pour partie, l’obligation de lever le voile sur les microphénomènes qui donnent naissance à ces observations de plus haut niveau. Prétendre que ces macrophénomènes ont une existence ontologiquement autonome revient à dénier à la science la faculté de les recouvrir et d’en expliquer le fonctionnement. C’est un constat d’échec, un aveu d’impuissance dont la science n’a que faire.

InternetActu.net : Voyez-vous bientôt venir des applications concrètes des recherches en vie artificielle ? Quels seront les champs d’application concernés : la biologie ? La robotique ? La sociologie ? … D’autres domaines ?

Hugues Bersini : Si l’on entend la vie artificielle comme une branche de la biologie théorique dont la particularité est l’utilisation massive de simulations informatiques, bien évidemment, c’est cette discipline scientifique qui en a le plus à attendre. La biologie souffre d’une imprécision fondamentale de ses modèles, qui, pour l’essentiel, reposent sur des liens de causalité exprimés presque uniquement en langage courant. Or, justement, la simulation informatique permet de transposer ces causalités qualitatives dans une écriture formelle, et qui de plus, cerise informatique sur le gâteau, en permet l’exécution dans le temps. Cette écriture logicielle exige des biologistes une réflexion approfondie et une désambigüation de leur niveau de compréhension actuel. Ils peuvent aussi tester et éventuellement rectifier ou ajuster les dépendances identifiées en découvrant leur effet sur une plus grande échelle spatiale et temporelle.

Du côté de l’ingénierie, bien évidemment, c’est la force brute de l’ordinateur qui est encore et toujours mise en lumière. Un logiciel peut, par les itérations multiples et rapides de mécanismes simples, aboutir à des solutions sophistiquées face à des situations complexes et dont la maîtrise échappe jusqu’à présent à l’humain. Ainsi, les algorithmes génétiques trouvent de manière élémentaire des solutions quasi optimales pour des problèmes d’optimisation dont la résolution souffre en théorie de l’explosion combinatoire des solutions. Les robots, seuls ou en groupes, peuvent nous surprendre en : 1) les dotant d’apprentissage, 2) les installant dans un environnement complexe et non structuré, 3) les faisant travailler en groupe ou en essaim à l’exécution de plusieurs tâches dont chacune échappe aux robots pris isolément. Les logiciels inspirés de la biologie sont programmés de manière simple, mais lorsqu’ils s’exécutent, ils peuvent spontanément explorer un espace infini de solutions possibles, une exploration totalement impossible même pour le plus brillant de nos ingénieurs.

InternetActu.net : J’ai été surpris en lisant les actes du colloque, de voir qu’une autorité comme Stuart Kauffman semble prêcher pour certains aspects quantiques de la conscience. Je croyais de genre de théories rejetées par la communauté scientifique en général. Se pourrait-il qu’il y ait vraiment un « facteur manquant », d’origine quantique, expliquant notre difficulté à comprendre certains mécanismes de la complexité ?

Hugues Bersini : Stuart Kauffman est un cas très à part dans notre communauté. Bien qu’ayant influencé de manière déterminante le champ de la vie artificielle et des sciences de la complexité en général, il est devenu une espèce d’électron libre, qui peut tout se permettre et que son excellente réputation, légitimement forgée, met à l’abri de toute moquerie. Pour ma part, je ne vois pas du tout, à l’heure d’aujourd’hui, la nécessité de recourir à la mécanique quantique et aux sciences de l’infiniment petit pour enrichir le domaine épistémologique, déjà bien vaste, de la vie artificielle et de la biologie théorique. Il n’est pas le premier à penser que la mécanique quantique constitue le chaînon manquant, soit de la complexité, soit du caractère subjectif de la conscience, soit du vivant ou d’autres mystères encore. Il est un jeu bien connu des sciences que j’aime à appeler « l’assimilation des mystères ». La conscience est mystérieuse, la mécanique quantique l’est donc… CQFD , la mécanique quantique doit jouer un rôle clef pour expliquer ce qui nous échappe dans la conscience. Bien d’autres l’ont précédé sur cette voie sans issue, Eccles, Penrose… Et ils n’ont jamais eu le moindre impact décisif ni sur l’intelligence ni sur la vie artificielle.

Propos recueillis par Rémi Sussan.

Le dossier « La vie artificielle, 20 ans après »

À lire aussi sur internetactu.net