De la cosmologie à l’intelligence artificielle

L’intelligence artificielle (IA) avance en général à coup de progrès locaux : on apprend à une machine à se déplacer, à jouer à Jeopardy, à repérer les occurrences d’un texte ou à reconnaître les visages. Mais jusqu’ici, l’idée d’une théorie générale de l’intelligence susceptible de prendre en compte l’ensemble des phénomènes mentaux nous a toujours échappé. Depuis quelques semaines circule cependant parmi les aficionados un nouveau mot qui sonne comme une promesse : « Entropica ».

A l’origine une théorie d’Alexander Wissner-Gross qui a publié avec son équipe un papier (.pdf) dans la Physical Review (si vous avez des compétences mathématiques, consultez-le, je n’y ai personnellement rien compris) qui cherche à établir une relation entre les principes cosmologiques et l’intelligence.

La principale brique de la thèse de l’auteur est la relation existante entre l’entropie et l’information. La thèse de l’entropie, issue de la thermodynamique, est qu’un système tend vers une augmentation du désordre. Par exemple, si l’on mêle de l’eau chaude et l’eau froide dans une baignoire, la température tend à se stabiliser vers le « tiède ». Un côté de la baignoire ne restera pas chaud et l’autre froid. L’un de principes de la thermodynamique est que tout incline vers l’entropie.

Or, selon les physiciens, depuis les travaux de Shannon, on a tendance à corréler l’entropie d’un système avec la quantité d’information qu’il contient. Cela peut paraître complètement contre-intuitif : l’information n’est-elle pas le contraire du désordre ? En fait, par la « quantité d’information » on entend le nombre de choses « surprenantes » qu’on peut trouver au sein du système. Un exemple très simple en est la compression d’images. Si une image est composée de grands aplats de couleurs uniformes, comme dans un tableau de Mondrian, on peut dire qu’elle comporte peu d’information (sans critiquer Mondrian). Du coup, on peut aisément compresser le fichier graphique, sans « perte d’information ». Il suffit de préciser dans le programme que telle partie est bleue, telle autre rouge, etc. Une telle image est très « ordonnée ». Une photographie est beaucoup plus difficile à décrire : chaque pixel ayant une gamme de couleurs beaucoup plus grande. Du coup, si on veut la compresser, il va falloir réduire le nombre de variations possibles, il y aura perte d’information. Donc un système « désordonné » contient bien plus d’informations qu’un autre « ordonné ».

L' »entropie causale », à l’origine du cosmos et l’IA

La thèse de Wissner-Gross repose sur l’idée que notre univers cherche à maximiser l’entropie, c’est-à-dire le désordre, et donc l’information. C’est le principe de l’entropie causale, qui régirait l’accroissement de la complexité dans le cosmos. Donc, toute chose tend à prendre les positions qui lui laissent le plus grand nombre de choix futurs, autrement dit la possibilité d’adopter à l’avenir un maximum de comportements inattendus (et donc d’accroître le désordre).

Pour Alexander Wissner-Gross, ce principe pourrait donner naissance à une nouvelle théorie de l’intelligence artificielle : il suffirait de demander au software de toujours chercher à maximiser ses possibilités, à accroître son entropie. Un comportement intelligent « émergerait » alors. D’où l’idée de créer Entropica, un logiciel d’IA basé sur ces prémisses.

Dans une vidéo, les chercheurs nous expliquent comment leur nouveau système est capable de faire émerger le déplacement, l’utilisation d’outils, une stratégie de défense, etc. J’avoue que la vidéo ne m’a guère convaincu et que j’ai du mal à voir le rapport entre trois cercles se cognant les uns les autres et l’emploi d’un outil par un primate, mais je manque peut-être d’imagination.

Toutefois l’hypothèse ne manque pas d’intérêt. Dans un article de io9, George Dvorsky explique comment une telle théorie pourrait aider à élaborer un programme de jeu d’échecs ou de Go. A chaque coup, l’ordinateur chercherait non pas à atteindre un but précis, mais simplement à maximiser ses chances pour la suite des opérations.

« Lorsque les meilleurs programmes jouent au Go, ils se basent sur le principe que le coup le plus avantageux est celui qui préserve la plus grande fraction de gains possibles ».

Dans un autre article sur Entropica, paru dans Forbes, Anthony Wing Kosner confronte cette idée avec son expérience personnelle :

« J’ai toujours été intéressé par le jeu d’échecs, explique-t-il, mais je ne suis pas du genre à me souvenir d’exemples d’ouvertures ou de fin de partie. Je voulais trouver un moyen de jouer totalement dans le présent, sans me reposer sur une « bibliothèque » de tactiques du passé. J’ai donc développé une stratégie susceptible de préserver des options pour autant de mes pièces qu’il était possible. Plutôt qu’élaborer un plan, je créais des circonstances par lesquelles un plan émergerait spontanément. »

Comme toujours lorsqu’on parle d’innovation en IA, les rêves singularitariens et les cauchemars d’une révolte de robots ne manquent pas de ressurgir. George Dvorsky, dans son article nommé « Comment Skynet pourrait émerger à partir d’une physique très simple » (Skynet est l’entreprise fictionnelle à l’origine du monde de « Terminator ») n’a pas manqué de poser à Wissner-Gross certaines des questions qui hantent l’esprit du grand public. Parmi elles : les robots en viendront-ils à dominer le monde ?…

Et ses réponses ont été originales. Si l’on se base sur la théorie de l’entropie causale, « La tentative de domination du monde pourrait bien être un précurseur de l’intelligence et non le contraire ». Comme Wissner-Gross l’a expliqué à Dvorsky : « Nous nous sommes complètement trompés sur l’ordre de dépendance. L’intelligence et la superintelligence pourraient naître de l’effort de contrôler le monde – spécifiquement tous les futurs possibles -, cet effort ne serait pas un comportement qui émergerait spontanément de machines ayant une intelligence surhumaine ».

Peut-on alors envisager de « contraindre » une telle intelligence à l’aide de règles fondamentales, comme les fameuses trois lois de la robotique ? Encore une erreur de pensée, affirme Wissner-Gross.

« Notre théorie de la maximisation de l’entropie causale est que les IAs pourraient bien être fondamentalement opposées à l’idée de contrainte. Si l’intelligence est un phénomène qui émerge spontanément de la maximisation de l’entropie causale, cela signifie qu’il faut reformuler la définition de l’intelligence artificielle comme étant un phénomène physique résultant d’un processus qui essaie d’éviter d’être contraint. »

Adieu Asimov !

La grande théorie, une illusion ?

Naturellement, toute hypothèse a ses critiques. Pour preuve un article particulièrement féroce du New Yorker, signé par Gary Marcus et Ernest Davis, respectivement professeur de psychologie et d’informatique. Il me semble personnellement – sans pour autant défendre spécialement la thèse de Wissner-Gross que je n’ai pas les moyens d’évaluer – que la plupart des arguments développés par les deux auteurs reposent sur des prémisses dogmatiques qu’ils évitent de remettre en cause. Comme en témoigne l’argument principal : « Malheureusement, de telles grandes solutions qui proposent une réponse unique à l’ensemble des phénomènes ne marchent pratiquement jamais parce qu’elles sous-estiment radicalement la complexité des problèmes du monde réel. »

Or c’est ce qui fait débat : les systèmes complexes, comme l’intelligence, peuvent-ils être déduits des règles « simples » de la physique ? Certains le pensent, comme les aficionados des automates cellulaires. Ils ont peut-être raison, peut-être tort. Mais c’est précisément la question qui doit être tranchée. Ce faisant, les auteurs se contentent d’affirmer leur appartenance à un camp, tout en prétendant que leur hypothèse préférée constitue une réponse définitive à la question posée. Or ce n’est pas le cas, la discussion reste ouverte. Il se pourrait bien, comme l’écrit David Deutsch dans son livre The beginning of infinity que « le problème n’est pas que le monde est si complexe que nous ne pouvons pas comprendre pourquoi il est ainsi, mais qu’il est si simple que nous ne pouvons pas encore le comprendre ».

Dans leur article, les deux auteurs dénoncent également la hype autour d’Entropica. Tout d’abord c’est, il faut le dire, une mode très modérée. Une recherche Google sur « Entropica » montre que le nombre d’articles suscités par la thèse de Wissner-Gross est assez modeste (et qu’il existe un groupe de musique « Ambient » du même nom qui possède bien plus d’entrées). L’article du New Yorker nous montre en fait qu’il nous faut également nous méfier de « l’anti hype » qui rejette toute nouvelle théorie (et l’enthousiasme qu’elle crée forcément chez certains) à l’aide de réfutations faciles. Il ne s’agit pas pour moi de défendre les idées de Wissner-Gross. Je le répète, je n’en comprends pas les mathématiques et la vidéo me laisse de marbre. Entropica a probablement 90 % de chances d’être un coup d’épée dans l’eau. L’avenir le dira. Cela ne signifie pas pour autant que, sous prétexte que toutes les tentatives d’explication globale ont jusqu’ici échoué, qu’une d’entre elles ne réussira pas un jour. Pour paraphraser Mark Twain, les nouvelles de la mort de la « grande théorie » ont été grandement exagérées.

Rémi Sussan

À lire aussi sur internetactu.net

0 commentaires

  1. Une remarque : Seul, un système Fermé tend vers l’entropie. Une question : L’univers est-il un système fermé ? L’auteur présuppose apparemment que oui.
    Mais l’idée est bonne ; cependant, un système informatique n’est pas un système fermé, il reçoit des informations et de l’énergie de l’extérieur, tout comme notre cerveau.
    Ou l’IA ne peut exister, ou on peut fermer, temporairement, un système ouvert … ?

  2. @ Pierre Merlin

    Pour ce qui est de l’énergie, un système fermé peut en échanger avec son environement : la seule chose qui garantie l’indépendance du système, c’est l’abscence d’échanges de matière (un exemple : un ballon de baudruche dont l’embout a été noué est un système fermé, il va cependant pouvoir échanger de l’énergie thermique avec son environnement ou même du travail (il va gonfler si on diminue la pression de l’environnement)).
    Pour ce qui est des informations, une fois les informations initiales fournies au logiciel celui ci peut être libéré de toute intervention humaine. Exemple de programme entropique simple, le vieu fond d’écran windows avec les particules qui s’entrechoquent : il suffit de définir une vitesse aléatoire pour une particule, une loi de choc et c’est bon. Au début l’entropie sera nulle (aucun mouvement) puis, au fur et à mesure elle augmentera, les particules pouvant ce déplacer et augmentant ainsi le nombre de configurations possibles pour le système.

  3. La vidéo est expliquée dans le PDF (pas besoin de connaitre les maths pour comprendre l’explication) : dans l’exemple avec le grand disque et les 2 petits dont l’un est entre 2 droites, le système veux maximiser ses possibilités et donc être capable de manipuler les 2 petits disques. Il se rend d’abord compte qu’il ne peut passer entre les 2 droites parce qu’il est trop grand et va donc utiliser le petit disque libre pour faire sortir le second petit disque et avoir la possibilité de le manipuler directement à sa guise : maximisation des possibilités. (J’espère que j’ai bien compris)

  4. Bonjour, la vidéo est pourtant très simple à comprendre et convaincante, pour peu que l’on soit habitué à l’intelligence artificielle ou à la programmation.

    Pour la plupart des exemples, il faut comprendre qu’un élement est le sujet (ou le personnage-cerveau) et que les autres éléments peuvent être des objets ou des buts.
    Concernant le passage avec les cercles, le grand cercle (le cerveau ou le personnage) utilise un petit cercle pour bouger un autre petit cercle lui-même enfermé, soit il essaye d ele faire sortir pour interragir avec lui directement, soit il se sert du premier petit cercle pour interragir avec le deuxième petit cercle. Cela montre non seulement que le système fonctionne, mais qu’il va au-delà de ce qu’il est sensé réaliser. Il fait ce que l’on attend de lui (agir avec les 2 petits cercle), mais de plusieurs manière et avec plusieurs buts. Il s’offre donc le plus de choix possible.

  5. oui, je suis d’accord, c’est effectivement ce que dit le commentaire, mais quelle est la preuve que ce soit réellement « l’intention » du grand cercle? tout ce que je vois, c’est un gros cercle qui fait rebondir un plus petit avant de l’enfoncer dans le « corridor » et sortir l’autre cercle. Je n’ai pas d’évidence que ce soit le produit d’une quelconque « délibération » (même si cette « délibération » consiste plus à maximiser ses possibilités qu’à effectuer un raisonnement « classique »); c’est simplement présenté comme tel.
    Ceci dit, malgré mes réserves sur la démonstration vidéo, comme je le dis dans la fin de l’article, je trouve les hypothèses de Wissner-Gross plutôt intéressantes et les critiques émises contre lui trop faciles. mais j’attends effectivement des démonstrations plus convaincantes…L’idéal serait pouvoir être en mesure d’interagir directement avec Entropica !

  6. vocabulaire : indépendance ? libéré ? fermé ? ouvert? au secours Prigogine !

  7. Le problème avec cette théorie est qu’il y a une injection implicite de la solution par la manière dont on décrit le système initialement. C’est donc une manière élégante de formaliser des problèmes d’optimisation mais pas vraiment une solution universelle à tous les problèmes. Je ne vois pas par exemple la problème P=NP résolue ex-nihilo par cette méthode… le plus dur reste souvent de bien poser le problème 😉