La vie artificielle, 20 ans après (2/4) : Comprendre le langage pour comprendre la culture

Par le 27/09/11 | 9 commentaires | 1,968 lectures | Impression

On l’a vu dans l’article précédent, les frontières de la vie artificielle sont assez difficiles à définir. Si, par bien de côtés, celle-ci se rapproche de la biologie théorique, une autre de ses tendances aborde l’ensemble des systèmes complexes autour de quelques principes de base. A commencer par la notion d’émergence, de bottom up : l’idée que des systèmes complexes puissent être générés spontanément par l’interaction entre une multitude d’agents. Ce principe d’émergence peut s’appliquer à n’importe quel phénomène décentralisé et collectif. En premier lieu, à l’esprit humain et ses productions. Et bien sûr, aux sociétés.

Jeux de langage

Le colloque Ecal s’est ainsi intéressé, pour une bonne part, à l’évolution du langage. Et ce, par un biais surprenant : la robotique.

Spécialisé dans cette étude, le Computer Science Laboratory, sous la houlette de Luc Steels, mène depuis plusieurs années des travaux sur l’évolution du langage au sein d’une population d’agents robotiques.

Luc Steels a commencé ses expériences par un travail nommé les “Talking Heads” ; pas le groupe de rock, mais un système par lequel deux robots inventent collaborativement un langage afin de communiquer à propos du monde extérieur. Le procédé a été appelé le “jeu de langage”.

D’après Steels et ses associés, les “jeux de langages” nous permettent d’observer la naissance de la grammaire. Une telle théorie va à l’encontre des idées de nombre de linguistes. La plupart d’entre eux pense en effet, sous l’influence de Noam Chomsky, que les structures linguistiques sont d’ores et déjà codées dans le cerveau, qu’il existe un organe de la parole déjà constitué. Les différentes “langues” parlées sur la planète ne seraient que des adaptations somme toute cosmétiques de ce langage cérébral fondamental.

De fait, les adeptes de la biolinguistique tiennent pour acquis que les structures du langage sont implantées dans notre cerveau. Pour eux, nous a expliqué Steels, l’essentiel du travail du linguiste va consister à étudier la transmission : comment le cerveau de l’enfant reçoit les signaux codés de ses parents (la “langue maternelle”) et les intègre via les structures innées qu’il possède. Mais comment le langage est-il né ? Par la sélection naturelle ? Pour certains linguistes, le langage est un système trop complexe pour être le produit de la sélection naturelle darwinienne.

Toutefois, précise Luc Steels, il existe un aspect du langage que la plupart des biolinguistes ignorent : pour que la parole naisse, il faut être deux. Avant d’étudier les structures du langage, il faut donc réfléchir à la nature d’une communication, et sur ce que peut être une communication réussie. Le langage n’est donc pas quelque chose qui se trouve à l’intérieur de chaque individu, mais une création collective qui s’opère lors de la communication.

Restait à le démontrer. C’est à cela que s’activent les “linguistes artificiels”.

Pour ce faire, ils vont élaborer des “jeux de langage”. Ces derniers sont très simples : deux robots, munis de capteurs et de caméras se trouvent dans le même environnement. L’un des deux montre un objet et le désigne en créant un mot de son cru. Le second peut alors le comprendre et utiliser le mot à son tour. Petit à petit, les deux machines s’entendront sur les termes à employer pour décrire leur environnement et les intégreront à leur vocabulaire commun. Évidemment, les choses se compliquent assez vite : va pour de simples mots, mais qu’en est-il des catégories ? Si le robot 1 dit “flub” en montrant une balle rouge, désigne-t-il l’objet “balle” ou la couleur rouge ? Après le vocabulaire, c’est la grammaire qu’il faut constituer. C’est à nombre de ces problèmes qu’a été consacré l’atelier d’Ecal du 8 août dernier : comment créer, par des jeux de langages, les différentes manières d’exprimer le temps, par exemple ? Ou comment des systèmes nerveux qui perçoivent différemment les choses, par exemple les couleurs, peuvent-ils s’entendre sur le mot “jaune”. Comment les mots peuvent-ils s’accorder entre eux ?

Pourquoi les expériences de jeux de langages du CSL font-elles partie du domaine de la “vie artificielle” et non du paysage de “l’intelligence artificielle” ? Une des raisons théoriques évidentes en est que le langage y est vu comme un système vivant, une création collective et décentralisée dans la grande lignée des systèmes émergents explorés par les tenants de la vie artificielle. L’autre raison est plus sociologique, comme l’a rappelé Steels lors de son introduction à l’atelier sur le langage : la communauté de la vie artificielle était simplement plus ouverte à ces idées nouvelles. On retrouve une caractéristique importante de la vie artificielle en tant que communauté : celle de constituer un pont entre diverses disciplines souvent trop fermées sur leurs méthodes et leur domaine d’étude.


Vidéo : Extrait vidéo de la conférence inaugurale de Luc Steels à l’exposition Cultures del Canvi, à Santa Monica, le 10 décembre 2009, sur le thème de la création de leur propre langage par les robots.

Civilisations artificielles

L’évolution du langage n’est pas la seule incursion de la vie artificielle dans l’univers de la culture. Nombreuses sont les expériences qui se sont succédé dans le domaine des “sociétés artificielles” ou dans celui de l’intelligence collective.
Au colloque Ecal, Ziad Kobti a ainsi présenté un système multi-agents permettant de modéliser la division du travail au sein d’un groupe. Différents agents logiciels aux compétences diverses entrent en compétition/coopération dans un environnement au sein duquel ils effectuent différents travaux. Selon leurs niveaux de capacités, ils se spécialiseront peu à peu dans une tâche donnée, quoique (c’est encore une de ces découvertes contre-intuitives propres aux systèmes multi-agents), pas forcément dans la tâche où ils sont le meilleur.

La grande question avec ces sociétés artificielles est celle de la “vie artificielle” : de même qu’il est finalement difficile de déduire d’une boucle de Langton ou d’un jeu de la vie des phénomènes propres à des systèmes biologiques précis, quelles conclusions peut-on tirer de ces systèmes formels quant à la vie de sociétés réelles ?

repastVillageIl faut alors que les auteurs de ces modèles se confrontent aux “big data’” issues des données réelles. Kobti est ainsi partie prenante du “Village Ecodynamics Project”. Ce projet “d’archéologie computationnelle” cherche à comprendre le déclin brutal de la population indienne du Mesa Verde aux alentours de 1200. Les raisons de cette dépopulation restent en effet assez mystérieuses. Apparemment, les autochtones possédaient assez de maïs pour subsister, ce qui évacue les explications simplistes de type famine.

On pourrait penser qu’il s’agit d’une application marginale, mais ce genre de chose est typique de l’histoire des civilisations : la mystérieuse disparition de la première civilisation Maya en est un cas d’école, ainsi que le brusque effondrement de l’Ancien Empire égyptien. En biologie on trouve aussi des extinctions de masse. Cette sorte d’évènement critique est une des caractéristiques des “systèmes émergents” étudiés par les chercheurs en vie artificielle. L’exemple classique en est ce tas de sable où l’on rajoute délicatement un grain après l’autre; jusqu’au moment où, pouf, tout s’écroule !
Les chercheurs du Village Ecodynamics Project ont créé une application (aller vers le milieu de la page pour trouver l’adresse de téléchargement) pour permettre à tout un chacun de jouer avec les paramètres de cette société indienne virtuelle. Mais il s’agit d’un programme un peu ancien qui n’intègre pas les modèles présentés au colloque de Paris.

L’abstract d’un article sur le sujet, – malheureusement indisponible aux non-abonnés – mentionne également que “Les archéologues affirment que les mondes virtuels constituent le meilleur moyen de tester des hypothèses complexes. Le domaine est également poussé par l’industrie des loisirs, car la technologie employée est la même que celle utilisée dans les jeux vidéos et les effets spéciaux, et de nombreuses universités ont récemment adopté des programmes de modélisation 3D”.

La vie artificielle aurait donc un impact sur les technologies actuelles ? Jusqu’ici, les travaux dont nous avons parlé appartenaient à la recherche fondamentale, ou concernaient des technologies dont la maturation apparaît comme encore lointaine. Mais peut-être qu’elle pourrait servir aujourd’hui… Reste à voir à quoi !

Rémi Sussan

Le dossier “La vie artificielle, 20 ans après”

Rétroliens

  1. Dossier d’internet actu sur la vie artificielle « Vie artificielle

8 commentaires

  1. par Luc Potage

    Bonsoir,

    Cet article en lien avec la robotique m’a beaucoup plu mais cependant il y a un point que j’ai du mal à saisir.

    Lorsque vous dites que « le langage n’est donc pas quelque chose qui se trouve à l’intérieur de chaque individu, mais une création collective qui s’opère lors de la communication », je ne vois pas en quoi l’interaction entre deux robots est une preuve.

    En effet, ces deux robots sont tout d’abord des êtres artificiels créés par l’homme et façonnés par la pensée de leurs créateurs. Ainsi, lorsque vous dites qu’en voyant un objet, le premier robot prononce un mot et le second robot l’enregistre pour enrichir son vocabulaire, qu’en serait-il si l’on n’avait pas programmé le robot pour réaliser cette tâche.

    En clair, sans son programme, le robot de pourrait pas penser à désigner l’objet visualisé et l’autre ne chercherait même pas à discerner l’analogie. Le programme à l’intérieur du robot serait donc pour moi l’équivalent des fonctions du langage immanentes à l’homme, ce qui contredit l’hypothèse selon laquelle ce serait une création collective.
    Si en effet le désir de communiquer est créé par la présence d’un semblable, cela ne signifie pas que les fonctions du langage et de la grammaire n’existent pas déjà dans le cerveau humain, n’est-ce pas ?

    Pour en revenir aux robots, j’imagine que même seul, le robot serait capable de créer son propre le langage et se le mémoriser puisqu’il serait programmé pour.

    Si mon raisonnement est faux, n’hésitez pas à m’éclairer !

  2. par Rémi Sussan

    Bonjour Luc,

    en fait je pense que personne ne niera que la capacité de communiquer soit innée chez l’être humain, et qu’il dispose de fait de la capacité de parler et d’apprendre un langage. De la même manière, les robots sont effectivement programmés pour communiquer, échanger des mots etc.
    Le débat se situe au niveau des structures du langage, de la grammaire: pour bon nombre de linguistes, il existerait, codé dans notre cerveau, une “super-grammaire” qui définirait l’ordre possible des mots, leur fonction grammaticale (sujet, complément, etc.) les types de conjugaison possible (futur, passé, etc. ) Le linguiste Stephen Pinker nomme le “mentalais” cet espèce de superlangage “hard codé”. les différentes langues humaines ne seraient que des versions de ce mentalais. Pinker illustre sa théorie en disant que lorsqu’un écrivain cherche à rédiger une phrase, mais n’y arrive pas, comme si la formulation était sur le bout de la langue, c’est la preuve que l’idée est déjà formulée en “mentalais” et attend simplement sa traduction dans la langue de l’écrivain (de mon côté, mon impression est exactement l’inverse: j’ai plutôt l’impression, lorsque je n’arrive pas à formuler quelque chose, que le concept que je cherche à exprimer n’est pas encore clarifié dans mon esprit, et pas qu’il est déjà présent dans mon cerveau !). Ce que cherche à illustrer Steels et ses collègues, c’est que la grammaire peut émerger des interactions entre agents, qu’il n’est pas besoin de la “hardcoder”. Aussi, sur la notion de preuve: ces expériences ne “prouvent” pas que le langage humain émerge de l’interaction entre les acteurs, elles cherchent à prouver que c’est possible, ce qui n’est pas la même chose !

  3. par Luc Potage

    Ah voilà qui est plus clair !

    Merci pour vos explications. Du coup, si je comprends bien, il faudra pas mal de temps avant que ces robots ne se mettent à dialoguer en formant des phrases complexes, s’ils y arrivent un jour.

    Je comprends mieux aussi ce que l’on cherche à monter. Mais le fait que les asiatiques n’utilisent pas la même structure de langue que les occidentaux n’est-il pas déjà une preuve que l’ordre possible des mots n’est pas inhérent à l’homme ?

  4. “il existerait, codé dans notre cerveau, une “super-grammaire” qui définirait l’ordre possible des mots, leur fonction grammaticale (sujet, complément, etc.) les types de conjugaison possible (futur, passé, etc. ) Le linguiste Stephen Pinker nomme le “mentalais” cet espèce de superlangage “hard codé”

    Hypothèse du codage en dur, ou d’un quelconque statisme, de la syntaxe (pierre angulaire des langages de programmation), récemment mise à mal par un article publié dans Nature qui conclut, dans le résumé en libre accès:
    “These findings support the view that—at least with respect to word order—cultural evolution is the primary factor that determines linguistic structure, with the current state of a linguistic system shaping and constraining future states.” (http://www.nature.com/nature/journal/v473/n7345/full/nature09923.html)
    Plus de détails sur cet article dans Wired: http://www.wired.com/wiredscience/2011/04/evolution-of-language/, où l’on lit: “The findings ‘do not support simple ideas of the mind as a computer, with a language processor plugged in.’”
    A supposer que les robots sachent faire des néologismes (ce qu’il ne font pas stricto sensu, on est fatigué de le savoir, depuis bientôt un siècle, il leur faudrait, par exemple, savoir créer et utiliser des métalangages…)
    Si l’on s’en tient à ce qui est dit ici, on en conclut qu’on on ne peut (scientifiquement?) attendre de cette expérience sans doute très coûteuse qu’un approfondissement de la connaissance et de la conscience que nous avons des limitations des langages de programmation, rien de plus il me semble.
    A ce propos, je recommanderais plutôt, et chaudement, la lecture de l’article http://www.internetactu.net/2011/09/26/que-font-les-programmes-a-la-finance/ ainsi que l’interview passionnante de Paul Jorion par Xavier de la Porte (lien dans l’article), qui traitent du rôle de l’informatique dans la crise financière actuelle. Le cas des algorithmes traders sont un bon exemple des problèmes insolubles générés à l’infini par l’utilisation des langages de programmation pour décider de questions qui ont trouvent leur réponse dans le social, lequel demeure irréductible à la mathématisation (pas plus que la logique d’ailleurs! fait apparemment plus surprenant, bien qu’il soit bien notoire depuis le début-milieu du XXe siècle!).
    Les inavouables limites des algorithmes donnent lieu à des mystifications, mais aussi et surtout à des escroqueries sonnantes et trébuchantes, les plus grossières, énormes et systématiques, si l’on croit Jorion.
    Pour finir, sachez que je suis fan de internetactu, que je lis depuis religieusement depuis Rio de Janeiro. Mais je vais quand même jeter un coup d’oeil sur les liens que vous proposez ici pour mieux me faire une idée.
    Daniel

  5. par Rémi Sussan

    @ Daniel, (c’est flatteur de savoir que nous sommes lus jusqu’à Rio !)

    Oui j’ai lu cet article que vous mentionnez qui m’a personnellement ravi! Ceci dit, les expériences de Steels et son équipe tendent à établir que justement cette idée du langage hardcodé est une théorie fausse: il vont dans le sens de ces nouvelles recherches et s’opposent précisément au “mentalais” de Pinker. Les algorithmes de la vie artificielle divergent des “algorithmes classiques” en se sens qu’ils sont non-déterministes et ne prétendent pas, justement, avoir la capacité prédictive des algorithmes classiques comme ceux utilisés par les traders en finance, qui sont obsédés par l’efficacité. C’est d’ailleurs toute l’ambiguïté de la vie artificielle: elle produit des choses très étonnantes ou créatives, mais on ne sait justement pas comment on peut rendre ces programmes “utiles” dans le monde réel. Aussi, je n’ai pas idée du prix de ces expériences, mais je doute qu’elles soient vraiment très couteuses: le hardware est apparemment composé de robots qui sont de toutes façons déjà fabriqués et présents dans les labos, Quant au software, par définition, ça demande surtout de l’huile de coude de la part des chercheurs!

  6. Rémi, bonjour de Rio,
    Puisque mes compliments vous touchent en voici un autre: vous êtes le webzine que je prends le plus plaisir à lire depuis wirednews, que je suis depuis 1995, pratiquement dès sa mise en ligne (j’ajouterais aussi le blog de Bruce Schneier). Mais ce qui me manquait un peu chez wired, une fois passé l’euphorie des débuts de l’Internet dit “commercial”, c’est une vision non pas désenchantée, mais critique de la technologie, et qui demeure rigoureusement scientifique, vision que les sciences sociales et humaines me semblent tout à fait en mesure de fournir (digital humanities pour certains humanités numériques?).
    Et vous, à mon avis, vous posez les bonnes questions, chose rare en ces temps de déluge de donnés, justement parce que vous le faites en vous situant suffisamment en dehors de la seule technologie, tout en gardant un pied dedans, bien sûr. Voilà, il me semble, un bon indice que vous pratiquez chez Internetactu la saine approche critique que nous pouvons attendre des sciences sociales.
    Mais la capacité de promouvoir pleinement une telle critique, passe, au risque de paraître simpliste, par la perte d’une sorte de complexe d’infériorité que les humains ont déjà cultivé devant dieu, avant de le cultiver face à la technologie. L’illusion de l’absolu, comme dirait Bourdieu en clôture de Science de la science et réflexivité.
    Revenons donc à l’exemple des robots traders, en le rapportant au problème des robots communicants qui peinent face à la nouveauté. Une façon de résumer l’interview de Jorion, serait de dire: si les robots traders savaient créer un mot avec le sens “black swan” et le communiquer aux autres robots, qui sauraient à leur tour le comprendre, alors la crise pourrait être arrêtée à temps.
    Le fait d’employer des algoritmes non déterministes change-t-il fondamentalement cette question?
    Ne dipose-t-on pas, avec le cas des robots traders, d’un terrain d’étude des plus riches et documentés qui soient pour essayer de répondre correctement, en long et en large, au problème posé par les robots communicants?
    Je ne veux pas être réducteur, mais on sait bien que les expériences de la sorte avec robots visent trop souvent des applications militaires.
    Et la vision guerrière du monde, la logique guerrière, a son pire adversaire (ennemi?) dans la possibilité de dialogue et de compréhension.
    L’univocité est la condition du conflit absolu, la plurivocité est la possibilité du dialogue, de l’Autre, mais aussi du choix de ne pas communiquer sans pour autant entrer en guerre.
    Bien à vous (temps maussade à Rio)!

  7. A ce propos:
    http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_complexit%C3%A9_des_algorithmes

    N’étant pas mathématicien, mais linguiste/doctorant en science de l’info, je n’ai pas la compétence pour évaluer la qualité de ce qui est dit dans cet article wikipédia dont voici un extrait concernant la différence entre algorithme déterministe et algorithme non déterministe.
    Alors même si on lit que les membres du projet des robots communiquants sont à Princeton (comme Paul Krugman), on est bien sûr impressionés… N’empêche que selon l’article Wikipedia, considère que le problème auquel ils s’attaquent n’est rien de moins que l’un des “sept défis mathématiques réputés insurmontables” du prix du millénaire!!!:
    http://fr.wikipedia.org/wiki/Probl%C3%A8mes_du_prix_du_mill%C3%A9naire

    Suit l’extrait de l’article wiki Théorie de la complexité des algorithmes sur la diff entre algorithmes déterministes/non déterministes. Un spécialiste du sujet pourrait bien nous fournir ici des exemples plus… parlants.

    Le problème ouvert P=NP[modifier]
    Article détaillé : Problème P = NP.

    On a clairement P ⊆ NP car un algorithme déterministe est un algorithme non déterministe particulier, ce qui, dit en mots plus simples, signifie que si une solution peut être calculée en temps polynomial, alors elle peut être vérifiée en temps polynomial. En revanche, la réciproque : NP ⊆ P, qui est la véritable difficulté de l’égalité P = NP, est un problème ouvert fondamental de l’informatique théorique. Il a été posé en 1970 indépendamment par Stephen Cook et Leonid Levin ; il fait partie des listes, établies en 2000, des problèmes du prix du millénaire et des problèmes de Smale.

    La plupart des spécialistes conjecturent que les problèmes NP-complets ne sont pas solubles en un temps polynomial (donc, que P ≠ NP). Cela ne signifie pas pour autant que toute tentative de résoudre un problème NP-complet est vaine (voir la section « Résolution » de l’article sur la NP-complétude). Il existe de nombreuses approches (qui se sont finalement révélées irrémédiablement erronées) attaquant le problème P ≠ NP ; le spécialiste de la théorie de la complexité Gerhard Woeginger maintient une liste de ces erreurs7. La revendication récente (6 août 2010) de Vinay Deolalikar8, travaillant aux HP Labs (en), d’une démonstration de P ≠ NP, a été la première à faire l’objet d’une attention relativement importante de nombreux mathématiciens et informaticiens de renom, que ce soit sous la forme d’échanges dans des blogs9,10,11, de journaux en ligne ou sous la forme plus construite d’un projet d’étude collaborative en ligne (du type Polymath project (en), tel que promu par les médaillés Fields Terence Tao et Tim Gowers). Cette étude collaborative donne la liste des points où l’approche de Vinay Deolalikar achoppe actuellement12.

  8. par Rémi Sussan

    Merci pour ces compliments!

    Pour aborder le problème de la “prévisibilité” en vie artificielle et notamment ses applications militaires, voici une petite anecdote qui a déjà quelques années : il existait dans les années 90 un jeu de “vie artificielle”, élaboré par Steve Grand, “Creatures”, qui utilisait algorithmes génétiques et réseaux neuronaux pour réaliser des “organismes numériques” nommés les norns. A un moment (Grand avait déjà quitté le projet à cette époque), l’entreprise qui commercialisait le jeu avait eu un contact avec l’armée britannique (c’était un jeu anglais) pour créer des formes de vie artificielle inspirées des norns pour l’entrainement des soldats, les aviateurs je crois. Puis on n’avait plus entendu parler de ça. Un jour, je rencontrai un des développeurs du jeu qui me confirma que l’idée n’avait pas fonctionné. Pourquoi? Les “créatures” avaient un comportement bien trop imprévisible. C’est précisément le dilemme dans lequel nous sommes coincés. Les algorithmes peuvent être créatifs, apporter de la nouveauté, etc. ils ne peuvent pas communiquer sur le cygne noir (on est très très loin de ça) mais quelque part, ils peuvent faire partie de ce “cygne noir” par les propriétés émergentes qu’ils développent (sans rien connaitre au trading ni à ses robots, je ne serais pas surpris d’apprendre que ces derniers aient joué un rôle actif et imprévu dans le déclenchement de la crise, d’ailleurs). Mais alors, nous sont ils vraiment utiles ?