Est-ce qu’un robot sait apprendre ?

Par le 19/04/11 | 3 commentaires | 2,997 lectures | Impression

On a évoqué la forme des robots à venir, leur sociabilité et la nôtre confrontée à ces machines, mais nous avons peu évoqué la manière dont ils apprennent de nous. Qu’est-ce qu’un robot sait apprendre et comment ?

Retour sur nos relations aux robots à l’occasion de la première édition d’InnoRobo, le salon de la robotique, et des conférences RoboLift qui lui étaient associées.

L’intelligence artificielle peut-elle être innée ?

“Un robot peut-il apprendre comme un enfant ?” se demande Pierre-Yves Oudeyer, chercheur à l’Inria, et directeur du laboratoire Flowers, un laboratoire de recherche spécialisé dans la robotique sociale (présentation .pdf). Autrement dit, l’intelligence artificielle peut-elle n’être qu’acquise ?

“On imagine un avenir où les robots seraient dans nos foyers pour nous aider : mettre la table, ranger la vaisselle, motiver les anciens, bricoler… Cela suppose beaucoup d’intelligence et de savoirs (émotionnels notamment). Les robots doivent donc être capables d’accomplir des raisonnements compliqués”… Mettre la vaisselle dans le lave-vaisselle demande par exemple de savoir mobiliser beaucoup de savoir-faire manuel et intellectuel. Il est clair que pour vivre avec nous les robots auront besoin d’intelligence. Mais laquelle ?

robotsetdeshommes
Image : Qu’est-ce que les robots doivent apprendre ?

“Certes, les machines savent battre les meilleurs champions d’échecs. Deep Blue peut battre Kasparov, parce qu’on a placé tout le savoir en matière d’échec dans son programme, mais Deep Blue ne sais pas expliquer ce que sont les échecs.”

Asimo, pour n’évoquer que lui est un formidable robot qui peut-être programmé pour exécuter des comportements sophistiqués comme jouer au foot, danser, discuter ou jouer au barman… “On modélise ces tâches fondamentales avec des équations mathématiques qui génèrent les comportements appropriés. Mais quand le robot doit accomplir une nouvelle tâche, il faut engager une nouvelle équipe d’ingénieur !”, ironise le chercheur. Chaque nouvelle tâche demande un nouveau développement… Et le robot ne sait faire que ce qu’on lui a appris.

Ce modèle de robotique est certes utile, mais il atteint vite ses limites. “Les robots doivent être capables d’apprendre, car on ne peut pas imaginer à l’avance tout ce dont ils auront besoin. Ils doivent être capables d’attraper ou de rattraper quelque chose, ils doivent être capables de s’adapter aux comportements des gens, à leurs habitudes… Tout le monde ne dresse pas la table de la même façon !”

Ils ont besoin d’apprendre et de savoir apprendre.

“Mais pour les humains, dans la vie réelle, l’apprentissage non plus n’est pas facile.” Chez les humains on apprend à travers l’observation, l’essai-erreur, l’expérience… On apprend dans le monde physique, le monde réel. Et cet apprentissage prend du temps. Mais il y a un grand nombre d’objets et de personnes avec lequel interagir et il y a une infinité d’activités et de compétences qui peuvent être apprises. Que faut-il apprendre et que ne faut-il pas apprendre ? Il faut s’inspirer des humains pour apprendre aux machines à apprendre. Chez l’enfant, l’apprentissage ne nait pas à partir de rien. Pas plus que les humains ne sont des “apprenants universels”. “Si les enfants apprennent rapidement et facilement la langue, ils sont moins doués que les machines pour les chiffres.” Les enfants sont dotés d’outils et de contraintes : ils explorent la synergie musculaire et la coordination complexe plutôt que tous les mouvements musculaires possibles. Ce qui est inné, les contraintes auto-organisées et les biais sont essentiels dans l’apprentissage. Certains mouvements sont innés, réflexes, comme saisir un doigt. Nous savons tous reconnaitre des visages, des humeurs. Enfin, les enfants naissent dans des environnements sociaux définis qui les aident à apprendre et à connaître leur environnement…

“Comment transposer les contraintes du développement de l’enfant au développement de robots ? Comment les facultés sociales innées peuvent-elles permettre d’explorer la société et l’apprentissage ?”

Comment les robots peuvent-ils apprendre à parler par exemple ? Pierre-Yves Oudeyer fait alors référence aux recherches qu’il menait avec Frédéric Kaplan sur les Aïbo chez Sony et nous montre, lui aussi, comment il tentait de lui enseigner de nouveaux mots en lui montrant des objets et en les nommant. Mais comme Frédéric Kaplan, il s’est vite rendu compte qu’en fait, le robot ne voyait pas la même chose, “il ne prêtait pas attention à ce que je croyais”.

“La solution pour leur apprendre de nouvelles choses consiste à les équiper de mécanismes d’attention, comme les enfants en ont naturellement, permettant de vérifier qu’ils suivent bien la même interaction que nous : on pointe du doigt, on dirige son regard dans une direction… Il faut imiter ces mécanismes naturels humains pour vérifier l’attention du robot.”

Mais imiter suffit-il ?

Pierre-Yves Oudeyer nous montre alors une autre vidéo où un robot est contrôlé par un humain qui voit par les caméras du robot et doit répondre aux sollicitations d’un humain pour identifier un objet. Et bien même avec une intelligence humaine, ce n’est pas si simple ! Bien souvent, le geste censé attirer l’attention s’accomplit en dehors du champ visuel du robot. Bien souvent, il s’avère difficile de comprendre quel objet a été désigné même avec un doigt pointé… “Même s’il est “humanoïde, l’appareil sensoriel du robot est très différent de l’humain. L’humain ne sait pas ce que le robot est capable de voir. On est loin de savoir mettre en oeuvre la technologie permettant à la machine de comprendre qu’à partir d’une image visuelle on désigne quelque chose de particulier…”

iphoneinterfaceIl faut trouver d’autres voix, recommande le chercheur. D’où l’idée d’aller regarder comment on enseigne non pas aux hommes, mais aux animaux, comme les chimpanzés. Bien souvent, cet apprentissage passe par des objets de médiations, permettant d’avoir une interaction avec le chimpanzé pour qu’il puisse apprendre à désigner un certain nombre d’objets. Peut-on alors imaginer utiliser des interfaces de médiation avec les robots ? C’est ce qu’on essayé Pierre-Yves Oudeyer, Pierre Rouanet et Fabien Danieau dans une étude récente (.pdf) (vidéo) en utilisant un iPhone (ou une wiimote) pour désigner précisément au robot l’objet auquel on souhaite qu’il s’intéresse. Ce qui permet de lui donner des instructions plus facilement et plus rapidement. Une interface plus efficace que les algorithmes d’apprentissage automatisés, estime son concepteur.

Pouvoir mieux désigner des objets dans l’environnement et permettre au robot de mieux nous imiter est important, mais les enfants n’apprennent pas seulement en imitant. Une grande partie de leur apprentissage nait d’explorations spontanées liées à la curiosité. Pierre-Yves Oudeyer et son équipe ont ainsi essayé d’introduire des motivations intrinsèques au robot, via le “Playground Experiment”, pour faire référence aux travaux menés chez Sony. Ici, le robot est appelé à apprendre de nouvelles tâches sans disposer de connaissances sémantiques sur l’objet (vidéo). Motivée par la curiosité d’apprentissage de la locomotion, le robot explore alors les mouvements, sans qu’il ait connaissance de son corps ou de l’environnement, mais en étant programmé pour apprendre des mouvements spécifiques (aller en avant) et expérimenter ce qu’il trouve intéressant, c’est-à-dire explorer des mouvements qui produisent des progrès dans l’apprentissage, comme c’est le cas dans cette vidéo où l’Aïbo donne l’impression de ramper plutôt que de marcher. L’idée est que le robot puisse réutiliser les actions apprises par curiosité pour atteindre un point particulier.

Reste qu’alors la morphologie générale du robot a une incidence directe sur ses explorations spontanées… Comment alors peut-on la simplifier pour améliorer le contrôle de l’apprentissage. “Générer le mouvement d’un robot est difficile et demande des calculs compliqués, d’où l’idée de construire un robot avec une morphologie simplifiant les contrôles.” En s’inspirant des travaux de Tad McGeer sur la dynamique passive qui a construit une machine dans les années 90 pouvant générer un schéma de marche simple, sans électronique, un mouvement plus naturel que celui de bien des robots andromorphes. L’idée ici est que la physique remplace la computation morphologique. L’Acroban Humanoid Project est un robot souple, qui résiste très bien aux perturbations externes, car il s’équilibre de manière très efficace grâce à la physique et la géométrie (vidéo). “On peut prendre le robot par la main pour qu’il vous suive, sans qu’il n’y ait une ligne de code l’instruisant de vous suivre. Sa marche est stabilisée. Ici, l’intelligence est auto-organisée par la physique qui produit des chemins d’interaction spontanée avec des humains aux comportements complexes.”

acroban
Image : Acroban, le robot qui ne craint pas les enfants, puisque ceux-ci ont enfin le droit de prendre la main à un robot sans craindre de le casser !

Parviendrons-nous à simuler l’intelligence ?

Jean-Claude Heudin (blog), directeur du Laboratoire de recherche de l’Institut international du multimédia au Pôle universitaire Léonard de Vinci, est l’auteur de nombreux travaux et ouvrages dans le domaine de l’intelligence artificielle et des sciences de la complexité, dont le dernier en date s’intitule Robots et avatars – Le rêve de Pygmalion. “L’histoire de la conception de robots est celle d’une malédiction”, attaque le chercheur (présentation .pdf) qui fait référence à la Bible et à l’interdiction de confectionner des images ou figure de dieu comme des hommes (Exode, XX, 4). Cela n’a pas empêché l’homme d’essayer, mais cela explique certainement pourquoi la première impression du public sur ces machines est celle de l’angoisse et de la peur.

Depuis l’Eniac, la première conférence du Darmouth Summer Research Project (qui donna naissance à l’intelligence artificielle comme discipline de recherche) et les explorations d’Alan Turing sur l’intelligence des machines dans les années 50 où Turing, l’ordinateur n’a cessé de progresser. Il a fallu attendre 1997 et la victoire de Deep Blue sur Kasparov pour que celui-ci commence à surpasser l’homme. Beaucoup pensent encore qu’à l’avenir, la machine va se retourner contre l’homme. Ray Kurzweil, quand il parle de Singularité ne fait pas autre chose, puisqu’il prévoit qu’une intelligence artificielle supplantera la puissance de tous les cerveaux humains. “Je ne partage pas cette vision”, reconnait le chercheur pour ne pas dire qu’il ne croit pas en cette malédiction.

Le Graal de l’intelligence artificielle qui nous surpasserait est encore loin, notamment parce que l’intelligence des machines est radicalement différente de l’intelligence humaine. L’une est numérique quand l’autre est organique. L’une est construite (c’est-à-dire qu’on construit des systèmes pour les adapter à des fonctions) quand l’autre est évolutive. L’une est logique quand l’autre est émotive. L’une est computationnelle (fonctionnant depuis une succession d’opérations) quand l’autre fonctionne sur l’inférence, c’est-à-dire qu’elle fonctionne en tirant des conclusions. L’une est symbolique quand l’autre repose sur le sens…

Les raisons qui font que nous n’arrivons pas à rendre les machines intelligences reçoivent plusieurs explications. Pour Ray Kurzweil, c’est la puissance de calcul qui est insuffisante. La solution est simple : il suffit de l’augmenter. Mais ce n’est pas vrai, rétorque Jean-Claude Heudin. “Nous ne sommes pas confrontés à un problème de capacité de calcul. Il y a quelque chose qui nous échappe dans la compréhension de l’intelligence… Et pour ma part, je pense surtout que nous n’arrivons pas à un niveau de complexité suffisant.”

Le réseau internet ressemble à la fois a un ensemble de neurones comme à une simulation de l’univers à large échelle. On a tendance à aborder le problème de l’intelligence artificielle par une approche fonctionnelle. “On essaye de comprendre le cerveau en le découpant cellule par cellule, fonction par fonction. Le problème de cette approche, c’est qu’elle permet de comprendre une cellule, mais elle n’arrive pas nécessairement à remonter au niveau de la pensée, de la conscience. L’approche réductionniste porte ses fruits, mais aussi ses limites. On perd la compréhension des propriétés globales de l’ensemble.”

D’où l’idée pour Jean-Claude Heunin de se baser plutôt sur une approche synthétique, une démarche inversée où l’on met en relation des agents, où on les fait interagir pour voir les propriétés qui émergent de ces interactions. Il faut, selon lui, considérer l’intelligence comme quelque chose qu’on fait émerger de la coopération d’un certain nombre d’agents.

LifeJean-Claude Heudin montre alors ce qu’on appelle des automates cellulaires, des grilles de cellules qui réagissent en fonction de l’état des cellules voisines, permettant de créer des modèles particuliers, comme ceux s’inspirant du jeu de la vie imaginé par le mathématicien John Horton Conway, permettant d’observer des règles et des états de comportements différents à force de génération d’états. On en distingue trois types : les états stables, homogènes, les comportements périodiques ou cycliques et bien sûr les comportements chaotiques. Mais il y a encore d’autres comportements étranges, ceux qui font naître des protocellules. “Cela n’arrive qu’entre l’ordre et le chaos, dans une mince frontière entre le deux”. Ce type d’automates a des propriétés de calcul permettant d’y construire un ordinateur à l’intérieur.

Si on observe des systèmes plus complexes, comme le propose Life Drop, un système qui simule le développement d’un écosystème microscopique (dont une nouvelle version est en cours d’élaboration – vidéo). Avec ce jeu, on voit l’émergence de comportements adaptatifs différents, avec des agents ayant le rôle de proies et d’autres de prédateurs et qui évoluent comme dans un environnement naturel…

Eva est un logiciel développé par Jean-Claude Heudin, un agent conversationnel (ces fameux chatterbots que nous avons souvent évoqués) dont il existe plusieurs versions (Alicia, Hal 9000…). La prochaine version doit s’appeler “Doctor Minna House” et est une Intelligence artificielle dotée d’une trentaine d’agents de personnalités qui interagissent entre eux pour formuler des réponses. Minna est capable d’aller chercher des informations sur l’internet et de les utiliser dans le flot de la conversation. Jean-Claude Heudin et ses équipes travaillent déjà à une troisième génération de chatterbot, qui soit capable d’apprendre et une quatrième qui devrait être capable de modifier la structure même de ses différentes formes d’intelligences…

Rétroliens

  1. L'entre-espaceQuoi de neuf dans vos e-kioskes? 22 avril 2011

2 commentaires

  1. par LdB

    La camera “predator” irait bien avec la désignation d’objets par iphone :)