Frédéric Kaplan : « l’intelligence artificielle ne peut jamais atteindre son objectif car celui-ci change au fur et à mesure que des progrès sont réalisés »

Frédéric Kaplan (http://www.fkaplan.com/fr/) est chercheur au Computer Science Laboratory (CSL, http://www.csl.sony.fr) de Sony. Le CSL, créé en 1996, est l’un des rares laboratoires du constructeur dédié à la recherche fondamentale. Via une équipe pluridisciplinaire et internationale basée à Paris, il vise à explorer de nouvelles voies, pouvant conduire à de nouvelles directions techniques. Au sein de la branche « Developmental robotics » du CSL, Frédéric Kaplan étudie le comportement social des robots autonomes et explore des voies nouvelles en matière d’interaction hommes-machines ou machines-machines.

Frédéric Kaplan (http://www.fkaplan.com/fr/) est chercheur au Computer Science Laboratory (CSL, http://www.csl.sony.fr) de Sony. Le CSL, créé en 1996, est l’un des rares laboratoires du constructeur dédié à la recherche fondamentale. Via une équipe pluridisciplinaire et internationale basée à Paris, il vise à explorer de nouvelles voies, pouvant conduire à de nouvelles directions techniques. Au sein de la branche « Developmental robotics » du CSL, Frédéric Kaplan étudie le comportement social des robots autonomes et explore des voies nouvelles en matière d’interaction hommes-machines ou machines-machines.

(Les vues exprimées ci-dessous le sont à titre personnel et ne constituent nullement une position officielle de la part de Sony)

Internet Actu nouvelle génération : Quelle a été l’origine de vos travaux au sein du CSL ?

Frédéric Kaplan : L’un de nos premiers projets avec Luc Steels a porté sur l’étude de techniques qui permettraient l’apparition d’une langue chez les robots. Pour cela, nous avons construit ce que nous appelons des « têtes parlantes », constituées par des caméras mobiles. Nous avons installé des couples de « têtes parlantes » dans des musées et des laboratoires, en France, en Angleterre en Belgique et au Japon. Ces robots apprenaient à reconnaître des formes colorées que nous présentions sur un tableau blanc et ils essayaient de communiquer à propos de ce qu’ils voyaient.

Lors d’une interaction, un robot regardait un objet particulier et tentait de le décrire en inventant des mots simples. A partir des mots produits, l’autre robot essayait de pointer vers le bon objet. Au terme de ces jeux de langage, chaque robot adaptait son vocabulaire de manière à être mieux compris la fois suivante. Au fil des interactions, ces robots construisaient les bribes d’une nouvelle langue.

De façon à tester ce principe sur une large population de robots avec seulement une vingtaine de « corps physiques », nous avons développé l’idée de « créatures immatérielles » voyageant de corps en corps. Plusieurs milliers d’agents logiciels pouvaient ainsi s’incarner successivement dans les différentes installations robotiques présentes dans le monde.

Iang : Peut-on séparer le corps de « l’esprit » dans un robot ?

Frédéric Kaplan : C’est toujours techniquement possible de séparer le matériel du logiciel. L’enjeu est de permettre aux connaissances acquises par un robot d’être transférées, par exemple via l’internet, dans un autre robot.

Un des problèmes difficiles que Pierre-Yves Oudeyer et moi-même étudions est la possibilité d’adapter des connaissances acquises dans un premier corps pour qu’elles puissent être utilisées dans un corps physique différent du corps initial. Par exemple en transférant le logiciel d’un robot-chien dans un PDA ou dans une autre machine mobile. C’est très complexe, car il faut établir des « fonctions de transfert » qui permettent de faire la correspondance entre les deux corps. C’est un peu ce qui se passe quand nous passons de la conduite d’un véhicule à un autre. Les commandes sont similaires, mais ne sont pas placées aux mêmes endroits ni ne produisent exactement les mêmes effets.

Mais l’idée est bien de pouvoir un jour avoir des techniques efficaces permettant à un robot de se « téléporter » ou de se « métamorphoser », en transférant son intelligence logicielle d’un corps vers un autre.

Iang : Si l’on admet qu’il s’agit d’une machine autonome, à qui appartient la connaissance accumulée au sein d’un robot ?

Frédéric Kaplan : Nous développons des techniques qui permettent à chaque robot de construire un comportement unique résultant des interactions qu’il a eu avec son environnement et les personnes autour de lui. Ces robots développent donc une « histoire » qui leur est propre. C’est cette histoire commune qui fait la valeur du robot pour son propriétaire. Si l’on vous propose d’échanger votre magnétoscope contre un modèle dernier cri, vous accepterez sûrement, car vous n’avez pas investi du temps pour transformer cette machine purement utilitaire. En revanche, si l’on vous propose l’échange de votre vieux chien contre un jeune chiot d’une meilleure race, vous refuserez sans doute car il y a une histoire commune irremplaçable entre lui et vous.

La partie du robot qui apprend correspond précisément au « robot immatériel ». C’est ce logiciel qui prend de la valeur avec le temps passé.

Iang : S’agissant de communication entre plusieurs robots, pourquoi utiliser le langage humain, et non une langue des robots qui leur serait propre ?

Frédéric Kaplan : Nous avons fait des expériences où les robots pouvaient développer leurs propres mots ou réutiliser des mots existants de nos langues. Il arrivait souvent qu’ils finissent par utiliser un mot humain pour désigner tout autre chose que son sens commun. L’avantage de plonger les robots dans un univers linguistique humain est que cela les pousse à développer des distinctions particulières, à prêter attention à des objets correspondant aux mots de nos langues, sur lesquels ils ne se seraient pas arrêtés sinon.

On peut bien sûr envisager d’autres modes de communication que les interactions verbales. Nous travaillons également sur le développement de conventions gestuelles ou lumineuses. Ce qui compte c’est de fournir au robot le moyen de créer des représentations extérieures qu’il puisse partager avec d’autres robots.

Iang : Quels sont les freins en matière de communication entre robots ?

Frédéric Kaplan : L’un des principaux problèmes qui reste à résoudre est celui du partage de l’attention. Un robot doit être capable de détecter où se porte l’attention d’un autre robot. Cela passe par la détection de certaines postures (tourner la tête, pointer) mais ce n’est pas entièrement suffisant. Pour permettre de développer une véritable attention partagée, un robot doit être capable de lire dans le comportement d’un autre robot ses « intentions » sous-jacentes. C’est très difficile.

Un autre problème réside dans la motivation du robot. Si personne ne l’y engage, un robot va-t-il s’intéresser à quelque chose ? Va-t-il essayer d’acquérir un nouveau savoir-faire ? L’enjeu est de faire en sorte que le robot soit motivé pour découvrir des choses par lui-même. C’est le concept de « curiosité artificielle » sur lequel Pierre-Yves Oudeyer et moi-même travaillons.

Iang : Vos travaux ou d’autres travaux portant sur des robots autonomes (notamment Leonardo au MIT, voir http://www.fing.org/index.php?num=4375,2) semblent montrer qu’un robot, via des apprentissages successifs, peut être capable d’appréhender des concepts, par exemple en associant un objet à une famille d’objets similaires. Si l’on admet que l’une des caractéristiques de l’intelligence humaine est précisément la manipulation de notions abstraites, peut-on dire qu’une forme d’intelligence artificielle est en train d’apparaître ?

Frédéric Kaplan : En fait chaque nouveau progrès nous fait comprendre la difficulté de la tâche. Lorsque l’on développe des robots qui essaient de construire une langue ensemble, on s’aperçoit par exemple qu’un des problèmes les plus difficiles est celui du partage de l’attention. Si nous réussissons à résoudre ce problème, une autre difficulté émergera sans doute. Je ne crois pas que nous verrons demain des créatures artificielles que nous serions d’accord de qualifier « d’intelligentes », parce que notre notion de ce qu’est l’intelligence changera au fur et à mesure que nous construirons ces créatures. C’est là une des grandes caractéristiques de l’intelligence artificielle : elle ne peut jamais atteindre son objectif car celui-ci change au fur et à mesure que des progrès sont réalisés.

Propos recueillis par Cyril Fiévet

À lire aussi sur internetactu.net

0 commentaires

  1. ma rèaction est tres simple ,aucun robot ne pourra trouver cet instinct appelè intelligence,pour une simple raison c’est que la crèation instinctive n’est pas de leur ressort et ne peu en aucun cas faire partie de leur moyen aussi sofistiquès qu’ils
    soient