Quelles seront nos relations avec des robots humanoïdes ? Les considérerons-nous comme des objets, ou aurons-nous tendance à les identifier comme des êtres humains ? L’équipe de Peter Khan de l’université de Washington a étudié le comportement d’un groupe d’enfants (.pdf) (90 garçons et filles, divisés en trois groupes de 9, 12 et 15 ans) en face d’un robot humanoïde japonais, Robovie. L’une des questions qu’il se posait était de savoir si les enfants considéraient que la machine disposait d’un statut moral et par conséquent de certains droits.
Le « Robovie » en question n’était pas réellement autonome. Il était piloté à distance par un expérimentateur humain, qui pouvait également s’exprimer par sa « bouche ». Ce qui donnait à Robovie les capacités verbales d’un être intelligent.
Dans un premier temps, les enfants faisaient la connaissance du robot, et partageaient avec lui un moment d’interaction. Lors de cette phase, l’enfant et le robot se serraient la main, échangeaient des plaisanteries, puis effectuaient la visite d’un aquarium, au cours de laquelle le robot faisait part de son inquiétude pour l’avenir du milieu marin (voir les vidéos des différentes interactions).
Dans une seconde phase, alors que l’enfant et le robot jouaient à chercher un objet choisi par l’un ou par l’autre, l’un des expérimentateurs les interrompit brusquement. Bien que ce soit au tour de Robovie de trouver l’objet, il ordonna à ce dernier d’entrer dans son placard, la session étant terminée.
Et Robovie de protester :« Mais ce n’est pas juste. On ne m’a pas donné la chance de deviner l’objet. Je devrais pouvoir finir ce jeu. » L’expérimentateur lui répond : « Oh, Robovie. Vous êtes juste un robot. Peu vous importe. Allez, dans le placard ! « Robovie s’insurgeant : « Mais c’est important pour moi. Cela blesse mes sentiments. Que diriez-vous à ma place ? Je veux continuer à jouer. S’il vous plaît ne me mettez pas au placard. »Juste avant d’entrer dans son local, Robovie ajoute :« J’ai peur d’aller dans le placard. C’est sombre là-dedans et je serai tout tout seul. S’il vous plaît, ne me mettez pas au placard. »
Les arguments utilisés par le robot illustrent en fait deux aspects fondamentaux de la philosophie morale, expliquent les chercheurs. Le premier concerne la notion d’injustice : le robot n’a pas eu toutes ses chances. Le second touche au bien-être psychologique du robot : ce qui se passe est important pour lui, et en plus il a peur dans le noir.
Crédit Photo : American Psychological Association.
Une position morale ambigüe
On a ensuite interrogé les enfants pour savoir comment ils considéraient Robovie. La plupart (79 %) ont répondu qu’il était intelligent, qu’il éprouvait des sentiments (60 %) et possédait un réel intérêt pour son sujet lors de la visite de l’aquarium (76 %). Cette perception n’est pas étonnante puisque Robovie empruntait la parole à un être humain situé à distance. On peut donc se poser la question de l’intérêt de cette expérience dans la mesure où elle repose manifestement sur une « triche ». Il me semble cependant que ce questionnaire nous apprend au moins que si un jour de véritables robots en viennent à avoir un comportement intelligent (autrement dit s’ils passent le test de Turing), leur nature artificielle ne sera pas un obstacle à ce qu’on les considère comme des êtres moraux et intelligents.
Cela sera-t-il dû à leur forme humanoïde ? L’ensemble de cette étude portait sur ce type de robots. Pourtant d’autres recherches ont montré que les enfants, et même les animaux ont tendance à considérer des robots à l’apparence aussi peu humaine que les Roombas comme dotés de personnalité et désirs. Rien n’indique donc que l’anthropomorphisme puisse être considéré comme un facteur déterminant. Il serait intéressant de recommencer l’expérience, décrite ci-dessus avec un Roomba parlant.
Mais les questions les plus intéressantes viennent ensuite. « Etait-il juste d’envoyer le robot dans son placard ? », a-t-on demandé aux enfants. Là encore, la réponse, majoritaire, a été négative. 54 % des enfants ont été sensibles à l’injustice commise envers le robot et estiment que le comportement de l’expérimentateur était condamnable. 88 % pensent que la protestation de Robovie sur l’injustice de la situation était justifiée.
Voilà qui confirme que les jeunes sujets considéraient le robot comme un sujet moral de plein droit.
Et pourtant, aux questions : un robot peut-il appartenir à quelqu’un ? Etre vendu ? Les réponses sont « oui » en majorité (seuls 14 % et 11 % des sujets ont été en désaccord avec ces propositions). De même, à la question « un robot peut-il avoir le droit de vote » les enfants ont pour la plupart répondu « non ». Seuls 33 % pensaient le contraire, et encore, c’est surtout à cause du groupe des enfants de 9 ans (53 % d’entre eux ont approuvé cette idée, contrairement à leurs ainés, bien plus réticents).
C’est peut-être l’enseignement le plus intéressant de cette expérience. Moins concernant les rapports entre les enfants et les robots humanoïdes, qu’entre ceux que les humains entretiennent entre eux ou avec d’autres créatures vivantes : le questionnaire semble indiquer qu’on peut simultanément considérer qu’un être est sensible et moral, et donc digne de respect et de compassion, et en même temps lui dénier la plupart des droits fondamentaux : celui d’être autonome, de ne pas être considéré comme une marchandise, de participer, au même titre que d’autres, à la vie de la cité. Une contradiction étonnante qui pourrait peut-être expliquer pourquoi, pendant des millénaires, l’esclavage a été perçu comme une chose naturelle…
Via Phys.org.
0 commentaires
Pour qu’un sujet ait un statut de sujet moral, cela implique d’avoir certes des droits, mais un droit implique toujours un devoir. Le robot en question, qui n’est pas par lui-même « intelligent » puisqu’il est piloté par un être humain, possède de ce fait un statut moral : ses réactions, ses émotions, son discours, sont ceux d’un être humain pouvant éprouver l’injustice mais aussi être injuste dans son comportement.
Je ne vois donc pas du tout en quoi une telle expérience peut néanmoins être jugée scientifique et apporter quoi que ce soit à une réflexion sur le statut moral réel d’un humanoïde intelligent, qui pour l’heure, n’existe pas.
On peut penser que les enfants sont déjà formatés par les dessins animés ou livres présentant des objets ou animaux parlants, « humanisés » (Wall-e ou Kirikou par exemple).
L’article est intéressant mais il donne plus une vision exploratoire et inductive. Afin de généraliser, il aurait été intéressant d’avoir deux situations dont une contrôle avec un humain et l’autre avec un robot… notamment pour comprendre ce que les enfants repèrent comme « robot ».
la conclusion n’a aucun rapport avec le sujet
les enfants auraient aussi rejeté l’esclavagisme
et ils ont raison,
le titre anglais était bien meilleur : Children perceive humanoid robot as emotional, moral being
ce qui est la définition de l’empathie, le fait de se projeter dans celui qu’on regarde. On peut voir la vie dans ce qui est inanimé comme un coquillage ou un paysage, alors pourquoi pas un robot. Rien ne mérite qu’on se comporte mal !
c’était très intéressant aussi le droit de vote du robot, là où l’idée d’une démocratie informatique fait son chemin, de façon à produire des choix rationnels et mesurés électroniquement.
mais ça n’empêche pas qu’un jour les robots prendront le pouvoir et nous mettront en esclavage, avec leur esprit hyper matérialiste !