Fabien Goubet (@fabiengoubet) pour Le Temps (enregistrement obligatoire) pointe les limites des tests de Turing en nous expliquant la récente critique du neuroscientifique Gary Marcus publiée dans Science qui explique que les chatterbots qui s’essayent à passer le test reposent plus sur des ruses pour tromper leur interlocuteur que sur une véritable intelligence. Le professeur de l’université de New York qui coorganise un atelier sur l’après Turing à l’occasion de la 29e conférence de l’Association américaine pour l’avancement de l’intelligence artificielle, souhaite enrichir les critères utilisés pour évaluer l’intelligence artificielle, pour l’évaluer autour de 3 à 5 tâches distinctes. Lesquelles ? C’est toute la question ! Une intelligence artificielle doit-elle être mieux à même de comprendre le contexte ? de résoudre des problèmes ? de prendre des décisions ?…
“Reste que pour certains, abandonner Turing serait une erreur. Stevan Harnad, professeur en sciences cognitives à l’Université de Southampton, estime que le test n’a rien perdu de sa pertinence et que ce sont les essais réalisés jusqu’ici qui l’ont dévoyé. D’après lui, les chatterbots s’y étant frottés reposent sur un «malentendu, une idée simpliste et fallacieuse que le test de Turing est un jeu d’imitation de la pensée. C’est vrai que c’est le titre de son célèbre papier de 1950, mais voyons, il faut pouvoir avancer au-delà d’une lecture naïve d’un titre !» Le test de Turing, dit Stevan Harnad, «est un projet scientifique dont l’objectif est d’expliquer la cognition, c’est-à-dire la capacité de penser. Si on parvient à faire penser une machine comme un être humain, alors on aura fait la rétro-ingénierie de la cognition. Autrement dit, on saura par quel mécanisme causal la machine, et donc l’homme, peut penser.» C’était peut-être cela, le raisonnement d’Alan Turing : pour comprendre ce qu’est la pensée, il suffit de se demander comment elle fonctionne.”
Laisser un commentaire