Alors que certains se penchent sur la possibilité d’intelligences artificielles « amicales », un autre chercheur se prépare à créer la première intelligence artificielle véritablement maléfique, nous raconte Scientific American.
La chose s’appelle E. Sa première version, crée en 2005, se contentait de répondre à quelques questions lors d’un tchat. Selmer Bringsjord et son équipe du Laboratoire d’intelligence artificielle de l’Institut Polytechnique Rensselaer l’ont depuis perfectionné et donné une apparence physique, celle d’un jeune homme brun au visage inquiétant, et envisagent d’améliorer son vocabulaire. E entre actuellement dans sa quatrième génération.
Ce personnage permet au chercheur de réfléchir au problème du Mal et de s’interroger plus avant sur les motivations d’un être dont la nature serait intrinsèquement immorale.
Non seulement cet individu voudrait nuire aux autres en toute conscience, explique Bringsjord, mais « plus important, si cette personne devait analyser les raisons qui l’ont poussée à commettre cette mauvaise action, ces raisons se révèleraient soit incohérentes, soient prouveraient qu’il a agi en toute connaissance de cause, et regardait le mal qu’il causait comme une bonne chose. »
L’expérience effectuée avec E a consisté à le programmer pour lui faire croire qu’il était le grand frère d’un enfant auquel il avait donné un révolver et avec lequel celui-ci s’était suicidé. Après l’avoir interrogé sur les motivations de son acte, E aurait répondu qu’il possédait un révolver, que l’enfant en voulait un et que par conséquent il le lui avait donné.
De fait, E se situe au carrefour de deux domaines auquel s’est particulièrement intéressé Bringsjord : celui de la création de personnages synthétiques crédibles et celui de l’élaboration de robots éthiques. Et au centre de ces deux problématiques, une question : la logique pure peut-elle résoudre à elle seule des dilemmes aussi complexes ?
Alors que beaucoup de chercheurs en IA se dirigent vers des systèmes complexes de représentation inspirés par le cerveau, tels les réseaux neuronaux, Bringsjord reste fidèle au projet des premiers chercheurs en intelligence artificielle. Comme il l’explique dans un de ses textes : « toute forme de cognition peut être formalisée et mécanisée sous forme de logique », quoique, précise-t-il, cela implique une forme de logique bien plus complexe que celle à laquelle nous sommes habitués, dite de premier ordre. Bringsjord affirme que le système d’intelligence artificielle de E, bien nommé RASCALS, possède les capacités de décrire l’ensemble d’une personnalité exclusivement grâce à de telles constructions logiques. C’est également la logique qui devrait permettre d’éviter aux robots de nous détruire et même de permettre à une créature comme E d’être libérée sans danger dans les mondes virtuels, car, comme le dit son créateur dans Scientific American, il a une foi complète dans des systèmes comme les trois lois de la robotique d’Asimov. Ainsi, bien que malfaisant, une créature comme E ne pourrait passer à l’acte et accomplir les actes qu’elle désire !
Dans un autre article (.pdf), il tente d’aller plus loin encore : les trois lois de la robotique présentent le grand inconvénient d’être formulées en langage naturel, un système de communication que nos machines ne sont pas encore aptes à comprendre. Pour les implémenter dans le monde réel, il faudrait donc aller plus loin dans la formalisation, recourir, une fois de plus, à une série d’équations logiques très complexes. Il résume son projet par les propos du philosophe Leibniz, qui le premier avait émis l’idée d’un calculateur moral universel : « en cas de controverse, il n’y a pas plus de raison qu’une dispute intervienne entre deux philosophes qu’entre deux comptables. Il suffira qu’ils prennent leur crayon et leur abaque et se disent mutuellement (…) « calculons ! » »