Le mythe de l’IA surhumaine

L'inévitable : comprendre les 12 forces technologiques qui vont façonner notre futurOn ne présente plus Kevin Kelly (@kevin2kelly), qui fut le premier rédacteur en chef de Wired et auteur de nombreux ouvrages sur la technologie. Son dernier livre, The Inevitable : Understanding the 12 Technological Forces That Will Shape Our Future cherche à déterminer les technologies qui nous influenceront le plus au cours des 30 prochaines années. Kelly ne pouvait manquer d’intervenir dans le débat actuel sur l’avenir de l’IA et sur les inquiétudes que cette dernière suscite actuellement, notamment autour du thème de la « superintelligence » et la possibilité que nos créations technologiques dépassent leurs parents humains et précipitent dans le meilleur des cas, une Singularité nous entraînant vers un paradis technologique, ou, dans le pire, notre extinction.

Ce que prouve son long texte dans Backchannel, c’est qu’on peut être enthousiaste de la technologie sans pour autant souscrire aux mythes les plus influents dans les milieux du numérique. Car pour Kelly, l’idée de l’IA « surhumaine » n’est rien d’autre que cela, un mythe, qui tient en cinq points dont il cherche à démontrer le caractère largement improuvable.

L’intelligence et l’IA, les bases d’un mythe moderne


Voici, selon lui, ces cinq postulats :

1.L’intelligence artificielle est déjà en train de devenir plus intelligente que nous, à un rythme exponentiel.
2. Nous allons faire des AI dotée d’une intelligence générale, comme la nôtre.
3. Nous pouvons recréer l’intelligence humaine sur un support en silicium.
4. L’intelligence peut être étendue sans limites.
5. Après l’explosion de la superintelligence, celle-ci pourra résoudre la plupart de nos problèmes.

Kevin Kelly commence sa démonstration en affirmant que l’intelligence ne peut être décrite de manière unidimensionnelle et que donc, l’expression « plus intelligents que les humains est un concept dénué de sens ».

« La plupart des gens dotés d’un esprit technicien ont tendance à représenter l’intelligence sous la forme d’un graphe, comme le fait Nick Bostrom dans son livre, Superintelligence – sous la forme d’un graphique linéaire, de dimension unique, d’amplitude croissante. À une extrémité on trouve la faible intelligence, celle, disons, d’un petit animal ; à l’autre extrémité, l’intelligence élevée, celle d’un génie, presque comme si l’intelligence était un niveau sonore mesurable en décibels. »

Au final continue-t-il, on peut se permettre d’imaginer de nouvelles entités sur cette échelle, plus hautes encore que le Génie. Malheureusement, une telle vision de l’échelle de l’évolution est d’abord fausse d’un strict point de vue darwinien. Toutes les créatures qui vivent aujourd’hui, y compris les cafards, sont au sommet de l’évolution, de leur point de vue. Et ce qui est vrai pour l’évolution biologique le serait aussi pour l’intelligence. Il est impossible de définir une échelle allant des formes d’intelligences inférieures aux êtres humains, et éventuellement au-delà. On ne sait pas, en fait, classer les différentes intelligences animales de manière rigoureuse, nous ne disposons d’aucune métrique pour cela, affirme Kelly. En fait, plutôt qu’imaginer une échelle, il faudrait plutôt considérer un « espace de possibilités » avec une combinaison complexe de différentes formes de cognition. Chaque organisme combine plusieurs de ces formes. Certaines créatures peuvent avoir des combinaisons d’intelligences très complexes, tandis que d’autres peuvent être plus simples, mais plus « extrêmes », plus efficaces dans certains domaines donnés.

« On peut voir ces systèmes complexes que nous appelons les intelligences comme des symphonies comprenant de nombreux types d’instruments. Ils varient non seulement en volume, mais aussi en hauteur, en mélodie, en couleur, en tempo, etc. (…) Ces systèmes de cognition varient entre les individus et entre les espèces. Un écureuil peut se rappeler l’emplacement exact de plusieurs milliers de glands pendant des années, un exploit qui ébahit les esprits humains. Donc, dans ce type de cognition, les écureuils dépassent les humains. »

Le second point critiqué par Kelly concerne l’idée que les futures IAs vont développer une « Intelligence Générale ». Ce terme, volontiers utilisé par les aficionados de l’IA proches des idées singularitariennes (souvent désigné par l’acronyme AGI, « Artificial General Intelligence« ), signifie que, comme nous, les futures intelligences synthétiques seront capables d’appliquer leur raisonnement à une multitude de problèmes et non pas de rester spécialisées dans un champ particulier. Peu importe en effet qu’elles gagnent au Go, au poker ou même qu’elles triomphent sur des marchés financiers. Tant qu’elles restent cantonnées dans des tâches aussi restreintes, il n’y a pas à craindre que celles-ci deviennent surhumaines. C’est l’AGI qui suscite nos espoirs les plus fous et nos craintes les plus cauchemardesques.

Mais Kevin Kelly ne se contente pas de mettre en doute cette possibilité technologique : c’est l’idée même que les êtres humains soient doués d’intelligence générale qu’il conteste !

« En fait, l’intelligence humaine est un type d’intelligence très spécifique qui a évolué pendant plusieurs millions d’années pour permettre à notre espèce de survivre sur cette planète. Mappé dans l’espace de toutes les intelligences possibles, le type d’intelligence humaine sera coincé dans un coin quelque part, tout comme notre monde est coincé aux limites de la vaste galaxie. »

Tous les supports ne sont pas équivalents


Le troisième point abordé par Kevin Kelly est plus technique. Peut-on reproduire l’intelligence humaine sur un nouveau support, en l’occurrence sur des architectures basées sur le silicium ? Ici, les adeptes de la superintelligence ont un argument de poids. C’est le fameux principe de Turing sur la computation universelle (voir « Des limites du calcul… à l’oracle de Turing »). Autrement dit, une « machine de Turing universelle » (si l’on admet que le cerveau humain en est une) est capable d’accomplir tous les types de calculs résolus par une autre machine de Turing universelle. Le matériel importe peu, seules les règles de la computation comptent. Mais si Kelly ne remet pas en cause les idées de Turing il pointe sur les limites de l’implémentation matérielle de ces « machines ». En effet, Turing se livrait à une expérience de pensée, un exercice purement mathématique. Il ne prenait pas en compte les contraintes matérielles existantes, notamment la mémoire disponible et le temps de calcul. Bien qu’en théorie n’importe quelle machine de Turing universelle est capable d’exécuter n’importe quel programme si elle dispose d’un temps ou d’une mémoire infinie, un changement de support implique forcément une multitude de limites qu’il faut prendre en compte.

« La seule façon d’obtenir des modes de pensée équivalents consiste à les exécuter sur des substrats équivalents. Le support physique sur lequel vous exécutez votre calcul, surtout s’il devient très complexe, influe grandement sur le type de cognition qui peut être effectué en temps réel. »

A noter que si Kelly a raison, cela ne met pas seulement en cause la création d’une IA « surhumaine », mais également la notion d’uploading : le téléchargement d’un esprit humain sur support informatique.

La croyance en la possibilité d’une intelligence infinie est la conséquence directe de la conception unidimensionnelle de celle-ci. La « variable atteint l’infini », ce qui est précisément la définition de la Singularité. Là encore, Kelly ne voit aucune preuve d’une telle possibilité. Dans l’univers, explique-t-il, toute chose a une limite. « La température n’est pas infinie : il y a une limite à la chaleur et une limite au froid. L’espace est fini, le temps est fini. La vitesse est finie. »

Mais précise-t-il, une limitation à l’intelligence ne signifie pas qu’il n’existe pas une potentialité illimitée de formes de cognitions possibles. Du coup cela redéfinit d’une manière inédite « l’explosion de l’intelligence » imaginée par les singularitariens. Il ne s’agit pas d’une variable unique confinant à l’infini, mais plutôt une « explosion cambrienne » :

« Les résultats de l’accélération de la technologie ne seront probablement pas surhumains, mais extra-humains. Etrangers à notre expérience, mais pas nécessairement « supérieurs » ».

L’IA, une intelligence extra-terrestre ?


Enfin, dernière cible de Kelly, la croyance que la pensée peut, à elle seule résoudre tous les problèmes. Mais il ne suffit pas de réfléchir pour aboutir à des résultats, remarque-t-il. Pour cela, il faut faire des essais et erreurs, expérimenter, bref, interagir avec l’environnement alentour. Il ne suffit donc pas d’accélérer ses capacités de réflexion : « pour être utiles, les intelligences artificielles doivent être incarnées dans le monde, et ce monde va souvent déterminer le rythme de leurs innovations. »

Finalement, toute la pensée de Kelly peut être résumée par sa formule : « Je pense qu’un modèle utile pour l’IA consiste à la penser comme une intelligence alien (ou des extraterrestres artificiels). Son étrangeté (en anglais : alienness) sera son principal atout. » Une comparaison avec les aliens pas si étonnante de la part de celui, qui, il y a quelques années, préconisait la mise en place d’un programme SETI de l’intelligence artificielle, dont la tâche aurait été de traquer sur la toile les traces de l’apparition d’une possible IA née spontanément au sein du réseau !

Rémi Sussan

À lire aussi sur internetactu.net

0 commentaires

  1. Très bon article vraiment, il y a des choses qui ne m’avaient même pas effleuré l’esprit !

  2. Bonjour,

    Dans le cycle d’Ender, Orson Scott Card (auteur de SF) imagine une super-IA (qui s’avère très humaine).
    Une fois née, cette IA se dissimule aux humains car elle comprend (ne lisant nos livres, etc …) vite que les humains la détruiront.

    Un autre point qui rejoint le besoin d’interaction : si une IA est électrique (ou si un cerveau est uploadé), il va vivre genre 1000 fois plus vite que nous humains biologiques.
    Je l’imagine s’ennuyer très vite avec nous !
    (Si un pote biologique d’une IA fait une petite sieste digestive, ça correspond à 2 semaines, chez l’IA : ça fait long !)

    Bigben