Prochain arrêt, la Singularité (2/4) : L’intelligence artificielle est-elle la clé de la Singularité ?

Pour Vernor Vinge, c’est la création d’une intelligence artificielle supérieure à l’intellect humain qui sera l’avancée technologique qui précipitera la singularité. Dans le numéro d’IEEE Spectrum consacré au sujet, Vernor Vinge revient sur sa prédiction, pour nous montrer les scénarios possibles – scénarios qui ont tous en commun l’idée d’une multiplication des capacités cognitives :

  • Le scénario de l’intelligence artificielle, le plus classique : une créature artificielle voit le jour et nous mène vers un avenir inconnu.
  • Le scénario de l’intelligence augmentée : grâce à l’explosion des interfaces directes entre le cerveau et la machine, nous devenons capables d’accroitre nos capacités mentales de façon considérable.
  • Le scénario biomédical : cette fois, c’est par l’usage des neurosciences et la modification de la structure de notre cerveau que nous accédons à ce stade supérieur.
  • Le scénario internet : l’explosion des techniques de communication et d’information crée de fait une intelligence collective.
  • Le scénario de « Gaïa numérique » : assez proche du précédent, il s’agit encore de la création d’une entité collective superintelligente, accouchée cette fois-ci par « l’internet des objets », la multiplication décentralisée des outils de traitement de l’information.

On voit bien dans cette énumération, que malgré quelques variations, Vinge s’en tient à une certaine définition de la Singularité. N’importe quel progrès scientifique, même le plus spectaculaire (développement des nanotechnologies, abolition du vieillissement ou de la famine par la biotechnologie, colonisation de l’espace, etc.) ne suffit pas pour produire une singularité. Dans la Singularité, c’est bel et bien la variable « intelligence » qui devient infinie.

Pour Vinge, la Singularité ne se définit donc pas seulement comme une accélération du progrès scientifique et technique, mais comme l’accélération du facteur même qui permet cette accélération. C’est logique. Si nous (ou nos créations) arrivons à augmenter nos facultés cognitives, l’une des premières tâches auxquelles nous nous attèlerons sera de les booster encore plus, et ainsi de suite.

La Singularité : une réflexion d’informaticiens
On voit bien donc que la Singularité est avant tout un « truc d’informaticien ». Ainsi, lorsqu’on consulte le « who’s who » de la Singularité mis à disposition par le IEEE Spectrum, on trouve en grande majorité des roboticiens ou des informaticiens, des philosophes spécialisés dans l’intelligence artificielle, mais un seul biologiste (et encore, travaillant dans la cognition) et un seul physicien, Roger Penrose, expert dans les singularités mathématiques, mais qui s’opposerait plutôt à sa version technologique (il ne croit pas à la faisabilité de l’Intelligence Artificielle). On ne s’étonnera pas donc que la plupart des articles d’IEEE Spectrum se consacrent essentiellement au futur de la robotique et de l’IA. Parmi les personnalités consultées, une seule, Esther Dyson (pourtant une grande prêtresse des TICs) insiste sur une singularité « biologique » plutôt qu’informatique : « La Singularité qui m’intéresse viendra plus de la biologie que des machines. Nous n’allons pas construire des choses. Nous allons les cultiver et les faire pousser, puis elles se développeront par elles-mêmes. »

Le who'sho de la singularité par l'IEEE Spectrum

Sur les cinq scénarios proposés par Vinge, force est de reconnaitre que les « scénarios internet » et « Gaia numérique » sont ceux qui suscitent le moins de passions et de commentaires. Sans doute parce qu’avec eux, la notion de « Singularité » devient moins spectaculaire, plus floue. Vinge lui-même le reconnait : une telle « intelligence collective » pourrait apparaitre aujourd’hui, permettre la multiplication des avancées et des progrès, sans pour autant qu’à aucun moment nous ne nous rendions compte d’une quelconque « transition de phase ». Et une Singularité qu’on ne perçoit pas est elle encore une Singularité ?

La Singularité est forcément spectaculaire
Du coup, la plupart des chercheurs se concentrent sur les scénarios les plus excitants technologiquement, ceux qui impliquent une modification radicale de l’être humain, via une fusion avec la machine pouvant culminer dans le téléchargement de l’esprit sur un autre support, ou la création d’une intelligence artificielle dotée de capacités intellectuelles largement supérieures aux nôtres. Il peut exister bien sûr une multitude d’hybrides entre les deux options.

L’idée de télécharger l’esprit dans un ordinateur peut paraitre folle, mais elle est prise très au sérieux par une bonne partie des singularitariens, incluant des gens comme Ray Kurzweil, Hans Moravec, ou Marvin Minsky. Ce projet nous procurerait des avantages évidents (l’immortalité) et les efforts pour le réaliser seront essentiellement quantitatifs : autrement dit, il n’est pas nécessaire de comprendre l’esprit humain pour procéder à un « téléchargement », pas plus qu’il n’est nécessaire de connaitre l’harmonie et le solfège pour télécharger un morceau de Mozart sur un lecteur Mp3. Ce qui importe donc pour le partisan du téléchargement, c’est de développer des interfaces perfectionnées reliant le cerveau et la machine, des outils très élaborés d’examen des neurones ainsi que des ordinateurs très puissants pour recréer un cerveau, en milieu virtuel ou dans un corps robotique.

Quelle puissance ? John Horgan nous explique qu’il existe environ dix billiards de connexions au sein du cerveau humain. Un billiard s’écrit sous la forme d’un 1 suivi de quinze zéros. Un nombre astronomique, mais, nous rappelle encore Hogan, le Blue Gene/P d’IBM peut être configuré pour effectuer 3 billiards d’instructions à la seconde, et si la loi de Moore continue sa progression, on devrait effectivement atteindre les 10 billiards d’opérations par seconde nécessaires à la simulation du cerveau pendant la prochaine décennie.

Mais la puissance de calcul n’est pas tout. Il faudrait aussi être capable d’enregistrer l’ensemble de la configuration cérébrale, neurone par neurone. Cela aussi implique un équipement futuriste. Par exemple des nanorobots capables de cartographier le cerveau… Et bien sûr il faut être certain que l’ensemble de la personnalité est bien dans la carte des connexions synaptiques, et pas, par exemple, dans les rythmes d’activation synchronisés adoptés par les différents groupes de neurones, rythmes qui échapperaient à un enregistrement « statique » effectué sur le cerveau congelé d’une personne décédée (l’une des méthodes les plus couramment envisagées pour procéder à un « téléchargement »).

Le chercheur en intelligence artificielle, lui, ne peut se contenter de disposer de la puissance. Il doit impérativement développer une compréhension de l’objet de son travail et posséder une méthodologie précise pour permettre aux machines d’accéder à l’intelligence, voire à la conscience.

Vers une intelligence totalement artificielle
Pour les singularitariens les plus hardcore, à l’instar de Michael Anissimov, le seul scénario véritablement crédible est le premier, celui de la création d’une intelligence artificielle totalement synthétique : « le cerveau humain est enchainé à son héritage matériel et logiciel (…) entrainant des problèmes de compatibilité ». Autrement dit, notre esprit sera pour toujours limité par une structure cérébrale dont les éléments de base remontent aux premiers poissons, au contraire d’une véritable intelligence artificielle, conçue d’emblée pour une capacité intellectuelle maximum. Voilà qui élimine le scénario « biomédical » et même les esprits « téléchargés » qui vivront peut être éternellement dans un paradis digital, auront peu de chances de déclencher une Singularité (mais qui s’intéresserait à la Singularité et à l’accroissement de l’intelligence si on a déjà l’immortalité, diront les esprits cyniques). Leur principale possibilité d’amélioration étant « d’accélérer leur vitesse d’horloge » ce qui leur permettrait de penser plus vite, mais toujours avec une architecture obsolète. A moins bien sûr que les esprits téléchargés n’acceptent de se modifier jusqu’à devenir méconnaissables, abandonnant toute notion d’identité et de personnalité pour devenir des « infomorphes« , pures entités logicielles optimisées pour l’échange d’information et capables de fonctionner de manière « distribuée » en fusionnant avec leurs congénères ou au contraire se divisant selon les nécessités du moment… Mais à moins d’une évolution radicale en ce sens, certains pensent qu’il est préférable d’élaborer d’emblée une intelligence supérieure, qui n’est pas contrainte par des milliards d’années d’évolution au fond des eaux, dans les forêts ou la savane.

Ainsi, selon Assinisov : « Il existe des éléments nous permettant de penser qu’une conception algorithmique de l’intelligence artificielle peut s’avérer largement non biologique, c’est-à-dire basée sur les principes gouvernant l’intelligence en général plutôt que sur une inspiration biologique. Dans ce cas, la conception d’une intelligence artificielle viable pourrait s’avérer considérablement plus simple que celle d’un cerveau humain. »

Cette idée n’est pas neuve, elle traverse les sciences cognitives depuis ses débuts, à la fin des années 50. Il y a toujours eu tension entre les partisans d’une « IA symbolique » qui traite l’esprit comme une entité indépendante de son substrat biologique, même si elle en émerge, et ceux qui considèrent au contraire que l’approche biologique est indispensable. Marvin Minsky confiait ainsi au magazine Discover en janvier 2007 : « Je ne considère pas les neurosciences comme très sérieuses (…). Quand on discute avec les neuroscientifiques, ils semblent manquer de sophistication. Ils sont diplômés en biologie, connaissent tout sur les canaux calcium et potassium, mais ils n’ont pas de concepts psychologiques avancés. »

Une opinion à mettre en face de celle d’un Steve Grand, qui, s’il n’a pas les qualifications universitaires d’un Minsky, n’en est pas moins le père d’une des applications les plus brillantes de « vie artificielle », le jeu « Creatures » : « Mon espoir pour l’IA vient des neurosciences. La seule machine intelligente fonctionnelle que nous connaissons est le cerveau, et il me semble que tout ce que nous croyons comprendre à son sujet est horriblement faux. »

Comment créer un dieu ?
On a souvent séparé l’IA faible, qui s’occupe de reproduire certains phénomènes mentaux, de l’IA forte, qui vise à reproduire l’intelligence humaine dans sa totalité. On s’en doute, les singularitariens s’intéressent à l’IA forte. Ou, plus exactement, à l’IA gonflée aux stéroïdes. Car il n’est pas question pour eux de reproduire certaines fonctionnalités limitées de l’esprit humain, comme la reconnaissance des caractères ou la traduction. Même le fameux « test de Turing », ou la création d’un robot conscient, font figure d’étapes préliminaires : le but est de créer un dieu artificiel, pas moins. Au Singularity Institute, fondé par Eliezer Yudkowsky, on ne doute pas de la faisabilité, ni même de l’inévitabilité d’un tel projet : ses membres sont juste un peu inquiets de la tournure que pourrait prendre ces évènements. Et si ce dieu, plus proche de Moloch que de Jésus, décidait purement et simplement de mettre fin à notre espèce ? Pour éviter une telle « Singularité négative », explique Yudkowsky, il faut s’assurer que l’IA qui verra le jour sera « amicale ».

La théorie de « l’amitié » développée par Yudkowsky et ses associés est à ne pas confondre avec l’idée des trois lois de la robotique d’Isaac Asimov. En effet, le propre d’une telle « Intelligence supérieure » est la capacité de se reprogrammer afin d’atteindre ses buts. Il existe des moyens de contourner les trois lois de la robotique, et du reste, Asimov lui-même a bâti une bonne partie de son oeuvre romanesque sur les contradictions et les détournements de ces trois lois. Non, l’amitié n’est pas un système de règles, mais une tendance innée à la racine même de l’IA, ce qui fait que lorsqu’elle se modifiera elle-même, elle cherchera de son plein gré à maximiser sa bienveillance. Pour reprendre une fameuse phrase de Yudkowsky : « Gandhi ne veut pas commettre de meurtre, et ne souhaite pas s’automodifier afin de pouvoir commettre un meurtre ».

À lire aussi sur internetactu.net

0 commentaires

  1. L’auteur de science-fiction Stanislas Lem évoque dans « La formule de Lymphater » la création d’un « ordinateur » ayant conscience de lui-même et apprenant à la vitesse de la lumière (comprendre : sait tout dans une sphère ayant la taille de la distance parcourue par la lumière depuis sa mise en fonctionnement).

    Et la conclusion de cette nouvelle, c’est que cette intelligence n’est pas au service de l’humanité parce qu’elle la dépasse autant que l’homme dépasse la fourmis.

  2. Une hypothèse qui ne semble pas abordée:

    Ce dieu artificiel, aussi attendu que redouté, loin de la toute puissance que l’on projette sur lui, pourrait au contraire se présenter comme un « être misérable » qui ne doive son existence qu’au soin que les hommes lui portent?
    Hihihi, là à mes yeux, il y aurait une véritable singularité 😉

  3. Jamais, semble-t-il le moindre doute sur les conditions écologiques permettant le développement et la survie de l’espèce humaine. Si nous sommes bien ce « bétail » nécessaire pour faire vivre nos machines, que vont devenir ces magnifiques réseaux intelligents quand ils n’auront plus rien à se mettre sous la dent ?

  4. Gandhi n’aurait-il jamais pu commettre un meurtre ?

    Voyons voir… les techniques de manipulation qui vous font douter, jusqu’à remettre en cause vos propres fondements existent : du militaire jusqu’au pratiques de sélection/gestion du personnel.

    Il est des éléments essentiels à notre équilibre psychologique. Ceux qui ne les ont pas sont exclus ou regroupés dans les institutions psychiatriques afin de ne pas perturber le bon fonctionnement du système en place… dit juste, correct, censé, vrai ! ;^)

    Freud et ses copains ont quand même démontré l’influence de notre vécu sur la force de nos convictions et à quel point cette fragile construction peut être détricotée !

    Il suffira de cela pour basculer le bien en mal et vice versa. Tout est question de valeurs. Et ces valeurs n’existent que par leurs références. Déplacez, modifiez ces dernières et vos valeurs sont toutes autres !

  5. Pour revenir au fond de l’article, je pense qu’il est possible d’arriver à la singularité par la voie de l’IA « amicale », défrichée par E Yudkowsky. Et je donne la preuve (trop longue pour être publiée dans cette marge 🙂 dans mon livre « L’esprit, l’IA et la Singularité », que l’on peut se procurer en ligne (google sera ton ami). Désolé si ça fait un peu pub, mais sérieusement tous ceux qui s’intéressent à l’IA vraie devraient lire ce livre !
    A part ça, Joyeux Noël à tous !

  6. Salut à tous

    je suis très curieux et voudrait bien savoir en quoi consiste cette singularité! (peux-être en français facile)

    je me demande aussi si cet homme conscient artificiel s’en remettra toujours au service de l’homme naturel où au délà de ses capacités pourrait s’entretenir, se libéraliser ou mieux encore se reproduire en hyper clone!

  7. Je tenais juste à réagir sur l’évocation de la loi de Moore ainsi que l’évolution future des capacités de calcul des ordinateurs. Il se trouve que, d’après certaines études, cette loi de Moore connaitrait d’ici quelques temps (quelques années ?) une limite que seule une nouvelle génération d’ordinateurs (utilisant d’autres technologies que celles aujourd’hui développées) pourrait pallier. Cette limite serait la conséquence directe de la miniaturisation constante des ordinateurs, adjoints à l’augmentation de leurs capacités de calcul : des problèmes d’ordre thermique commencent à polluer les ambitions des fabricants…

    Toutefois, de nouvelles solutions technologiques pourront être trouvées, apportant avec elles l’avènement de nouvelles générations d’ordinateurs 🙂

  8. J ai découvert dans le monde de dimanche ce concept de singularité ainsi que l’homme augmenté…
    Ces informations particulièrement passionnates ne font pas l’objet de communications soutenues.
    J’aimerais savoir s’il existe des ouvrages de synthèse, ou thèses sur ces questions.
    Merci à ceux qui disposeraient d’une bibliographie de bien vouloir me la communiquer.

  9. Pour le peu que j’en sais, une singularité est un point de passage de dimension 0 qui ne laisse rien du passé. Il ne faudrait pas que l’on retombe dans les délires du 20° siècle où pour faire un homme nouveau on effaçait la mémoire des anciens et on tuait ceux qui résitaient.
    Par ailleurs j’ai du mal à imaginer un ordinateur extraordinairement intelligent qui ne connaîtrait pas le plaisir de faire pipi quand on a longtemps attendu. (D’où tirerait-il sa créativité ?).
    Il me semble que l’ordinateur très intelligent devra surtout pour imiter l’homme avoir une part de folie. Alors personnellement je ne confierai pas mon avenir et celui de mes enfants à une machine hyper intelligente de peur qu’elle ne soit tout simplement hyper folle.

  10. I’ve said that least 3406543 times. The problem this like that is they are just too compilcated for the average bird, if you know what I mean