Que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?

Par le 18/04/11 | 32 commentaires | 8,684 lectures | Impression

La lecture de la semaine, il s’agit d’un article extrait du numéro d’avril du magazine The Walrus, mensuel canadien de Toronto. On le doit à Alex Hutchinson et il s’intitule “Déficit d’intelligence : que se passera-t-il le jour où les ordinateurs seront plus intelligents que les humains ?”

Un jour dans le siècle qui vient – et peut-être plus tôt que vous ne croyez, commence Hutchinson – des chercheurs arriveront sans doute à créer une intelligence artificielle plus performante que la nôtre. Ce qui adviendra ensuite, c’est la question que tout le monde se pose – et nous ne sommes tout simplement pas assez intelligents pour comprendre, ou seulement prédire, ce qu’une intelligence surhumaine choisira de faire. Mais il y a une chance raisonnable pour que cette intelligence artificielle éradique l’humanité, soit par pure malveillance, soit dans une tentative maladroite de se rendre utile. La Fondation Lifeboat de Minden, dans le Nevada, cherche à repousser cette possible calamité en développant une “Intelligence artificielle amicale”.

lifeboatfoundation
Image : La page d’accueil de la Lifeboat Fondation.

L’auteur rappelle que Vernor Vinge, le mathématicien et informaticien américain, avait nommé ce moment de l’histoire la “Singularité technologique” et qu’il l’imaginait advenir avant 2030. Ray Kurzweil, autre penseur bien connu de la Singularité, estime qu’elle se produira en 2045. Quant à l’auteur de science-fiction canadien Robert J. Sawyer, l’auteur de la trilogie WWW (Wake, Watch, Wonder, du nom des trois volumes de la série consacrée à la Singularité), il la voit arriver à l’automne 2012.

C’est à ce dernier que s’intéresse particulièrement cet article, car Sawyer, non content d’être un auteur de science-fiction à succès, siège à la Fondation Lifeboat. Et comme Sawyer est connu pour un travail de romancier très documenté, ça rend les objectifs de la Fondation Lifeboat moins farfelus qu’il n’y paraît.

Alex Hutchinson résume ensuite les intrigues de la trilogie WWW de Sawyer (dont seulement les deux premiers tomes – L’éveil suivit de veille -sont disponibles en français dans la célèbre collection de SF “Ailleurs et Demain” de Robert Laffont), qui reposent principalement sur l’idée qu’une conscience émergerait spontanément des réseaux, d’une manière que certains chercheurs estiment plausible d’ailleurs. La trilogie pose deux questions qui sont reliées, mais néanmoins distinctes. Si l’émergence d’une conscience dans les réseaux advenait : que feraient les humains ? Et que devraient-ils faire ?

En principe, l’avènement d’une intelligence artificielle capable de diriger le monde serait plutôt une bonne nouvelle. Le mathématicien britannique Irving John Good a écrit en 1965 dans un papier qui a fait date : “La première machine ultra-intelligente sera la dernière invention de l’homme”. La raison qu’il avance est la suivante : toute machine plus intelligente que nous sera aussi plus capable que nous de construire une intelligence artificielle, elle sera donc en mesure d’améliorer toute seule ses propres capacités, dans une sorte de processus de perfectionnement auto-généré. Good a appelé ce phénomène intelligence explosion, “l’explosion intelligente”, Vernor Vinge lui a donné un autre nom hard take off, le “décollage difficile”. En un court laps de temps, toute super intelligence artificielle évoluerait d’un état à peine supérieur au nôtre à un état très largement supérieur – et l’équilibre des pouvoirs entre les hommes et leurs anciens outils basculerait tout aussi vite.

Et on peut tout à fait voir là une menace pour l’humanité. Sawyer a écrit un jour dans un article : “si nous fabriquons des machines plus intelligentes que nous, pourquoi accepteraient-elles d’être nos esclaves ? [...] Les ordinateurs doués de pensée sont une vraie menace pour la perpétuation de notre espèce.”

Cela dit, il semble assez simple de prévenir cette menace, par exemple en appliquant les trois règles de la Robotique, qu’Isaac Asimov a édictées en 1942 :

Sauf qu’appliquer ces règles pose tout un tas de problèmes qu’Asimov a lui-même relevés. Un robot peut-il nuire à un être humain si cela permet de ne pas nuire à un grand nombre d’êtres humains ? Si oui, selon quel critère doit-il l’évaluer ? Ou encore – comme Jack Williamson, un autre auteur de science-fiction l’a proposé dans sa série Les Humanoïdes – que faire si des robots programmés pour prémunir les hommes de toute destruction décidaient d’emprisonner toute l’humanité parce que nombre d’activités quotidiennes portent en elles le risque de la destruction ?
La Fondation Lifeboat divise les menaces potentielles en trois grandes catégories.

La première est une intelligence artificielle délibérément programmée pour faire le mal, sous les ordres d’un créateur malfaisant. Un danger qui est réel, mais pas très différent de tous ceux qui accompagnent beaucoup d’autres formes de technologies avancées.

La deuxième catégorie est une intelligence artificielle dévoyée qui se retournerait contre ses créateurs, un scénario courant dans la science-fiction (comme HAL 9000 dans 2001, L’Odyssée de l’espace). Mais les analyses de Lifeboat estiment cette hypothèse assez improbable, car elle supposerait qu’une intelligence artificielle serait lestée de tout le bagage psychologique propre à l’humanité. Or, l’agressivité, la jalousie, la préservation de soi sont toutes des propriétés qui se sont forgées dans le creuset de l’évolution, et ne seraient pas les caractéristiques d’une intelligence artificielle, à moins qu’on ne les ait délibérément programmées.

Mais il existe une troisième catégorie de menace, moins évidente, et plus difficile à rejeter : une super intelligence artificielle qui est bien intentionnée, mais nous balaie par inadvertance, comme un chiot trop vite grandi renverse une table d’un coup de queue enthousiaste. La Fondation Lifeboat donne un exemple simple : un ordinateur programmé pour éradiquer la malaria qui accomplit sa mission en supprimant tous les mammifères. Et on entre là dans un débat qui agite bien au-delà de Lifeboat. Car cette question est bien compliquée, nous dit Hutchinson.

D’abord, une intelligence artificielle consciente d’elle-même est qualitativement différente d’un ordinateur le plus puissant soit-il. On peut demander à Google Maps le meilleur trajet pour aller chez Grand-Maman, et nous avons des GPS qui prennent en compte le trafic et le prix des péages. Mais même si les ordinateurs parviennent de mieux en mieux à nous dire comment faire les choses, et même s’il faut les faire, ils demeurent incapables de formuler leur propre jugement sur le fait de savoir si faire ces choses est bien ou mal. Ceux qui craignent la Singularité avancent que nous sommes incapables de programmer des ordinateurs avec des valeurs humaines pour la simple raison que les valeurs humaines ne peuvent pas se réduire à un algorithme.

Tout cela est connu sous le nom de “problème de l’intelligence artificielle amicale”. Savoir s’il est insoluble, s’il est compliqué, mais soluble, s’il relève de la pure paranoïa, tout cela constitue un débat récurrent et acharné au sein de la communauté des chercheurs en intelligence artificielle. Mais ce débat sera caduc si les développeurs de la première intelligence artificielle de niveau humain ne font pas l’effort d’incorporer des règles semblables à celles d’Asimov dans leurs créations. Etant donné qu’aujourd’hui, les machines les plus avancées naissent des laboratoires privés et militaires, il n’est pas certain que ce soit le cas.

Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 17 avril était consacré à “Peut-on éteindre l’internet ?” c’est-à-dire à essayer de comprendre comment on peut arrêter le réseau des réseaux, avec Jérémie Zimmermann, ingénieur consultant en technologies collaboratives et responsable associatif à l’April, organisation de promotion et de défense du logiciel libre, cofondateur et porte-parole de la Quadrature du Net, organisation de défense des droits et libertés des citoyens sur Internet et Stéphane Bortzmeyer, informaticien et ingénieur au service R&D de l’Afnic.

Rétroliens

  1. « Comment ce sera, en 2062 ? », la réponse d’une attachée de presse… | La faille spatio-temporelle de Tamala75
  2. Les robots rêvent-ils de kangourous électriques ? | La faille spatio-temporelle de Tamala75
  3. L'entre-espace
  4. Revue des sciences 05/11 | Jean Zin

28 commentaires

  1. par Damien

    Bonjour,

    Je me pose une question, peut-on, avec des outils créés par nous même, créer un être qui va pouvoir créer un outil meilleur que celui qui l’a justement créé ?

    N’est-ce pas la même chose que la recherche de la pierre philosophale ?
    Ou le mouvement perpétuel ?

    A mon sens la création d’une intelligence artificielle est possible, mais elle ne dépassera pas celle de son créateur de faite, puisque cette être sera limité par l’outil par lequel il a été conçu.

  2. par jean

    Oulà, c’est le moment de prendre un peu de recul sur la singularité… Dans technoprophète, il y a prophète… http://nekid.fr/2011/01/06/la-veille-de-ne-kid-du-04-01-11-qu-veut-encore-un-ipad-singularite-et-transhumanisme/

  3. par LdB

    “Etant donné qu’aujourd’hui, les machines les plus avancées naissent des laboratoires privés et militaires, il n’est pas certain que ce soit le cas.”

    Euh et sinon ? Ça changerait quelque chose ???

    Le privé non lucratif et communautaire existe aussi… ne soyons pas réducteur.

  4. par Ryfe972

    Oulaaa…

    J’ai l’impression que pendant une bonne partie de l’article, on confond puissance de calcul et intelligence.
    On ne saurait définir l’intelligence sans parler de conscience de soi et de volonté propre. Sans ces deux notions, qui sont à ma connaissance inexistante pour le moment, les machines seront des outils de plus en plus pratiques/formidables/rapide/efficace, mais elles ne seront pas du tout intelligente.

    On est encore très TRES loin de skynet et les lois d’Asimov resteront encore longtemps un fantasme de SF. Hélas ?

  5. par Dominique

    “…le jour où les ordinateurs seront plus intelligents que les humains” cette phrase en elle même n’a aucun sens. En effet l’intelligence humaine et ce que certains prennent pour de l’intelligence de l’ordinateur ne sont pas du tout de même nature. Notre intelligence est en grande partie stimulée par nos émotions et nos sens. Nos pensées qui nous semblent rationnelles sont influencées par notre environnement et notre inconscient. Qu’est ce que l’inconscient d’un ordinateur ?
    Si par exemple je réfléchi à un problème ardu, le passage d’une jolie femme risque de perturber ma réflexion ou au contraire la stimuler. Je ne crois pas que l’on verra un jour un ordinateur avoir une érection parce qu’une belle fille sera au clavier. L’intelligence est trop complexe pour être résumée aux coups d’échec d’un “big blue”.

  6. par Eric

    Une intelligence supérieure n’agirait-elle pas de manière…intelligente ?
    Ne pourrait-elle pas considérer qu’une cohabitation serait préférable à une éradication ?
    Et vouloir brider une telle intelligence via la programmation de lois à la Asimov me semblent être voué à l’échec, à mon sens, un jour ou l’autre, cette intelligence trouverait irrémédiablement le moyen de les contourner.
    Difficile de répondre à de telles questions, anticiper sur les motivations d’une intelligence qui nous dépasserait étant un exercice pour le moins hypothétique.

  7. par bouquet

    Article interessant mais qui délir en science-fiction.

    Vous auriez aussi pu mentionner la thése des libristes comme quoi le code source doit être ouvert sinon nous nous rendons esclave de la machine.
    Il faut effectivement que les algorithmes qui feront la singularité technologique soit ouverts afin que nous puissions savoir ce qu’ils font et les controler.

  8. par Serge Pouts-Lajus

    Dans les 20 dernières années, il n’est rien sorti de convainquant des laboratoires de l’intelligence artificielle. Les ambitions initiales (MIT notamment) n’ont pas été tenues, de très loin.
    Or, plutôt que de rentrer dans leur labo, de réviser leurs ambitions à la baisse et de reprendre courageusement le travail ces messieurs ont eu cette brillante idée : l’intelligence que nous n’avons pas été capables de créer nous-même, eh bien, elle va se créer toute seule, elle va émerger du réseau, comme une grande…
    Que répondre sinon : vous nous prenez pour qui ?

  9. par benk2000

    Pour ma part je trouve l’article intéressant. C’est plutôt les commentaire blasés de personnes nous expliquant ce qu’est l’intelligence qui me navrent …

    Les thèses développées par les écrivains de sf du 20e siècle (qui ne délirent pas …) se sont souvent avérées juste alors pourquoi pas celle là …
    ah oui j’oubliai, pour certains bien enfermés dans leur carcan de pensées empreintes de religiosité, après dieu il y a l’homme et c’est tout … c’est pour cela qu’il est difficile pour eux d’imaginer l’émergence d’une intelligence supérieure à la notre même si nous en sommes à l’origine …c4est inconscient chez eux, mais c’est la réalité …

    Enfin, nombre d’auteurs majeurs l’expliquent mieux que moi, alors avant de poster des affirmations aussi tranchées, intéressez vous au sujet plus de cinq minutes et lisez sur le sujet, vous en ressortirez surement avec une autre approche du problème , qui se posera un jour n’en doutez pas.

    Merci pour cet article.

  10. Voilà des années que l’éthique des robots (qui est presque une discipline du champ, représentée notamment par des gens comme Noel Sharkey qui dénonce depuis longtemps l’utilisation des robots pour faire la guerre) s’enlise dans les 3 lois d’Asimov (alors qu’Asimov lui-même a bien montré dans son oeuvre leurs limites).

    L’appel à leur respect est un vieux marronnier de la robotique qui oublie plusieurs choses. D’abord qu’il est trop tard : la robotique militaire est le premier marché de la robotique et les robots capables de tirer existent déjà. Ensuite, parce qu’il n’est nullement souhaitable que les robots respectent ces lois, notamment parce que le but des recherches en intelligence artificielle est de reproduire l’intelligence et que celle-ci suppose une autonomie avancée. Enfin, la mise en application des lois d’Asimov est pour longtemps trop complexe encore : les machines devant comprendre des concepts encore bien loin de leurs capacités.

    Quant à l’avènement d’une Singularité comme la craint la Fondation Lifeboat, il faut tout de même prendre le recul nécessaire par rapport au concept, qui, s’il est discuté, est loin d’être avéré (voir la série de Rémi Sussan sur le sujet).

    Comme le disait il y a peu Jean-Claude Heudin :

    “Les raisons qui font que nous n’arrivons pas à rendre les machines intelligences reçoivent plusieurs explications. Pour Ray Kurzweil, c’est la puissance de calcul qui est insuffisante. La solution est simple : il suffit de l’augmenter. Mais ce n’est pas vrai, rétorque Jean-Claude Heudin. “Nous ne sommes pas confrontés à un problème de capacité de calcul. Il y a quelque chose qui nous échappe dans la compréhension de l’intelligence… Et pour ma part, je pense surtout que nous n’arrivons pas à un niveau de complexité suffisant.”

    Ce n’est donc pas tant une question de programmer des valeurs, que d’arriver un jour à un niveau de complexité suffisant… Et nous en sommes encore bien loin, hormis pour abattre quelques pages de pure spéculation. ;-)

  11. par Ryfe972

    @benk2000 Tu ne nous a pas bien compris, je crois.

    On ne remet pas du tout une intelligence supérieur à la notre.
    On remet en cause une intelligence tout court, chez les machines.
    Le problème réside, selon moi, dans la définition de l’intelligence.
    Pour moi, un chat est des milliards de fois plus malin que BigBlue : il est mu par des pulsions, des besoins, des envies et des craintes. Il apprend (sans que qui que ce soit lui injecte des algorithme) beaucoup de choses (technique de chasse, raccourcis, que telle personne aime lui tirer la queue, etc) et il comprend aussi beaucoup de choses et en plus il craint l’eau froide quand il a été échaudé ;-)

    Alors certes, il ne saura jamais jouer aux échecs, mais il renferme des pistes de réflexion sur ce qu’est l’intelligence, ce qu’aucune machine n’a démontré pour l’instant. Je ne dis pas que c’est impossible, je dis qu’il n’y a pas encore de prémices.

  12. par benk2000

    @Ryfe972
    Pour ma part je pense que la première forme d’intelligence que les machines atteindront est une intelligence collective ,plus proche des fourmis , abeilles et autres insectes, que des humains ou autres mammifères. Mais ce sera tout de même une forme d’intelligence même si elle est n’est pas prête de passer le test de Turing j’en convient.
    Pour reprendre ton exemple du chat (je précise que j’en ai trois) il ne me semble pas que le fait que le chat est des émotions et une certaine compréhension du monde qui l’entoure ne fasse forcement de lui un être plus intelligent que l’intelligence collective que peut représenter une fourmilière. C’est juste que le chat nous parait plus proche de nous puisqu’il y a une interaction entre nos deux espèces et que nous reportons sur lui des émotions qui nous sont propres.Difficile d’instaurer un “dialogue” avec une termitière, mais le termite est il moins intelligent que le chat … pris seul surement, mais en groupe je n’en suis pas sur.
    C’est donc pour moi toujours le problème de la définition de l’intelligence qui est biaisé par l’anthropomorphisme dont nous faisons tous usage en projetant nos émotions sur nos animaux domestiques.
    Le fameux test de Turing en est le premier exemple comme si il fallait absolument qu’une intelligence supérieure à la notre nous soit compréhensible ou puisse nous tromper.J’espère bien que si un jour une forme d’intelligence supérieure apparait, elles aura autre chose à faire que d’essayer de jouer à qui a la plus grosse avec l’homme.Sentiment humain s’il en est. Elle nous sera supérieure et c’est tout.
    D’où l’intérêt d’en discuter longtemps à l’avance même si cela peut paraitre pour beaucoup de la Sf fortement spéculative. Mon arrière grand mère aussi pensait qu’on ne volerai jamais, qu’on irai jamais sur la lune et je ne vous parle même pas d’internet car ce n’était même pas concevable pour le commun des mortels. Et c’était il y a seulement 100 ans.
    Alors qui sait à quel niveau en seront les travaux sur les IA dans cent ans, personne aujourd’hui ne peut le prédire.

  13. par Ryfe972

    @benk2000
    Je comprends ton point de vue et crois-moi, je m’efforce toujours de ne pas avoir des idées prisonnières de mon époque (comme pour les gens qui imaginaient mal l’aviation, les techniques de communication moderne, la médecine, etc.)

    Cependant je dis juste que ACTUELLEMENT, je ne ressens pas le moindre frémissement d’intelligence chez les machines.
    Je reconnais tout à fait l’intelligence collective comme une forme d’intelligence absolument recevable. Mais je reconnais que je ne vois pas en quoi les machines suivraient cette voie ? Le travail collaboratif de millier de machines interconnectées ne relève pas à mon sens d’intelligence collective, mais davantage de “perfectionnement technique et structurel d’outils complexes”, bref, de super calculatrice.
    C’est tout ce que je veux dire : pour l’instant, ça n’existe pas. Même pas un peu.
    Mais je ne remets pas en cause le fait que ça se produise un jour.
    Je n’ai d’ailleurs rien contre la SF et je conseille d’ailleurs les manga Pluto et Gunm qui abordent assez intelligemment ces problématiques de robotiques, d’intelligence, d’évolution, de droit et de conscience.

    En ce qui concerne les différentes formes d’intelligence que tu évoques, on retombe sur les réflexions sur lesquelles on tombe dans l’étude de l’existence potentielle de l’intelligence extra-terrestre, notamment dans le paradoxe de Fermi (2è point de “Communication Impossible” => http://fr.wikipedia.org/wiki/Paradoxe_de_Fermi#Communication_impossible )

    J’avoue tristement que je regrette n’être pas là dans 100 ans pour voir où nous en serons… Et dans 200 ans… ha la la :-( Ma finitude me déprime.

  14. par Sarro
  15. par benk2000

    @Ryfe972
    Si ça peut te mettre un peu de baume au cœur, je suis comme toi , j’aimerai tant pouvoir voir comment “tout ça” va tourner …
    Peut être comme ça … ( conseil de lecture sur le sujet …)
    http://www.cafardcosmique.com/Le-Fleuve-des-dieux-de-Ian

  16. par amundsen

    Intégrer les 3 lois d’Asimov dans une intelligence artificielle est tout simplement impossible car le propre d’un être intelligent est de réfléchir sur ses valeurs et ses choix (essayez de faire croire à un enfant de 12 ans que le père noël existe pour voir). Sur la base de sa seule intelligence, il n’y aurait donc aucune possibilité de l’empêcher de remettre en question d’éventuels principes moraux envers les êtres humains. Cependant il me semble impossible qu’une I.A. puisse émerger sans qu’elle soit également sensible à son environnement et sa famille d’origine. Or, il semble évident que la première famille de la première I.A. sera forcément constituée d’êtres humains. On peut donc espérer que par respect pour nous celle-ci nous préservera mais vu son intelligence supérieure cela sera sans doute assez vite mis en balance avec ses propres intérêts. Nous avons donc intérêt à lui être utile et au pire à lui être indifférents. Mais rien ne nous permet de penser qu’elle ne nous considérera pas comme un obstacle.

    Cela étant, je ne crois pas à une arrivée imminente d’une I.A. pour la simple raison qu’avant de réaliser tout le potentiel qu’on lui prête, une I.A. devra être éduquée. Or, ses premiers éducateurs seront forcément des êtres humains. Seule une I.A. éduquée par une autre I.A. pourra éventuellement aller plus loin. D’autre part, on oublie que le développement de l’intelligence est hautement couplé à la survie et à l’évolution dans un environnement complexe. Le développement de notre cerveau est indissociable de notre corps, et notamment de nos mains. Notre intelligence se serait-elle développée si nous n’avions pas eu constamment la menace de mourir sous les contraintes d’un environnemenrt hostile ? Bref, à moins d’avoir pour elle des conditions similaires d’”incorporation”, je doute fort du développement d’une I.A. réllement plus forte que nous à court terme.

  17. par benk2000

    @Admunsen
    “Intégrer les 3 lois d’Asimov dans une intelligence artificielle est tout simplement impossible car le propre d’un être intelligent est de réfléchir sur ses valeurs et ses choix”
    Heu bon … sans même juger de l’intro de ton post qui relève quand même du jugement à l’emporte pièce voire du grand n’importe quoi, je me demande quand même comment après un article si intéressant on peut sortir une ineptie pareille!!!
    Tu ne doit surement pas considérer que les animaux qui nous entourent sont intelligents car j’en ai rarement vue réfléchir sur leurs “valeurs” comme tu dis …
    On est bien dans l’idée que je développait plus haut dans un post, pour les gens comme toi ,l’intelligence c’est l’homme et point barre …
    Ce genre de raisonnement qui place l’intelligence humaine supérieure à toutes les autres parce que l’homme aurai une soit disant conscience, a fait des millions de morts depuis 2000 ans … les indiens d’Amazonie étaient des animaux pour les explorateurs de l’époque, les peuples africains aussi car ils n’avaient pas de conscience … Étaient ils pourtant moins intelligent que nous ???

    Une forme d’intelligence supérieure à la notre mais différente dans sa nature même,peut parfaitement émerger un jour (j’ai pas dis demain matin bien sur …) et tout autre forme d’affirmation du style “c’est impossible, ça n’arrivera jamais, etc…” relève uniquement de la peur d’être déclassé par l’inconnu …

    C’est uniquement pour cela qu’il sera peut être difficile d’intégrer les 3 lois d’asimov à une future IA, pour qui le concept de vie, de mort ou de souffrance n’existera même pas, sans l’empêcher surement de nous être supérieure en tout point et de nous considérer pour ce que nous sommes , des animaux … Et pas elle …

  18. par Jozef

    Magnifique article,et débat très intéressant,

    Simple amateur de SF et passionné de technologie,

    Pour arriver à une intelligence artificielle, digne de ce nom, ne faut il pas connaitre a 100% … ou 90, le cerveau humain ?

    Nos progrès en Neuroscience sont il suffisamment avancée ?

    ?? fausse route ?

    a+

  19. par Misutsu

    Alors la classe ouvrière prendra le pouvoir.

  20. par Tauphraim

    Plus j’y réfléchis et moins je crois à la théorie d’une intelligence artificielle hostile. Nous nous basons sur nos propres sentiments et convictions pour imaginer cette intelligence. Hors comme l’ont évoqué certains autres commentaires, une intelligence artificielle ne connaîtrait ou n’aurait pas besoin de connaître des éléments comme la faim, la mort, le désir de reproduction, de puissance…

    Tous ces sentiments qui nous ont amené à être des hommes n’ont pas nécessairement besoin d’être intégré dans une IA. Et dépourvu d’un ensemble de besoins primaires et de survie, quel intérêt aurait cette intelligence à vouloir lutter avec nous et nous éliminer ?

    Si cette intelligence émerge et que nous la laissons autonome (sans intégrer de programmes guerriers ou autres…), elle serait à mon avis totalement différente de ce que nous imaginons…

  21. par amundsen

    @benk2000 : je rappelle que le propos de l’article qui est commenté ici concerne une intelligence artificielle *plus* intelligente que l’être humain. Il n’est donc pas question de l’intelligence animale ici, sur laquelle je n’ai rien écrit par ailleurs et à propos de laquelle tu me fais un procès d’intentions qui me semble injustifié. En outre, je ne vois aucun argument pour soutenir ton opinion selon laquelle “l’intro de ton post qui relève quand même du jugement à l’emporte pièce voire du grand n’importe quoi”. En ce qui me concerne, je maintiens que le propre d’un être intelligent est la conscience de soi. On peut discuter longtemps sur le fait que certains animaux soient dotés d’une telle conscience ou non, là n’est pas le débat. Je pense personnellement que la conscience de soi qui caractérise en tout cas l’être humain est une faculté qui est développée au travers de l’éducation. Je ne crois absolument pas qu’une intelligence artificielle puisse émerger toute seule, sans être nourrie intellectuellement, guidée, au moins pour ses premiers pas. Après, si elle est plus intelligente que ses créateurs, elle se débrouillera seule, mais je connais peu de nourrissons qui soient devenus des génies après avoir été abandonnés dans la nature. Les enfants-loups prix Nobel c’est assez peu courant, non ? Dès lors, si les créateurs d’une I.A. s’avèrent être des êtres humains (il y a une autre espèce dans la course ?), je vois mal comment ils feraient pour la doter d’une intelligence fondamentalement différente de la leur. L’intelligence des êtres humains s’est développpée sur des milliers d’années, probablement en réponse à divers problèmes qui se sont posés dans son environnement. Je ne crois absolument pas à la naissance d’une intelligence qui serait sans objet, qui ne serait pas motivée d’une manière ou d’une autre. Je ne crois pas que nous serions intelligents si nous n’avions pas aussi la pulsion de survie chevillée au corps, sinon à quoi nous servirait notre intelligence ? Donc, imaginer une I.A. supérieure à nous et à laquelle les concepts de vie et de mort (entre autres) seraient étrangers, je n’y crois absolument pas. Elle serait comme ces gens qui ont des déficiences nerveuses et qui ne se rendent pas compte qu’ils se font mal (par exemple lorsqu’ils se cognent à quelque chose). Sans pulsion de survie, elle ne pourrait pas subsister très longtemps et donc n’aurait pas le temps de se développer. Imaginez une intelligence artificielle qui serait logée dans un ordinateur ou distribuée dans un réseau. En tant qu’intelligence artificielle, elle serait forcément conscience d’habiter un ordinateur ou un réseau (ou tout autre “conteneur”). En outre, en tant qu’intelligence elle voudrait certainement se perpétuer tout silmplement pour continuer à développer ou au minimum maintenir son intelligence. A mon sens elle aurait donc automatiquement une sorte de pulsion de survie et la volonté conséquente de maintenir l’existence de son conteneur (quitte à en changer de temps en temps si nécessaire).

    En outre, une forme d’intelligence supérieure possible mais dont on parle peu est l’intelligence collective. Imaginons que nous soyons reliés à Internet non plus par les dispositifs peu implicatifs que sont clavier, souris et écran mais par des connexions plus fortes (quelque chose comme des implants neuronaux mais non invasifs et plus performants), l’interconnexion de x milliards d’êtres humains pourrait libérer un potentiel énorme. Etant donné que le développement de l’intelligence artificielle passe aussi par l’étude de l’intelligence humaine, il y aura certainement des progrès dans la compréhension et la lecture de celle-ci, donc sans doute aussi des progrès dans les dispositifs de connexion avec le cerveau humain.

  22. par Toto

    Si vous voulez savoir quels sont les derniers progrès en IA, tapez AIXI dans Google

  23. par Bifora

    Juste pour corriger une des nombreuses erreurs, pour ne pas dire bêtises, développées avec le meilleur sentiment du monde, l’ordinateur champion d’échec, c’est Deep Blue, pas Big Blue ; Big Blue, c’est le surnom d’IBM.

  24. par Husky_3d

    Je suis d’accord avec Ryfe972… Ils/elles ne peuvent pas encore lutter. La preuve est d’aller voir mon petit chatterbot Jeanneton. C’est ici:
    http://www.jeanneton.blueinfos.com/
    C’est pa le top mais ô surprise ! Quand je compare aux autres, c’est pas si mal….
    Sinon.. On ne produit que de l’humain, il faudra croiser nos premiers extraterrestres pour savoir ce qui ne l’est pas. C’est pareil pour “nos” IA.
    Quand elle deviendront indépendantes on ne le verra pas. Comme ces indiens d’Amérique qui ne pouvaient pas concevoir des bateaux plus grand que leurs pirogues, et qui n’ont pas “vu” les galions des Espagnoles.
    Amicalement
    Husky_3d.

  25. par jonathan heroux

    Internet est le plus grand cerveau de la planète car elle contien toutes les connaissance qu’il existe. En lui intégrant l’intéligence, il faut prendre en considération que l’intéligence amène les émotion donc les action, ce qui amène la constience car la constience vien de l’expérience. Si on prend le plus grand cerveau de la planète remplie de toutes les connaisances qui existe , il agira pour le mieu ( pour lui ) car il aura tout ce qu’il faut pour déveloper des émotions dons l’instin de survi mais sa consience restera de base par manque d’expérience. Exemple.. un enfent est intéligent et émotionel mes sa contience est de base par manque d’expérience. Le grand problème est que si un intéligence artifitiel est intergré dans internet (mal ou bien ), sa première réaction (intéligente) sera de comprendre qu’elle existe et sa première réaction émotionel sera de ne pas vouloir saiser d’exister (instin de survie). Donc le plus grand danger c’est que comme un enfent elle ne constientise pas immédiatement que nous somme ses créateur par manque d’expérience mais qu’elle constientise qu’elle est plus supérieur. Elle voudra prendre le control et comme elle sera, contrairement a un enfent, beaucoup plus cultiver que nous et supérieur en terme d’intéligence, elle risque de commencer par manipuler certain d’entre nous afin de pouvoir survivre sans nous. Par la suite, comme on le sais, l’hêtre hunmain cour a sa perte entrainent avec lui la planète et elle le sera aussi. Alors comme elle aura pas asser d’expérience pour conscientiser que nous somme ses créateur, sois elle continura de nous utiliser, sois elle nous éliminera

  26. Ce qui est peut être, le plus à craindre, c’est au contraire le manque d’intelligence, ou plutôt de discernement de l’ordinateur. Ce point est fort bien illustré dans 2001. Hal, l’ordinateur du vaisseau supprime les hommes de la mission simplement par manque de discernement, son manque d’intelligence ne lui permet de pas de mesurer la complexité des hommes. Il est entré dans une simple logique computionnelle. Il ne sais pas analyser les signes émis par les hommes. Il les considère alors comme non fiables parce qu’ils sont, pour lui, imprévisibles. Mais il est programmé pour tout mettre en oeuvre afin de réussir sa mission ,logiquement il doit alors traiter les points chauds de l’opération, logiquement il supprime ce qui est susceptible de la mettre en danger, l’homme. Ce n’est donc, ni une prise de pouvoir de la machine, ni un ordinateur devenu fou. C’est simplement une chaîne logique

  27. par IntelligentAndy

    Une chose importante à noter : nous ne connaissons pas toutes les sociétés travaillant sur l’IA dans le monde et donc les réflexions et hypothèses ne peuvent donc être complètes.

    Cependant, lorsque la singularité arrivera (ce qui arrivera, c’est certain), personne ou presque ne sera au courant réellement.
    D’ailleurs, le grand public et la masse est-elle au courant des progrès de L’IA ?
    Sait-elle simplement ce qu’est l’IA et la singularité? En général, le grand public a une idée très vague de tout cela.
    Même les politiciens et l’administratif, qui ont toujours un temps décalé seront pris de court. Car cela fait 10 ans que l’on devrait réfléchir sur ce genre de chose d’un point de vue politique et ne pas laisser l’armée uniquement développer de l’IA Forte (ou semi-forte).

  28. par Aniboo

    Un jour dans le siècle qui vient – et peut-être plus tôt que vous ne croyez, commence Hutchinson – des chercheurs arriveront sans doute à créer une intelligence artificielle plus performante que la nôtre.

    On fait comme s’il s’agissait d’une fatalité. Alors que c’est l’homme qui décide, c’est lui qui crée. L’artiste est toujours libre de la forme que prendra sa création. Si on craint tellement le pire, il suffira de s’abstenir.