L’avenir de l’intelligence artificielle est-il… inévitable ? (2/2) : du réductionnisme à l’éthique de l’intelligence

L’Intelligence artificielle était également le sujet de la conférence de Laurent Alexandre à USI (Wikipédia, @dr_l_alexandre), que je n’avais jamais eu l’occasion d’écouter jusqu’alors. Connu pour être volontiers provocateur, voire péremptoire (la vidéo de son audition au Sénat en janvier lors d’une journée d’information sur l’IA en est un bon exemple), Laurent Alexandre demeure ambivalent, à la fois zélote et cassandre, alignant les enchaînements argumentatifs sans toujours grands liens les uns avec les autres, réduisant l’intelligence à quelque chose que l’on pourrait mesurer, évaluer et optimiser, et surtout ce faisant, plaçant celle des machines en concurrence directe avec nos propres formes d’intelligence.

Le réductionnisme de l’intelligence

L’ex-chirurgien et investisseur, attaque fort. « L’intelligence est un tabou ! », assène-t-il, car les « élites intellectuelles souhaitent en conserver le monopole », alors qu’« elle est l’enjeu majeur du 21e siècle ». Fort de formules à l’emporte-pièce, assez facile à tweeter, il explique d’abord que l’intelligence de demain ne se résumera pas à l’IA, mais à la réunion, la co-évolution voire la fusion de différentes intelligences, humaines et artificielles. Et ces nouveaux rapports impliquent que « l’éthique des intelligences sera l’enjeu majeur du 21e siècle ».

« Nous sommes le siècle de l’explosion des intelligences. Il y a 70 ans, le transistor arrivait, 550 millions d’années le premier neurone. Nous allons connaître la diversification des intelligences, mais ce ne sera pas un long fleuve tranquille. La vision Kurzweillienne d’une intelligence artificielle qui ne serait qu’une intelligence humaine au turbo est totalement naïve pour ne pas dire infantile. Les intelligences artificielles vont être extrêmement diversifiées, très variées. Nous allons vivre dans un monde avec une ménagerie complète d’intelligences. Nous entrons dans un engrenage neurotechnologique. L’intelligence était artisanale. On la produisait au départ en position du missionnaire ou équivalent… et 30 ans après quand ça marchait bien on sortait un ingénieur, un codeur informatique, un data scientist… et souvent ça marchait moins bien… Avec l’intelligence artificielle, nous industrialisons la fabrique de l’intelligence. Nous démultiplions la quantité d’intelligence que nous allons produire sur terre. Nous passons d’une pénurie de l’intelligence à une intelligence quasi illimitée, quasi gratuite, ubiquitaire. Une avalanche, un tsunami d’intelligence. Produit à jet continu par la fabrique de l’intelligence. »

Étrange de constater ce mélange constant et volontaire entre intelligence humaine et artificielle, alors que si l’une et l’autre sont diverses, leur production et leur amélioration n’ont rien de commun. Étrange également de constater une ambivalence permanente entre dénonciation et apologie de l’augmentation de l’intelligence.


Image : Laurent Alexandre sur la scène d’USI.

Bien évidemment, Alexandre fait à son tour référence à la loi de Moore – à se demander si une référence à la loi de Moore ne doit pas toujours être finalement un signal d’alerte comme le pointait très bien Jean-Gabriel Ganascia. Depuis le premier transistor, la puissance informatique en 70 ans a été multipliée par 93 millions de milliards de flops. C’est cette puissance associée à l’avalanche de données qui permettent d’éduquer l’IA, qui nous fait entrer dans l’âge de l’IA. Un âge qui se décompose en 4 phases, selon le spécialiste : celle de l’algorithmie traditionnelle que « beaucoup font encore en faisant croire que c’est de l’IA » pour augmenter la valeur de leurs entreprises ; l’âge du deep learning ou apprentissage profond (une technologie des années 80 réveillée par la reconnaissance d’image vers 2012) ; l’âge de l’intelligence conceptuelle, contextuelle, capable de transversalité, et capable d’analyser non pas des sujets verticaux ou étroits comme la reconnaissance d’image ou le jeu de Go, mais d’analyser des données disparates à partir jeux de données en apprentissage non supervisé. Une phase qui n’existe pas encore, hormis à l’état de travaux pour certains ingénieurs de Google, précise Alexandre. Enfin, la 4e phase, âge mythique, celle de la conscience artificielle… sur l’arrivée de laquelle les avis des experts divergent.

Pour Alexandre, cet avenir-là, est celui de l’IA forte, qu’il distingue d’une manière assez simple d’une IA faible. Une IA faible serait une IA de type Siri ou celle d’un chatbot qui marcherait… rien de plus qu’un « domestique ou un toutou », quand une IA forte est une IA capable de devenir hostile à l’espèce humaine, même si elle ne devrait pas le devenir de son propre chef. C’est simple et compréhensible, même si complètement manichéen. Cela n’explique en rien pourquoi une si sublime intelligence, qui comprendrait les implications de ce qu’elle doit optimiser, nous en voudrait autant ni pourquoi ces spéculations ont toujours besoin d’un tel scénario noir.

Comme Nick Bostrom, Laurent Alexandre passe quelques minutes à évoquer les prédictions des experts. Si pour Yann le Cun de Facebook, un scénario Terminator n’est pas envisageable avant une vingtaine d’années expliquait-il au Figaro, pour Alexandre, le moment où l’IA va passer d’un âge l’autre nous est inconnu, notamment du fait que le deep learning est une boîte noire qui ne permet pas de regarder les transformations qui vont advenir. Va-t-on passer de la phase 2 à la phase 3 prochainement ? Va-t-on connaître un nouvel hiver de l’IA ? La conscience (la phase 4) va-t-elle émerger doucement et de façon graduelle ou d’un coup ou par paliers ? Dans un monde de conjectures, toutes les conjectures semblent effectivement équivalentes ! Pour Laurent Alexandre, il faudrait s’y intéresser plus avant… pour autant qu’on juge qu’il soit nécessaire d’étudier en profondeur des conjectures.

« Parlons politique ! », lance le technoprophète comme pour nous préparer à la pente glissante qu’il se savonne lui-même. Pour créer la société de la fabrique de l’intelligence artificielle, on a créé une société conduite par les données, une société de la connaissance… sans réfléchir aux conséquences.

« Dans une société de la connaissance, les gens les plus malins, les gens qui ont le meilleur quotient intellectuel, les gens qui ont la meilleure plasticité cérébrale auront plus d’argent et plus de pouvoirs que ceux qui sont moins doués, moins plastiques et qui ne savent pas maîtriser la data. Et, élément très injuste, il y a plus d’écart dans le monde de l’intelligence que dans le monde physique. Entre une crevure comme moi et un déménageur, il y a une différence de force physique de 1 à 3. Si je prends 3 personnes comme moi, je vais pouvoir faire le boulot du déménageur. En matière d’intelligence, cela ne fonctionne pas ainsi. Vous pouvez prendre un million d’ouvriers agricoles pendant 100 ans, ils ne vont pas remplacer un savant atomiste du projet Manhattan ! Les écarts de capacité cognitive sont plus importants que les écarts de force physique dans l’espèce humaine ce qui crée des inégalités hautement problématiques, surtout quand on a laissé en jachère l’école. »

Outre les paralogismes nombreux, on constate que pour faire passer sa démonstration, Laurent Alexandre enchaîne les simplifications. Même dans une société de la connaissance, plein de choses ne dépendent pas de la seule connaissance. En fait, il réifie l’intelligence, la rendant performative par nature. L’intelligence est vue sous le seul angle de sa mesure, comme une valeur qui permet la différenciation et la compétition entre les gens. Si elle est effectivement inégalement distribuée, faut-il croire avec lui que dans un monde d’IA, seuls les humains les plus intelligents survivront ? Derrière sa démonstration, s’avancent des valeurs sur la façon dont chacun évalue son existence, qui sont ramenées ici à de seuls critères de pouvoir et de réussite sociale et financière, d’efficacité économique au détriment de tout autre principe, notamment l’égalité. L’intelligence est vue sous sa seule effectivité. Or sur son lit de mort, personne ne se dit j’aurais aimé passer plus de temps avec mon intelligence, pour paraphraser le designer James Williams.

Et Alexandre de continuer, évoquant les guerres cérébrales entre les cerveaux d’Occident et d’Asie, et celle entre les cerveaux de silicium et ceux qui les ont créés. La première guerre cérébrale a entraîné la hantise du déclassement. Les petits blancs – les blancs non diplômés – sont concurrencés par les Asiatiques et voient leurs niveaux de vie baisser ou stagner… ce qui explique la crise populiste actuelle. « Et nous entrons maintenant dans la seconde guerre de l’intelligence sans y être préparés ». Le risque est que l’IA, demain, soit « la plus grande machine à créer du populisme de tous les temps ». Effectivement, si on ne la regarde que sous l’angle de la performance, de la rationalité instrumentale, mettant chaque intelligence en concurrence avec une autre, on ne créera pas un monde apaisé. « Savoir ce que l’on fait des gens pas trop doués qui n’aiment pas beaucoup les études et qui n’aiment pas se former dans un monde où l’intelligence artificielle va être quasiment gratuite est angoissant, surtout quand nul n’a pas commencé à travailler le sujet. » Nous ne pouvons pas abandonner les travailleurs pas assez qualifiés face à l’IA faible. « Dans les années qui viennent, la formation va être un problème majeur ». Que ferons-nous des travailleurs peu qualifiés face à l’IA faible, comme celle des voitures autonomes qui conduiront à leur place ? Est-ce à dire que l’IA ne serait pas la bonne réponse au problème de société qui s’annonce ? Laurent Alexandre n’ira surtout pas jusqu’à ce terrain là !

Pour lui, « l’intelligence, c’est le pouvoir ! » La démocratie pourra-t-elle survivre à de trop grands écarts de QI ? Les écarts d’intelligence vont devenir insupportables moralement, philosophiquement et politiquement. Il faut que la question du QI cesse d’être un tabou, explique-t-il, sans même pointer toutes les limites de cette notion. Nous devons adresser ce défi, lance-t-il, vent debout. « Entre notre cerveau qui évolue très peu, l’IA et la convergence NBIC qui galopent… Nos institutions (politiques et scolaires) sclérosées… » Ce décalage va créer des frictions considérables. « La politique n’a jamais fait l’expérience de courbes exponentielles comme celles que nous connaissons aujourd’hui ». Or, elle est confrontée à une multitude de défis simultanés : le basculement de l’Atlantique à l’Asie-Pacifique ; celui du neurone au transistor ; celui de la loi du Parlement à la loi du code chère à Lawrence Lessig, c’est-à-dire la loi des plateformes qui fait que Facebook a plus de pouvoir que tous les médias réunis ou qu’Amazon a plus pouvoir que le droit commercial français ; basculement des États Nations vers les cités, comme le souligne Enrico Moretti dans son livre, New Geography of Jobs et enfin, le basculement d’une économie de subsistance à une économie démiurgique qui propose des perspectives radicales comme le projet Calico de Google qui souhaite mettre fin à la mort, ou ceux d’Elon Musk consistant à aller sur Mars ou à augmenter le cerveau.

Laurent Alexandre impose les défis qui lui siéent. Mets sur le même plan des choses qui relèvent de nombreux domaines que rien ne croise. Si le personnage est certes impressionnant, il enchaîne tellement de certitudes que son propos se dégonfle à mesure que ses affirmations se font plus vindicatives.

L’économie démiurgique souhaite repousser – tuer – toutes les limites humaines. Elle joue avec nos chromosomes, nos cellules, nos neurones… « Le transhumanisme est une machine à démanteler les impossibles ». Notre morale unique de devoirs éclate en de multiples éthiques spécialisées, très fragmentées, non coordonnées qui semblent incapables de faire face à ce qui nous arrive, assure-t-il.

Le débit de sortie de nos cerveaux, que ce soit par la parole ou l’écriture est ridicule. Même dans nos cerveaux, l’information ne circule dans nos neurones qu’à la vitesse d’un mètre par seconde, alors qu’elle circule à un peu moins de 300 000 km/s dans les micro-ordinateurs. Nous sommes confrontés à un tsunami de données, une « datanamie », que nos cerveaux ne savent pas traiter, à l’image du séquençage ADN lui-même et ses 20 000 milliards d’informations… « Il y a déjà trop de data pour nos cerveaux ». Pour autant, à mesure que la capacité de traitement en volume ou en vitesse des machines augmente, on se rend bien compte que cette efficience seule ne suffit pas à définir autre chose que la capacité de traitement sur des fonctions spécialisées et spécifiques. Que la concurrence à l’oeuvre que souligne Alexandre n’est pas de même nature, ni que demain les machines puissent se fixer leurs propres objectifs, prendre plaisir à jouer au jeu de Go, ou même à accepter l’imperfection pour faire société.

Entre l’école de l’IA et l’école traditionnelle, le décalage est horrible. « Il faut une trentaine d’années pour fabriquer un radiologue. (…) Il faudra bientôt seulement quelques heures pour fabriquer une IA plus forte que lui ». Force, faiblesse, puissance. Le monde de Laurent Alexandre est simplifié à des champs de forces. À des métriques qui s’opposent à d’autres, même si elles ne sont pas vraiment comparables. À l’âge où les tout petits arrivent à la crèche, « à l’heure où se forment plus d’un million de synapses dans les cerveaux de nos enfants, nous choisissons de les laisser être formé par des gens qui ont un CAP, alors que c’est la phase la plus cruciale de la formation du cerveau ! Il faudrait mettre des Bacs +10 dans les crèches ! Nous avons tout faux ! Nous mettons les meilleurs pour former les cerveaux de silicium. Nous mettons les moins bons, même s’ils sont bien intentionnés, pour former les neurones de nos enfants ! » Mais les moins bons par rapport à quoi ou à qui ? De quelle intelligence parle Laurent Alexandre à la fin ! De celle si ridicule qui se mesure par des problèmes logiques et de mathématiques comme le QI ? Dans cette guerre à l’intelligence est-ce à dire qu’il n’y en aurait qu’une et une seule ? Qu’il se la garde !

En roue libre, sur la grande scène d’USI, Laurent Alexandre continue… mêlant toujours sur le fil du rasoir dénonciation et émerveillement. S’il refuse notre fusion avec les machines, il s’émerveille que Musk ait lancé Neuralink pour hybrider nos cerveaux avec des puces, afin de rendre l’espèce humaine plus compétitive par rapport à l’IA (pour autant que cette solution puisse fonctionner ou améliore quelque chose, ce qui semble pour l’instant très incertain). Nous sommes là face à une « rupture civilisationnelle », clame-t-il. « Pour éteindre l’incendie de l’IA, en bons pompiers pyromanes, on nous propose de fusionner avec le feu ». De son côté, Facebook a lancé un groupe de travail sur la télépathie afin de nous permettre d’écrire par la pensée quelques 100 mots par minutes. « Nos politiques raisonnent à 15 jours, la Silicon Valley à 1000 ans », s’émerveille-t-il, comme si les forces du marché étaient les seules à innover ou que l’innovation suffise à faire politique. Pour lui, le cerveau entre dans le champ de l’internet des objets, et, à l’avenir, il n’y aura aucune différence entre un cerveau et un capteur qui communique avec votre smartphone, s’amuse-t-il, invitant l’auditoire à investir dans les startups proposant des outils de neuroprotection, un business qui devrait être très très rentable à l’avenir.

« Comment manager ce monde qui vient ? On a besoin de prospective ! On ne voit pas à 50 pixels dans le futur ! » Et Alexandre de faire semblant de renvoyer tout le monde dos à dos, ceux qui projettent leurs fantasmes sur l’IA – sans hélas s’inclure dans la boucle. Hawking et sa vision catastrophiste de l’IA : « les vieux ont toujours peur quand ils se rapprochent de la mort ». Comme la vision bien plus optimiste que nous vend la Silicon Valley. Certes, il concède qu’il y a un peu de hype sur l’IA, voire même une bulle de gens qui disent faire de l’IA sans en faire… Mais ce n’est pas si grave de piquer le pognon aux gens crédules, ironise-t-il… Il renvoie également aux oubliettes toute résonance malthusienne : en bon cornucopien, le travail va être changé, mais pas disparaître, assure-t-il en dénigrant nos peurs luddites, comme celle de Bill Gates qui vient de se ranger à l’idée d’un revenu universel… Mais la peur de notre remplacement par les machines ne tient pas des « vrais enjeux », estime-t-il tout en ne cessant de dire le contraire.

La modification du cerveau a toujours existé, souligne-t-il encore en renvoyant à nos usages des substances illicites et des psychotropes (voire le dossier de Rémi Sussan sur ce sujet)… Mais de nouveaux objets, de nouveaux capteurs, de nouveaux médicaments, de nouveaux dispositifs vont rendre « l’édition du cerveau », c’est-à-dire sa modification, plus accessible, poussant toujours plus loin une fusion entre les technologies de l’information et le cerveau. À nouveau, insiste-t-il, balançant d’une promesse à un peur, la protection du cerveau et de notre « neuro-intimité », s’annoncent comme les défis les plus cruciaux, car « notre cerveau est notre coffre-fort le plus fondamental !»

Une pique encore sur la perte de souveraineté technologique européenne qui n’a pas de data. « Il vaut mieux un mauvais algorithme avec beaucoup de data qu’un bon algorithme avec peu de data ». À défaut, peut-être pourrons-nous être plus fort sur les problèmes de régulation envisage-t-il un instant – pour autant que nous sachions très bien comprendre des enjeux qui nous échappent donc par nature, puisque nous n’avons pas de données. Pour lui, toute réflexion sur l’éthique doit intégrer la question de l’IA forte – qu’importe si elle n’est qu’une perspective assez fantaisiste aujourd’hui. Pour lui, nous devons surveiller l’IA et le cerveau. Et l’investisseur de lancer en l’air le besoin d’un « Coefficient de complémentarité avec l’IA », un outil de mesure qui permettrait d’évaluer nos développements futurs selon qu’ils seront complémentaires ou pas avec l’IA. « Ce ne sont pas les capacités cognitives qui comptent, mais de savoir quels sont les capacités cognitives qui sont complémentaires de l’IA » et sûr lesquelles l’IA aura du mal à se développer. Pas sûr que le QI, auquel se réfère tout le temps Alexandre, soit le meilleur moyen pour mesurer l’ensemble de nos apports humains… par rapport aux machines.

Kevin Kelly avait proposé le développement d’un programme Seti pour détecter la naissance d’une IA forte sur les réseaux, mais comment le faire alors que les briques à partir desquelles se développe l’IA aujourd’hui, images et contenus postés sur les réseaux sociaux, semblent bien anodines.

Pour Laurent Alexandre, l’homme semble avoir néanmoins encore un rôle à jouer, pour autant qu’il apprenne à sortir de sa zone de confort, à « magnifier ses différences ». Si nous ne comprenons pas grand-chose aux jeux de données, nous savons très bien voir les ruptures de rythmes, nous avons une intelligence transversale que les machines n’ont pas… « Il faut que nous soyons ce que l’IA ne sait pas faire », comme si c’était à la machine de définir notre humanité ! « Il faut surveiller la frontière entre l’IA et nous », mais cette frontière est floue et difficile. Si l’IA est capable de concurrencer un radiologue, elle est beaucoup moins apte à concurrencer un médecin généraliste, car ce dernier à une connaissance bien plus transversale, moins réglée et précise, explique-t-il avant de se lancer dans une liste des métiers qui seront les plus touchés par l’IA : codeurs bas de gamme, chauffeurs routiers, agents bancaires… Il semble oublier bien des métiers prestigieux précis et très réglés qui seraient tout autant menacés. Il épargne pourtant les femmes de chambre : l’IA qui saura faire nos lits ne semble pas encore là. Les métiers non manuels où il y a beaucoup de data seront automatisés très vite, ceux où il y a peu de data devraient suivre, avant ceux nécessitant des manipulations, où la robotisation prendra plus de temps… Pour lui, à nouveau, ces constats doivent impacter l’éducation et la formation pour les transformer. Passant sous silence le sens de cette transformation : pas sûr qu’une société automatisée soit à terme un avenir désirable pour grand monde. Qu’importe, la prophétie autoréalisatrice de l’IA semble un futur sans contestation possible.

Pour Sébastian Thrun, l’avenir est à la complémentarité. Mais sous une autre forme encore. L’inventeur de la Google, Car et le créateur d’Udacity, propose d’enrichir l’éducation avec les technologies et les neurosciences. Aussitôt le poil à gratter Alexandre en profite : « Comment allons-nous paramétrer les implants que nous allons mettre dans le cerveau de nos enfants ? », interroge-t-il, heureux de sa provocation. 13 % des parents seraient pourtant prêt à utiliser des techniques génétiques pour augmenter l’intelligence de leurs enfants en France, et 50 % des parents d’enfants de la Chine côtière !, souligne-t-il dans un bel effort de réductionnisme de la concurrence entre l’Asie et l’Occident. Et le revoilà à la charge contre l’école qui jusqu’à présent servait à formater des citoyens et des travailleurs et qui va devoir apprendre aux élèves à être complémentaires de l’IA et à gérer leur pouvoir démiurgique. Quand bien même se serait un objectif souhaitable, se moquer de la nullité qu’il attribue à l’école permet-il d’esquisser des solutions concrètes ? Ou l’enjeu de son propos est-il juste de produire de l’ironie en flux continue ? Et Alexandre de nous inviter à prendre garde au racisme cognitif qui risque d’advenir – amusant ça, ne le pratiquait-il pas lui-même en se moquant du niveau d’étude des éducateurs de nos enfants ? Enfin, pour lui, il semble plutôt que ce soit les machines qu’il ne faille pas ostraciser. « Ne devenons pas racistes envers le silicium », s’insurge-t-il en mettant sur le même plan machines et humains et en se moquant de l’écrivain Alain Damasio qu’il traite de philosophe d’extrême gauche, parce qu’il revendiquait le droit de détruire les machines. Alexandre, grand chantre libéral, préfère lui qu’on ne s’en prenne pas trop aux machines, de peur qu’elles décident de nous anéantir préventivement ! Une prévention qui montre bien que le scénario Terminator, des machines qui optimisent leur propre optimisation, est tout sauf un scénario d’intelligence.

Avant de chanter les louanges de la co-évolution, du zoo des intelligences, qui vont changer nos cerveaux et nous transformer… comme l’évoquait Kevin Kelly la veille. Pour Alexandre, cette confrontation avec de nouvelles formes d’intelligence va nous changer profondément. Comme le paléontologue Pascal Picq nous y invite dans son dernier livre – Qui va prendre le pouvoir ? Les grands singes, les hommes politiques ou les robots -, pour comprendre les différences à venir entre l’homme et l’IA, nous devons comprendre les différences d’intelligence entre l’homme et les animaux. Et Alexandre d’évoquer également le projet du généticien George Church de recréer l’homme de Néandertal (un projet qui en fait n’en serait absolument pas un, comme le démentait George Church lui-même). Peut-être serons-nous demain confrontés non seulement à différentes formes d’intelligences non humaines, mais également à différentes formes d’intelligences humaines. Des animaux augmentés. Toute une ménagerie infernale ou géniale… selon le point de vue que vous adopterez. Nous entrons dans l’ère de l’Homo Deus qu’évoquait Yuval Harari l’année précédente sur la scène d’USI, cette 3e religion après les chamanismes et les monothéismes, celle de l’Homme-Dieu, celle d’une espèce qui dispose d’un pouvoir quasi divin, renvoyant dos à dos transhumains et luddites, même si ce rêve de puissance se situe plus dans un camp que dans l’autre.

Aller, encore quelques piques pour la route ? « Le revenu universel de base permanent sera un interdit aussi fort que l’inceste ! » Ne me demandez pas pourquoi, je subis tout comme vous ! « Si nous acceptons qu’une part importante de la population ne bosse plus, nous allons devenir progressivement des larves. Il n’y a aucune raison que l’intelligence artificielle forte travaille pendant des millions d’années pour entretenir des mecs qui font 300 kilos en envoyant des vidéos sur Snapchat toute leur vie ! Aucune raison ! Il y a sans doute des raisons qu’elle maintienne une humanité qui lui soit complémentaire et qui la challengerait. Mais pourquoi voulez-vous qu’elle nous regarde nous bâfrer de beurre de cacahouètes ! » C’est bien mal comprendre les enjeux de la différence entre travail et emploi, ou en faire une caricature pour une dénonciation politique bien simpliste.

La productivité de la machine liée à l’IA va être extraordinaire, délire l’hypercroissantiste Laurent Alexandre, sans une seconde se poser des questions de limites ou de ressources. D’ailleurs, lancera-t-il plus loin sans guère d’explication, « la question du réchauffement climatique sera résolue d’ici 100 ans »… Comment ? Pourquoi ? Bien des scientifiques aimeraient être aussi confiants que lui. Ce doit être l’IA qui va tout régler, comme par magie certainement ! « Nous aurons besoin de faire des tâches bien plus complexes que celles que nous faisons aujourd’hui, et pas seulement de coudre des baskets bio à la main », poursuit-il. Cette hypercroissance va nous permettre de gagner le cosmos, de tuer la mort… « Les transhumanistes vont gagner et utiliseront l’intelligence pour faire des choses extraordinaires », souligne celui qui se défie d’en être.

Notre avenir est confronté à 3 grands scénarios, qu’il tisse à grands traits. Soit les « conservateurs » cassent tout. Soit on organise notre pouvoir démiurgique dans une vaste assemblée, pour créer un transhumanisme éclairé. Soit enfin, on fusionne tous les cerveaux avec la machine. Ce dernier scénario n’a pas la côte pour Laurent Alexandre, qui estime que la fusion avec la machine est un piège mortel, « le fascisme du 21e siècle ». Qu’importe, pour lui, forcément, le « futur est vertigineux ». Il est sûr que de son point de vue, il ne peut être effectivement que vertigineux ! « L’aventure humaine peut-être extraordinaire ! (…) Nous avons moins de 300 000 ans. Avant la mort de notre système solaire, nous disposons encore de 2 milliards d’années. Nous avons encore largement le temps de faire des choses extraordinaires ! »

Et Alexandre de nous inviter à garder en tête trois lignes rouges à ne pas franchir : garder le réel, c’est-à-dire conserver un corps, explique-t-il en faisant l’apologie de son tube digestif et des grands restaurants où il aime à se rendre. Garder notre autonomie. Et garder le hasard : « une société totalement prédictive, qui choisirait ses enfants, n’en serait plus une. Quand tout est écrit, il n’y a plus de vie ». On pourrait presque lui suggérer que pour être sûr de garder ces trois caractéristiques, de se retirer dans un monastère que de vanter les vertiges de l’IA. Ce n’est pourtant pas vraiment ce à quoi il nous invite en conclusion. Après avoir évoqué le paradoxe de Fermi, il estime que l’invention du transistor expliquerait la défaite d’autres civilisations. C’est pour cela que nous devons faire attention. Il termine grandiose sur le besoin de philosophes des intelligences et d’éthiciens de l’intelligence. Je propose pour ma part qu’on ne lui donne pas le poste en tout cas.

Bon, vous l’aurez compris, les propos de Laurent Alexandre m’ont particulièrement exaspéré. Cet évangélisme pseudo-prophétique qui brode sur de la science-fiction, qui se presse d’un raccourci l’autre, qui n’entend ni n’intègre les critiques… se dilue de lui-même. J’en ai certainement bien trop entendu pour en envisager seulement les probabilités. Les problèmes de l’IA aujourd’hui sont certainement plus concrets et plus terre à terre. Ils nécessitent un vrai dialogue avec la société, et convoquer des spéculations sur des formes d’IA qui n’existent pas encore et n’existeront probablement jamais, pour terrifier et mobiliser les foules relève plus de la religion que de la science. Ces invitations à embrasser une forme de futur inévitable qu’on martèle pour se persuader qu’il va advenir me cassent les pieds. En 15 ans de travail dans ce milieu, j’ai plutôt tendance à croire que la futurologie ne cesse de se tromper, et qu’une très grande modestie est de mise. On en est très très loin ici ! Pour moi, outre son libéralisme, l’erreur que commet Laurent Alexandre reste principalement de vouloir comparer notre intelligence à celle des machines, réduisant l’intelligence à quelque chose que l’on pourrait optimiser… comme les machines optimisent leur propre fonctionnement jusqu’à, très souvent, générer leur propre stupidité.

L’éthique, c’est la place du souci de soi, des autres, du monde

Par contre, on pourrait certainement proposer le poste à Cynthia Fleury (@cynthiafleury, Wikipédia, et ses chroniques dans L’Humanité), qui intervenait plus tôt dans une autre salle de la conférence USI. La philosophe et psychanalyste, auteure des Irremplaçables évoquait, elle, la place de l’éthique dans nos vies, soulignant combien elle ne peut reposer sur des valeurs de compétition, mais seulement sur des valeurs d’attention au monde, à soi et aux autres.

Pour Cynthia Fleury, l’éthique est écosystémique, c’est-à-dire qu’elle crée un langage et un monde commun… sans être dans des différenciations déontologiques. Elle permet de préserver notre état de droit. L’éthique renvoie à la mise en place d’un « éthos », d’une manière d’être comme l’expliquait Aristote. Ce n’est pas une morale, « c’est plutôt une façon de se conduire, d’articuler le plus justement possible et le plus créativement possible cette conjonction de valeurs, de principes et de pratiques ». C’est une manière de créer une cohérence avec soi-même, qui à la fois protège le sujet plus que ne le met à mal, qui demande du courage, car le courage est le premier outil pour se protéger (comme l’expliquait Cynthia Fleury dans un de ses précédents livres), car il permet d’ être agent de nos vies, non pas au sens de maîtrise, de toute puissance, mais au sens d’engagement, d’implication. C’est en s’impliquant, en donnant une qualité d’acte de présence à notre sujet que nous nous protégeons nous-mêmes et que nous protégeons notre démocratie. Comme l’amitié, Aristote conseille de ne pas laisser la vertu et l’éthique impratiquées. Elle se nourrit de notre individuation en acte, de nos actions quotidiennes. Comme le soulignait Vladimir Jankélévitch, il faut s’investir « ici et maintenant ». L’éthique est vitaliste : elle demande d’être réinvestie tout le temps. Pour l’éthique comme pour le courage, « ce qui est fait, reste à faire ». Dans nos sociétés comptables, rentables… l’éthique n’est jamais achevée, elle est toujours un recommencement, elle nécessite une réimplication constante, elle nous constitue.


Image : Cynthia Fleury sur la scène d’USI.

Contrairement à ce que l’on pense souvent, l’éthique n’est pas sectorielle estime la philosophe. « L’éthique permet de tisser un langage commun entre différentes sphères disciplinaires ». C’est un instrument commun pour se comprendre. En ce sens, c’est aussi une forme de communication, qui met en commun, qui permet de faire monde. L’acte éthique a une dimension universelle. Celui qui fait quelque chose, renvoie à ses valeurs et construit par là un monde commun. Et ce contrairement aux éthiques spécialisées qui cherchent à fractionner le monde, à le circonscrire selon ses champs disciplinaires pour le vendre « à la rationalité instrumentale ».

Pour définir l’éthique, le sociologue Max Weber a distingué l’éthique de la conviction de l’éthique de la responsabilité. L’éthique de la conviction est une éthique a priori, principielle, qui nous porte avant d’agir. Quant l’éthique de la responsabilité s’interroge sur les conséquences de nos gestes, sur la compatibilité de nos principes avec le reste monde. Chez Weber, l’éthique de la responsabilité est du côté du politique alors que l’éthique de la conviction est du côté du scientifique. Cette différenciation est aujourd’hui un peu dépassée, car l’une agit sur l’autre et inversement. « Dans nos vies comme dans nos sociétés ou nos organisations, nous avons toujours à trouver la juste dialectique entre ces deux façons de faire. »

Chez Aristote, l’éthique est une jurisprudence, ce qui signifie être prudent avec le juste. « La prudence est une sagesse pratique, ce n’est pas une vertu tiède, c’est déjà une éthique, une humilité devant l’acte. On a tous des principes, des règles, mais on doit avoir une intelligence circonstanciée, en contexte pour rendre l’acte éthique soit le plus durable possible » et c’est cette articulation entre les deux. Enfin, cela pose la question de l’équité. Aristote dans L’éthique à Nicomaque rappelle que « l’égalité se pratique entre égaux ». On a l’impression d’une tautologie, mais non ! Cela signifie que l’égalité se pratique entre ceux qui ont des situations proportionnelles de réciprocité. L’éthique renvoie donc à la question d’équité, à l’égalité des chances et des capacités.

Toutes ces définitions de l’éthique, même augmentées de celles d’auteurs plus contemporains comme Hannah Arendt, Lévinas ou Jankélévitch soulignent que l’éthique précède le sujet… Notre manière commune de vivre, dit Jankélévitch, c’est le « on ». On a un rapport indifférencié avec soi-même. Même dans notre mode machinal et psychotique de nos vies, on ne pense pas toujours quand on agit et on agit sans penser, mais notre force c’est la conjonction des deux… quand je pense, j’agis et quand j’agis c’est que j’ai pensé. La pensée et le langage ont donc un caractère performatif. Comme dit Lévinas, l’éthique précède l’ontologie. La majorité du temps, je ne sais pas vraiment qui je suis. Mais je deviens quelqu’un, je me situe comme sujet, à partir du moment où je fais un acte éthique ou courageux. Il y a alors une cristallisation du sujet, comme le dit Jankélévitch dans Le traité des vertus, il y a un cogito du courage. Ce n’est pas je décide d’être courageux et je suis, mais je suis courageux et je découvre qui je suis. « Le principe d’individuation, de l’identité, de subjectivité dérive directement de l’acte éthique ». C’est cette conjonction entre le souci des autres qui crée en nous le souci de soi et fait advenir le sujet. C’est l’une des spécificités d’Homo Sapiens. Les logiques de compétition sont importantes, mais les logiques de coopération sont déterminantes. Les vraies logiques adaptatives dans l’évolution sont des logiques créatrices de coordination pour faire advenir un nouveau réel. Ce sont elles qui ont permis l’adaptation de l’espèce. Chez Darwin comme chez Durkheim, la spécificité qui différencie les sociétés primitives des sociétés modernes est un paradoxe. « Dans les sociétés primitives, le principe d’individuation est faible. Le sujet ne se sent pas différencié. La conscience collective forte. Pourtant, son niveau d’autonomie est assez fort, alors qu’il a un sentiment d’interdépendance assez fort. À l’inverse, dans les sociétés modernes, le niveau d’interconnexion et d’interdépendance n’a jamais été aussi fort. Ce qui devrait mettre en doute notre autonomie. En fait, non. Comme le principe d’individuation est fort, le principe d’autonomie l’est tout autant. En fait, l’individuation n’est pas le contraire de l’interdépendance. L’individuation est la vision capacitaire de cette interdépendance, c’est comment on fait surgir plus de sujet à l’intérieur de moi, mais également une qualité de présence au monde qui fait que je vais pouvoir le transformer. C’est d’ailleurs une autre vision de l’égalité. On en parle toujours de façon très formelle. Mais la véritable égalité c’est le sentiment que chacun d’entre nous a le pouvoir de transformer le monde, de nous sentir égaux dans notre capacité à venir inscrire quelque chose de nous-mêmes, comme une pierre qui vient fabriquer du monde commun. Là encore, la question du courage et de l’éthique est essentielle et souligne le caractère politique et démocratique de l’éthique. »

Si Cynthia Fleury en est venue à se poser la question de la place de l’éthique, c’est bien sûr parce qu’elle est chercheuse en philosophie politique, mais également et surtout psychanalyste. Or, son expérience du divan lui a montré que ce qu’il s’y disait était très politique. Avant de parler du père, de la mère… les gens lui parlaient de leurs collègues, du PowerPoint à rendre pour le lundi matin… L’interface sociétale ne permet plus au sujet de se sentir au sujet. Sur le divan, les gens expriment leur découragement, leur aliénation. Ils cherchent à reprendre courage, à redevenir sujets, à cesser d’être pris au piège familial ou social… à échapper à l’injonction de rentabilité permanente. Ils voudraient pouvoir aller sous un arbre, mais comme cela n’a pas de valeur dans notre société, ils se détournent des besoins qu’ils ressentent pour se conformer aux injonctions sociales. Or, aller sous un arbre, c’est déterminant pour la santé. L’homme n’est pas une entité isolée en dehors du vivant. Être en connexion avec la nature est déterminant pour notre santé. Cela montre que nous devons ouvrir le cercle de l’éthique, le cercle de l’empathie, à tout le régime du vivant et comprendre que les choses ont une valeur intrinsèque et pas seulement instrumentale. « Ce qui nous permet d’accéder à notre humanité, c’est les autres ». On a besoin d’une conscience aiguë, fine, créative (« qui demande cette implication d’imagination ») de son relationnel. Plus on a une visée instrumentale de la relation, plus on la détruit, comme le soulignait Kant, qui nous rappelait « d’agir de telle sorte que ta maxime soit universelle » et également agit de telle sorte qu’autrui soit toujours considéré comme une personne plutôt que comme un instrument. La vérité de nos sociétés, hélas, repose sur des procédures, des dynamiques plus perverses, qui considèrent autrui comme un objet, comme n’ayant pas de sujet.

L’éthique est donc toujours une procédure de re-subjectivation. « Être un humain, c’est donner du sujet » à soi comme à l’autre. On a aujourd’hui des chartes sur l’éthique des robots, pour les prendre comme des sujets, car l’homme les a transformés en sujet ! Quand un ordinateur ne marche pas, on le supplie ! On le considère comme un sujet, dès qu’on est dans des situations délicates. Cette empathie artificielle souligne que se joue, malgré tout, une relation qualitative entre un sujet et un robot. L’éthique, c’est notre moyen de faire humanité.

Cela permet de comprendre que l’éthique a également une place dans la démocratie, comme l’a évoqué Cynthia Fleury dans Les pathologies de la démocratie. La base constitutive de l’état de droit, c’est la parole, le dire vrai, que Foucault appelait le « courage de la vérité », le logos, c’est-à-dire à la fois la raison – au sens large qui comprend l’imagination et pas seulement la rationalité – et au sens de parole. Le grand outil de régulation de la démocratie c’est la parole. Car par la parole, par un langage commun, on s’oblige à un certain type de relation. Le premier outil de canalisation de la violence, c’est la parole. Le premier outil d’engagement, c’est la parole. Le problème est que la société a tendance à vider la parole de sa capacité performatrice, en en faisant de la novlangue, de la langue de bois, du marketing… en utilisant des mots pour dire le contraire de ce qu’il est censé dire. D’où l’importance des sciences humaines pour décrypter le sens caché de ces novlangues pour rappeler que le langage est notre première chose commune. Le Langage est une éthique de la discussion. La démocratie est le paradigme délibératif : on pousse avec un certain type de règles la querelle du légitime et de l’illégitime. L’état de droit, c’est ce rêve et cette exigence que chacun d’entre nous puissions définir le juste et y accéder, mais cela nécessite courage et sens de l’éthique. Cette définition du juste n’est pas seulement statutaire ou institutionnelle. De nouvelles figures s’invitent dans cette définition, comme les lanceurs d’alerte ou ceux qui prônent la désobéissance civile. Les institutions sont revitalisées chaque jour pour l’implication de chacun. Ce qui nous rappelle que l’éthique est un monde ouvert où on invente une manière d’être. La démocratie est un style de vie, un milieu de vie, qui permet à un sujet de s’épanouir.

L’éthique a également place dans la question de l’environnement, de la nature. On sait par exemple que le boom des maladies chroniques est directement lié à des déficits de qualité de vie environnementale. La France a doté sa Constitution en 2004 d’une belle charte de l’environnement, rappelle la philosophe. D’une loi sur la biodiversité en 2016 qui entérine le principe de non-régression de la protection de l’environnement, qui introduit les principes de préjudice et la solidarité écologiques. Un avis du Comité consultatif national d’éthique français qui souligne le besoin d’une solidarité écologique… Pour Cynthia Fleury, la notion de biophilie, c’est se rappeler que pour accéder à notre humanité, notre conscience, nous devons faire une expérience de nature, du vivant, de cet écosystème qui nous constitue notre humanité. Cela montre que du souci de la nature, au souci des autres et de soi, il y a un grand continuum éthique qui nous constitue. Nous sommes un Homo Ethicus. Notre plus grand travail est de constituer la grande fiction du droit et de l’éthique pour préserver notre monde commun et un sujet apte à s’en soucier. C’est en cela que la philosophe parle d’Irremplaçables. Les irremplaçables, c’est nous tous, quand nous faisons l’expérience de ce que l’on doit faire. Nous ne sommes pas remplaçables sur nos engagements. Nous sommes irremplaçables, parce que personne ne peut prendre nos engagements à notre place. Nous sommes bien ici à mille lieues de l’individualisme au profit d’une notion d’individuation profondément respectueuse des différences de chacun, de ses talents, de ses manques qui le constitue, de sa finitude, de ses blessures, de ses failles… Et de nous inviter à tenter l’aventure de l’irremplaçabilité. L’individu qui se croit remplaçable, interchangeable, tombe malade, car nul ne résiste à la dissociation permanente et régulière entre ses principes et ses pratiques. Le remplaçable n’est plus apte à défendre l’état de droit, soit parce qu’il est découragé et donc désinvestit de la sphère publique, soit parce qu’il tombe dans le ressentiment dont la traduction politique consiste à mettre à mal l’état de droit. L’éthique a donc un grand objet : faire surgir un sujet. Le souci de soi et de l’état de droit sont intimement liés. « Plus on travaille à faire émerger ce souci de soi, plus je travaille à consolider l’édifice démocratique commun ».

Le grand psychiatre, Donald Winnicott a parlé du soutien primordial maternel. Ce soutien, nous pouvons l’ouvrir aux parents, à ceux qui prennent sur eux le soin de porter attention à plus vulnérable que soi. Avant que l’enfant soit apte à l’individuation, au principe de connaissance, il faut d’abord qu’il ait été soutenu, qu’il ait été l’objet d’un regard, d’une attention. Il parle d’élaboration imaginative de la mère. C’est par notre « élaboration imaginative » que nous soutenons un être et qu’il va avoir la capacité d’entrer au monde et lui donner une capacité de résilience plus forte. « En étant l’objet d’un soin, il va lui-même être dans l’envie, dans le désir, capable de porter soin à autrui, mais aussi aux idées, c’est-à-dire connaître et investir le plus pleinement possible ce monde ».

Le contraste entre les deux propos est saisissant. D’un côté on a un appel à une éthique dont on ne sait pas ce qu’elle recouvre autre qu’une rationalité instrumentale démiurgique, de l’autre, on a une mise en perspective de l’éthique, qui montre qu’elle n’est en rien une acceptation de l’inéluctable ou une moralisation de la technologie, mais un ensemble de valeurs, de principes et de pratiques qui se déploient au profit de l’égalité et de l’équité et qui souligne le caractère mortifère de la vision performative de l’intelligence. D’un côté, on semble confronté à un mythe, qui semble regarder l’intelligence uniquement comme une capacité de traitement, et qui donc est incapable de faire société. De l’autre, on a une éthique qui regarde une diversité d’habiletés et de compétences cognitives et sociales, un ensemble de processus qui met l’accent sur notre faculté d’adaptation pour chercher à faire société.

Deux mondes. Vous savez lequel a ma préférence.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Cher Hubert, tu vas toi-même plus loin que ceux sur lesquels tu t’appuies ou celui que tu critiques. Magnifique +++

    1. Merci pour ces 2 articles qui m’ont permis de revivre ces conférences. C’est clair que Laurent Alexandre ne fait pas dans la finesse et j’étais moi même sorti quelque peu ulcéré de sa conférence. D’autant plus que différentes personnes de l’auditoire avait l’air très satisfaite par cette intervention.

      Pour ma part, c’était également une première avec L.Alexandre. ON ne peut pas dire qu’on s’ennuie, tellement l’homme est énergique et assène slogans et provocations sans baisser de rythme tout au long des 45 minutes d’interventions. C’est un show.

      Le développement des conférences en touts genres me semble plutôt une bonne chose, mais il peut présenter également des risques en entrainant les intervenants à se concentrer davantage sur des effets de styles, des formule percutantes faciles à twitter plutôt qu’un peu de rigueur sur le plan de la présentation des idées.
      Je préfère également la vision présentée par Cynthia Fleury même, si le chemin présenté est certainement plus ardu.

  2. Merci pour ce long billet très riche.
    Je suis toujours fasciné par la capacité de l’être humain à discourir pendant des heures sur des notions qui n’ont pas de définition précise ou consensuelle et sans prendre la peine de les définir en introduction. Commençons par définir l’intelligence avant de discourir sur ce qu’est l’intelligence artificielle !
    Cela permettrait sans doute d’y voir beaucoup plus clair et éviterait de perdre son temps avec des propos fumeux au sens propre comme au figuré.

  3. Entièrement d’accord avec Olivier, Hubert. En tout cas sur Laurent Alexandre que tu es le premier à avoir déshabillé avec autant de force. Sur Cynthia Fleury, je dirais que tu traduis fort bien la puissance et la justesse de sa pensée, à ta façon (pas au-dessus, à côté, ou aux côtés d’elle).

  4. Cet article est une litanie de critiques, sans proposition alternative réaliste. De surcroît, l’auteur clairement n’a rien compris à l’IA et ses enjeux, et notamment la course incroyable entre états (notamment et surtout la Chine et les US), qui est en train de se mettre en place, face à une Europe qui en comparaison est très passive.

    L’enjeu n’est pas de savoir si l’IA doit se situer dans un cadre éthique ou non, car de toutes façons l’IA arrive, mais plutôt qui va remporter cette course. En effet, tant la Chine que les US l’ont bien compris, l’état qui fera des avancées déterminantes en la matière détiendra un avantage extraordinaire, peut être même définitif, sur les autres puissances.

    Pendant que l’auteur passe son temps à critiquer de manière absolue, ce qui discrédite son discours, Laurent Alexandre, les US et la Chine déversent quant à eux chaque année des dizaines de milliards dans le domaine de l’IA et s’apprêtent à passer à des investissements de centaines et centaines de milliards à moyen terme.

    Après tout, peu importe que des personnalités de premier plan comme les directeurs de l’IA chez Facebook ou Google ou Intel prévoient des avancées hallucinantes en matière d’IA au plus tard à partir des années 2029 (pour Intel en particulier), car Hubert Guillaud, lui pense le contraire !

    Après tout qui sont les cadres dirigeants des plus grandes sociétés technologiques en regard d’Hubert Guillaud ?

    Continuons donc à nous brasser l’esprit avec des histoires d’éthique et laissons les vrais problèmes au papa américain et à nos amis chinois. Après tout, l’enjeu n’est simplement que d’être dominé, et ce peut être définitivement.