Adopt AI, think later : la méthode Coué au secours de l’intelligence artificielle

De même que le capitalisme, aujourd’hui, ne persiste et ne prolifère plus en « convaincant » quiconque de son bien fondé ni de ses vertus, mais en oeuvrant à la dissolution de toutes les formes collectives qui pourraient l’entraver [1], la gouvernementalité algorithmique, bien que soutenue parfois par des discours ressuscitant l’idée de progrès, ne se présente plus tant comme une alternative aux autres formes de gouvernement que comme leur destin inéluctable.

Dans les discours et la littérature grise transpirant de la bureaucratie européenne – comme le tout récent Livre blanc de la Commission Européenne : Intelligence artificielle Une approche européenne axée sur l’excellence et la confiance (.pdf), rendu public le 19 février 2020 – alors que les avantages attendus sont décrits dans les termes les plus évasifs et généraux, et abstraction faite de toute référence à la variété des contextes sociaux, culturels, économiques, écologiques, c’est-à-dire à la diversité des pratiques concernées et voués à accueillir l’IA à bras ouverts, « Adopt AI » apparaît explicitement comme mot d’ordre ou injonction tout à fait générale adressée aux gouvernements, aux entreprises, et aux citoyens-consommateurs dont la confiance littéralement aveugle est requise, étant entendu que le respect de leurs droits et libertés fondamentaux (ne) vaut (qu’) en tant que moyen de l’obtenir et comme supplément d’âme supposé renforcer l’attractivité de l’IA « made in Europe ». Il n’est à aucun endroit question que les citoyens aient à se prononcer quant à la désirabilité d’un monde (dis-)social colonisé/géré par l’IA : ils sont à cet égard, absolument expropriés de tout espace-temps délibératif. Tout imaginaire alternatif est a priori exclu. There is no alternative… apparemment !

Aussi anecdotiques que soient les apports de ce document à la masse préexistante et proliférante de rapports tentant d’établir les principes éthiques et juridiques devant garantir le développement d’« intelligences artificielles éthiques », il est intéressant dans la mesure non seulement où il témoigne de la visée hégémonique (no alternative) du capitalisme numérique mais mais aussi en ce qu’il fournit quelques indices relatifs à ce que pourrait encore signifier « gouverner » et « instituer » dans un monde de données massives peuplé d’intelligences artificielles, et dans lequel le vivant, humain et non humain, n’interviendrait plus que transcrit sous forme d’agrégats de données numériques exploitables en masse à l’échelle industrielle.

« Gouverner » s’amenuise jusqu’à ne plus consister qu’à « accompagner l’innovation », c’est-à-dire à ménager au déploiement du capitalisme numérique les boulevards de l’acceptabilité sociale en encourageant le développement d’algorithmes « Fair, Accountable and Transparent » (« Équitable, responsable et transparent »), en assurant autant que possible la protection des données personnelles « by design », en gardant « l’humain dans la boucle » lorsque les dispositifs algorithmiques interviennent dans les processus décisionnels, etc. Ce « design for good », aussi bien intentionné soit-il, ne fait que renforcer l’idéologie technique – dépolitisante – sous jacente, en vertu de laquelle, notamment, 1) à condition d’avoir des données numériques en quantités massives, celles-ci suffisent et dispensent d’avoir à interroger/rencontrer/faire comparaître le monde et ses habitants pour en modéliser les événements et comportements ; 2) l’abolition du « point-de-vue » humain situé au profit d’une perspective algorithmique émancipée du jougs de la représentation dans un espace purement métrique organisé et réorganisé en « temps réel » suivant des séries de coordonnées indifférentes dont le point zéro n’est plus l’être humain… garantit un surcroît de « rationalité».

Je ne m’appesantis pas ici sur cette idéologie technique, que j’ai détaillée dans d’autres écrits. Gardons seulement ici la réticence suivante : les arguments fondés sur l’objectivité [2] ne sont-ils pas plutôt des injonctions d’obéissance aveugle, d’exclusion de toute forme de critique ou de problématisation, que l’ouverture d’une évaluation équitable, juste, des personnes et des situations ? L’objectivité, lorsqu’elle dispense de la discussion, dispense du procès, des processus d’individuation. Les opérations de datamining et de profilage n’apparaissent objectives et égalitaires que dans la mesure où l’on ignore qu’elles sont aveugles et sourdes à tout ce qui, du monde – les idiosyncrasies individuelles, les raisons des actions – ne se laisse pas traduire sous une forme numérique. « Etre objectif, c’est aspirer à un savoir qui ne garde aucune trace de celui qui sait, un savoir vierge, débarrassé des préjugés et des acquis, des fantasmes et des jugements, des attentes et des efforts. L’objectivité est une vision aveugle, un regard sans inférence, sans interprétation, sans intelligence. » [3]

Dès lors que l’on prend acte de leurs angles morts (non, le monde n’est pas réductible aux phéromones numériques qui prolifèrent à son propos ; non, l’objectivité machinique ne garantit aucunement la juste mesure, mais autorise, si l’on s’en « contente », l’injusticiable démesure), il devient possible de comprendre en quoi les modélisations produites par les IA, automatiques et « objectives », en ce qu’elles construisent une « réalité » en présupposant toutes choses égales par ailleurs, peuvent n’être pas « justes » sans pour autant cesser d’être objectives et impartiales. Pourtant, dans la gouvernementalité algorithmique, l’objectivité semble dispenser de toute opération de justification, si par justification l’on entend « l’activité qui consiste à chercher les raisons d’une action ou des raisons pour soutenir une décision, une opinion ou autre expression symbolique, sur le motif qu’elle est juste ou raisonnable. » [4]

Le « dataïsme » s’atteste notamment par ce présupposé, passant pour évidence incontestable, que « la croissance économique et le bien-être sociétal actuels et futurs de l’Europe reposent de plus en plus sur la valeur créée par les données », c’est-à-dire (l’affaire est entendue) que ce sont les données numériques, et non les personnes, qui produisent la valeur. Le « dataïsme » fait fonction non pas d’institution imaginaire de la société [5], mais d’opérateur de dés-institution et d’expropriation de l’imaginaire social [6] pour et au profit paradoxal non pas de la société, mais d’une bureaucratie de plus en plus éloignée de la société et percevant elle-même cet éloignement comme une émancipation axiologique, garantie de sa « neutralité ». Mais cet éloignement de la société est aussi éloignement du monde et de la matérialité, des agencements collectifs consistants, des formes de vie territorialisées, des pratiques concrètes, journalières, des savoir faire et des savoir vivre des personnes et des collectivités.

Ce déni ou ce désintérêt pour le monde matériel, organique, social, au profit d’une forme de mystique numérique s’atteste également chaque fois que, pour masquer les désinvestissements massifs dans l’éducation ou dans la justice, par exemple, plutôt que de revaloriser les professions, de réfléchir à la pédagogie ou aux théories de la justice, de donner aux enseignants et aux magistrats, entre autres, les moyens de faire correctement leur travail, les propositions et initiatives affluent pour accélérer la transition numérique de ces secteurs, sans aucune problématisation (c’est-à-dire, suivant l’acception que Michel Foucault donnait à ce mot de « problématisation », l’instruction des raisons pour lesquelles certaines choses – et pas d’autres – font « problème », des manières suivant lesquelles elles font problème, dans une société donnée). On a des « solutions logicielles » mais on n’a pas réfléchi à la nature des problèmes auxquelles ces « solutions » sont censées répondre. On dit seulement : Adopt AI ! Adopt first, think later…or never.

Je tiens à préciser que la cible de ma critique n’est pas l’IA, les algorithmes, ni ceux qui les fabriquent. Les nouvelles générations de réseaux de neurones, les algorithmes de deep learning,… sont des outils extrêmement intéressants, très puissants, et qui nous sont probablement indispensables pour faire face aux défis planétaires auxquels nous sommes confrontés [7]. Ces outils peuvent contribuer à nous rendre plus « intelligents », mieux capables de percevoir les phénomènes dans leur complexité, dans leurs interdépendances, et de percevoir aussi les effets passés, présents, et futurs de nos propres actions sur le monde dans la perspective d’une interaction « réussie » entre les humains et les machines, ils peuvent nous faire entrevoir des pistes de solutions à des problèmes nous apparaissant insolubles depuis la perspective humaine, située, dans laquelle chacun de nous se trouve enfermé. Mais ces machines peuvent aussi nous rendre plus « stupides », dans l’hypothèse où l’adoption de l’IA nous servirait de prétexte non pour augmenter notre intelligence des situations mais pour nous dispenser de penser et de (nous) gouverner nous-mêmes. Suivant la mission (la fonction objective) qui leur est assignée et le contexte dans lequel on les utilise, les « IAs » peuvent contribuer à nous émanciper de nos propres automatismes, de nos propres conditionnements et préjugés, ou, au contraire, nous enfermer dans des répétitions sans fin, dans des boucles n’optimisant que leur propre reproduction. Ce qui fait problème, ce ne sont pas les techniques mais la nouvelle religion de la data dont le livre blanc se fait prosélyte à travers le mot d’ordre – « Adopt AI » – prenant fait et cause pour une soi-disant « disruption » dans un déni total des enjeux politiques, c’est-à-dire de la matérialité des situations, en ce compris les enjeux climatique est écologiques [8].

« La Commission européenne « rêve-t-elle de moutons électriques » [9] ? Tel eût pu être le titre de ce bref billet d’humeur. Comme le rappelait Gilles Deleuze commentant l’œuvre cinématographique de Minnelli : « Le rêve concerne avant tout ceux qui ne rêvent pas. Le rêve des gens est toujours un rêve dévorant qui risque de nous engloutir. Le rêve est une terrible volonté de puissance. » [10] Pour autant, les institutions ne récupèreront pas une once de crédit en tentant d’actualiser le fantasme cybernétique d’une société automatique. Le discrédit dont souffrent aujourd’hui une bonne partie des institutions publiques ne sera pas compensé par une course à la dé-sémiotisation de la société – par le « remplacement » de la représentation, du projet, de la décision par la modélisation algorithmique par des IA capables seulement de métaboliser de purs signaux asignifiants à des fins d’optimisation ou de préemption. Comme l’écrivait Pierre Legendre, « l’institutionnalité suppose la parole » [11], c’est-à-dire cela même dont l’injonction « Adopt AI » prétend nous dispenser. Hors tout cela, « le peuple manque ». Il manque doublement : sans voix pour faire entendre d’autres projets d’advenir, et livré au « rêve de moutons électriques » d’une bureaucratie européenne sans monde, ou, à tout le moins, évoluant dans un monde sans nous. Ce rêve d’un monde dépeuplé, d’une planète propre et morte, inaltérable, impassible, sans organisme qui vive, dans lequel des IAs comptent des cailloux, les rangeant et les re-rangeant en fonction de « patterns » dont elles ont le secret, n’est pas le nôtre. C’est ailleurs, sur Terre, que nous pouvons faire monde avec les vivants.

Antoinette Rouvroy

Juriste et philosophe du droit aux Facultés de Namur et chercheuse au FNRS, Antoinette Rouvroy (@arouvroy) est notamment l’auteure, avec le philosophe Thomas Berns du concept de gouvernementalité algorithmique, qui vise à expliciter la façon dont les algorithmes imposent une gestion des sociétés sur la base des données qui s’échappent des individus.

———
Notes
1.Mark Fisher, Capitalist Realism. Is There No Alternatives ?, Zero Books, 2009 ; Le réalisme capitaliste : n’y a-t-il aucune alternative ?, éditions Entremonde, 2018.
2.Pour une description des « formes » d’objectivité ontologique, mécanique ou a-perspective, voir Lorraine Daston dans « Objectivity and the escape from perspective », Social Studies of Science, Vol. 22, 1992, p. 597-618.
3.Lorraine Daston et Peter Galison, Objectivité, traduit par Sophie Renaut et Hélène Quiniou, Les presses du réel, 2012, p.25.
4.Jerzy Wroblewski, « Définition de la justification », Dictionnaire encyclopédique de théorie et de sociologie du droit, A.-J. Arnaud (dir.), Paris, LGDJ, 2ème édition, 1993, p.332.
5.Cornélius Castoriadis, L’institution imaginaire de la société, Seuil, 1975.
6.Frédéric Neyrat, « Les luttes de l’imaginaire », in Marie-Claire Caloz-Tschopp, dir., Penser pour résister. Vol.4. Colère, courage et création politique, 2011.
7.Voir par exemple David Rolnick et al. « Tackling Climate Change with Machine Learning », November 5, 2019, https://arxiv.org/pdf/1906.05433.pdf. « Climate change is one of the greatest challenges facing humanity, and we, as machine learning experts, may wonder how we can help. Here we describe how machine learning can be a powerful tool in reducing greenhouse gas emissions and helping society adapt to a changing climate. From smart grids to disaster management, we identify high impact problems where existing gaps can be filled by machine learning, in collaboration with other fields. Our recommendations encompass exciting research questions as well as promising business opportunities. We call on the machine learning community to join the global effort against climate change.»
8.Frédéric Bordage, GreenIT.fr, Etude : Empreinte environnementale du numérique mondial, 2010-2025, octobre 2019.
9.Dick, Philip K. Dick, Do Androids Dream of Electric Sheeps ?, Doubleday, 1968 ; Les androïdes rêvent-ils de moutons électriques ?, Champs Libre, 1976.
10.Gilles Deleuze, Qu’est-ce que l’acte de création ? Conférence donnée dans le cadre des mardis de la fondation Femis, le 17 mai 1987.
11.Pierre Legendre, La société comme Texte. Linéaments d’une anthropologie dogmatique, Fayard, 2001.

À lire aussi sur internetactu.net

0 commentaires

  1. Wow merci pour cet article fracassant ! Il est encore temps de débattre et se poser les bonnes questions concernant l’IA et l’avenir de nos démocraties.

  2. Effectivement, il ne faut pas faire de l’IA un totem, ni une panacée. C’est un outil puissant qui doit juste servir à nous rendre plus intelligent et à mieux gouverner, pas à nous gouverner…