L’IA à la recherche de règles éthiques

Dans une tribune pour le New York Times, Oren Etzioni (@etzioni) responsable de l’Institut Allen pour l’intelligence artificielle, propose 3 principes de régulation pour l’Intelligence artificielle.

Le premier, très basique, consiste à rappeler que les IA sont soumises aux règles qui s’imposent aux humains : elles ne peuvent pas aller hors de la légalité qui s’impose à chacun. Ainsi, une voiture autonome ne peut pas passer à un feu rouge par exemple.

La seconde consiste à pointer que les systèmes d’IA doivent clairement se signaler comme tels aux humains, sans pouvoir se faire passer pour des humains par exemple (c’est l’une des pistes d’innovation que nous pointions également dans les recommandations du groupe de travail NosSystèmes de la Fing).

La troisième vise à ce que les systèmes d’IA ne puissent conserver ou divulguer d’informations confidentielles sans l’approbation explicite de cette source d’information : un robot aspirateur ne pourrait ainsi établir le plan de votre maison sans votre consentement par exemple. Pas sûr que cette dernière piste soit suffisante en soi. D’abord parce que les nouvelles fonctionnalités sont souvent présentées sous leur meilleur aspect, et la proposition de valeur du robot aspirateur Neato de cartographier votre intérieur (ou celle de Roomba) s’accompagne de fonctionnalités vous proposant par exemple de délimiter des zones interdites ou des zones nécessitant un passage plus fréquent du robot… qui permettent de très bien accepter finalement que les sociétés qui produisent ces robots accèdent aux plans de votre maison. Bref, pas sûr que s’assurer que l’IA respecte la vie privée, le consentement et nos règles sociales et légales soit suffisant, mais c’est au moins quelques bonnes pistes de départ.

Le problème, comme le faisait remarquer Will Knight dans la Technology Review, il ne se passe pas un jour sans qu’on nous parle des problèmes que génèrent les biais algorithmiques… or, les grandes entreprises qui les déploient ne semblent pas réellement intéressées à résoudre les problèmes qu’ils causent, malgré les protestations de plus en plus pressantes de l’opinion. Sophia Chen, dans Wired, dresse le même constat : la recherche en intelligence artificielle cherche désespérément son chien de garde éthique. Elle revient sur l’étude phrénologique de chercheurs américains de Stanford qui consistait à entraîner une IA à reconnaître des homosexuels depuis de simples portraits d’utilisateurs d’applications de rencontre (voire la synthèse de Usbek et Rica et l’analyse détaillée du sociologue Antonio Casilli et celle du spécialiste en histoire visuelle André Gunthert). Quand bien même les auteurs de l’étude aient cherché à s’en défendre (leur étude se voulait une alerte sur les dangers de l’IA, ont-ils tenté de se justifier après coup), reste que la controverse a à nouveau pointé le problème éthique de l’optimisation algorithmique pour elle-même.

De plus en plus de spécialistes des sciences sociales utilisent l’IA dans l’intention de résoudre les maux de la société, mais ils n’ont pas de lignes directrices éthiques claires, estime Jacob Metcalf (@undersequoias), consultant et chercheur chez Data & Society (et co-auteur des 10 règles simples pour rendre les recherches Big Data responsables dont nous avions déjà parlé). En fait, il n’y a ni normes uniformes et communes ni pratiques de contrôle transparentes. Les lignes directrices qui régissent les expériences sociales sont souvent dépassées. Si les comité d’éthique existent, leurs règles ne sont pas toujours adaptés à la science des données, estime le chercheur, qui signale que l’étude de Stanford avait d’ailleurs été validée par le conseil de l’université. Dans ces domaines, en attendant mieux, c’est donc aux chercheurs de prendre l’éthique en main… et de prévenir les préjudices potentiels.

Metcalf a récemment lancé un groupe de travail, baptisé Pervade pour une éthique des données omniprésentes, afin de mettre en place un processus éthique utilisable par les chercheurs comme par les entreprises. L’initiative IA Now, lancée par l’American Civil Liberties Union, sous la houlette des chercheuses Kate Crawford (@katecrawford) et Meredith Whittaker (@mer__edith), a pour objectif de comprendre et prévenir les biais algorithmiques.

Dans un article de recherche en décembre, le professeur de droit Jack Balkin (@jackbalkin) a proposé également des lois éthiques pour les algorithmes. Ses lois reposent sur la bonne foi des opérateurs d’algorithmes envers les utilisateurs, de se doter de devoirs, et d’éviter les nuisances, notamment liées à l’asymétrie d’information ou au fait d’être intentionnellement discriminatoire. Autant de règles qui les oblige à une certaine transparence, à des procédures équitables et à une responsabilité de fait. Le chercheur Frank Pasquale (@frankpasquale), auteur de Black Box Society, estime que ces principes sont importants mais que sans responsabilité dès la conception, ils ne suffiront pas.

Sur son blog, l’avocat et jursite Matt Scherer estime que les règles proposées par Oren Etzioni ne sont pas suffisantes et trop simples. Pour lui (voir ses propositions .pdf), tout questionnement éthique nécessite d’abord de résoudre la question de la responsabilité : « qui est responsable des problèmes que peuvent générer une IA ? », interroge-t-il pour rappeler combien la responsabilité se dilue dans les systèmes techniques tout en pointant la difficulté qu’il y a à définir une IA d’un point de vue juridique.

Autant d’interrogations qui montrent que l’éthique semble bien être en passe de devenir la nouvelle frontière de l’IA. D’ailleurs, même DeepMind de Google s’y lance, rapporte Wired. L’unité dédiée à l’intelligence artificielle de Google, dont la mission est de « résoudre l’intelligence », vient de lancer une unité DeepMind Ethics & Society (DMES) pour comprendre les impacts sociaux des technologies qu’elle créé. Les partenariats pour promouvoir les bonnes pratiques annoncés l’année dernière semblent n’avoir pas suffit.

Reste à savoir si ces façons de voir parfois l’éthique comme un processus qu’il suffirait d’appliquer pour en produire automatiquement et dans toutes les situations… arrivera à se confronter à la réalité. Une réalité, qui, comme dirait danah boyd, est souvent un peu plus compliqué que cela.

MAJ : Sur son blog, Michael Sacasas (@LMSacasas), directeur du Centre d’étude de l’éthique et de la technologie de l’Institut théologique Greystone en Pennsylvanie, rappelle que les systèmes sont des machines pour se dérober à toute responsabilité morale. « Les algorithmes, en tant qu’entités techniques, fonctionnent comme la base symbolique d’une idéologie qui facilite l’inconscience et l’évasion de responsabilité ».

À lire aussi sur internetactu.net