L’Union européenne vient de publier un ensemble de recommandations et de règles (voir le rapport) pour développer des applications d’intelligence artificielle éthiques et responsables. Ce travail réalisé par un groupe d’une cinquantaine d’experts se révèle assez convenu, rappelant de grands principes éthiques pour orienter le secteur. Comme ironise The Verge, la plupart des propositions sont finalement un peu abstraites et en restent à des principes un peu flous et généraux.
Le philosophe et éthicien Allemand Thomas Metzinger (@thomasmetzinger) a été l’un des philosophes qui a participé à cette commission. Dans le journal allemand Der Tagesspiegel, il publie une tribune où il s’interroge pour savoir s’il n’a finalement pas participé à l’éthique washing ambiant, c’est-à-dire si le travail qu’il a accompli ne justifie pas une forme d’éthique qui n’en est pas vraiment ! D’emblée, il concède : « Le résultat est un compromis dont je ne suis pas fier, mais qui est néanmoins le meilleur au monde en la matière. » Effectivement, les États-Unis ou la Chine, leaders en matière d’IA, n’ont pas publié de lignes directrices pour orienter la R&D et le développement en matière d’IA. Ces premiers principes, bien qu’imparfaits, devraient certainement permettre d’inspirer la production future de principes de conformités légaux sur ces questions et certainement donner lieu à la production de cadres réglementaires. Mais, nous n’en sommes pas là ! Et comme le souligne le philosophe, pour l’instant, les recommandations « sont tièdes, à courte vue et délibérément vagues. Elles ignorent les risques à long terme, dissimulent par la rhétorique des problèmes difficiles (comme « l’explicabilité »), violent les principes élémentaires de la rationalité et prétendent savoir des choses que personne ne sait vraiment ».
Le philosophe explique par exemple que dans ce groupe de travail, composé de 52 personnes, seule une poignée était spécialistes de l’éthique (l’essentiel rassemblait des personnalités politiques, de la société civile, quelques chercheurs et surtout, majoritairement, des représentants de l’industrie). Trouver des compromis a donc été difficile. Il explique par exemple qu’il a travaillé pour sa part à définir des lignes rouges, c’est-à-dire des principes éthiques « non négociables », des secteurs où l’Europe devrait se refuser d’aller comme les armes létales autonomes ou l’évaluation des citoyens par l’État. Lors des discussions sur la rédaction des recommandations, l’ex-président de Nokia, le sympathique Pekka Ala-Pietilä, lui a demandé gentiment de supprimer la mention « non négociable »… De discussion en discussion sur la forme même du rapport, de nombreux représentants de l’industrie défendant une vision positive ont insisté avec véhémence pour supprimer les références aux lignes rouges. Le document final évoque seulement des préoccupations critiques, diluées dans un ensemble de principes généraux.
La réponse éthique en question
Pour Thomas Metzinger, c’est là un exemple très concret de « blanchiment éthique ». « L’industrie organise et entretient des débats éthiques pour gagner du temps – distraire le public et empêcher ou du moins retarder l’efficacité de la réglementation et de l’élaboration des politiques. Les politiciens aiment également mettre en place des comités d’éthique, car cela leur donne un plan d’action quand, étant donné la complexité des problèmes, ils ne savent tout simplement pas quoi faire – et cela n’est qu’humain. »
Dans le même temps, l’industrie elle-même construit des « machines à laver éthiques », pour montrer qu’elle se préoccupe de ces questions. Facebook a investi dans un Institut d’éthique en IA – en finançant un institut destiné à former des éthiciens de l’IA. Google, après avoir annoncé quelques grands principes, a lancé un comité d’éthique – qui a explosé en vol.
Pour le philosophe, le risque que se développent partout des comités Théodule, des labels autoréférentiels, des principes éthiques conceptuels un peu déconnectés des réalités opérationnelles est réel. Pourtant, constate le philosophe, face à la Chine ou aux États-Unis, seule l’Europe est à même « d’assumer le fardeau » de mettre en place les principes d’une responsabilité. Malgré leurs limites, ces principes sont pour l’instant les meilleurs que nous ayons pour avancer. C’est à la recherche et à la société civile de reprendre la main sur le processus pour extraire le débat des seules mains de l’industrie. « La fenêtre d’opportunité à l’intérieur de laquelle nous pouvons au moins partiellement contrôler l’avenir de l’intelligence artificielle et défendre efficacement les fondements philosophiques et éthiques de la culture européenne se fermera dans quelques années », prévient-il, alarmiste.
Un récent article d’Associated Press se faisait également critique de la mode de l’éthique dans le domaine de l’IA et finalement du peu d’empressement des grandes entreprises à se doter de cadres clairs en la matière. Créer des comités d’éthique sans cadres pour rendre opérationnelle la responsabilité, ne mènera pas très loin, estime le chercheur autrichien Ben Wagner (@benwagne_r), directeur du Privacy Lab de l’université de Vienne. Pour lui, là encore, ces comités d’éthiques relèvent de l’éthique washing, un effort superficiel qui vise seulement à rassurer le public comme les législateurs et retarder les régulations. Bien sûr, le fait que nombre d’entreprises étudient la question est intéressant, mais pour l’instant elles ont toutes latitudes pour décider quels principes intégrer ou non à leurs décisions commerciales. Pour l’instant, les employés de ces grandes entreprises sont ceux qui ont eu le plus de pouvoir sur ces questions : ce sont des critiques internes qui ont contesté le comité d’éthique de Google, ce sont des critiques internes qui ont poussé l’entreprise à annuler un contrat de surveillance signé avec le Pentagone pour analyser des images de drones.
Dans un article sur le sujet (.pdf), Ben Wagner s’interrogeait d’ailleurs sur comment s’assurer que l’éthique ne soit pas dévoyée. Pour cela, il souligne le besoin d’une participation externe qui soit régulière et qui implique toutes les parties prenantes. Il pointe l’importance pour les entreprises de se doter d’un mécanisme de contrôle externe et indépendant ; de s’assurer de processus de décisions transparents qui expliquent et motivent les décisions prises ; de développer une liste stable de normes, de valeurs et de droits justifiés ; de s’assurer que la question éthique ne se limite pas ni ne se substitue à une question de respect des droits fondamentaux ou des droits de l’homme ; de définir clairement le lien entre les engagements pris et les cadres juridiques ou réglementaires existants, notamment lorsque les deux sont en conflits.
Pour Wagner, quand l’éthique est vue comme une alternative à la régulation ou un substitut aux droits fondamentaux, alors l’éthique, le droit comme la technologie en souffrent. Si on comprend bien les propos de Wagner, les dispositions éthiques ne doivent pas se limiter à des principes généraux, mais se transformer en dispositions concrètes pour protéger les valeurs de la société, à l’image de ce que propose le RGPD dans le domaine de la vie privée pour les citoyens européens.
Pour la designer Molly Wright Steenson à la conférence Interaction Design en février, on recense des dizaines de boîtes à outils, de principes, de codes de conduites, de cadres, de manifestes et de serments… éthiques (cf. « Concrètement, comment rendre les algorithmes responsables et équitables ?« ). Mais l’éthique ne consiste pas seulement à appliquer la bonne feuille de route sur un produit, ou à coller des principes sur des pratiques. Dans sa présentation, Molly Wright Steenson pointait d’ailleurs un article du magazine Forbes de 2006, qui montrait que la mode du responsable de l’éthique n’est pas si nouvelle. Mais qu’en 2006 comme en 2019, les principes et les comités ne peuvent rien faire si la question n’est pas traitée globalement par l’entreprise.
La faiblesse fondamentale de cette explosion de comités éthiques dans les entreprises de technologies, estime la spécialiste de l’IA Rumman Chowdhury (@ruchowdh) d’Accenture, repose sur leur manque de transparence. Nombre d’institutions dans le domaine de la recherche ou de la santé ont depuis longtemps mis en place des comités d’éthiques qui défendent l’intérêt du public par rapport aux institutions qui les ont mis en place. Dans le cas des grandes entreprises de la technologie cependant, les intérêts que représentent ces comités ne sont pas aussi clairs, explique The Verge. Quelle est la capacité de surveillance des comités d’éthiques consultatifs s’ils ne peuvent ni apporter des modifications aux fonctionnements des structures qu’ils surveillent ni s’adresser au public ? Google n’a créé sa charte éthique qu’après que ses employés se soient opposés à son contrat avec le Pentagone. IBM a lancé également des initiatives éthiques, mais cela n’a pas empêché l’entreprise, comme l’a révélé The Intercept, de travailler avec les forces de police des Philippines à des outils de surveillance. « L’intérêt des entreprises pour des algorithmes éthiques jusqu’à présent ne les a pas arrêtés à accompagner des causes profondément non éthiques ». En attendant, rappelle l’article de The Verge, la législation a encore des atouts. Et les dispositifs légaux existants peuvent tout à fait être mobilisés pour contester des décisions algorithmiques, à l’image du ministère du Logement américain qui vient de poursuivre Facebook pour discrimination du fait que son système de ciblage publicitaire permette à des annonceurs immobiliers d’exclure de leurs annonces immobilières certaines personnes selon leur couleur de peau, leur religion ou leur lieu d’habitation (pour bien comprendre les limites du ciblage publicitaire, allez lire l’excellent article d’Olivier Ertzscheid sur la question).
Le réveil législatif et judiciaire ?
La dernière livraison de l’impeccable lettre d’information sur les algorithmes de la Technology Review revenait sur le projet de loi du Sénat américain (.pdf) (l’Algorithmic Accountability Act) pour réguler les algorithmes en imposant aux grandes entreprises une obligation à évaluer la partialité de leurs systèmes et en conférant, si elle était adoptée, à la Commission fédérale du commerce américaine de nouvelles possibilités de poursuite et de condamnation des entreprises. La loi vise à obliger les grandes entreprises algorithmiques (les entreprises qui gagnent plus de 50 millions de dollars par an ou dont les systèmes impactent plus d’un million d’utilisateurs ou de dispositifs, ainsi que les courtiers de données) à évaluer les biais de leurs systèmes, via des audits ou des rapports d’impacts rapporte The Verge. D’autres sénateurs américains ont proposé également une loi spécifique à la reconnaissance faciale imposant un consentement explicite au partage de données liées à la reconnaissance faciale. Pour Mutale Nkonde (@mutalenkonde) chercheuse au Data & Society Institute et impliquée dans le développement de ces processus réglementaires, l’Algorithmic Accountability Act s’inscrit dans une stratégie plus vaste visant à mettre en place une surveillance réglementaire de tous les processus et produits de l’IA à l’avenir, annonçant un futur projet de loi consacré à la propagation de la désinformation et un autre pour interdire les pratiques visant à manipuler les consommateurs pour les faire renoncer à leurs données. Le problème, souligne la newsletter de la Technology Review, c’est que ces technologies sont transverses : « La reconnaissance de visage est utilisée pour une foule de choses différentes, il sera donc difficile de dire : « Ce sont les règles de la reconnaissance de visage ». » Pour Mutale Nkonde il est probable que ce mouvement réglementaire aboutira à la création d’un nouveau bureau ou d’une nouvelle agence spécifiquement axée sur les technologies de pointe.
Reste que l’Algorithmic Accountability Act n’est qu’un projet de loi. Rien n’assure qu’il soit adopté. Il est pour l’instant porté par des démocrates alors que le Sénat est sous contrôle républicain. L’autre difficulté, c’est que ces questions demeurent très mal maîtrisées par l’ensemble des élus américains.
D’autres initiatives sont également en cours. La sénatrice américaine Elizabeth Warren, candidate à l’investiture démocrate pour les élections présidentielles de 2020 a publié sur Medium un appel à démanteler les Gafams. Comme le rapporte Korii, elle a également déposé un projet de loi qui rendrait juridiquement responsables les plateformes de toute fuite de données personnelles (un problème devenu endémique). Elle a également proposé que les Gafams soient taxés non pas sur les revenus déclarés au fisc, mais sur ceux qu’ils présentent à leurs investisseurs et actionnaires.
Pour réguler les systèmes automatisés, le paravent de l’éthique pourrait donc bien rapidement faire long feu face aux promesses plus immédiates des évolutions réglementaires et des poursuites judiciaires.
Hubert Guillaud
MAJ du 10/05/2019 : Dans une tribune pour le New York Times, les professeurs de droit Margot Kaminski (@margotkaminski) et Andrew Selbst (@aselbst) reviennent sur l’Algorithmic Accountability Act en proposant de l’amender. Tout d’abord, le recours à la FTC comme autorité d’évaluation ne suffira pas. Le projet de loi, en l’état, repose trop sur des sanctions déjà prévues sur la législation en matière de protection des consommateurs ou de discrimination, qui ne couvrent pas toutes les formes de biais algorithmiques qui peuvent exister. Et ce, sans compter que l’agence américaine a déjà du mal à faire appliquer les règlements relatifs au respect de la vie privée… Ils soulignent également que le projet de loi ne donne pas au public l’occasion de donner son avis. Aux Etats-Unis, l’évaluation de l’impact sur l’environnement permet pourtant au public de formuler des observations. Ce n’est pas le cas de cette proposition de loi sur les algorithmes. Pour les deux juristes, les entreprises ne doivent pas pouvoir échapper aux commentaires du public : les auditeurs ne peuvent être seulement des experts assermentés, il faut aussi y associer des communautés et les représentants des intérêts publics. Enfin, le projet de loi ne prévoit pas en l’état d’imposer une certaine transparence sur les résultats des évaluations d’impact. Sans prôner une transparence totale de ces audits, les experts estiment qu’à minima, la FTC devrait produire un rapport annuel sur les enseignements tirés des études d’impact réalisées !