L’AI Now Institute (@ainowinstitute) vient de rendre son rapport 2018 (.pdf), le 3e depuis la création de cet institut de recherche interdisciplinaire dédié à la compréhension des implications sociales de technologies de l’intelligence artificielle, fondé par Kate Crawford et Meredith Whittaker, affilié à l’Université de New York et financé notamment par Google ou Microsoft.

Au menu des recommandations du rapport, on trouve l’idée de renforcer le rôle des agences de l’État, par secteur (santé, éducation, justice…), pour qu’elles puissent auditer, contrôler, réguler et normer les technologies d’IA utilisées. Un appel à régulation forte des technologies de reconnaissance faciale et d’analyse de sentiments, incluant un contrôle strict, des limitations fortes et une transparence forte des entreprises les utilisant. L’AI Now Institute invite à trouver de nouvelles formes de gouvernance internes aux structures qui développent des outils depuis l’IA. Les questions éthiques ne s’imposeront pas sans mise en place de structures de responsabilités internes du type représentation des employés aux Conseils d’administration, comités d’experts multidisciplinaires, etc. Les entreprises qui créent des systèmes automatisés pour les acteurs publics devraient renoncer au secret commercial afin que leurs solutions soient parfaitement auditables et transparentes : et les établissements publics devraient obliger leurs prestataires privés à cette clause. Les entreprises de technologies doivent apporter des protections aux lanceurs d’alertes et objecteurs de conscience en leur sein et le secteur public aux organisations et employés privés qui rendent publiques les défaillances des systèmes.

Les recommandations soulignent également le besoin de réguler les promesses marketing des produits et services qui utilisent de l’IA. Elles pointent également le besoin d’assurer une véritable diversité des recrutements dans ces secteurs. Elles soulignent également que les entreprises déploient une information sur toute la chaîne logistique qui entre en compte dans leurs systèmes : des données utilisées pour l’entraînement aux modèles. Elles insistent sur le besoin de développer des mécanismes de recours pour les gens soumis à ces systèmes qui sont les plus exposés et souvent le moins à même d’en comprendre et d’en contester les résultats, notamment via des aides financières plus importantes à des associations de défense des consommateurs, des libertés civiles ou à des syndicats. Enfin, elles appellent à ouvrir la porte de la multidisciplinarité : « l’application croissante des systèmes d’IA à des domaines sociaux implique d’élargir son orientation disciplinaire » au-delà des seules sciences de l’ingénieur.

Notons encore que sur la question de la reconnaissance faciale, Microsoft vient d’annoncer vouloir aller un peu plus loin. C’est Brad Smith (@bradsmi), le président et responsable des affaires juridiques de Microsoft, l’une des entreprises leader sur ces questions, qui l’annonce et invite à mettre en place des mécanismes de protection et de précaution spécifiques. Il invite le législateur à promulguer des lois spécifiques pour limiter les discriminations, notamment en ouvrant les applications à des audits scientifiques indépendants. La législation devrait imposer aux entreprises qui développent des systèmes de reconnaissance faciale à fournir une documentation sur leurs systèmes et leurs impacts, accessible à tout un chacun, et à permettre à des tiers d’évaluer les systèmes. Il propose également que les gens soient mieux informés de l’utilisation de ces technologies et déclarent leur consentement. Reste que l’exemple que prend Brad Smith pour cela est plus problématique qu’autre chose… Puisqu’il évoque le déploiement de systèmes de reconnaissance faciale dans les centres commerciaux et leur partage entre magasins sur de multiples sites… Comment refuser d’être dans ce cas identifiés par des caméras ?

Si Microsoft conclut son plan d’action en invitant les gouvernements à protéger les libertés individuelles, afin que les citoyens puissent se déplacer librement, sans être sous la surveillance constante du gouvernement… Pour lui le gouvernement ne devrait pas être autorisé à suivre nos visages sans demande express du juge, comme il ne peut pas suivre les déplacements de nos portables et écouter nos messages sans une décision de justice et donc sans soupçons argumentés. Microsoft annonce s’engager sur 6 principes pour assurer la responsabilité de ses technologies de reconnaissance faciales : l’équité, la transparence, le contrôle humain, l’interdiction de la discrimination, la notification et le consentement, et s’assurer que ces systèmes demeurent dans des pratiques légales.

Pas sûr que ces grands principes soient suffisants en soi… Ne pas vouloir créer de discrimination illégale ne dit pas grand-chose des limites technologiques à adopter. La question de la proportionnalité des solutions par rapport aux objectifs par exemple pourrait être une voie de responsabilité plus adaptée. Des objectifs marketing consistant à tracer la présence d’utilisateurs dans un magasin nécessite-t-elle de déployer des systèmes de reconnaissance faciale et à les interconnecter entre eux ? On devine vite que la proportionnalité des moyens par rapport aux objectifs semble un peu démesurée !

MAJ : Le Centre sur la vie privée et la technologie et la Ligue pour la justice algorithmique ont lancé le Safe Face Pledge, une initiative pour limiter les abus des technologies de reconnaissance faciale en demandant aux entreprises qui déploient ces technologies de s’engager sur plusieurs principes, notamment la transparence dans l’utilisation de leur technologie.

À lire aussi sur internetactu.net