Vers une éthique pour l’intelligence artificielle ?

John Markoff pour le New York Times est récemment revenu sur les discussions entre 5 des plus grandes entreprises de la planète pour créer un standard éthique pour l’intelligence artificielle. A l’heure où les progrès de l’intelligence artificielle se révèlent être de plus en plus rapides – comme l’a montré cette année la victoire de Google dans le domaine du jeu de Go, alors que quelques mois plus tôt on pensait cette victoire encore lointaine -, Alphabet, Amazon, Facebook, IBM et Microsoft se sont rencontrés pour discuter de l’impact de l’intelligence artificielle dans le domaine du travail, des transports et de la guerre. Reste que rien n’a percé de ces discussions hormis l’intention : veiller à ce que la recherche en IA se concentre sur le bénéfice aux personnes, pas le contraire (des discussions industrielles « discrètes »… peu transparentes ou démocratiques, qui rappellent celles qui ont eu lieu récemment sur la question de la reconnaissance faciale).

Parallèlement, un groupe de travail réuni par l’université de Stanford sous la houlette d’Eric Horvitz, chercheur chez Microsoft, vient de publier un premier rapport sur le sujet visant à établir pour l’industrie un cadre pour le développement de ces technologies , à l’heure où les régulateurs s’y intéressent de plus en plus. Le rapport intitulé « L’intelligence artificielle et la vie en 2030 » estime que réglementer l’IA en général serait une approche erronée, car il n’y a pas de définition claire de l’IA et que les risques sont très différents selon le domaine où celle-ci travaille. Le rapport s’attache à définir l’IA et à regarder les tendances par grands domaines comme le transport, la santé, l’éducation, le loisir… Il termine par des recommandations en matière de politique publique qui proposent que :

  • les politiques publiques améliorent leur expertise de ces technologies ;
  • qu’elles suppriment les obstacles à la recherche dans les domaines de l’équité, la sécurité, la vie privée et l’impact social de l’IA ;
  • augmente le financement des études interdisciplinaires sur les impacts sociaux de l’IA.

La lecture du rapport donne surtout l’impression que l’industrie cherche à éloigner l’impact réglementaire qui la menace, et ce alors que les politiques publiques s’intéressent de plus en plus à ces sujets. Récemment, Christopher Hart, de l’autorité de régulation des transports américaine, expliquait dans la Technology Review que le gouvernement fédéral devait édicter des règles et des normes de sécurité pour les voitures autonomes. Mais comme le remarque Ryan Calo, qui plaidait pour la création d’une agence fédérale pour répondre aux défis politiques de l’IA, il est probable qu’il soit difficile de traduire les discussions éthiques théoriques en règles pratiques dans la conception des systèmes. Veut-on déployer des véhicules qui empêcheront certainement de nombreux accidents, mais qui seront aussi capables de faire des erreurs mortelles qu’aucun humain ne ferait, comme de prendre la décision de renverser une poussette plutôt qu’un caddie sans savoir la différence entre l’un et l’autre.

Markoff évoque également des discussions entre le Media Lab du MIT et Linked-in pour le développement d’un projet explorant les effets sociaux et économiques de l’intelligence artificielle. Le MIT a récemment lancé une « machine morale », une plateforme permettant d’évaluer l’acceptabilité des choix que pourraient avoir à prendre les voitures autonomes. Une manière de prendre le pouls de ce que nous jugeons moral ou pas, face à des questions décisionnelles de plus en plus complexes.

MAJ : les partenaires de l’alliance ont publié un site dédié. Numerama pointe également la question de l’indépendance et du financement de cette nouvelle organisation.

MAJ : La maison Blanche a publié un rapport (.pdf) pour se préparer à l’avenir de l’intelligence artificielle qui liste 23 recommandations qui visent surtout à mettre le sujet dans les priorités d’investissement et de de recherche publiques. Celles-ci invitent notamment les agences Américaines à développer des standards de données ouverts et des données d’entraînements ouvertes pour l’IA. Il invite également les agences gouvernementales à mettre l’IA dans leurs missions, à l’image du département de l’éducation qui envisage de créer une entité dédiée pour déterminer si l’IA peut significativement améliorer l’apprentissage. Moins stimulante que d’autres feuilles de route qu’a pu publier le gouvernement américain, ce rapport flèche l’innovation américaine vers un développement tout azimut de l’IA.

MAJ : Sur Wired, le journaliste Arrian Marshall rappelle que les ingénieurs n’ont jamais décidé pour les gens : « les vrais concepteurs de la moralité des machines ne seront pas les équipes d’ingénieurs des géants technologiques comme Google, Tesla ou Mercedes, mais les citoyens ordinaires », explique le légiste Bryan Casey dans un intéressant article de recherche. Les législateurs et les organismes de réglementation répondront à la volonté du public et, s’ils ne le font pas, les constructeurs automobiles le feront. En janvier, Tesla a poussé une mise à jour du pilote automatique qui permet aux voitures d’augmenter leur vitesse de 5km/h au-dessus de la vitesse autorisée suite aux réclamations des propriétaires de voitures. Le marché à parlé et Tesla a répondu. » La société et la loi répondront aux problèmes légaux qui se posent et les entreprises s’y conformeront pour minimiser leur responsabilité.

À lire aussi sur internetactu.net