La voiture de demain sera-t-elle programmée pour vous faucher ? – Wired

image

Le philosophe Patrick Lin, directeur du groupe des sciences de l’éthique à l’école polytechnique de Californie (que nous avions déjà évoqué ici) revient dans une tribune pour Wired sur les problèmes liés à la programmation des choix éthiques des voitures autonomes. Au nom du principe d’optimisation de l’accident, confrontées à un choix, les voitures devront être programmer pour s’écraser sur ce qui peut survivre à une collision. Si la voiture a le choix entre s’écraser contre un cycliste qui porte un casque et s’écraser contre un cycliste qui n’en porte pas, il sera logique qu’elle choisisse celui qui en porte un, car ses chances d’en réchapper seraient plus fortes. Mais ce choix porte sa part d’injustice, puisque la voiture pénalise le cycliste responsable sur l’autre. Ne sommes-nous pas là en train d’introduire une mauvaise politique, s’interroge le philosophe, qui privilégiera ceux qui ne portent pas de casque ou ceux qui ont de petites voitures fragiles sur les autres ?

Une autre solution, estime le philosophe, est de ne pas faire de choix délibéré. Et si la voiture autonome prenait certaines décisions via un générateur aléatoire ? Ne serait-ce pas la façon de mieux imiter la conduite humaine, surtout dans ces moments imprévisibles et trop rapides pour qu’elle s’y applique ? Mais là encore, l’argument ne semble pas pleinement convainquant, puisque si nous voulons une voiture autonome c’est pour qu’elle prenne de meilleurs décisions que l’homme… L’erreur humaine, la distraction au volant sont déjà responsables de la grande majorité des accidents…

Pour optimiser les accidents, les programmeurs devront être capables de calculer les coûts attendus entre les différentes options possibles. Et déterminer qui à le droit de vivre et de mourir est fondamentalement un problème d’éthique qui nécessite d’être débattu avec la société toute entière.

Et pendant que Patrick Lin s’interroge, la recherche navale américaine vient de lancer un programme pour développer un robot capable de raisonnement moral ! Une annonce qui fait rire Nicholas Carr : à l’heure où les drones prennent déjà des décisions de vie et de morts, programmer leur moralité semble être devenu moralement nécessaire… 

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.