L’aversion aux algorithmes – Knowledge@Wharton

Les spécialistes de l’étude de la prise de décision, Cade Massey (@bcmassey) et Berkeley Dietvorst de la Wharton School de l’université de Pennsylvanie revenaient dans un récent Podcast pour Knowledge@Wharton sur l’aversion aux algorithmes. Dans une de leur recherche sur ce sujet, ils montraient que bien que les algorithmes prédictifs (qui portaient sur l’évolution du trafic aérien ou des résultats scolaires d’élèves…) s’avèrent meilleurs que les humains à prédir l’avenir, les responsables ont plutôt tendance à préférer choisir un prévisionniste humain. Et ce même quand ils constatent que la prévision algorithmique est meilleure que les prévisionnistes humains. En fait, nos biais cognitifs nous font perdre plus rapidement confiance dans les algorithmes que dans les humains quand ils font une erreur et ce même quand les algorithmes font la démonstration de leur supériorité.

C’est ce qu’explique Matthew Hutson dans le Boston Globe. Les gens sont réticents à donner une seconde chance aux algorithmes quand ils semblent se tromper, et ce quand bien même les machines ont un taux de succès global plus élevé que nos propres décisions. Que ce soit par rapport à un algorithme qui vous propose un vin pour accompagner votre plat au restaurant, que par rapport à vos rapports avec votre GPS.

Bien sûr, aucun algorithme n’est parfait, soulignent les chercheurs, mais nous sommes plus enclins à leur reprocher leur imperfections qu’aux humains. En fait, quand une machine fait une erreur, nous avons tendance à penser qu’elle pourra la refaire – ce qui est certainement de moins en moins vrai à l’heure des machines apprenantes.  

Dans ce cas là, nous faisons souvent une mauvaise hypothèse, estime Massey. Celle de croire que l’algorithme ne peut pas apprendre et que l’homme peut s’améliorer. Or, bien souvent, l’humain a tendance à continuer à faire des erreurs pires que celles que l’algorithme ne ferait. De plus, plus les enjeux sont importants, moins on a tendance à faire confiance aux machines. Pire, soulignent les spécialistes, indépendamment de ses résultats, les gens font plus confiance à un algorithme dont ils ne connaissent rien qu’à un algorithme dont ils connaissent le fonctionnement. “Les gens ne perdent pas confiance en eux quand ils ont tord. Ils perdent bien moins confiance en eux quand ils ont tord, même quand ils se trompent au niveau du modèle.”

Les chercheurs soulignent (dans une étude à paraître) que les gens ont plus confiance dans les algorithmes quand ils peuvent en ajuster les variables, même si ce sont des variables qui n’ont pas d’effets sur le modèle. Quand ils peuvent prendre part à la décision et l’utiliser pour ajuster leur jugement, leur niveau de confiance remonte. En fait, résume Berkeley Dietvorst : “les gens ne veulent pas abandonner le contrôle”. Est-ce à dire que pour l’abandonner, il va falloir trouver des ruses pour leur faire croire qu’ils l’ont encore ? Mince ! Ne serait-il pas plus simple de le leur donner vraiment ?

À lire aussi sur internetactu.net

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *