Qui gérera les algorithmes ?

“Le job de la plupart des managers consiste à faire des prédictions. Lorsque les responsables RH décident d’embaucher, ils prédisent – ou tentent de prédire, NDT – qui sera le plus efficace. Lorsque les responsables du marketing déterminent quels canaux de distribution privilégier, ils prédisent où un produit se vendra le mieux. Lorsque les financiers décident de financer une startup, ils prédisent si ce sera une réussite.”

Or, de plus en plus, ces prédictions sont le fait d’algorithmes, expliquent le spécialiste en administration des affaires Michael Luca, l’informaticien Jon Kleinberg et l’économiste Sendhil Mullainathan dans la Harvard Business Review. Et tout le problème est que les prédictions de ces systèmes ne sont pas sans failles. Dans le domaine de la publicité en ligne par exemple, de nombreux sites déploient des algorithmes pour décider quels annonces et liens montrer aux utilisateurs. Mais lorsqu’ils se concentrent trop étroitement sur la maximisation du clic, les sites deviennent infestés de publicités au risque de faire chuter la satisfaction globale de l’audience. Pour éviter ces faux pas, les gestionnaires doivent comprendre les qualités et les défauts des systèmes qu’ils mettent en oeuvre.

R1601H_HERTZBERG-1200x564

Les limites des buts qu’on assigne aux algorithmes

Les algorithmes sont littéraux : à la manière d’Ultron, ce système d’intelligence artificielle chargé de protéger la terre dans Avengers, qui interprète si bien sa tâche qu’il en conclut que la meilleure façon de le faire est de détruire tous les êtres humains. Il est ainsi facile de tomber dans le piège de la publicité. Quand on assigne un but à un système auto-apprenant, le risque est toujours qu’il l’applique trop bien.

Les algorithmes sont également des boites noires, comme le soulignait très bien Frank Pasquale dans son livre Black Box Society. Dans Jules César de Shakespeare, un devin avertit César de se méfier des ides de Mars. Si la recommandation était parfaitement claire pour qui connaît la fin, elle était parfaitement incompréhensible pour l’intéressé, notamment parce que les informations étaient incomplètes et que le devin n’avait pas la moindre idée de l’information qui manquait. Un algorithme peut ainsi vous dire quel article pourra être très partagé sans vous expliquer pourquoi ou quels employés vont réussir sans identifier les attributs importants pour leur succès.

Comprendre ces deux limitations est une première étape pour mieux gérer les algorithmes, estiment les chercheurs. Pour bien les utiliser, il faut être clair et explicite sur les objectifs qu’on leur attribue, car ils savent surtout « poursuivre un objectif déterminé avec détermination ». Or cette détermination peut conduire l’algorithme a des excès, comme l’expliquait danah boyd en montrant qu’ils peuvent renforcer nos préjugés culturels. Ainsi, l’algorithme permettant d’optimiser l’inspection sanitaire des services de la ville de New York s’est rapidement concentré sur les quartiers les plus pauvres. Pour rétablir de l’équité, les concepteurs ont dû fixer un plafond pour qu’il répartisse mieux ses choix géographiquement. Cela montre que les algorithmes ne savent pas très bien traiter l’équité ou les situations sensibles, mais on peut les aider à bâtir des compromis. « Les algorithmes ont tendance à être myopes. Ils se concentrent sur les données à portée de main et explorent des résultats à court terme ».

Cela suppose donc bien souvent d’élargir les données qui entrent en jeu. Ainsi expliquent-ils, dans le comté de Montgomery, l’algorithme pour optimiser l’inspection sanitaire a élargit ses données aux commentaires des gens sur des sites d’évaluation de restaurants pour mieux identifier les lieux posant problèmes.

Pour maximiser la diversité et prendre en compte l’équité, faut-il des « responsables des algorithmes » ?

L’analyse de données nécessite des données « larges », avec beaucoup de détails plus qu’avec beaucoup d’entrées, rappellent les chercheurs. Le traitement nécessite de la diversité. Mais il nécessite surtout d’en comprendre les limites. Si un algorithme vous prédit que les tweets courts sont plus retweetés que les longs, cela ne signifie pas pour autant qu’il vous faut les réduire. C’est une prédiction, pas un conseil. La prédiction fonctionne car elle en prend en compte bien d’autres facteurs corrélés qui les rendent efficaces et raccourcir vos tweets ne changera peut-être pas nécessairement les autres facteurs. Le fait que les algorithmes soient capables de faire des prédictions ne supprime pas la nécessité de prendre soin de l’élaboration des liens entre la cause et l’effet. Ils ne remplacent pas les expériences contrôlées entre deux échantillons par exemple. S’ils savent identifier des motifs parfois trop subtils pour être détectés par l’observation et éclairer la prise de décision, ils ont besoin d’être géré efficacement, concluent les auteurs en appelant à la naissance de « responsables des algorithmes », c’est-à-dire à des gens capables de faire l’interface entre les systèmes techniques et ceux qui les utilisent, une sorte de chef d’orchestre capable d’établir une discussion entre les machines et les gens.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Bravo, très simple et clair !

    Le sens « d’algorithme » glisse (ici et ailleurs, dans le débat sur les data) vers celui de « règle » apprise sur une base d’expérience (par machine learning par exemple), donc de « résultat » du fonctionnement d’algorithmes de calcul. Dit autrement : « les algorithmes » ont ici la fonction de rendre manifestes, et opérationnelles, des évidences de bon sens.

    Du jour où je n’ai *pas* acheté sur internet telle paire de chaussures, les pubs sur les sites web que je consultais m’ont régulièrement reproposé la même paire. Le vendeur le plus lourdement insistant ne ferait pas plus mal. Il aurait l’air d’un automate de foire. Mais ce n’était pas une stratégie idiote.

    En fin de compte il me semble que ce sont des « décisions automatiques » qu’il s’agit surtout ici. Et de la façon de construire ces automates. En y incorporant plus ou moins d’algorithmique apprenante.