La transparence a besoin de meilleurs chiens de garde

« Nous ne pourrons pas réparer les moteurs de recommandation ou les systèmes de microciblages tant que des organismes de surveillance indépendants ne seront pas autorisés à examiner leurs fonctionnements », plaide Ashley Boyd (@ashleyboyd), responsable du playdoyer et de l’engagement à la fondation Mozilla (@mozilla, blog) dans une tribune pour FastCompany. Si l’agence américaine des produits alimentaires et médicamenteux (FDA) n’existait pas, l’industrie alimentaire et celle de la santé n’auraient pas le visage qu’on leur connaît, rappelle-t-elle pour tisser la comparaison. La transparence de la production alimentaire (pour lacunaire et toujours imparfaite qu’elle soit) n’est pas volontaire pour les industries alimentaires : elle s’impose, car « elle est nécessaire dans l’intérêt du public ». Facebook, Youtube et nombre de plateformes ont une influence aussi grande sur nous que la nourriture que nous mangeons. Nous les utilisons en continu et les informations qu’elles véhiculent façonnent notre mode de vie et notre monde. Pourtant, malgré leur influence, elles ne sont contraintes à aucune transparence sur leurs fonctionnements. Les régulateurs et les observateurs essentiels de la société civile, comme les chercheurs, les associations de défense des droits ou les journalistes, ne savent toujours pas vraiment pourquoi Youtube recommande telle vidéo plutôt qu’une autre, ni quelles populations peuvent être visées par une campagne publicitaire sur Facebook. Or, tant que les régulateurs et les organismes de surveillance ne pourront pas mieux comprendre les systèmes de recommandation et de publicité des plateformes, ils ne pourront pas comprendre ce qui dysfonctionne ni proposer des solutions adaptées.

Si Facebook assure qu’il ne cesse de lutter contre la désinformation, pourtant, elle demeure l’une des plateformes les plus opaques qui soient, rappelle Ashley Boyd. Chercheurs, ONG et journalistes qui tentent de comprendre les produits et politiques des entreprises de la tech doivent utiliser des données incomplètes et des outils imprécis pour se faire. C’est ce qui est arrivé récemment à Kevin Roose (@kevinroose), journaliste au New York Times qui a tenté une analyse des tendances de Facebook. Le responsable du Newsfeed de FB, John Hegeman (@johnwhegeman), lui a répondu que ses analyses étaient fausses, car ses données incomplètes. Reste, comme le constate Roose que ces données ne sont pas accessibles ! Même constat pour Youtube dont le moteur de recommandation est responsable de 70 % du temps total passé par les utilisateurs sur la plateforme. Nombre de chercheurs et de journalistes (on se souvient notamment de la charge de la chercheuse Zeynep Tufekci, voir également « Comment Youtube s’est transformé ») ont déjà signalé que ce moteur avait conduit nombre d’utilisateurs vers des contenus extrêmes, violents ou haineux. Depuis, Youtube prétend travailler à résoudre le problème : mais le problème c’est que les « chiens de garde » ne peuvent pas confirmer si les choses s’améliorent ou pas ni faire des suggestions adaptées, notamment parce que les données sont verrouillées par les plateformes !

Le partage des données des plateformes ne se fera pas de manière volontaire. Leur opacité sert leur cause : notamment ne pas perturber leurs modèles économiques. Pour Ashley Boyd, il est pourtant nécessaire d’améliorer la responsabilité des entreprises en matière de transparence. Le Digital New Deal que vient de lancer le fonds Marshall propose de rendre obligatoire le partage des données des plateformes. Pour Karen Kornbluh (@karenkornbluh), directrice de l’initiative pour l’innovation numérique et la démocratie de l’organisation de coopération transatlantique, l’enjeu est de construire un plan d’action pour atténuer la désinformation. Pour cela, le Fonds Marshall a construit une feuille de route pour la sauvegarde de la démocratie numérique proposant de permettre aux utilisateurs de personnaliser les recommandations algorithmiques, de limiter le microciblage publicitaire, incitant les plateformes à ouvrir leurs boîtes noires et à établir un code de conduite basé sur les pratiques plutôt que sur les contenus ainsi que la création d’une agence de surveillance dédiée.

Le Fonds Marshall propose également un code de conduite reposant sur plusieurs mécanismes, comme l’installation de « disjoncteurs de viralité », permettant de stopper la propagation de contenus viraux. Il soutient également le projet de loi du Congrès américain sur l’honnêteté publicitaire (Honest Ads Act) qui propose d’améliorer la transparence des plateformes sur le modèle qui s’impose aux médias traditionnels. En juin, Les villes d’Amsterdam et Helsinki associées à l’AI Now Institute, le Nesta et la fondation Mozilla ont demandé à la Commission européenne d’adopter des positions plus strictes sur les passations de marché dans le domaine de l’IA, notamment en recommandant que ces marchés ne soient possibles qu’avec des entreprises et des services transparents. Pour Mikko Rusama, directeur du service numérique d’Helsinki : « fondamentalement, les villes fonctionnent sous un mandat démocratique, de sorte que l’utilisation de la technologie dans les services publics devrait fonctionner selon les mêmes principes de responsabilité, de transparence et de droits des citoyens. Toutes les décisions et leurs critères doivent être ouverts et compréhensibles, qu’elles soient prises par des humains ou par l’IA. Sans transparence, il n’y a pas de confiance. Sans confiance, il n’y a pas besoin d’IA ». La ville d’Amsterdam vient de publier un registre des algorithmes qu’elle utilise (à savoir un système de contrôle automatisé du stationnement, un système de lutte contre la fraude aux locations et un outil de signalement de problèmes urbains, proposant des explications accessibles sur le fonctionnement des systèmes qu’elle utilise, des précisions techniques sur les modèles et données utilisées, et parfois le lien vers le code source, ainsi que des informations sur les risques. Et très logiquement, la ville d’Helsinki a fait la même chose (notamment pour un système de parking, des chatbots dans le domaine de la santé et pour les bibliothèques).

Le registre des algorithmes de la ville d'Amsterdam

En plus d’une réglementation significative à l’échelle du secteur pour améliorer enfin la transparence, Ashley Boyd souligne que les consommateurs et utilisateurs ont aussi un rôle à jouer. Ils doivent eux aussi faire entendre leur voix sur ce qu’ils attendent des plateformes. Si par exemple la fonction « Tendances » de Twitter diffuse de la désinformation, les utilisateurs devraient demander à l’entreprise de l’éteindre (une demande relayée d’ailleurs par une campagne de la fondation Mozilla #untrendtwitter dans le cadre de ses initiatives pour un internet « sain ») ou réclamer a minima un examen indépendant de cette fonction… Les utilisateurs devraient également apprendre à voter avec leurs pieds, en favorisant les plateformes les plus transparentes. Plus facile à dire qu’à faire, notamment quand il n’y a pas de services concurrents disponibles bien sûr, ni de modalités d’interopérabilité facilement accessible…

« La transparence n’est pas une panacée », modère Ashley Boyd. Mais, elle reste un pas essentiel pour comprendre et ajuster les dysfonctionnements des plateformes. Tout comme le contrôle et l’information sur la nourriture que nous mangeons sont indispensables à notre santé, l’examen et la transparence des systèmes techniques sont une clé pour améliorer notre rapport aux objets techniques. Reste à savoir quand la législation et la contrainte accélèreront enfin sur ce sujet…

Hubert Guillaud

MAJ : Pour Heidi News, Tristan Mendès France (@tristanmf) suggère également que les plateformes ont besoin de disjoncteurs de viralité pour mieux distinguer la liberté de parole de la liberté d’atteindre un plus large public (freedom of speech vs. freedom of reach).

À lire aussi sur internetactu.net