Les 12 et 13 décembre 2011 se tenait à Lyon un colloque universitaire sur les réseaux sociaux organisé par l’Institut rhône-alpin des systèmes complexes. Suite et fin de notre compte rendu…
Les algorithmes peuvent-ils se tromper ?
Tarleton Gillespie professeur à l’université Cornell devait conclure ces deux jours, mais il n’a pu être présent. Il semblait néanmoins intéressant de jeter un oeil sur son propos qu’il a notamment développé sur CultureDigitally : est-ce que les algorithmes peuvent se tromper ? L’implication publique des plateformes privées.
La réflexion de Tarleton Gillespie prend son origine dans les contestations émises à l’encontre de Twitter, accusé de censurer sa liste de Tendances. En fait, cette accusation, récurrente, montre que le fonctionnement de cette liste n’est pas conforme à ce que nous voudrions qu’il soit. Pourquoi Twitter semble-t-il favoriser des sujets people ou banal à des sujets de fonds comme le mouvement #occupywallstreet, l’actualité de #wikileaks, l’exécution de #troydavis ou même la mort de #stevejobs ? Pourquoi ses sujets ne sont-ils pas devenus tendances ? En fait, Twitter ne censure certainement rien. L’absence de ces sujets dans les listes de tendance est due à la dynamique particulière de l’algorithme de Twitter. La liste de tendance ne mesure pas la popularité d’un sujet, mais prend en compte bien sûr le nombre de tweets, mais également l’accélération de l’utilisation du terme, qu’il évalue par rapport à un niveau « moyen » de bavardage. En discute-t-on dans plusieurs réseaux de personnes ou seulement dans un pôle densément interconnecté d’utilisateurs ? Evoque-t-on des tweets différents ou des re-tweets massifs ? En fait, les tendances de Twitter ne cherchent pas les mots les plus tweetés, ni les sujets les plus populaires (certains le resteraient indéfiniment), mais tendent à regarder l’évolution de ceux-ci.
Bien sûr, la vigueur et la persistance de la charge de la censure n’est pas surprenante, estime Tarleton Gillespie. Les partisans de ces efforts politiques veulent désespérément que leur sujet gagne en visibilité. Reste que ces débats sur les outils ne font que commencer. « Comme de plus en plus de notre discours public en ligne a lieu sur un ensemble restreint de plates-formes de contenus privés, qui utilisent des algorithmes complexes pour gérer et organiser des collections massives de données, il existe une tension importante entre ce que nous nous attendons à voir émerger et ce que sont ces algorithmes en réalité. Non seulement nous devons reconnaître que ces algorithmes ne sont pas neutres, qu’ils codent des choix politiques, et qu’ils « armaturent » l’information d’une manière particulière, mais nous devons également comprendre ce que signifie de nous appuyer sur eux, pourquoi voulons-nous qu’ils soient neutres, fiables, qu’ils soient des moyens efficaces pour atteindre ce qui est le plus important. »
Les tendances de Twitter ne sont qu’un de ces outils parmi les plus visibles. Le moteur de recherche de Google est un algorithme conçu pour prendre une série de critères en compte (dont 57 à caractère personnel, rappelait Eli Pariser) de manière à servir à la fois des résultats qui satisfassent l’utilisateur, mais aussi les objectifs du fournisseur : leur vision de la pertinence, mais aussi les exigences particulières de leur modèle d’affaires. Comme l’observait James Grimmelmann, les moteurs de recherche se targuent d’être automatisés, sauf quand ils ne le sont pas. Quand Amazon, YouTube ou Facebook vous proposent de regarder ce qui est « le plus populaire », « le plus vu », « le plus commenté », le « mieux noté », « ils traitent une liste dont la légitimité est fondée sur la présomption qu’elle n’a pas été organisée ».
Il est essentiel de dépecer les algorithmes, estime Tarleton Gillespie. De comprendre comment ils sont pondérés. « Les algorithmes qui définissent ce qui est « tendance » ou ce qui est « chaud » ou ce qui est « plus populaire » ne sont pas des mesures simples, ils sont soigneusement conçus pour capter quelque chose que les fournisseurs du service cherchent à capturer et éliminer les inévitables « erreurs » qu’un simple calcul ferait. ». En même temps, Twitter nettoie ses listes de tendances : celles-ci excluent par exemple les gros mots, les obscénités, les spams et introduit parfois des termes provenant de partenaires promotionnels…
L’algorithme est sans cesse manipulé. Au final, Twitter nous laisse dans un dilemme insoluble. Nous ne pouvons savoir pourquoi #occupywallstreet n’est pas une tendance : est-ce que cela signifie qu’il est volontairement censuré ? Qu’il est très populaire, mais pas encore un pic ? Qu’il est moins populaire qu’on pourrait le penser ?
« Les outils qui nous permettent d’entrapercevoir les énormes répertoires de données, comme les tendances de Twitter, sont faits pour nous montrer ce que nous savons être vrai et pour nous montrer que nous sommes incapables de percevoir comme vrai, du fait de notre portée limitée. On ne peut jamais vraiment savoir ce qu’ils nous montrent ou ce qu’ils ne parviennent pas à nous montrer. Nous demeurons piégés dans une régression algorithmique, où même Twitter ne peut nous aider, car il ne saurait risquer de révéler les critères qu’il utilise. »
« En fait, le plus important ici, n’est pas la conséquence des algorithmes, mais notre foi dans leur puissance. » Nous sommes invités à traiter les tendances comme une mesure raisonnable de la popularité et de l’importance… Nous voudrions qu’elles soient des arbitres impartiaux de ce qui et pertinent… Lorsque les faits sont déformés, nous voulons que ce soit quelqu’un qui l’ait fait délibérément plutôt que de mettre en cause la façon dont ils sont fabriqués, estime Tarleton Gillespie. « Nous n’avons pas un vocabulaire suffisant pour évaluer l’intervention algorithmique d’un outil comme les tendances. (…) Nous n’avons pas une idée claire de comment parler de la politique induite par cet algorithme. »
Comment les algorithmes transforment-ils notre mode de gouvernement ?
Le philosophe Thomas Berns, chercheur au Centre Perelman de philosophie du droit et professeur à l’université libre de Bruxelles, a assurément tenu le discours le plus intéressant de ces deux jours en prenant le contre-point de bien des idées reçues. Que transforment le développement et la généralisation des pratiques statistiques et la multiplication des corrélations de données qu’elle permet ?
Image : Thomas Berns photographié par Pierre Merklé.
« Il me semble (mais c’est intuitif) que cette prétention des statistiques à prédire le social échoue, mais qu’une telle prétention agit sur le plan politique : elle assied des légitimités nouvelles et produits de nouveaux modes de gouvernement », estime le philosophe. « Mais pour cela, il est nécessaire de définir les sujets du gouvernement algorithmique, c’est-à-dire à la fois ce sur quoi porte ce gouvernement et ce qui se construit au travers de cette action de gouvernement. »
« Le gouvernement algorithmique désigne un certain type de gouvernement qui a pour objectif d’anticiper les comportements et d’agir sur eux. Mais c’est là le propre de toute forme de gouvernement », ironise le philosophe. Cette pratique politique devient une pratique réfléchie au seuil du XVIe siècle et ne cesse de s’intensifier à la fin du XIXe siècle avec le développement de politiques sociales visant à mutualiser les risques et devant donc les anticiper… Fin XVIe et début XVIIe, les premières récoltes de données, avaient pour but de produire des possibilités politiques non juridictionnelles. L’idée était de percevoir et d’agir sur ce qui échappait à la loi : de contrôler la « maisonnée ». Il s’agissait aussi d’agir de manière constante, progressive, de développer un type de politique et de savoir différent de celui du souverain, réclamant de produire de la lumière, de la transparence, des données… « Dès le début, ce dont nous parlons aujourd’hui, s’oppose à un autre type de norme utilisé traditionnellement pour agir sur les individus : la Loi ! » Cette manière d’agir sur les comportements pour les normaliser sans faire appel à la Loi est également caractéristique d’une époque de défiance par rapport à la Loi, comme c’est le cas de notre époque, souligne encore le philosophe.
Les sujets ont toujours été supposés comme participants au contrôle produit sur eux de manière statistique. L’assentiment de celui qui est compté est toujours supposé. « Ce fond de réflexivité signifie aussi que les individus se forgent eux-mêmes dans l’épreuve de la statistique. Parce qu’ils se sentent regardés, les hommes se contrôlent. » L’idée même de société nait d’ailleurs avec cette supposée réflexivité de la société sur l’homme.
Or, c’est peut-être cette réflexivité qu’il nous faut revoir, estime Thomas Berns. « Pas du tout parce que nous serions face à un phénomène de tyrannie de la donnée, puisqu’on ne s’est jamais autant soucié de notre accord, de notre consentement aux données et qu’on ne s’est jamais autant prêté à un gouvernement qui les utilise. (…) Il n’y a pas moins de respect de l’individu qu’avant, mais plutôt une variation de la production même des vérités statistiques qui ne comporte désormais plus un certain type d’épreuves, de modes d’interpellations du sujet. Or, les moments d’épreuves permettant à la fois la subjectivité et l’interprétation diminuent. » Pour le dire autrement, nous n’appartenons plus à un profil moyen, nous ne sommes plus identifiés par une catégorie sociale, mais décomposés en une multitude de profils qui ne fait plus nécessairement sens pour nous.
« Contrairement à ce que l’on pense souvent, la récolte de données n’est pas du tout tyrannique », insiste le philosophe. « Elle ne se fait pas dans notre dos, sans notre consentement… Au contraire. Nous les abandonnons. »
« Les juristes semblent obsédés par le consentement individuel, mais ils posent là une mauvaise question. » En fait, estime Thomas Berns, l’intelligence des processus faits que cette question ne se pose plus. « Il ne peut plus y avoir de consentement éclairé, car la finalité qui justifierait la cession de données est par définition voilée. Nous ne savons pas quelle sera la finalité des données que nous abandonnons. Leur usage est variable, changeant, inconnu par essence. Nous cédons de la donnée sans fonction, sans usage. Dans les récoltes de données contemporaines, en fait, l’individu, son consentement, est évité, ce qui paradoxalement assoit l’objectivité des données transmises. (…) Dès lors que les données sont cédées sans véritable intention de le faire, elles ne peuvent pas mentir, elles sont « brutes »… et échappent à toutes formes de subjectivation. » Elles permettent la « biométrisation du réel » et font perdre tout rapport à l’individu. C’est d’ailleurs peut-être à ce titre là que nous tolérons de les abandonner. Nos données relationnelles semblent ne rien dire de nos amitiés ou de nos amours. C’est parce qu’elles sont biométriques, disparates, non connectées que nous acceptons de les abandonner. Et c’est aussi à ce titre là qu’elles peuvent prétendre à dire une vérité.
Cela pose la question de savoir quelles sont ces pratiques de gouvernement qui deviennent parfaitement indifférentes aux individus. Les pratiques statistiques permettent une individualisation toujours plus fine et en même temps permettent des actions sur les comportements parfaitement indifférents à moi, en tant qu’individu. Quelle est la nature du sujet statistique qui est à la fois extrêmement proche de moi, mais qui en même temps, ne me prend plus en considération ?
« Alors que la statistique classique présupposait des hypothèses qu’il s’agissait de vérifier, nous produisons désormais des connaissances sans hypothèses. » Les données, les Big Datas, semblent appeler à devoir parler d’elles-mêmes. Or, l’effacement du moment de l’hypothèse, risque d’effacer également une subjectivité qui souhaitait être confrontée à une réalité. Il y a un possible éloignement d’un certain éthos scientifique et politique, qui consistait précisément dans le fait de produire une série de différences par rapport aux corrélations extraites des seules données. « Le juriste, l’homme politique, le médecin se définissent dans une inquiétude entre la corrélation et d’autres formes de relation. C’est peut-être cette inquiétude des effets de corrélation qui est en train de disparaître avec l’avènement du gouvernement algorithmique », estime le philosophe. Le propre de la politique était de vérifier qu’une série de corrélation n’était pas le signe d’une injustice ou le facteur d’une discrimination. Le propre du politique était de considérer justement qu’il ne fallait pas agir en fonction d’une série de corrélation, mais plutôt en réaction. « Une politique publique c’est le fait de refuser de prendre en considération des corrélations. Or, il semble que désormais, les corrélations sont devenues l’expression d’une parfaite efficacité du savoir, d’une parfaite appropriation d’une action. » La perte du questionnement induit par la corrélation risque de nous faire perdre les épreuves qui permettaient de produire du sujet, dit encore le philosophe.
Mais il n’y a pas que la manière dont les Big Data produisent de la connaissance qui pose question. Les conséquences des Big Data témoignent également de cette progression de l’évitement du sujet. « Les actions qui découlent de cette base statistique qui repose sur l’anticipation des comportements individuels et statistiques semblent consister non en une action sur le sujet, mais sur son environnement, permettant de toujours éviter le sujet. » Les connaissances comportementales par exemple permettent de modifier l’environnement d’une cantine pour induire des choix de consommation différents sans même que le sujet n’en ait conscience. Ensuite, « à force de nous saisir dans notre singularité, nous ne sommes plus renvoyés à des catégories collectives discrimantes ». Nous n’avons plus besoin de catégories religieuses, sociales ou ethniques : il suffit de regarder ce qu’on mange pour nous classer !
Les nouvelles pratiques de gouvernement algorithmiques vont chercher leur légitimité dans leur implacable objectivité. « C’est parce qu’elles sont objectives qu’elles nous gouvernent et que l’on consent à ce qu’elles nous gouvernent ». L’objectivité devient le vecteur de légitimité du gouvernement, même si sa production normative tend à éviter le sujet. Au plus le gouvernement est objectif, au plus il agit et risque d’agir, même si cette action nous semble inoffensive puisqu’elle ne s’adresse plus directement à nous, mais à notre environnement.
En fait, résume le philosophe, le gouvernement algorithmique ne viole ni notre autonomie, ni notre intimité, comme nous l’entendons trop souvent. Mais il détruit une série de normes et de savoirs, de défiance envers ce sur quoi agit une norme : un écart qui représenterait une relation qui ne peut se réduire à l’addition de relation intersubjective.
Hubert Guillaud
Notre compte rendu du colloque « Réseau sociaux : des structures à la politique :
0 commentaires
Ton (super) article me fait penser à la vidéo d’Eli Pariser, lors d’une conférence TED > http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles.html
« Alors que les compagnies internet s’efforcent d’ajuster leurs services à nos goûts personnels (y compris l’actualité et les résultats de recherche), une dangereuse conséquence, involontaire, émerge : nous nous retrouvons piégés dans une « bulle de filtres » et ne nous trouvons pas exposés à l’information qui pourrait remettre en question ou élargir notre perception du monde. Eli Pariser argumente avec force qu’au final cela s’avérera mauvais pour nous et pour la démocratie. […] »
C’est un fait, les algos « privés », donc incontrôlables et forcément orientés, biaisent notre perception du monde : un moteur de recherches comme DuckDuckGo par exemple permet justement de s’affranchir de cette particularisation des résultats de recherche en fonction des stats récoltées sur nos habitudes de surf ou comportements sur la toile, fer de lance de Google.
Quant au glissement observé par T. Berns (« Alors que la statistique classique présupposait des hypothèses qu’il s’agissait de vérifier, nous produisons désormais des connaissances sans hypothèses »), il me semble que la notion de sérendipité est justement basée sur ce concept, et nombre de découvertes scientifiques majeures en sont issues… La subjectivité est de toute façon toujours présente, la question majeure restant l’orientation des analyses statistiques et leur finalité.