Big data : l’individu au détriment des catégories

Pour la philosophe Antoinette Rouvroy (@arouvroy) chercheuse au Centre de recherche interdisciplinaire en information, droit et société de l’université de Namur et au Fonds de la recherche scientifique, l’équivalent belge de notre CNRS, les Big Data et la personnalisation algorithmique sont un changement de paradigme. Un changement de paradigme dans notre relation au monde parce qu’ils rendent le monde signifiant, parce qu’ils produisent ce « qui compte comme réel », parce qu’ils ont des implications sur les modes d’exercice du pouvoir… explique-t-elle sur la scène du colloque « la politique des données personnelles : Big Data ou contrôle individuel » organisé par l’Institut des systèmes complexes et l’Ecole normale supérieure de Lyon qui se tenait le 21 novembre 2013. C’est un changement de paradigme, non plus seulement sur les individus, mais sur ce qu’ils pourraient faire du pouvoir comme l’explique le philosophe Grégoire Chamayou dans son livre Théorie du drone qui montre que les frappes de drones se font sur des gens identifiés par un modèle de déplacement, d’activité (cf. « De la fabrique des automates politiques »). Chamayou montre bien que, par rapport au droit, nous sommes entrés dans une autre perspective : on n’identifie plus des gens, mais des formes de vies. Des formes de vies potentiellement terroristes pour les drones, des formes de vies qui ont certaines propensions à l’achat dans le marketing… « En fait, avec les Big Data, l’identification n’a plus beaucoup d’importance », estime Antoinette Rouvroy.

Les Big Data nous rendent-elles autonomes ?

« Les Big Data promettent de saisir la réalité comme telle, de façon immanente, sans proposer de rapport à une quelconque moyenne, à une quelconque normalité, voire même à de quelconques catégories. Elles promettent de saisir et modéliser le social à même le social, en temps réel et à distance. Elles proposent de personnaliser le monde de manière industriel. Désormais, la modélisation numérique du monde, du social, tient lieu de réalité. Il permet de rendre le monde signifiant, prévisible, sans avoir plus besoin d’interroger les individus sur leurs intentions. Par la démultiplication des corrélations, les catégorisations existantes de la société, celles dont on fait socialement l’expérience, semblent disparaître. La force de calcul et la quantité de données semblent rendre le monde plus démocratique, en permettant de prendre en compte ce qu’il y a de plus particulier chez les individus, ce qu’il y a de plus éloigné de la moyenne. » Alors que la statistique traditionnelle produit de la sélectivité, les Big Data s’intéressent aux profils singuliers, explique la philosophe. La subjectivité des statistiques devient anormative et démocratique. « On évite la critique du manque de représentativité. Chaque personne devient à elle-même son propre profil, sans évaluation par rapport à une moyenne ou à une quelconque normalité ». Nous n’appartenons plus à des catégories sociales : avec les Big Data nous devenons tous des individus autonomes…

Désormais, avec les données, notre désir nous précède. Google détecte ce que nous allons vouloir. Les désirs qui nous façonnent n’ont plus besoin d’être formulés. « Nous sommes notre propre profil. Tant et si bien que ne pas vouloir être profilé, c’est ne pas vouloir être soi-même. » Avec les Big Data, on assiste à l’éviction du sujet, constate la philosophe. On devine ce qui est bon pour nous, sans même avoir besoin de nous interroger. « Le consommateur est roi, mais il a disparu ». Nous assistons à la fin de la divergence d’intérêt entre le marketing et l’utilisateur.

Désormais, la normativité est immanente. Cette nouvelle modélisation du sociale nous fait croire que le savoir sur la société n’est plus produit, construit, mais qu’il n’a plus qu’à être découvert grâce aux algorithmes. On peine à mettre le profilage à l’épreuve parce qu’il échappe à toute construction sociale en ne proposant qu’une construction personnelle. Les profilages étant invisibles, les catégories auxquelles ils sont rattachés également, ils ne génèrent pas de conformisme participatif, estime la philosophe. Si je ne sais pas comment je suis profilé, alors je ne peux pas ruser face au système, ni pour lui plaire, ni pour ne pas lui plaire.

Le gouvernement par la donnée court-circuite notre capacité d’entendement

Reste que ce marketing individualisé affecte les comportements d’une manière particulière. « Il fonctionne essentiellement sur le mode de l’alerte, qui suscite des comportements réflexes, plutôt que sur le mode de la persuasion qui suscite de la réflexivité ». La donnée nous affecte sur un mode préconscient. C’est un pouvoir qui fonctionne en court-circuitant notre moralité et notre capacité d’entendement et de volonté… C’est un pouvoir très différent du mode de gouvernement par la loi qui permet de mesurer le pour et le contre de l’infraction à la règle. « Si la gouvernementalité par le droit fabrique des sujets capables d’entendement et de volonté, la gouvernementalité algorithmique produit du passage à l’acte d’achat sans formulation de désir ». Comme le propose la tarification dynamique, quand l’augmentation du prix a pour seul objectif de déclencher un réflexe d’achat. IBM parle de Smarter Marketing pour évoquer cette personnalisation sans sujet, qui met votre profil au centre de sa cible.

Les Big Data sont porteuses d’une énorme ambivalence, estime la philosophe. D’un côté, on se lamente sur la disparition de la vie privée, alors qu’elle n’a certainement jamais été autant protégée. Nous ne sommes plus en relation avec la dame du téléphone qui écoutait toutes les conversations ! En fait, nous n’avons jamais été aussi invisibles en tant qu’individu… estime Antoinette Rouvroy. « La gouvernementalité algorithmique se moque de qui vous êtes. Elle s’intéresse aux formes de vies, à ce qu’elle peut vous vendre, à vos comportements, aux profils auxquels vous correspondez… Nous sommes plutôt confrontés à une hypersubjectivation qu’à une disparition de la vie privée », suggère la philosophe. Notre réalité s’adapte sans cesse à notre profil. « Nous assistons plutôt à une hypertrophie de la sphère privée et à une disparition de la sphère publique, et c’est de cela dont nous devrions nous inquiéter. »

Pourrons-nous ne pas être autodéterminés ?

La gouvernementalité algorithmique affecte la fabrication des savoirs. On assiste à une privatisation des instruments de production de ce qui compte comme réel. Et c’est bien là le problème. Pour la philosophe, le problème des Big Data n’est pas tant l’appropriation de données à caractères personnelles par des sociétés, que la disparition de la normativité. Les notions de moyennes et de normalité deviennent suspectes. Or, « la disparition de cette normativité rend difficile toute critique de cette nouvelle forme d’émancipation, car elle apparaît comme complètement réalisée par l’individualisation des données. La réalité semble ne plus avoir le moindre déterminisme. L’anticipation des comportements est devenue plus importante que les déterministes sociaux. »

Alors comment faire face ? « Comment trouver de nouvelles prises, non pas pour retrouver la maîtrise de nos données, mais pour nous permettre de faire face comme sujets à la façon dont nous sommes transformés par les données ? Comment dire que nous ne correspondons pas au corps statistique que les données nous renvoient ? Comment demeurer capable de rendre compte de ce qui nous fait agir ? Où seront nos occasions de comparaître physiquement en tant qu' »animaux autobiographiques » comme disait Derrida ? » Car nous sommes des animaux autobiographiques. Nous produisons des motifs… et nous pouvons expliquer la motivation de nos actes devant un juge, c’est-à-dire que nous pouvons donner du sens à nos actes à postériori. Nous ne sommes pas autodéterminés.

Pour autant, conclut la philosophe, « nous ne devons pas nous tromper de cible sur les enjeux. Les cibles de pouvoir ont glissé sur les prises de l’advenir… C’est notre dimension de potentialité qui est visée et non notre dimension d’actualité ! »

De la gouvernementalité des comportements

Les algorithmes ne sont-ils pas que la face visible de la gouvernementalité des comportements ?, questionne un participant. Induire des comportements par-delà la volonté des gens, nous renvoie à tout le champ de l’économie comportementale… N’assistons-nous pas à la privatisation de la construction du réel ?, interroge un autre… Une privatisation du réel qui a commencé avec les journaux télévisés par exemple, qui ont une énorme influence sur ce que les gens pensent du réel, sur la façon dont ils perçoivent la criminalité par rapport à sa réalité statistique…

Alors que la statistique joue le rôle de preuve dans la criminalité, les usages des statistiques dans le datamining ne sont pas faits à des fins de preuves, répond la philosophe. Le but n’est plus de dire quelque chose du réel, mais de produire des catégories pour l’organiser. Fort heureusement, la télévision ne diffuse pas encore de programmes personnalisés, ce qui n’est pas le cas d’un Amazon par exemple, qui nous renvoie des livres, des contenus, liés à ce qu’il connaît de nous.

Assurément, la disparition du client est bien l’intention de cette construction, estime Daniel Kaplan de la Fing. Par contre, on peut questionner l’envoutement qui a lieu, car la pertinence et l’efficacité des Big Data ne sont pas vraiment au rendez-vous… Même le marketing personnalisé, ce Saint-Graal, ne marche pas. Nous sommes le plus souvent condamnés à voir partout en ligne des appareils photos si par mégarde vous avez tenté de vous renseigner sur l’un de ces appareils, et à continuer à les voir même après être passés à l’achat… Les algorithmes sont très inefficaces finalement… « On voulait produire de la fidélisation avec les données, et on n’a produit qu’un commerce désagréable. Ne sommes-nous pas là, face à un dispositif qui nous raconte une histoire qui n’est pas celle qu’elle réalise ? »… L’assurance dans son principe, par exemple, est le contraire de la tarification individualisée et une compagnie a même été condamnée pour avoir tenté de proposer des tarifs différenciés entre hommes et femmes…

Que cela marche ou pas n’est pas la question, rappelle Antoinette Rouvroy. Oui, souvent ça ne marche pas, ou ça marche mal… Effectivement, l’assurance est un système qui mutualise. Si on fait de la personnalisation dans l’assurance, on la vide de sens.

Vers une société sans classes sociales

Dominque Cardon (@karmacoma), sociologue à Orange Labs et professeur associé au Laboratoire techniques territoires et sociétés de l’université de Marne la vallée, est venu faire une présentation dans la continuité de celle d’Antoinette Rouvroy. La donnée est devenue omniprésente et focalise toutes les promesses que le monde numérique ne cesse de faire. Mais elle nous fait croire qu’il y aurait une relation directe, une chaine immédiate et transparente entre la donnée et le résultat. Il suffit de produire des données pour avoir le résultat attendu. « C’est comme s’il n’y avait aucune médiation, aucun intermédiaire… rien d’autre que d’autres algorithmes », mais ce n’est pas vraiment la réalité, tempère le chercheur, « travailleur de la donnée ». Les médiations sociotechniques ont toujours été au coeur de nos sociétés. Elles s’immiscent entre la donnée et les résultats. Les données sont sales, incomplètes, leur traitement est compliqué, elles ne sont pas catégorisées et leurs catégorisations posent de lourds problèmes… « Or la catégorisation est le point central des sciences sociales », rappelle le sociologue. Pour les prophètes des Big Data, la question de la représentativité ne semble pas se poser. C’est comme si on passait d’une statistique hypothético-déductive à des méthodes auto-apprenantes capables de produire des interprétations sans faire d’hypothèses préalables. « Avec les Big Data, il suffit que les données soient corrélées pour que les corrélations apparaissent, sans qu’il soit nécessaire de trouver leurs causes ». Avec les Big Data, on abandonne l’échantillonnage et la représentativité : on peut se passer de l’effort de la représentation de la société en catégories structurées…

Bienvenue à l’ère de la crise des catégories statistiques, qui semblent rendre les catégories sociales moins importantes, mais qui soulignent surtout combien il devient difficile de décrire notre société par des catégories pour débattre des inégalités, de la répartition des richesses… Partout, les catégories semblent en crise, partout elles sont contestées, relativisées par la critique même des catégorisations. Et quand on dispose des données, on ne regarde plus les catégories, comme si elles disparaissaient au profit des individus. L’utilisation des données met en scène les individus, notamment par le truchement de la carte, pour développer la personnalisation plutôt que la catégorisation. Le zoom s’adapte à chacun de nous, mais nul ne peut plus dézoomer pour rendre la carte cohérente.

Comprendre les algorithmes

Il faut aussi interroger la « pertinence » des algorithmes, estime Dominique Cardon. Ce qui marche reste des choses simples et triviales, qui renvoient à des modèles statistiques éprouvés plus qu’aux promesses des nouveaux modèles d’apprentissages. Google Flu est tout de même la promesse la plus bête qui soit et d’ailleurs, elle ne marche pas si bien. Le discours du marketing publicitaire personnalisé qui se réaliserait à partir de données hétérogènes (dont le traitement est en lui-même problématique) est un discours qui ne se réalise pas dans les faits. La publicité sur Facebook n’est pas cliquée. Il est revenu à un système publicitaire très classique, celui du retargeting.

D’autres choses marchent bien, notamment quand les données sont calibrées. Le filtrage collaboratif comme le pratique Amazon, marche relativement bien, estime le chercheur. Il arrive à faire une bonne appréciation des la combinaison des goûts en s’appuyant sur une simple loi d’homophilie qui veut que nous ayons tendance à avoir les mêmes goûts que nos proches, et qui sont elles-mêmes organisées par les habitus et les pratiques sociales.

Nous avons besoin d’une anthropologie des algorithmes, estime le chercheur. Mais n’en faisons pas une opposition entre machines et humains. Les machines semblent nous calculer, nous domestiquer, nous rationaliser… On leur renvoie notre liberté sublime. Mais Bruno Latour et Alain Derosières, nous disent l’un comme l’autre d’entrer dans les algorithmes, de les déchiffrer, de comprendre ce que leurs programmeurs voulaient qu’ils fassent. Il faut regarder leurs intentions. C’est ce qu’a fait d’ailleurs Dominique Cardon en enquêtant sur, le PageRank, l’algorithme de Google. Pour le sociologue, le PageRank est un programme vertueux de défense de l’esprit du web des pionniers pour que la qualité soit au coeur du fonctionnement d’internet, à l’image de leur modèle, celui de la citation scientifique. Ce que défend le PageRank c’est une intention du monde, avec une finalité économique. Le monde que décrit Google, c’est un monde de méritocratie. C’est un modèle très attirant qui vise à rendre visible les meilleurs. Mais c’est aussi un modèle très sélectif, très excluant. En regardant l’algorithme de Google, on se rend compte que le monde que promeut Google, est un monde de l’excellence. Et de nous inviter à regarder la manière dont les différentes formes de classement dessinent des modes d’affinité pour mieux comprendre les valeurs des organisations qui les produisent.

Cela suppose une dernière chose, estime le chercheur : un vrai travail d’éducation aux algorithmes. Car les gens ne savent pas comment fonctionnent ces boites noires. Or, ils doivent pouvoir vérifier que les algorithmes font bien ce qu’ils disent qu’ils font, c’est-à-dire que leur fonctionnement est bien aligné aux discours qu’ils annoncent. Qu’Amazon fasse bien du filtrage collaboratif sans mettre en avant des livres qu’il n’a pas vendus ou qui n’ont pas été achetés par des profils proches du vôtre… Une manière d’inviter le public à la surveillance des algorithmes.

Oui, concède Antoinette Rouvroy, le PageRank a bien un caractère vertueux. Il transforme toute référence en citation. Or, la référence est souvent percluse de connotations. Avec le PageRank, le lien qui dit je ne suis pas d’accord équivaut à celui qui dit je suis d’accord. La référence oublie la signification. Qu’elle soit positive ou négative, elle vaut le même nombre de points pour le PageRank. La mesure quantitative se substitue à toute forme de qualité !

Tout à fait, répond Dominique Cardon. C’est le principe même de l’algorithme de Google, faire de l’approximation de la qualité. La chaine de médiation calculatoire nécessite une transformation. Il fait disparaître le contexte pour transformer la référence en citation. Mais c’est le cas de nombre de systèmes, comme le système électoral. Les motifs personnels qu’on investit dans son vote disparaissent dans la personne pour laquelle on a voté. On assemble des significations hétérogènes pour en faire du sens.

Hubert Guillaud

À lire aussi sur internetactu.net

1 commentaire

  1. Très intéressant, le point de vue d’Antoinette Rouvroy, merci ! Il porte bien sur le fait d’être tracé et sur la façon dont ces traces sont utilisées
    (alors que le débat français est souvent limité à une recherche de bons et de méchants, recherche d’ailleurs très courte, le bon étant identifié à « moi » et le méchant, la grande entreprise).

    L’approche de Mme Rouvroy est à la fois plus pragmatique et plus solide au plan théorique !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *