L’algopolitique

Dans Les lois de l’imitation, un livre de 1890, le sociologue et criminologue Gabriel Tarde avait définit l’avenir des statistiques comme le « nouvel oeil des médias de masse ». Il écrivait : « Les [journaux] alors deviendront socialement ce que sont vitalement les organes des sens. Chaque bureau de rédaction ne sera plus qu’un confluent de divers bureaux de statistique, à peu près comme la rétine est un faisceau de nerfs spéciaux apportant chacun son impression caractéristique, ou comme le tympan est un faisceau de nerfs acoustiques. Pour le moment, la statistique est une sorte d’œil embryonnaire, pareil à celui de ces animaux inférieurs qui y voient juste assez pour reconnaître l’approche d’un ennemi ou d’une proie ». Pour le chercheur Matteo Pasquinelli (@mattpasquinelli), l’oeil des statistiques de Tarde annonce l’oeil algorithmique auquel nous sommes désormais confrontés, explique-t-il dans un récent article de recherche intitulé « La détection d’anomalies : la mathématisation de l’anormalité dans la société des métadonnées ».

Martian_face_viking
Image : un visage humain sur Mars, via Wikipedia, exemple d’interprétation erronée de motif.

Le but de ces algorithmes est de révéler un « nouveau sujet politique » : l’oeil des algorithmes tente désormais de distinguer l’individu « antisocial » de l’ensemble des individus, à l’image des travailleurs dont la productivité est mesurée par l’oeil des algorithmes comme le soulignait les travaux du groupe de recherche européen Forensic Architecture, qui dénonce les violences du développement de systèmes de contrôle sous forme de systèmes, d' »architectures », véritables pathologies du monde moderne.

Le capitalisme du calcul : enfermé dans les datascapes

« L’oeil des algorithmes enregistre des modèles communs de comportement dans les médias sociaux, des mots clefs suspects dans les réseaux de surveillance, des tendances d’achats ou de ventes sur les marchés ou l’oscillation de la température dans certaines régions du monde. Ces procédures de calcul de masse sont assez universelles, répétitives, automatiques et inaugurent une nouvelle ère de complexité épistémique. »

Pour Pasquinelli, la gouvernance algorithmique repose sur la reconnaissance des formes et la détection d’anomalies, qui sont les deux faces d’une même pièce : une anomalie se détecte qu’au travers de la régularité d’un motif, et, inversement, une tendance se dégage que par l’égalisation de la diversité des celles-ci.

Pour Pasquinelli, le problème de la cartographie de l’internet est né avec lui, mais il a fallu attendre 1998 et la construction du premier centre de données de Google pour voir naître la société de métadonnées, capable de commencer à cartographier la topologie de l’internet. Si les réseaux étaient des flux d’information ouverts, comme le souligne Manuel Castells, les centres de données se sont construits sur l’accumulation de l’information sur l’information : les métadonnées. Les métadonnées divulguent « la dimension de l’intelligence sociale incarnée dans tout élément d’information ». Elles nous font passer d’une économie politique industrielle à la gouvernance algorithmique, ce « capitalisme du calcul ».

L’exploitation algorithmique des métadonnées permet de mesurer la production collective de la valeur et d’extraire la plus value des réseaux (ce que font les modèles d’affaires de Google ou Facebook), de suivre et prévoir les tendances et anomalies sociales (comme tente de le faire la science du climat ou les programmes de surveillance de la NSA), et d’améliorer l’intelligence machinique de gestion, de logistique et de conception des algorithmes eux-mêmes. Les centres de données ne sont pas seulement des espaces de stockage ou de calcul, mais des endroits d’où l’on ne cesse d’extraire du sens, rappelle le chercheur. En ce sens, ils sont des datascapes (des paysages de données), des représentations visuelles des forces quantifiables qui influencent le travail de celui chargé de les représenter, un moyen de rendre l’espace abstrait des machines perceptible comme le proposait William Gibson dans Neuromancien quand il représentait le cyberspace comme comme une ville de blocs de données entre lesquels circuler en 3 dimensions. Or, les structures algorithmiques représentent des modèles abstraits qui ne sont pas nécessairement associés avec l’expérience ou la perception. En ce sens, le processus algorithmique est un véhicule d’exploration qui s’étend au-delà des limites de la perception. Pour Pasquinelli, le datascape devient la carte qui permet de cartographier cet internet que l’on ne voit pas.

L’identification des schémas et des anomalies : vers l’algopolitique

Dans une interview pour Wired, Edward Snowden évoque MonsterMind, un système d’intelligence artificielle développé par la NSA pour surveiller les anomalies du trafic internet et détecter la source d’une attaque malveillante sans supervision humaine. La Darpa pour sa part à initié en 2010 le programme Adams (détection d’anomalies à échelles multiples), utilisé pour la détection de menaces par des individus au sein d’une organisation militaire : un programme qui a pour objet de détecter le prochain Edward Snowden comme le soldat qui va finir par péter un plomb de retour de mission.

La détection d’anomalie et la reconnaissance de formes (pattern recognition) sont les deux logiques qui permettent aux algorithmes d’explorer les grands ensembles de données, que ce soit les prévisions météorologiques, l’analyse des réseaux sociaux, les marchés financiers ou les métadonnées des communications de la population. La reconnaissance des formes c’est la reconnaissance de similarités dans les comportements de consommation, dans les requêtes des moteurs de recherche, dans les températures saisonnières…, qui soulignent une tendance dans des ensembles de données apparemment dénuées de sens, décèlent une forme dans une cacophonie. La reconnaissance de formes est ce que le philosophe Manuel de Landa appelle l’émergence de nouvelles singularités.

De l’autre côté, les anomalies sont les résultats qui ne sont pas conformes à la norme, à la tendance, au comportement moyen. Elles ne sont détectées qu’en regard des régularités, et inversement.

La détection des anomalies et la reconnaissance de formes sont les deux outils de la gouvernance algorithmique. Adams est censé identifier un profil psychologique dangereux simplement en analysant le trafic du courrier électronique des soldats à la recherche d’anomalies.

La détection d’anomalies est la paranoïa mathématique de l’Empire à l’ère des big data. Les deux fonctions de reconnaissance de formes et de détection d’anomalie sont appliquées aveuglément dans différents domaines : elles servent à la fois à prévoir les risques sismiques le long de la faille se San Andreas ou les crimes à Los Angeles, à l’image de PredPol, cet algorithme capable de détecter mieux qu’un humain dans quel quartier un crime est susceptible de se produire. Ce sont les mêmes techniques qui sont utilisées par Google et Facebook pour détecter des images pornographiques et les censurer, explique l’artiste Hito Steyerl, identifiant des modèles rassurants et des anomalies offensives dans l’analyse des images.

Apophénie : le risque de l’altération de perception

Pour Deleuze, Foucault a exploré avec le concept de biopolitique, ce pouvoir qui porte sur les populations, les relations de pouvoir entre des régimes de visibilité et des régimes d’énonciation. Or, cette opposition entre image et connaissance, entre voir et penser, s’effondre non pas quand toutes les images peuvent être transformées en données, mais parce qu’une même logique de calcul se trouve à la source même de la perception générale. « Le régime de la visibilité s’effondre dans celui de la rationalité du calcul (…). La vision algorithmique n’est pas optique, elle relève de la perception générale d’une réalité par le biais de statistiques, de métadonnées, de modélisation et de mathématiques. Alors que l’image numérique est à la surface du capitalisme numérique, son interface quotidienne et sa dimension spectaculaire est liée à la vision algorithmique, à son noyau de calcul et de puissance. »

Canguilhem, Foucault, Deleuze, Guattari, l’ensemble des études post-structuralistes, ont écrit sur l’histoire de l’anomalie et la constitution toujours politique de l’anormal. Mais, la grande différence par rapport à la définition traditionnelle de la biopolitique, c’est-à-dire de la régulation des populations, est que dans la société des métadonnées, la construction de normes et la normalisation des anomalies est un processus d’étalonnage continu, en temps réel. Les formes et les anomalies redéfinissant sans cesse à la fois la tendance et les anomalies.

Le risque d’une telle société est celui de l’apophénie qu’évoquait William Gibson dans Identification des schémas : l’altération de la perception. C’est-à-dire l’expérience de voir des motifs ou des connexions de données dénuées de sens en prendre un, à l’image de ceux qui voient partout des visages humanoïdes. La gouvernance algorithmique est apophénique par essence, estime Pasquinelli, puisqu’elle cherche des tendances et anomalies dans une reconnaissance paranoïaque et une construction arbitraire de motifs politiques.

L’oeil algorithmique est encore embryonnaire, malgré la croyance excessive en sa toute-puissance. D’abord parce que les algorithmes fonctionnent toujours sur un ensemble simplifié et limité de données malgré les promesses de la transparence totale, d’accès et de croisement de toutes les données. Ensuite, parce que selon les modèles mathématiques appliqués, les résultats peuvent varier, apparaître ou disparaître. Enfin, parce qu’on oublie trop souvent que les algorithmes influencent eux-mêmes le champ qu’ils sont censés mesurer, à l’image des boucles de rétroaction des données sur elles-mêmes…

Pour Pasquinelli, l’apophénie n’est pas seulement tirer un sens faux de données, mais c’est aussi tirer du sens pour l’avenir à partir de données passées.

Pour le chercheur, pour répondre à la gouvernance algorithmique, nous devons inventer d’autres stratégies que la défense de la vie privée et la régulation du panoptique algorithmique. Peut-être en inventant de nouvelles institutions capables d’intervenir à la même échelle que celle des calculs des gouvernements, peut-être en récupérant la puissance de calcul comme un droit fondamental à l’autonomie de la société civile. « Si l’anormalité retourne à la politique comme un objet mathématique, nous devons trouver une stratégie de résistance et d’organisation pour le siècle à venir, qui soit mathématique.

Pour le dire autrement, ce que semble suggérer Pasquinelli, c’est qu’il faut produire d’autres modèles d’analyse de données pour délégitimer ceux qui sont employés. Pas sûr que ce soit si simple.

Hubert Guillaud

À lire aussi sur internetactu.net

3 commentaires

  1. Des stratégies de résistance anoptiques à la biopolitique sont en germe depuis longtemps.
    Par exemple, l’abaque de Régnier inventé dans les années 70 par le docteur du même nom, permet de à un groupe d’échapper à la réduction statistique en faisant émerger les points de vue atypiques, non dans un objectif de surveillance, mais dans celui d’une recherche de pertinence. Dans une certaine mesure, cet abaque permet aussi de confronter le groupe à ses propres processus apophéniques. Une autre expérience datant des années 80 (le Générateur poïétique) va plus loin dans ce sens en permettant de participer à la construction de paréidolies optiques, et d’observer de manière non-optique le design invisible du système qui les produit.
    Ce type d’expériences a toujours rencontré des résistances aussi vives qu’informulées car elles mettent en lumière les divers pouvoirs qui tentent de présider à la formation des jugements et des comportements dans d’autres systèmes d’interaction collective qui n’ont pas cet objectif de transparence. Non seulement, elles interrogent la légitimité des systèmes usuels comme Pasquinelli l’appelle de ses vœux, mais elles proposent quelques pistes pour en construire d’autres qui seraient un peu plus.

  2. « ont écrits » ?

    « La gouvernance algorithmique […] cherche des tendances et anomalies dans une reconnaissance paranoïaque et une construction arbitraire de motifs politiques »

    Ça reste à prouver. C’est peut-être Pasquinelli qui est paranoïaque.

  3. hello, cette équation « algo is evil » finit par être un peu réifiante et donc naïve. Le calcul, la data, le pattern peuvent être des ressources précieuses dans la compréhension et la connaissance de notre monde lorsqu’ils sont agencés dans des scénarios socio-techniques maîtrisés et matrîsables de bout en bout par les usagers. On y travaille notamment avec le projet CitizenWatt http://www.citizenwatt.paris/
    A suivre !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *