L’ère des images invisibles

Pour l’artiste Trevor Paglen (@trevorpaglen, Wikipédia), qui s’intéresse depuis longtemps à la surveillance de masse (voir le portrait de lui que réalisait la Gaîté Lyrique), la culture visuelle, radicalement transformée par le numérique, est pourtant en grande partie devenue invisible. « Une majorité écrasante d’images sont désormais faites par des machines pour d’autres machines, mettant rarement des humains dans la boucle », explique-t-il dans le New Inquiry. Nous entrons dans l’ère des images invisibles !

L’image n’est plus produite pour être regardée par des humains

Les spécialistes de la culture visuelle pensent que la relation entre les humains et les images a changé avec l’arrivée du numérique, c’est certainement vrai reconnaît Paglen, mais la révolution n’est peut-être pas où l’on pense. « Ce qui est vraiment révolutionnaire dans l’avènement des images numériques, c’est qu’elles sont fondamentalement lisibles par des machines », indépendamment du sujet humain. Or l’image n’a pas besoin d’être lisible ou visible par l’homme pour qu’une machine puisse en faire quelque chose. Et cette automatisation de la vision, qui tend à devenir invisible à l’homme, transforme beaucoup de choses.


Image : une photographie analysée par le programme DenseCap qui décrit le contenu des images.

Paglen souligne que nos environnements sont désormais emplis d’appareils qui font de la vision machine to machine, à l’image des systèmes de lecture automatisées des plaques d’immatriculation (cf. « Surveiller les algorithmes »). Des sociétés comme Vigilant Solutions collectent les numéros d’immatriculation des voitures reconnues par des logiciels de reconnaissance de caractères, créent des bases de données pour la police et les compagnies d’assurances… Dans les centres commerciaux, des sociétés comme Euclid Analytics ou Real Eyes (cf. « e-commerce et commerce : le temps de l’hybridation ? »), suivent les mouvements des gens dans ces espaces et analysent leurs comportements de manière totalement automatique. Dans le secteur industriel, des entreprises comme Microscan fournissent des systèmes d’imageries pour analyser les défauts de fabrication ou superviser la logistique. Autant de systèmes qui ne nécessitent pas la présence d’humain dans leur fonctionnement.

Si Facebook ressemble à un nouvel album de photos, l’analogie est trompeuse, car les images qu’on y partage servent surtout à alimenter des systèmes d’intelligence artificielle capables d’identifier les personnes, les lieux, les objets, les habitudes, les préférences… DeepFace, l’algorithme d’analyse de portraits de Facebook permet d’identifier les individus avec une précision de 97 % (cf. « Reconnaissance faciale : aurons-nous droit à la confidentialité biométrique ? »). Et Facebook a également des outils pour analyser les objets comme DeepMask et SharpMask. Et il n’est pas le seul… Google ou Amazon ont également développé leurs propres outils. « Les systèmes d’intelligence artificielle se sont approprié la culture visuelle humaine et l’ont transformée en un ensemble de données d’entraînement, massif et flexible », qui se passe très bien du regard des humains.

La traduction des images par les programmes ne produit pas seulement des taxonomies, mais avant tout des outils de régulation sociale

A l’image de DeepDream, ces systèmes de vision mécanique semblent complètement étrangers à la perception humaine. Ils produisent des abstractions mathématiques à partir des images qu’ils analysent et depuis les images qu’ils utilisent pour s’entraîner. Dans les images entraînées par les réseaux de neurones, toute personne qui tient quelque chose dans la main est susceptible d’être identifiée comme quelqu’un tenant un téléphone ou une manette de Wii. Pour Paglen, si nous voulons comprendre le monde invisible de cette culture visuelle machinique, nous devons désapprendre à voir comme des humains. Reste que ce n’est pas si simple. Notre première réaction est souvent de voir leurs erreurs quand ils tentent de catégoriser une image, de la traduire en mots : des erreurs qui se régleront avec de meilleures données d’entraînement, comme le montre les progrès incessants de ces systèmes. Or, rappelle-t-il, « parce que ces opérations fonctionnent sur un plan invisible, il est plus difficile de les reconnaître pour ce qu’elles sont : des leviers de régulation sociale extrêmement puissants. Des leviers de régulation d’intérêts de race et de classe qui se présentent sous une forme objective. »

« Ce monde invisible des images n’est pas simplement une taxonomie alternative de ce qui est visible. Il s’agit d’un exercice actif du pouvoir adapté à la police et aux opérations de marché, conçues pour s’insérer toujours plus avant et profondément dans la vie quotidienne. »

Comment dénoncer le nouveau rôle actif des images ?

Et Paglen de donner l’exemple du développement de la vidéo-verbalisation, permettant aux caméras de surveillance de verbaliser automatiquement un contrevenant juste par l’analyse automatique de ce qu’il se passe à l’image. Vigilant Solutions, qui dispose d’une base de données de milliards de plaques d’immatriculation de véhicules a annoncé avoir signé un contrat avec des autorités locales du Texas : en échange de l’utilisation de sa base de données, la police lui fournit le registre des mandats d’arrêt et des frais judiciaires en souffrance. Vigilant associe alors certaines plaques aux amendes en cours et fournie l’information à la police. Lorsque celle-ci repère une plaque d’immatriculation contrevenante, le policier intervient pour que le contrevenant règle l’amende qu’il doit ou soit arrêté et Vigilant récupère 25 % du prix de l’amende payée. Les opérations politiques sont claires : les municipalités sont incitées à équilibrer leurs budgets, à transformer leurs polices en percepteurs et à vendre des données de surveillance à des entreprises privées. Pour Paglen, c’est là une illustration parfaite de la capacité à utiliser l’imagerie et la détection automatisée pour extraire toujours plus de richesse des plus petits segments de la vie quotidienne. Et l’artiste d’imaginer demain un algorithme de FB qui identifie quelqu’un qui boit à une fête et qui envoie l’information à des annonceurs, à des agences de crédits ou des assureurs pour ajuster ses primes en fonction. Alors qu’une telle image n’avait aucune conséquence dans l’ère analogique, dans l’ère de la vision automatisée, la photographie ne disparaît jamais. Elle prend un rôle actif avec des conséquences à long terme pour la vie des gens, transformant chaque moment de la vie humaine en capital, pour d’autres plus que pour soi-même. Et l’artiste de dénoncer ces instruments de pouvoir, qui, par une esthétique et une idéologique de l’objectivité, réifient les formes de pouvoir.

Le problème, c’est qu’il était possible, pour les artistes notamment, d’utiliser la culture visuelle pour produire des formes de contre-culture, à l’image du travail de Martha Rosler qui a montré (vidéo) que la cuisine était une représentation d’un ordre patriarcal… Mais comment intervenir dans des systèmes machine à machine en utilisant des stratégies visuelles développées à partir de la culture visuelle d’humains à humains ?


Image : Magritte, Rosler et Opie, analysées par des systèmes de reconnaissance d’image.

Certains artistes tentent de créer des formes lisibles par les humains, mais illisibles aux machines, comme Adam Harvey et ses schémas de maquillage visant à tromper les algorithmes de reconnaissance faciale, ou encore les travaux de Julian Olivier (voir notamment « Que se passe-t-il quand les artistes pensent la technologie comme des ingénieurs ? »). Mais si ces projets sont remarquables pour aider les humains à prendre conscience d’une détection omniprésente, ces tactiques ne sont pas généralisables.

« A long terme, des stratégies visuelles pour tromper les algorithmes de reconnaissance automatisée sont une stratégie perdante », notamment parce que la recherche dans le domaine travaille à débusquer les images « contradictoires » en les incorporant dans les systèmes d’entraînement pour les améliorer. Pour Paglen, pour s’opposer aux prédations du paysage machinique, la seule solution consiste à créer des sphères de vie éloignées du marché et des prédations politiques.

« Nous ne regardons plus les images : les images nous regardent. Elles ne représentent plus simplement des choses, mais interviennent activement dans la vie quotidienne. » Et il est plus que nécessaire de comprendre ces changements si nous voulons contester ces nouvelles formes de pouvoir invisible, conclu l’activiste.

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires