Aux États-Unis, les initiatives d’interdiction de l’utilisation de la reconnaissance faciale par la police de quelques villes américaines (on parle de moins d’une dizaine : 4 villes ont voté une interdiction – San Francisco, Oakland, Berkeley et Somerville – et autant ont des projets en ce sens) ou le projet de loi de l’État de Californie – qui vient d’être voté ! – d’interdire l’utilisation de la reconnaissance faciale dans les caméras de corps des policiers demeurent très limitées et toujours très circonscrites. Les appels à moratoire qu’ils émanent de chercheurs comme d’associations de défense des libertés publiques, d’actions de groupes… demeurent pour l’instant éparpillés, peu relayés et assez marginaux. Les mobilisations citoyennes pour limiter leur déploiement sur l’espace public (de l’EFF qui appelle également à un moratoire, comme les nombreuses actions de l’ACLU de dénonciations de ces technologies ou encore de l’association des défenses des libertés civiles Fight for the Future – qui a lancé Ban Facial Recognition – voir leur cartographie d’initiatives) demeurent elles aussi timides et isolées, souvent circonscrites à certains types d’usages, particulièrement les usages de police et de surveillance d’État. Alors que l’usage de ces technologies est bien plus difficile à contester dans le champ de la sécurité privée, de l’usage personnel ou de l’authentification d’identité…
Y’a-t-il une bonne et une mauvaise reconnaissance faciale ?
Certes, la contestation gagne d’autres secteurs que son utilisation par la police, souligne la Technology Review : l’école, les parcs, les immeubles d’habitation et même les entreprises privées… Le groupe de défense des droits numériques, Fight for the future, a lancé des campagnes contre l’utilisation de la reconnaissance faciale par les compagnies aériennes ou dans les festivals de musique et salles de concert (et notamment contre le projet Blink Identity, qui propose de remplacer les tickets d’entrée aux concerts par un système de reconnaissance facial)… La ville de Portland envisage d’interdire la technologie de la reconnaissance faciale dans les entreprises privées de son territoire en réaction au fait que des magasins et des centres commerciaux commencent à s’équiper de ces technologies pour filtrer leurs publics ! Au Congrès américain, des représentants travaillent à un projet de loi fédérale pour interdire la reconnaissance faciale dans les logements sociaux – enfin, seulement ceux financés par le gouvernement fédéral. À New York, les habitants d’un immeuble à faible revenu se battent contre le projet de leur propriétaire de leur imposer un système de reconnaissance faciale à l’entrée !
Des juristes soulignent que le droit actuel, qui interdit la discrimination dans les lieux publics peut largement être utilisé pour combattre cette technologie. D’autres soulignent que les protections des consommateurs peuvent aussi être convoquées : la détection d’émotion – une technologie extrêmement problématique – peut être attaquée du fait qu’elle produit des résultats déloyaux et trompeurs. Reste que cela n’exclut pas tous les usages, loin de là ! Comme le souligne le philosophe Evan Selinger (@evanselinger), la distinction entre reconnaissance faciale gouvernementale et privée est une distinction peu pertinente. « Normaliser l’une, normalise l’autre ». « Une fois que tout le monde est habitué à utiliser le système de reconnaissance faciale de Facebook, « il devient beaucoup plus difficile de dire que les forces de l’ordre, qui sont censées veiller sur « le bien », devraient ne pas y avoir accès. » Si une reconnaissance faciale est acceptée comment justifier l’interdiction de l’autre ? Les deux pans du secteur fonctionnent de concert !
Enfin, le secteur privé n’a pas renoncé à faire entendre sa voix et à définir ses règles, comme l’a affirmé le PDG d’Amazon. Microsoft avait accepté de restreindre sa technologie, mais le projet de loi de l’État de Washington à l’encontre de ces technologies que la firme avait initiées a volé en éclat suite au départ d’associations de défense de la vie privée qui l’ont jugé trop conciliant.
Comme le pointait déjà le philosophe Evan Selinger, il n’y a pas de bonnes ou de mauvaises utilisations de la reconnaissance faciale, il y a un ensemble de technologies proposées sous forme de produits qui se présentent comme neutres, décorrelés d’enjeux de société… Des technologies qui semblent anodines ou de commodité, alors qu’elles transforment en profondeur nos rapports sociaux ainsi que les équilibres des droits qui définissent la vie privée, l’existence collective comme les libertés.
La reconnaissance faciale n’est pas une technologie, c’est une idéologie !
La reconnaissance faciale ne désigne pas une technologie particulière, mais un ensemble, une gamme, une écologie de techniques, dont les intrications et imbrications démultiplient et renforcent les effets. C’est un ensemble de technologies de fichage, de surveillance, de détection, d’authentification et d’identification biométriques et comportementales, qui reposent sur des données éminemment personnelles, dont nous devrions, en tant qu’individus, conserver la maîtrise. Or, les principes techniques mis en oeuvre par la reconnaissance faciale nous en destituent, puisqu’ils consistent à confier à un traitement particulier les conditions de détection, d’authentification ou d’identification sur des critères, selon des modalités et des finalités qui non seulement bien souvent nous échappent (notamment parce qu’ils ne nous sont pas expliqués) mais plus encore nous échappent d’autant plus que les croisements, recoupements et traitements évoluent par-devers nous. Le coeur du problème de cette gamme de technologie, c’est justement leur capacité à évoluer, à induire d’un traitement un autre traitement, à changer de finalité, à être utilisée pour d’autres buts que ceux pour lesquels ils nous ont été présentés, proposés, vendus. Cette plasticité rend ces techniques très évolutives et leur encadrement très difficile.
Pour paraphraser Kate Crawford, la reconnaissance faciale, c’est à la fois un ensemble de technologies, une pratique sociale et une infrastructure industrielle… qui par nature classent, catégorisent et recoupent… Elle constitue donc une idéologie : un système de pouvoir qui fonde une façon de voir le monde, qui induit que la sécurité est plus importante que la liberté, que le contrôle est plus important que la vie privée.
La reconnaissance faciale peut-elle avoir des limites ?
Pour l’excellent Real Life Mag (@_reallifemag), Os Keyes (@fairbandish), nous rappelle que rendre la reconnaissance faciale illégale ne suffira pas. Si ce travail de protestation à l’encontre des effets de cette technologie est nécessaire, « le fait de mettre l’accent sur cette technologie en particulier, comme si c’était un concept discret qui pouvait être combattu de manière isolée » est plus problématique. Il ne suffit pas de la bannir pour résoudre les problèmes que la reconnaissance faciale pose, notamment parce qu’elle dépend d’un large éventail d’infrastructures (de technologies, de pratiques…) qui la rende possible, et au premier chef, la vidéosurveillance, dont, comme le rappelait le sociologue Laurent Mucchielli dans son livre, on cherche encore les effets.
Les travaux de Simone Browne (Dark Matters, on the surveillance of Blackness, Duke University Press, 2015, non traduit), C. Riley Snorton (Black on Both Sides : A Racial History of Trans Identity, University of Minnesota Press, 2017, non traduit) ou Toby Beauchamp (Going Stealth, transgender politics and US surveillance practices, Duke University Press, 2019, non traduit) ont montré combien cette technologie est la conséquence d’une société xénophobe, coloniale et répressive qui a donné naissance à une surveillance oppressive, racisée, genrée et biaisée. C’est l’anxiété paranoïaque de nos sociétés qui nous ont conduit à légitimer toujours plus de surveillance. Les technologies d’exclusion et de contrôle que sont la reconnaissance faciale et la biométrie, ont longtemps été testées « hors de vue » : aux frontières, dans les prisons, dans des espaces spécifiques… avant d’être naturalisées au-delà de ces espaces clos et de s’étendre d’une surveillance spécifique à une surveillance toujours plus vaste des comportements déviants. Rendre la reconnaissance faciale possible nécessite à la fois de mettre au point des infrastructures techniques spécifiques et d’accomplir une acceptation culturelle de longue ampleur. Tout comme de rendre acceptable la vidéosurveillance sur laquelle la reconnaissance s’appuie.
Les développements techniques qui ont rendu possible la reconnaissance faciale ne reposent pas uniquement sur l’amélioration progressive des algorithmes. Le développement de caméras à haute définition, leur intégration urbaine, comme les progrès de la modélisation 3D ont beaucoup contribué aux progrès de ces techniques. « L’exactitude » de la reconnaissance permet désormais à ceux qui l’utilisent de rêver d’un système de surveillance quasi parfait, continu et total – ce qui ne signifie pas qu’ils soient sans biais ni erreurs, car à mesure qu’elle se déploie, les biais et erreurs sont plus nombreux, notamment à l’encontre des publics les plus vulnérables. Mais surtout pointe Os Keyes, ce rêve repose sur le déploiement de technologies matérielles, logicielles, infrastructurelles (réseaux vidéo, systèmes de stockage et de traitement…). « Et cette infrastructure, une fois mise en place, contient toujours un potentiel pour la reconnaissance faciale, qu’elle soit bannie ou pas, et qui peut donc être réaffectée à d’autre fin de surveillance » (reconnaissance de plaques minéralogiques ou de conformité de véhicules, etc.). Pour le dire plus simplement : interdire la reconnaissance faciale ne démonte pas les caméras pour autant ! La surveillance, elle, ne disparaît pas : d’abord parce que la surveillance, même sans automatisation, continue. Pire, souligne Os Keyes, le squelette de l’infrastructure de surveillance étant intacte, la menace de son retour est permanent. Il suffit d’un changement de majorité municipale pour qu’une interdiction ne soit que temporaire.
La philosophe de l’université de l’Oregon, Bonnie Sheehey, dénonçant cette « paranoïa algorithmique » parle de « gouvernementalité temporelle » : même en l’absence de surveillance automatique, nous devons désormais fonctionner comme si elle s’était produite ou pouvait potentiellement se produire !… Et ce d’autant plus que cette techno bon marché ne nécessite qu’une mise à jour logicielle pour être réactivée ! Pour Os Keyes, l’interdiction de la reconnaissance faciale est un préalable, mais qui n’offrira une protection durable que si on la colle aussi sur l’oeilleton de chaque caméra installée !
Du déverrouillage de nos téléphones à la vidéosurveillance généralisée, il y a bien sûr des stades différents, des outils différents. Mais la reconnaissance faciale poursuit de l’un à l’autre le même objectif : mettre des caractéristiques biométriques en base de données. C’est cet objectif-là qui est et demeure foncièrement dangereux, foncièrement glissant. Le problème avec la reconnaissance faciale n’est pas un problème technique, n’est même pas que la reconnaissance bogue, marche ou ne marche pas. Le problème de son utilisation est profondément politique. Elle porte sur ses effets à terme pour la société. Veut-on d’une manière ou d’une autre mettre les caractéristiques spécifiques des gens en base de données, leur allure, leur visage ? Veut-on rendre l’anonymat impossible ? Veut-on rendre la surveillance totale ? Apple ou Amazon qui sont aujourd’hui parmi les plus grands promoteurs de cette technologie auprès du plus grand public via le système de déverrouillage des iPhone par le visage et les caméras Ring, qui visent à nous habituer à ces technologies, ont, de par les choix qu’ils ont faits, une action profondément politique et idéologique.
La technologie aujourd’hui permet de transformer une idéologie en acte anodin, ou plutôt d’incorporer une idéologie dans le comportement anodin des individus. Acheter une caméra pour mettre à sa porte d’entrée ou un téléphone semble un acte de pure consommation, alors qu’il vise à faire entrer la techno-police dans la tête dans les gens. Leur portée politique est diluée dans la masse de nos comportements. Chacun de nos microchoix, chacun de nos achats demeure pourtant profondément politique.
La reconnaissance faciale : symptôme d’un modèle de société
En luttant contre la reconnaissance faciale, nous ne faisons que lutter contre le symptôme d’une maladie bien plus large, dont il sera plus difficile de nous défaire. C’est le modèle de société, l’idéologie que véhiculent ces technologies qui doivent être interrogées et refermées.
Dans une tribune pour le New York Times, le journaliste Thorin Klosowski (@kingthor) explique qu’il y a quelques années, il a acheté une caméra de surveillance pour équiper son garage, suite à un cambriolage. La caméra n’a depuis rien enregistré d’autre que ses propres allées et venues… tant et si bien qu’il a fini par la démonter. En en parlant avec la professeure de droit de l’université de Californie, Elizabteh Joh (@elizabeth_joh), celle-ci lui a sèchement répondu : « En fait, vous n’avez pas acheté un appareil de surveillance. Vous avez adopté une autre vision du monde ! ». C’est exactement ce que dénonçait Os Keyes. En achetant une caméra de surveillance, on adhère à une vision du monde dont les effets ne se résument pas à assurer sa propre protection et qui dépassent le simple achat d’un objet anodin.
Pour Thorin Klosowski, cela montre bien que ce n’est pas parce que la surveillance domestique n’a jamais été aussi simple et abordable, accessible, que nous devons l’utiliser. Aujourd’hui, toutes les maisons de ses voisins sont équipées de caméras de surveillance domestiques, constate-t-il (voir notamment « Quel contrôle démocratique sur la vidéosurveillance privée en réseau ? »). Désormais, ce ne sont plus seulement les États ou les entreprises qui sont devenus les maîtres de la surveillance, c’est également chacun d’entre nous ! Désormais, il devient courant de se rendre compte qu’une caméra ou qu’un assistant vocal a enregistré les propos de la nounou ou d’amis en visite à la maison… Sans parler des questions que posent les dispositifs de suivis de localisation qui donnent des informations à ceux qui les administrent sur les endroits où se sont déplacés leurs proches.
Pour Thorin Klosowski, nous sommes individuellement confrontés à un problème éthique qui est plus large que les situations particulières où il se déploie. Et ce d’autant plus que plus nous sommes exposés à la surveillance, plus nous avons tendance à être à l’aise avec… Ce dernier constat est certainement un peu rapide. Le fait que la reconnaissance faciale se banalise ne signifie pas pour autant que nous l’acceptons. La différence que Klosowski ne note pas, c’est que ce n’est pas la même chose de maîtriser ces outils que d’en être la victime. Le pouvoir qu’ils confèrent est profondément asymétrique, il suffit que cette asymétrie se retourne pour inverser la perspective… Dans la surveillance, celui qui surveille n’est pas dans la position du surveillé. Celui qui pilote la caméra, qui en regarde les enregistrements et alertes, n’est pas dans la même position que ceux qui sont écoutés ou regardés par-devers eux. Dans la reconnaissance faciale, celui qui est reconnu et autorisé n’est pas dans la position de celui qui n’est pas reconnu ou non autorisé. Le fait de regarder qui s’est présenté à la porte de son domicile, d’écouter ce qu’a dit la nounou ou nos proches en notre absence… n’est pas la même chose pour nos proches ou la nounou que pour celui qui voit et écoute ce qui s’est dit. Si nous mettions des caméras de surveillance dans toutes les chambres à coucher de France, comme le pointait avec provocation il y a presque 10 ans le journaliste Jean-Marc Manach, le risque est que ceux qui y commettent leurs crimes puissent seuls accéder et effacer les fichiers !
Il y a 10 ans, Manach concluait son article en rappelant que « La vidéosurveillance, la biométrie, les fichiers policiers et autres mesures ou technologies de surveillance peuvent être utiles. Dans certains cas, bien précis, encadrés, et en respectant la loi. Ce qui est souvent loin d’être le cas. Ce qu’il convient de rectifier. » Nous nous sommes rendu compte depuis que les cas précis, encadrés et respectant la loi étaient par nature glissants. Que les lois et les innovations n’ont cessé d’étendre la reconnaissance faciale et avec elle l’intrication des technologies de surveillance. Que c’est cela que nous n’arrivons plus à cadrer et qui transforme la nature même de ces technologies, les faisant passer du statut d’utilité limitée à dangereuses par nature.
Hubert Guillaud
Ce dossier qui devait avoir 3 parties, n’en propose que 2 :
- Première partie : « la reconnaissance faciale n’est pas une technologie, c’est une idéologie ! »
- Deuxième partie : Quelles discriminations notre société est-elle prête à accepter ?
0 commentaires
Effectivement ce n’est pas une technologie mais une idéologie. C’est ce que j’ai essayé de dire à la fois dans la pétition contre la reconnaissance faciale et mon intervention au « téléphone sonne » pour dire que c’est un changement du contrat social. On passe d’une société de responsabilité individuelle à une société de surveillance pour tous. Ce qui m’étonne , c’est le peu de réactions que cela provoque dans la société. Est-ce déjà trop tard ? A-t-on déjà accepté une société de surveillance généralisée ? Si vous avez encore un espoir, il faut se mobiliser pour lutter contre cette idéologie. http://chng.it/tdx8XQYy
En revenant sur le développement de la techno-surveillance familiale, depuis l’invention du babyphone suite à la panique générée par l’enlèvement du bébé Lindbergh jusqu’aux innombrables moyens qui existent désormais pour surveiller ses enfants, la chercheuse Hannah Zeavin souligne dans Real Life Mag, combien le fantasme de la surveillance justifie sa pratique, en la présentant toujours comme une avancée morale, éthique, plutôt que comme un choix politique. Pourtant, rappelle-t-elle, la techno-surveillance ne faire que renforcer les angoisses qu’elle prétend apaiser !
Luke Stark et Jevan Huston parlent désormais des risques du déploiement d’une IA physionomique ou phrénologique, c’est-à-dire de techniques profondément pseudo-scientifiques qu’ils proposent d’interdire.
La reconnaissance faciale s’invite désormais dans les voitures, explique le socioloque Neil Selwyn dans un article du blog sur la reconnaissance faciale mené par des chercheurs de la Monash Univeristy. De la surveillance de la conduite à l’automatisation de vos préférences de réglage, les caméras s’invitent dans les véhicules, pas seulement pour la conduite automatisée. Le problème, à nouveau, c’est celui de la commodité que proposent ses nouveaux instruments. Or, plus la techno se déploie par la commodité pour les plus privilégiés, plus il devient difficile de s’y opposer quand elle frappe les plus discriminés… D’une reconnaissance faciale individualiste, très qualibrée, et « efficace » pour les plus riches à l’adoption d’une surveillance généralisée bien peu qualibrée et démesurée pour tous et notamment les plus démunis, il y a une forme de continuité. « La surveillance de luxe », c’est-à-dire de confort, qu’évoquent David Golumbia et Chris Gilliard, expliquent très bien que la surveillance des uns est l’exact inverse de la surveillance des autres. Les plus privilégiés voient alors la surveillance comme une technologie à leur service, qui joue en leur faveur et contribuent à son acceptabilité, alors qu’elle n’a pas la même fonction et les mêmes effets pour les plus démunis. « La carotte de la surveillance de luxe pour certains autorise le bâton de la surveillance imposée à d’autres » Pour Gilliard et Golumbia, le choix isolé que nous faisons à adopter volontairement des technologies de surveillance a des impacts au-delà de soi-même. En permettant voire en exigeant la prolifération des technologies de surveillance, nous avons un impact bien au-delà de nous seuls. La frontière entre ce que nous voulons, ce qui est bon pour nous en tant qu’individus et ce qui est bon pour la société dans son ensemble a toujours été floue, mais la technologie en démultiplie les conséquences. Les privilèges individuels des nantis permettent d’affaiblir les protections collectives des plus démunis.