Théorie du drone : de la fabrique des automates politiques

Théorie du droneLe livre de Grégoire Chamayou, Théorie du drone, est passionnant. Bien sûr, il est passionnant pour son implacable analyse du drone armé et de la façon dont cet « instrument d’homicide mécanisé » transforme la conduite de la guerre. Mais pour ma part, je n’ai pas lu ce livre comme un ouvrage sur les questions éthiques, psychologiques, sociales, juridiques et politiques que posent cette nouvelle arme de guerre, mais bien comme un livre sur les nouvelles technologies et ce qu’elles transforment. Et cette lecture-là en change radicalement la portée. Car derrière la fabrique des « robots léthaux autonomes », cette chasse à l’homme moderne, on peut comprendre les transformations qu’induisent la fabrique des automates de notre monde moderne.

La police des schémas : l’activité, alternative à l’identité

Grégoire Chamayou ouvre son livre par des extraits d’échanges entre pilotes de drones, comme l’a raconté l’ancien pilote Brandon Bryant. Le style mis à part, on se croirait chez Tolstoï, Céline ou Claude Simon, décrivant le grand n’importe quoi de la guerre. Des gens tentant de raisonner, de rassembler des éléments d’analyses devant des images floues, illisibles, pour savoir si les formes qu’ils aperçoivent sur leurs écrans « méritent » d’être éliminées. En fait, nous sommes dans une bataille comme une autre, où les coups et les tirs pleuvent sans raison, déments par nature. Même derrière des écrans, même à des milliers de kilomètres des lieux de combats, la guerre reste la guerre.

Ce que souligne longuement le livre est bien que les drones nous font entrer dans une nouvelle forme de conflits, asymétrique par nature, unilatéral même, qui élimine tout rapport de réciprocité, qui fait de l’arme du lâche, l’arme « humanitaire » par excellence, mais qui surtout redéfinit le conflit, transforme le droit des conflits armés en droit à l’assassinat ciblé. La guerre n’est plus un duel, mais une chasse à l’homme, une campagne sans fin d’exécutions extrajudiciaires qui se font en dehors du droit de guerre.

L’essentiel des frappes ne visent pas des personnalités nommément identifiées, mais avant tout des « signatures », c’est-à-dire des individus dont l’identité demeure inconnue, mais dont le comportement laisse supposer, signale ou signe une appartenance à une organisation terroriste ou le port d’armes. L’armée se base sur les agissements, sur une « analyse des formes de vie » (pattern of life analysis), sur l’étude des modèles, des motifs, l’identification des schémas aberrants.


Vidéo : reportage sur les drones de Loïc de la Mornais, diffusé le 17 janvier 2012 sur France 2 dans le cadre de l l’émission Geopolis.

« Tout un chacun a une forme ou un motif de vie. Vos actions quotidiennes sont répétitives, votre comportement a ses régularités (…). Toute dérogation à la norme que vous avez vous-même établie par vos habitudes, tout écart avec les régularités de votre comportement passé peut sonner l’alerte : quelque chose d’anormal, et donc de potentiellement suspect, est en train de se produire. (…) Cette méthode relève du « renseignement fondé sur l’activité ». De la masse de données collectées au sujet d’un individu, d’un groupe ou d’un lieu, émerge progressivement des « patterns », des motifs repérables. L’activité constitue une nouvelle alternative à l’identité. »

Toute anomie, toute irrégularité dans notre comportement signale une menace, déclenche une alerte. Et, au-delà du drone, c’est bien cela qui est enjeu dans l’analyse du monde, de nos réseaux de relations, de nos comportements que promet l’analyse des grandes masses de données régies par les algorithmes, dont le drone est une forme d’instanciation. Comme le précise Grégoire Chamayou dans une interview pour Libération : « Votre mode de vie nous dit qu’il y a, mettons, 90 % de chance que vous soyez un militant hostile, donc nous avons le droit de vous tuer. Mais là, on glisse dangereusement de la catégorie de combattants, à celle, très élastique, de militants présumés. » Comme le souligne encore l’auteur, l’ennemi n’est plus le maillon d’une chaîne de commandement, mais un noeud, inséré dans des réseaux sociaux.

Le problème est que cette activité produit des images aussi floues que l’oeil surpuissant des drones. « Vu du ciel, rien ne ressemble plus à une réunion de militants qu’une réunion de village. » Dans les corrélations dont nous sommes l’objet, nous sommes réduits à des produits de données, des profils imparfaits, un assemblage d’indices concordants « suffisamment bons » (good enough) pour déclencher une réponse… ou plus précisément ici, une destruction. Mais sont-ils « suffisamment bons » ?

Comme le souligne le philosophe, « la quantité des indices ne saurait se convertir en qualité » : « un même schème peut par définition correspondre à divers phénomènes hétérogènes ». Comment pouvons-nous alors accepter que notre appartenance, que notre identité soient induites de modèles très imparfaits ? C’est pourtant bien que ce proposent les corrélations issues des Big Data dont nous sommes l’objet. Une très imparfaite police de nos activités, une surveillance sociale instruite par des machines, déclenchant des réponses automatisées, dont celle des drones n’est que la plus radicale.

En fait, le problème n’est pas l’imperfection de la surveillance de nos activités. Le problème n’est pas l’amélioration des algorithmes, des images, des modèles prédictifs, de l’identification des schémas… permettant d’atteindre et cibler des personnes d’une façon toujours plus « juste », plus « fine », plus « exacte « , plus « précise »… Le problème repose avant tout sur l’objet de ces surveillances : nos traces, nos activités, nos motifs de vie. Dans le glissement insidieux des opérations de guerre à des opérations de police extrajudiciaire, ce ne sont plus nos identités qui sont en cause, mais nos activités. Qu’importe si la corrélation remplace la causalité. Les erreurs commises par les frappes probabilistes sont silencieuses, tout comme ceux qui demain seront discriminés par les algorithmes dans leurs emplois par exemple – toute proportion gardée. A l’heure des drones, nous sommes nous-mêmes la cause de notre mort : ce sont les mouvements inappropriés de nos corps, les traces de nos activités qui enclenchent le mécanisme automatique de notre propre discrimination, de notre propre élimination.

Qui promeut l’automatisation du monde ?

« L’erreur politique serait en effet de croire que l’autonomisation est en elle-même automatique. Organiser le dessaisissement de la subjectivité politique devient aujourd’hui la tâche principale de cette subjectivité même. Dans ce mode de domination, qui procède par la conversion de ses ordres en programmes et de ses agents en automates, le pouvoir, de distant qu’il était, se rend insaisissable. »

Où est le sujet du pouvoir ? interroge Grégoire Chamayou. « Il est précisément partout où il travaille très activement à se faire oublier ». Et le philosophe de dresser la carte de la manière dont le pouvoir justifie sa transformation, en requalifiant, recatégorisant les activités à la lumière des évolutions technologiques, comme le dit très bien Christian Fauré dans son compte rendu du livre.

Chamayou souligne que présenter le processus d’automatisation du monde comme étant lui-même automatique, inéluctable, masque que ce processus à des agents actifs qui le promeuvent. Et d’évoquer l’histoire, la genèse des outils et de leur justification théorique et technique pour expliquer comment se met en place « un dispositif typique de fabrique de l’irresponsabilité ». Comment la lâcheté de la non-présence au combat se transforme progressivement en justification humanitaire, faisant passer l’homicide mécanisé et unilatéral en machines qui « tuent humainement »

« Plus se répand la légende du robot éthique, plus cèdent les barrières morales au déploiement du robot tueur »

.

Chamayou nous invite à réfléchir à qui construit ce monde ? Qui construit la « la décision sur les paramètres de décision » ? Qui fixe la valeur des spécifications des programmes qui commandent aux drones ? A nouveau, le rapport du code à la loi, comme l’ont mis à jour les travaux de Lawrence Lessig et Jonathan Zittrain reste entier. La technologie a tendance à faire glisser l’applicabilité du droit dans nos outils, nous désistant de la fabrique de la loi, mais également de la justice des hommes.

Des outils pour déplacer l’applicabilité du droit

« Tant que celles-ci les tuent humainement, c’est-à-dire conformément aux principes du droit international humanitaire qui régit l’usage de la force armée, il n’y a aucun problème. Mais effectivement, où serait le problème ? Du point de vue de la philosophie du droit, on peut assez vite en repérer deux très importants – en réalité, rédhibitoires.

Premièrement : doter des agents machiniques du droit de tuer dont jouissent entre eux les combattants à la guerre équivaudrait à mettre l’homicide sur le même plan que la destruction d’une pure chose matérielle, ce qui constituerait assurément une négation radicale de la dignité humaine. »

Comment retrouver dans les lignes de codes, la responsabilité d’un sujet en fuite ? Pour Chamayou la crise des catégories juridiques que pose la fusion de l’arme et du combattant induit une crise radicale de l’applicabilité du droit. Cette question des nouvelles formes de responsabilité ne concerne pas que le drone, elle concerne tous les outils technologiques capables de prendre des décisions à partir de données, comme la voiture autonome, les lunettes de réalité augmentée de Google, les échanges à très haute fréquence sur les machés financiers ou les fusils autonomes… Dans cette fabrique de l’irresponsabilité, ce qui est en jeu, « c’est le mode d’implémentation de la norme juridique » et de la norme sociale, une implémentation qui pose d’autant plus de questions que la technologie elle-même n’a cessé justement de perturber les catégorisations du droit et de la société.

« Pour faire respecter les limitations de vitesse du Code de la route, on peut soit fixer des amendes et poser des radars, soit installer des limitateurs automatiques de vitesse dans chaque véhicule. Ce sont là deux modes très différents d’instanciation de la norme : texte-sanction ou contrôle technique intégré. Ou bien dire le droit et sanctionner a posteriori, ou bien « incorporer les normes éthiques et légales dans le design des armes elles-mêmes ». Mais là s’arrête l’analogie, car le robot tueur n’ayant plus aucun conducteur à son bord, il n’y aura plus aucun responsable direct à mettre en cause au cas où quelque chose se produirait. »

Ce qui est en question dans ces machines est bien de mettre à mal la responsabilité individuelle… Et derrière elle, ce qui est en question, c’est le fondement même de notre justice. « La loi promettant de devenir machine, la justice humaine peut bien périr ». Et c’est exactement ce qui se passe avec les drones et les questions qui se bousculent autour de la légalité des frappes américaines. La guerre contre le terrorisme ressemble à un programme d’assassinat d’Etat extralégal. Avec le drone, nous entrons dans une nouvelle forme de violence étatique, estime avec raison Grégoire Chamayou, qui ressemble plus à l’opération de police qu’à la guerre. Et le problème est que ces opérations de police ne sont plus délimitées ni par le droit, ni par la justice. « Prise dans une spirale sans fin, la stratégie d’éradication est paradoxalement vouée à ne jamais éradiquer. » Bienvenue dans la guerre perpétuelle, sans bornes, ni dans le temps, ni dans l’espace. L’analyse politique se dissout « dans les catégories de l’entendement policier ».

« Peut-être est-il temps de rappeler qu’en délimitant géographiquement l’exercice licite de la violence, la visée fondamentale du droit était de la circonscrire. »

Comme l’optimisation fiscale ou les échanges à haute fréquence, les technologies s’immiscent dans les failles du droit et modifient non seulement le droit, mais la façon dont la justice s’établit.

« Le crime le plus substantiel ne réside pas dans une transgression ouverte de la loi, mais dans les replis de son application souveraine. »

Qu’est-ce que l’Etat à l’heure de la police des schémas ?

La police des activités semble la première étape à l’instauration de la police de la pensée, chère à Georges Orwell. Nous entrons dans une chasse à l’homme préventive, où il s’agit moins de répondre à des attaques déterminées que de prévenir l’éclosion de menaces émergentes… Les automates politiques basés sur les Big Data et les algorithmes imparfaits sont appelés à policer nos sociétés, malgré leurs imperfections et leurs failles.

Oeil du Reaper
Image : l’oeil du Reaper, photographié par le ministère de la Défense britannique.

Nous entrons dans l’ère des panoptiques volants et armés, comme le soulignait les témoignages du rapport « Vivre dans la peur des drones », « un enfermement psychique dont le périmètre n’est plus défini par des grilles, des barrières ou des murs, mais par les cercles invisibles que tracent au-dessus des têtes les tournoiements sans fin de miradors volants ».


Image : l’artiste new-yorkais Adam Harvey imagine des vêtements anti-drône, rapporte Courrier International. Pas sûr que cela suffise à nous protéger.

Mais ce ne sont pas que les drones qui sont en question à nouveau. Pensons à la vidéosurveillance qui, malgré ses imperfections comme le soulignent tous les rapports écrits sur ce sujet, n’empêche pas les tenants de la sécurité de proposer d’élargir leur utilisation pour réprimer des infractions punies par contravention : dépôt d’ordures sur la voie publique, stationnement gênant ou interdit, etc. L’enregistrement par caméra (si elle parvient à vous identifier) suffira à verbaliser… L’enjeu, ici comme ailleurs, est bien celui de l’autonomisation matérielle et politique de l’appareil d’Etat, de sa police qui, comme la CIA, s’affranchit de plus en plus des limites du droit en s’autorisant un espionnage sans entrave, sans mandats.

Nos technologies ne doivent pas transformer nos appareils d’Etat en appareil, nous recommande Grégoire Chamayou. Les technologies transforment les rapports de pouvoir, mais nous ne pouvons pas laisser des solutions technologiques résoudre nos problèmes politiques. Quelles limites devons-nous ériger à l’analyse de la criminalisation de nos comportements ? Quelle limite imposer au bras – armé ou pas – des Etats quand l’analyse de nos comportements devient sans limites ?

Hubert Guillaud

Pour aller plus loin, n’hésitez pas à réécoutez Grégoire Chamayou sur Place de la Toile.

À lire aussi sur internetactu.net

0 commentaires

  1. C’est probablement encore pire que ce que vous évoquez, les drones sont appelés à devenir autonomes ! Plus de pilotes à distance qui pourraient modérer les réactions, juger de l’opportunité de tirer ou non, non, les drones décideront seuls de tuer selon leurs algorithmes. Plus personne n’aura la moindre responsabilité, ce sera une erreur de la machine…
    Voir le lien ci-dessous
    http://fr.rian.ru/discussion/20130517/198319611.html

  2. Nicolas Carr revient sur le rapport des Nations Unies sur l’arrivée des robots tueurs autonomes (Lethal autonomous robots ou LAR), qui sont l’étape technologique post drone, à l’image du fusil intelligent capable d’abattre une cible désignée. Les Lars sont des systèmes d’armes qui, une fois activés, permettent de sélectionner et d’engager des cibles sans intervention humaine. Si ces systèmes n’ont pas encore été utilisés dans les conflits, ils sont dès à présent près à le faire. Pour le rapporteur Christof Heyns rapporte Carr : « Ce rapport est un appel à une pause » Car une fois que les LAR seront déployés, il sera certainement trop tard pour limiter leur utilisation. Nos sociétés sont-elles capables de peser les coûts et les enjeux d’une telle technologie et choisir comment les utiliser ?

  3. A Ted, rapporte Flore Vasseur pour LeMonde.fr, l’écrivain de SF Daniel Suarez en a appelé a une mobilisation internationale contre les drones de combats et à un traité international contre leur prolifération. « Selon lui, il faut renoncer à ce le fantasme d’une guerre d’automates et créer un système immunitaire autour de la société civile. Les outils sont à portée de main : une plaque d’identification cryptolographique sur chaque drone créé, une carte en temps réel indiquant la présence de drones, des drones « civiques » susceptibles de prévenir les individus quand ils sont tracés. « 

  4. Vladimir Poutine : Les drones doivent être placés sous contrôle, RiaNovosti le 11 juin 2013 http://fr.rian.ru/world/20130611/198525206.html

    Mais c’est trop tard, on peut certes contrôler les drones de belle taille, comme ceux qui équipent les armées actuellement, mais il sera impossible de refermer le couvercle, la bête a été libérée et elle va courir seule.

    Les petits drones peuvent être bricolés dans une cuisine, n’importe où, et avec des moyens très réduits. Les éléments déterminants comme les télécommandes, les systèmes de vidéos miniaturisés et les centrales à inertie sont tellement banalisés qu’aucun contrôle ne peut-être totalement efficace. Les armes efficaces n’ont pas non plus besoin d’être volumineuses pour être radicales.

    Il faudra vivre avec et ce n’est pas réjouissant.