A quoi servent les robots sur les champs de bataille ?

Par le 06/12/10 | Aucun commentaire | 2,467 lectures | Impression

La lecture de la semaine, il s’agit une fois n’est pas coutume d’un article du New York Times paru le 27 novembre et qui s’intitule : “Des machines de guerre : recruter des robots pour le combat”. On le doit à John Markoff.

L’article s’ouvre par un reportage sur un camp d’entraînement de l’armée américaine : “Dans une fausse ville utilisée par les Rangers pour s’entraîner au combat de rue, un robot d’une cinquantaine de centimètres doté d’une caméra parcourt à toute vitesse une usine d’armement pour une mission d’espionnage. Au-dessus, un drone presque silencieux d’une envergure d’un mètre vingt transmet des images du bâtiment qu’il survole. Au sol, roule un véhicule sur chenille à l’allure sinistre, de la taille à peu près d’une tondeuse à gazon, équipé d’une mitrailleuse et d’un lanceur de grenade. Trois techniciens équipés de sac à dos se tiennent à distance de la ligne de feu, et actionnent les trois robots avec des télécommandes sans fil semblables à celles qu’on utilise pour les jeux vidéo. L’un d’entre eux fait pivoter la caméra qui se trouve sur le robot armé, jusqu’à ce qu’elle repère un sniper sur un toit. La mitrailleuse fait une pirouette, vise et tire deux courtes rafales. Si les balles avaient été réelles, la cible aurait été détruite.”

warmarkoffImage : l’animation multimédia réalisée par le New York Times donne à voir toutes les “innovations guerrières” qu’évoque l’article.

Ces machines n’ont pas comme seul avantage de protéger les soldats, poursuit le journaliste du New York Times. Jamais elles ne sont distraites, jamais leurs yeux numériques ne clignent – ils détectent automatiquement le moindre mouvement. Jamais non plus elles ne se mettent à paniquer sous le feu de l’ennemi.

“Un des meilleurs arguments en faveur de ces robots soldats, c’est qu’ils ne sont pas obligés de faire feu tout de suite”, explique l’un des membres du programme. Quand un robot est en train d’examiner un champ de bataille, le technicien qui regarde à travers ses yeux peut prendre le temps d’évaluer la scène sans faire feu sur un innocent sous le coup de la précipitation.

Cependant, l’idée que des robots sur roues ou sur jambes, équipés de senseurs et d’armes, puissent un jour suppléer ou remplacer les soldats humains est encore une source de grande controverse, poursuit Markoff. Parce que les robots peuvent supporter les attaques sans risque immédiat pour ceux qui les dirigent, les opposants à cette idée expliquent que les robots combattants abaisseraient les barrières à l’entrée en guerre, avec le risque d’encourager les nations à s’y livrer et de mener à une nouvelle course à l’armement technologique. Autre risque : la distinction entre les combattants et les innocents, qui, déjà, est incroyablement difficile à faire pour les humains, l’est encore plus pour un outil dirigé à distance. Le problème s’est déjà posé avec les drones “Predator”, qui repèrent leur cible avec l’aide de soldats sur le terrain, et dont on sait qu’ils ont été à l’origine de la mort de civils lors d’opérations en Irak et en Afghanistan.

Mais l’idée de robots combattants trouve des soutiens chez grand nombre de stratèges militaires, d’officiers, d’ingénieurs, et même chez certains défenseurs des droits de l’homme. Un des dirigeants de l’Ecole navale américaine explique à Markoff qu’on a beau craindre l’intelligence artificielle, elle sera capable de prêter une plus grande attention aux règles d’engagement et évitera les entorses à l’éthique souvent provoquées par les forces armées humaines. Les logiciels, explique-t-il, n’agissent pas sous le coup de la colère ou de la méchanceté et, dans certains cas, ils peuvent déjà prendre sur le terrain de meilleures décisions que les humains. En fait, ce serait évidemment une répartition des tâches entre machines intelligentes et hommes qui formerait la structure organisationnelle de l’armée du futur, explique ce même dirigeant de l’Ecole Navale.

Et, rappelle le journaliste, l’automatisation du champ de bataille s’est déjà avérée essentielle dans les guerres que mènent les Etats-Unis. Les drones, bien sûr, mais aussi près de 6 000 robots téléguidés qui sont utilisés pour fouiller les véhicules aux checkpoints ou pour désarmer les bombes artisanales. Et un grand nombre de pays développent aujourd’hui des outils similaires.

Mais les questions éthiques que cela pose sont loin d’être simples. Et certains s’en inquiètent, surtout du côté des chercheurs en intelligence artificielle et des défenseurs de droits de l’homme. Ils reprochent aux systèmes automatisés d’accélérer la procédure de tir en réduisant la capacité de l’humain à prendre des décisions responsables. Ils évoquent par exemple la fabrication d’une arme créée pour fonctionner de manière autonome et qui peut abattre un ennemi plus vite, sans la considération du soldat pour les facteurs subtils qui constituent le champ de bataille. Pour eux les bénéfices à court terme masquent les conséquences à long terme.

Mais, pendant que le débat a lieu, précise Markoff, le processus est engagé par l’armée américaine qui poursuit son automatisation. Et le journaliste de citer plusieurs exemples : une sorte de wagon qui peut porter près de 500 kg de matériel et qui peut suivre automatiquement un soldat à presque 30 km/heure, il sera normalement testé en Afghanistan l’année prochaine. Pour les terrains très accidentés, et enneigés, un robot qui marche sur quatre jambes, qui peut porter 200 kg de matériel et suivre automatiquement un soldat. La tête de ce robot est par ailleurs équipée de multiples capteurs qui lui donnent l’air d’un croisement entre un insecte et un chien. Des robots grands comme des petites voitures, qui peuvent opérer en essaim et cartographier une zone hostile pour y détecter les menaces. Et même un projet de robot sous-marin qui puisse contrôler des équipes de dauphins chargés de détecter les mines sous-marines et protéger les navires au port.

Dans tous les cas, le problème reste celui de la décision de tir. Les militaires disent avec insistance que c’est un doigt humain qui restera toujours sur la détente. Mais que se passerait-il si on cédait à la tentation de laisser faire les machines ?

Voilà pour ce papier du New York Times, qui s’il est tout entier construit sur l’idée qu’il y a un débat qui n’est pas tranché, montre aussi qu’en matière militaire comme dans bien d’autres, les avancées de la technologie précèdent la réflexion sur ses usages. Ce qui, en l’occurrence, est assez effrayant.

Xavier de la Porte

Xavier de la Porte, producteur de l’émission Place de la Toile sur France Culture, réalise chaque semaine une intéressante lecture d’un article de l’actualité dans le cadre de son émission.

L’émission du 5 décembre 2010 était consacrée à Wikileaks, avec la participation d’Olivier Tesquet, journaliste à Owni, de Romain Pigenel qui tient le blog Variae, de Rémy Ourdan, grand reporter au quotidien Le Monde (qui consacre un imposant dossier sur l’affaire), ex-directeur du service international du Monde (2005-2008) et de Nicolas Vanbremeersch, blogueur et directeur de l’agence Spintank.

Les commentaires sont fermés.