Comment vit-on « à distance » (2/2) : paradoxes de l’immersion

Si la matinée de cette seizième journée PraTIC a abordé des sujets aussi variés que la Wikipédia, la vidéo, le télétravail ou les herbiers, les interventions de l’après-midi se sont concentrées plus spécifiquement sur certains aspects de la téléprésence et de l’immersion au sein d’environnements virtuels ou distants.

Les drones comme système

Caroline Moricot est sociologue à l’université Paris 1 et a travaillé sur un escadron de drones basé à Cognac. Nous pensons tous savoir ce qu’est un drone, mais en fait, lance-t-elle d’emblée, l’évolution de la définition officielle du drone montre un changement dans l’attitude adoptée vis-à-vis de ces machines. Aujourd’hui, on dit qu’un drone est un « avion piloté à distance sans homme à bord« . Il y a quatre ans, on employait un autre vocabulaire : on ne parlait pas d’avion mais de plate-forme, ou alors on disait qu’il s’agissait d’un avion sans pilote, et non qu’il était piloté à distance. Le drone était alors considéré comme un robot. Cela n’est plus le cas. Le drone ne possède pas d’autonomie, et comme on va le voir, le rôle de l’humain dans son fonctionnement est fondamental.

Caroline Monicot, photographiée par E2A
Caroline Monicot, photographiée par E2A

Autre surprise, le drone n’est pas une nouveauté : il a été imaginé dès les débuts de l’aviation, pendant la première guerre mondiale. Évidemment à l’époque les techniques de commande à distance (recourant, nous apprend la Wikipédia, à la télégraphie sans fil) étaient trop primitives pour permettre la mise en œuvre de ces prototypes de « torpilles aériennes », comme on les appelait alors.

La flotte de Cognac possède six drones : quatre « harfangs » et deux « reapers« . Ces machines assez lourdes, très loin des minidrones qui ont la vedette en ce moment, sont des drones de surveillance : les appareils n’ont pas accès à l’armement en France. Ils sont dotés d’une forte autonomie énergétique et contrôlés via une liaison satellite.

Mais le drone, explique Caroline Moricot ne se limite pas à la machine volante. C’est aussi une station de contrôle, des liaisons de données, des charges utiles (capteurs, radars). Un drone est plus qu’un avion, c’est un système. Il ne peut être pensé isolément, mais s’inclut dans un dispositif, par exemple dans sa complémentarité avec les avions de chasse. « La bande passante est le carburant des drones, on ne peut pas penser ces outils indépendamment du réseau« . Cela implique donc une grande dépendance envers celui-ci et aussi une grande vulnérabilité.

Il faut donc s’interroger sur les conditions de cette action à distance, celles de la transmission en temps réel des informations et de la numérisation de ces dernières. Cela conduit à une double question : celle du rapport au temps, avec l’instantanéité, et celle du rapport à la matière, avec l’immatérialité du monde mis en images.

Voir aussi : Théorie du drone : de la fabrique des automates politiques

A Cognac, ces drones, on l’a vu, sont employés uniquement pour des missions de reconnaissance. Leur activité s’inscrit dans la durée : un drone peut rester fixé sur sa cible pendant plus de 20 heures et envoie les images en temps réel. Auparavant, un avion faisait des photos, les ramenait, et ensuite elles étaient examinées. La machine impose son rythme et donc conditionne la durée du travail. Pendant ces 20 heures, quelqu’un doit recevoir les images et les examiner. Cela implique, par conséquent, une organisation spécifique du travail, comme la mise en place d’un système de relève.

Les membres de l’équipe passent des journées et des nuits entières sur une seule zone, et se concentrent sur les habitudes des personnes observées… Et la plupart du temps il ne se passe rien.

Une équipe comprend trois spécialistes : l’opérateur de vol qui pilote le « vecteur » (c’est ainsi qu’on appelle techniquement le drone), l’opérateur image qui traite les vidéos en temps réel, et enfin, le chef de mission, le « coordinateur tactique », poste occupé par un officier de renseignement.

C’est un paradoxe de l’automatisation. En général, celle-ci entraîne une réduction du personnel, mais avec le drone, on revient au contraire à une augmentation de l’équipage. La machine ici, au lieu de supprimer des hommes en exige un plus grand nombre. Autre paradoxe lié à cette activité : on pourrait penser que la téléprésence réduit l’engagement du pilote, mais l’inverse se produit. La qualité et la précision des détails sont bien plus importantes que depuis un avion, on en vient à connaître les personnes surveillées. On est en fait plus près du terrain.

Autre conséquence de la tyrannie du temps réel : ces équipes observent, mais leur travail est observé en permanence. Les images reçues sont transmises à différents degrés de la hiérarchie militaire et à différents endroits du réseau. La hiérarchie pourrait éventuellement être tentée de prendre la main et agir à leur place.

L’histoire des techniques montre qu’une innovation ne chasse pas une technique ancienne et on assiste en général à une cohabitation. Les drones ne signent pas la fin des avions pilotés, ils s’insèrent dans un système. Aujourd’hui les pilotes de drones sont des pilotes de chasse, mais sera-ce encore le cas demain ? Les opérateurs actuels mobilisent une expérience du maniement de la machine et du combat qu’ils ont acquise antérieurement, cela pose la question de la formation des futurs opérateurs, qui n’auront peut-être plus la culture du pilotage traditionnel.

Les ambiguïtés de la vision stéréoscopique

Laure Leroy, photographiée par E2A
Laure Leroy, photographiée par E2A

Laure Leroy, de l’Université Paris 8, et également membre du laboratoire Paragraphe nous a présenté un bilan des effets de la stéréoscopie dans les nouveaux médias, comme les films en 3D, dont Avatar est l’archétype. Elle a énoncé les divers inconvénients posés par une telle technologie, et remis en cause l’enthousiasme généré par ce nouveau procédé. Un sujet qui me concerne personnellement puisqu’étant amblyope (je ne vois pas le Z et le U chez l’opticien avec mon oeil gauche, même avec des lunettes), je fais partie de ceux qui ne perçoivent guère l’effet stéréoscopique, et risquent donc de se retrouver bien ennuyés si cette tendance se généralise un peu trop.

Comment percevons-nous le relief ? Il existe en fait une multitude d’indices qui nous permettent d’évaluer la distance entre deux objets. Certains sont purement monoculaires : ils n’engagent pas l’usage des deux yeux. On trouve tout d’abord les indices statiques : la lumière et les ombres, ou le fait qu’un objet se trouve en partie caché par un autre, ou encore le gradient de texture : on sait que pour deux objets possédant la même texture, on percevra comme éloigné celui dont la texture apparaîtra moins détaillée. Toujours dans le domaine monoculaire, il existe aussi l’effet de perspective (le fameux « point de fuite ») et enfin les variations de visibilité (les effets « de brouillard », l’objet est plus flou quand il est éloigné).

Toujours monoculaire, mais cette fois dynamique et non plus statique, la parallaxe de mouvement. Lorsque bouge la tête, ou lorsqu’on observe des objets en mouvement, les plus rapprochés semblent plus rapides.
Pour tous ces indices, un seul œil est donc nécessaire, nous a précisé Laure Leroy.

Restent les indices binoculaires, ceux qui sont privilégiés dans le cinéma 3D : nos deux yeux perçoivent une même scène depuis un point différent, ce qui fait qu’ils calculent chacun une image. Lorsque le cerveau reçoit ces deux images, il les synthétise en une seule. Plus un objet est proche, plus sa position dans chacune des deux images est différente. Lorsqu’on regarde un film en 3D, ces deux points de vue sont superposés sur l’écran, d’où l’impression de « voir double » si on regarde le spectacle sans lunettes. Le rôle de ces dernières consiste en effet à filtrer chacune des deux scènes, envoyant la première à l’oeil gauche et la seconde à l’oeil droit.

Enfin,ni proprement monoculaires ni binoculaires, il y a les informations de profondeur,
proprioceptives, c’est à dire qui impliquent un mouvement des muscles de l’oeil. La première d’entre elles, l’accommodation déforme le cristallin en fonction de l’éloignement. La convergence, aussi nommée la vergence permet de se concentrer sur un objet distant. Pour ce faire, nous effectuons des rotations de nos globes oculaires afin que l’objet observé occupe le centre de la scène. Autrement dit, nos yeux convergent (nous louchons légèrement) ou au contraire divergent. Dans le monde réel, ces deux opérations sont fortement corrélées.

La stéréoscopie, qui repose uniquement sur les indices binoculaires, provoque souvent un effet « waouh » très spectaculaire, a continué Laure Leroy. Mais elle n’est pas pour autant plus précise. En fait, un certain nombre de déformations des objets peuvent s’ensuivre.

L’utilisation de la vision stéréoscopique entraînerait un certain nombre de problèmes à l’origine notamment des sensations de nausée subies par de nombreux spectateurs. Tout d’abord, la technique stéréoscopique repose sur une distance moyenne de 7 cm entre les deux rétines. Si l’anatomie de notre tête s’éloigne par trop de cette moyenne, il se pose des problèmes de perception : un cube peut apparaître complètement aplati par exemple. Plus grave, cela peut provoquer des ruptures entre la vergence et l’accommodation. On a vu que ces deux opérations étaient en général complémentaires. Mais, comme nous l’explique un article de la Technology Review, « les spectateurs doivent se concentrer à une certaine distance (l’écran qui émet la lumière), mais verger sur une autre distance (le point où l’objet 3D semble apparaitre dans l’espace).

Ces problèmes peuvent devenir très violents s’il y a de trop grandes différences entre les surfaces claires et foncées. Plus graves, ces conflits tendent à s’accumuler avec le temps. De fait nous a révélé Laure Leroy, le film Avatar est pour moitié filmé sans recours à la stéréoscopie, afin de permettre les yeux de se reposer.

Immersion, présence, engagement

On ne peut bien sûr aborder tous ces problèmes de distance sans traiter du jeu vidéo : c’est par excellence le média qui nous projette ailleurs, dans un autre environnement. C’est ce qu’on appelle l’immersion, un terme fréquemment utilisé dans le milieu. Mais justement, que veut dire ce mot et les expressions qui lui sont associées ?

Delphine Soriano, doctorante au Cedric sous la direction de Stéphane Natkin s’est penchée sur signification des mots présence, immersion et engagement, et a essayé d’y mettre un peu d’ordre.

Ainsi, la sensation de présence ne dépend pas que de facteurs techniques comme la qualité d’image ou de son, mais également de paramètres plus subtils, comme le fait d’arriver à faire oublier au joueur que l’environnement dans lequel il se trouve est virtuel, ou que les agents avec lesquels il communique sont des intelligences artificielles. Quant à l’engagement, c’est quelque chose d’encore plus subtil que la présence. C’est ce qui pousse le joueur à vouloir continuer la partie, et ce qui semble être fondamental dans ce domaine est la conviction que le joueur se trouve dans une position importante, qu’il a réellement un pouvoir de maîtrise sur l’environnement virtuel. Delphine Soriano a cité à ce propos une phrase du célèbre concepteur de jeux Sid Meier, « Les designers doivent considérer les joueurs comme des stars« . De son côté, Stephane Natkin affirme que « le coeur du game design et donc de l’esthétique du jeu, est la manière de laisser le joueur se sentir responsable du déroulement du jeu« .

Delphine Soriano travaille actuellement sur deux projets. L’un consiste à étudier, dans le cadre d’un serious game à quel point l’engagement du joueur peut influer sur son intérêt pour les sciences. Le projet « Sympathy », lui vise à comprendre le rôle du design graphique dans ledit engagement.

Benjamin Poussard, de l’équipe Présence & innovation aux Arts et Métiers ParisTech, nous présenté 3D Live. C’est un projet européen se proposant de développer une plate-forme de télé-immersion dans le domaine des sports augmentés.

Les concepteurs de 3D Live se sont concentrés sur trois scénarios, chacun consacré à une activité différente : le golf, le jogging et le ski. Dans les trois cas, il s’agit de connecter un sportif agissant dans le monde réel avec un partenaire s’exerçant avec un simulateur. Le but est de permettre aux deux joueurs de partager la même expérience. L’avatar du joueur « réel » voit ses mouvements enregistrés et reproduits sur un avatar dans le simulateur. Le cas inverse varie selon les scénarios. Dans le cas du jogging et du ski, la personne située en extérieur dispose de lunettes de réalité augmentées lui permettant, à elle aussi, de voir l’avatar de son partenaire dans son champ de vision. Pour le golf, c’est moins sophistiqué. Elle dispose simplement d’une tablette lui permettant d’observer les actions de son partenaire. L’objectif des chercheurs est d’évaluer la qualité de l’immersion produite par ces différentes technologies.

L’impression qui se dégage de ces interventions a souvent été celle de la multiplication des paradoxes : les drones augmentent le besoin de l’intervention humaine, tandis que la stéréoscopie rend plus difficile la perception des distances et du relief. D’où la nécessité, pour chacune de ces technologies de téléprésence d’évaluer correctement ses impacts et son efficacité réelle. A croire que souvent,sous couvert d’améliorer, on déforme les choses et que l’adaptation nécessaire est plus complexe qu’on la présente.

Rémi Sussan

À lire aussi sur internetactu.net

0 commentaires

  1. Pour aller un peu plus loin sur les « immersions » et la « présence » :

    Guelton Bernard (dir.) Les figures de l’immersion, Presses Universitaires de Rennes, 2014