De l’automatisation des relations… à notre propre automatisation

Les systèmes de réponses automatisés, à l’image des chatbots, ne sont rien d’autre que des machines plus ou moins bien entraînées qui tentent de se faire passer pour des humains (ou encore, trop souvent, des humains qui tentent de se faire passer pour des machines), explique le journaliste David Ryan Polgar (@techethicist) pour Quartz. Mais leur efficacité s’avance sous le masque de la duplicité. Et le risque à venir, à mesure que cette automatisation va investir tous nos outils, est que nous ne sachions bientôt plus à qui nous nous adressons, s’inquiète le journaliste. Avec les e-mails personnalisés, par exemple, le récepteur pense recevoir un message de l’expéditeur, quand il ne communique qu’avec la « marionnette » de l’expéditeur, un programme qui le plus souvent, ne donne pas accès à l’expéditeur (comme le rappellent les messages du type : « Nous vous informons que les messages reçus sur cette adresse e-mail ne sont pas pris en charge » ou « Merci de ne pas répondre à ce message »).

Pour David Polgar, le développement de l’automatisation de portions significatives de nos communications, en les présentant comme réelles, relève indubitablement de la tromperie.

En fait, explique-t-il, ces systèmes automatisés visent à nous aider à élargir le sentiment d’intimité à l’heure où les outils numériques nous permettent d’entretenir de plus en plus de relations. Au lieu de réduire ou limiter nos relations ou d’être transparents sur l’utilisation d’outils automatisés, nous nous dotons de bots, de « marionnettes », censées nous représenter pour démultiplier et entretenir nos relations. Mais cette communication via des bots, qui se présente comme authentique, n’est pas une forme inoffensive d’efficacité communicationnelle : elle méconnaît complètement les qualités fondamentales des relations. Les relations sont construites sur la réciprocité de temps ou d’énergie émotionnelle. Communiquer avec autrui via des systèmes automatisés en faisant croire à un investissement authentique tient donc plus de la duperie qu’autre chose. David Polgar explique ainsi avoir reçu un message automatique personnalisé après s’être abonné à une personne sur Twitter. Un message qu’il a trouvé plus offensant qu’efficace. Le problème estime-t-il, c’est que si nous sommes prêts à utiliser des outils de communication automatisés pour faire passer nos propres relations à l’échelle, nous sommes beaucoup moins enclins à accepter qu’on utilise ces mêmes outils sur nous. Le risque à terme, c’est celui d’une course à des relations complètement automatisées, produisant une communication sans fin et sans frictions… mais entièrement inutiles.

Dans un autre article sur le même sujet écrit pour l’un des blogs d’IBM, David Polgar rappelle d’ailleurs que le test de Turing lui-même, ce Graal de la mesure de l’intelligence artificielle, a pour principe l’imitation : l’intelligence pour Turing consistait à ce que la machine parvienne à se faire passer pour un humain. Pas sûr pourtant que le fait de confier notre communication à des machines représente une grande avancée. Ici, il prend l’exemple de Linked-in qui propose d’envoyer des messages standardisés à ses relations par exemple pour les féliciter de leur anniversaire de travail (un concept qui semble lui aussi provenir des profondeurs de la simplification automatique). Comme dans le cas du rituel des anniversaires sur Facebook, de plus en plus souvent, nous pouvons attacher des messages à nos avatars en ligne, des messages qui se veulent pleins d’humanité, mais qui sont en fait dépouillés de toute humanité, puisqu’ils peuvent être rédigés et adressés sans aucune intervention humaine. Pour la psychologue Liraz Margalit, responsable de la recherche comportementale chez Clicktale, le problème est qu’en prenant l’habitude d’interagir avec des robots, nous réintroduisons dans nos rapports avec des humains des modèles que nous développons dans nos interactions automatisées.

Pour le philosophe Evan Selinger (@evanselinger), responsable des recherches et de l’éthique du Centre pour les médias, les arts, les jeux, l’interaction et la créativité du Rochester Institute of Technology, le développement de nos « liens faibles » qu’entretiennent les réseaux numériques, nous poussent à une communication succincte. « Nous subissons collectivement l’attraction d’adopter des styles de communication marchandisés ». « Quand notre comportement communicatif est conçu pour devenir plus automatique que délibératif, nous pouvons avoir l’impression que c’est notre humanité même qui s’effondre », explique encore Selinger.

Evan Selinger et le juriste Brett Frischmann (@brettfrischmann), qui publieront au printemps 2018 Re-Engineering Humanity, ont récemment produit une réflexion sur une forme de test de Turing inversé, pour tenter d’évaluer nos différents niveaux d’intentionnalité. Pour Selinger et Frischmann, le monde ne se sépare plus seulement entre humains et robots, mais se complexifie d’« humains botifiés » et de « bots humanisés ». Pour les chercheurs, c’est à nous de rester conscients de la manière dont nous communiquons. Tout l’enjeu, expliquent-ils, consiste à mesurer si la technologie augmente ou diminue notre humanité. Sommes-nous en train d’être reprogrammés par les machines ? Selon eux, il nous faut une méthode pour comprendre la valeur des dynamiques relationnelles qui se tissent entre machines et humains. Pour cela, si on mesure l’humanité des machines, il nous faut en regard tenter d’évaluer quand et comment nous nous comportons comme des machines.

Pour eux, la question de savoir ce que signifie être humain face aux machines n’est plus si triviale. Nous ne devrions pas tant avoir peur des robots, que d’avoir peur de devenir nous-mêmes des robots, expliquent-ils. « Il nous faut introduire des valeurs humaines dans la technologie plutôt que la technologie n’introduise ses valeurs dans notre humanité ». Pour cela, il faut être capable de mesurer quand une technologie est déshumanisante ou quand les humains ne pensent pas ou ne se comportement pas en humains.

Comme le soulignait les deux auteurs dans une tribune pour le Guardian, l’enjeu n’est peut-être pas tant de savoir si les robots vont prendre notre travail que de savoir si leur démultiplication ne va pas nous transformer en robots, nous « saper de notre humanité ». Depuis les chaînes de montage de Taylor où les humains se livrent à des tâches répétitives de robots, les hommes sont devenus des rouages de machines programmables. Et la version moderne et numérique du taylorisme est plus puissante et plus déshumanisante que jamais. Avec le Big Data, le taylorisme s’est propagé bien au-delà de l’usine. Des livreurs à vélo aux chauffeurs de voitures qui doivent suivre à la lettre les instructions des machines… partout les humains sont surveillés, monitorés, suivis, tracés, synchronisés, conduits par des capteurs qui mesurent tout, de leurs emplacements permanents à leurs performances. Comme le soulignent certains chercheurs, comme Karen Levy (qui a étudié par exemple la surveillance dans les lieux de travail hypermasculins), les systèmes de gestion intenses réduisent l’autonomie des travailleurs, accroissent les cadences… et donc leurs effets psychosociaux, comme la perte de sommeil.

Pour les auteurs, ce n’est pas seulement que l’intensité de la surveillance s’est accrue, c’est aussi qu’elle s’est dissimulée partout : dans les outils que les employés utilisent, dans les caméras de surveillance, dans les logiciels qu’ils utilisent… Surtout concluent-ils, si sur le papier transformer les humains en machine semble produire de l’efficacité, rien n’est moins sûr (à tout le moins, si c’est le cas, c’est sans mesurer les coûts sociaux et les contreparties qui ne sont pas assumées par ceux qui mettent en place ces techniques).

La déshumanisation n’est pas seulement imputable à l’utilisation croissante de la technologie, expliquent-ils encore dans un autre article pour Quartz. Nous sommes trop confiants et dépendants des développements technologiques et nous supposons donc que chaque nouvelle technologie est bénéfique par nature. L’efficacité également alimente notre engouement : or, être humain est parfois coûteux, notamment en terme d’efficacité. L’optimisation ne peut pas tout.


Vidéo : Sur We Make Money Not Art, Regine Debatty revenait sur le festival DocLab à Amsterdam dont le thème était justement « est-ce que les robots nous imitent ou imitons-nous les robots ? » Elle évoquait notamment le dernier projet de Superflux et Mozilla, mené par Brett Gaylor, le réalisateur du documentaire Do Not Track, Nos amis électroniques (vidéo), une critique des interfaces vocales qui nous rendent fous en nous demandant, comme le feraient des enfants, les raisons à ce qu’on leur demande de faire.

À lire aussi sur internetactu.net