Facebook : des interactions significatives, vraiment ?

Facebook a donc décidé à nouveau de changer ses règles algorithmiques. A nouveau, comme si ce changement unilatéral du fonctionnement algorithmique allait résoudre par magie les problèmes que connaît le géant des réseaux sociaux.

Désormais, « il priorisera les messages qui qui suscitent des conversations et des interactions significatives entre les gens », comme l’a expliqué l’entreprise. Ou, comme l’a souligné Mark Zuckerberg, FB va pousser les utilisateurs à être plus réactifs, à avoir « des interactions sociales plus significatives »pour leur propre bien, bien sûr. Mais n’était-ce pas déjà ce qui nous avait été promis la dernière fois ?… Nous continuons à être enfermés « dans la tête de Mark Zuckerberg »… comme les cobayes permanents d’une expérimentation infinie, qui, nous promet sans cesse un monde de félicités sociales, toujours remises à plus tard.

De la tautologie de la signification

Sur Internal Exile, Rob Horning (@robhorning) se pose la question du sens de ces « interactions significatives » promises. Significatif ne signifie pourtant ni engageant ni informatif, rappelle-t-il. FB n’a pas de vision éditoriale : il ne sait apprécier que des métriques. Après les accusations nourries que FB a reçu suite aux enquêtes du Sénat américain sur la diffusion de fausses informations, le site a décidé de s’auto-réguler, certainement pour éloigner la perspective d’une régulation qui lui serait imposée. Reste que cette annonce ne modifie pas vraiment son modèle d’affaires… C’est à peine si FB remplace ses slogans tautologiques par d’autres alibis pour continuer à capturer de l’audience, collecter des données et vendre de l’espace publicitaire – plus cher puisqu’il sera plus difficile aux marques d’accéder aux utilisateurs – ce qui ne les empêche pas, notamment la presse, d’inviter leurs lecteurs à ajuster leurs paramètres pour remonter dans leur flux d’actualité. FB souhaite déterminer toujours mieux qui vous amène à plus l’utiliser pour que vous l’utilisiez plus à votre tour. « Le significatif renvoie à une mesure interne à Facebook. L’utilisateur n’est ni plus actif ni moins passif : c’est une sorte de passivité collective (ou interpassivité) où nous laissons FB interagir pour nous pour nous pousser à interagir ». L’objectif « d’authenticité » de FB, qui vise à « rapprocher les gens », est une cible toujours mouvante, qui s’éloigne à mesure qu’on s’en rapproche.

« «Significatif» pour Facebook exprime le fantasme d’un algorithme imputable qui permettrait à ses métriques de mesurer quelque chose de pur. Chaque réglage algorithmique aspire à l’idéal de pouvoir lire le comportement mesurable de l’utilisateur en tant qu’expression parfaite de «qui sont réellement les utilisateurs» et de «ce que les utilisateurs veulent vraiment». Mais en fait, l’algorithme change constamment les utilisateurs de Facebook, en leur enseignant qui ils sont censés être et ce qu’ils sont censés vouloir faire… »

Du point de vue de l’entreprise, un utilisateur « authentique » serait donc celui qui coopère pleinement avec le processus, qui le facilite, qui rend ses relations dépendantes de Facebook. L’utilisateur « authentique » est celui qui se dit que pour avoir une interaction significative avec ses relations, il doit aller sur Facebook, alors que par nature, l’utilisation de Facebook est une expérience de consommation individualisée et solitaire.

Mais toute interaction que nous avons avec Facebook est significative du point de vue de Facebook. Et la logique de la plate-forme est que plus il y a de données sur nous, mieux cela fonctionne pour nous permettre d’avoir des interactions significatives.

Pour produire de la signification, de l’authenticité, FB doit créer de la rareté. S’il nous montrait ce que produisent nos amis dans l’ordre ante-chronologique, ce serait à nous d’être actifs dans le filtrage. Lorsqu’il place au sommet le plus pertinent, notre activité est réduite à la réponse que Facebook nous soumet, aux interactions qu’il détermine pour nous.

Le problème rappelle néanmoins Horning, est qu’en vendant cet espace attentionnel limité, en « vendant les vies sociales des gens », FB rend lui-même l’interaction sociale moins significative et moins authentique.

Pour motiver son changement, FB a distingué le « contenu public » comme le nouveau bouc-émissaire. Se faisant, souligne Horning, FB établi une étrange distinction entre public et privé – mais FB n’a-t-il pas toujours eu un problème à établir cette distinction, notamment parce que c’est au coeur de cette confusion qu’il prospère ? Pour FB, public, renvoie à du contenu qui s’adresse à n’importe qui. Mais n’est-ce pas justement cela que vend FB ? Pour FB, l’enjeu a toujours été de transformer le contenu privé en contenu public par défaut, pour favoriser les interactions. Aujourd’hui, il affirme vouloir revenir de la viralité, au profit de la discussion («certaines mesures d’engagement vont diminuer», écrit Zuckerberg, «mais je m’attends aussi à ce que le temps que vous consacrez à Facebook soit plus précieux»).

Pour la presse, souligne Horning, FB est un générateur de trafic, alors que pour FB, cette génération de trafic n’est qu’un sous-produit du profilage des utilisateurs : le contenu est insignifiant par rapport au partage. FB ne veut pas tenir les gens au courant de l’actualité, il cherche à promouvoir FB. FB se soucie plus des likes et des commentaires de vos relations que des contenus qu’ils partagent ou que de ce que ces contenus disent. En fait, « FB regarde la sphère publique sans s’intéresser à la démocratie, mais en la regardant comme une marchandisation, une dépolitisation à grande échelle », conclut Horning. Pour FB, c’est comme si les gens continuaient de parler pour le plaisir de parler. Pour FB, nos interactions sont significatives tant qu’elles restent inoffensives.

Le risque, comme le pointe le sociologue Antonio Casilli, c’est que nos usages deviennent encore plus prescrits et surdéterminés. Après une année de difficultés, Facebook nous promet de changer. Comme le dit très bien le chercheur Olivier Ertzscheid, dans sa dernière analyse de l’algocratie, « les promesses n’engagent que ceux qui y croient ». D’autres sont plus confiants, comme le spécialiste des médias, Lev Manovich. Reste que la modification de l’algorithme de Facebook a effectivement eu des effets concrets.
Chartbeat annonce déjà une baisse de 15 % du trafic généré par Facebook depuis la modification de l’algorithme.

Zuckerberg s’est d’ailleurs empressé de communiquer sur les premiers résultats effectifs de ce changement algorithmique, en signalant – d’une manière assez inédite, reconnaissons-le – que le temps passé sur FB avait été réduit de quelque 50 millions d’heures par jour. Comme le pointe encore dans un autre article le chercheur Olivier Ertzscheid, en sortant sa calculette, l’opération a réduit notre activité sur FB de 90 secondes par jour, ce qui nous laisse encore en moyenne passer 48 minutes et 30 secondes par jour dans la tête de Mark Zuckerberg. 90 secondes… ça doit être un indicateur significatif effectivement !

Bloomberg souligne d’une manière plus insidieuse encore que la diminution d’audience de FB serait bien antérieure au changement algorithmique, comme le pointe l’agressivité de FB pour adresser ses utilisateurs les moins engagés, notamment via des courriels pour inviter ceux-ci à se reconnecter pour s’assurer de l’intégrité de leur compte ou en démultipliant les invitations à célébrer de pseudo-événements. A se demander si la problématique attentionnelle n’est pas en train de devenir un « attention-washing »… un procédé de marketing pour se donner une allure plus respectueuse des utilisateurs, sans répondre vraiment à leurs attentes.

Significatif… est-ce de bien dépenser son temps ?

Dans son article, Mark Zuckerberg a promis que l’enjeu de FB en 2018 sera d’aider les utilisateurs de FB à mieux dépenser leur temps sur FB. Une référence explicite (ou implicite) au mouvement Time Well Spent lancé par Tristan Harris (voir notamment notre article « Répondre au design de nos vulnérabilités »). Une perche qu’a pris au bond le philosophe et designer Joe Edelman (@edlwawx), l’un des cofondateurs du mouvement, qui en a profité pour écrire une lettre ouverte au patron de FB.

Pour Endelman, les problèmes de FB résident dans son logiciel lui-même. Répondre au sens que les utilisateurs veulent trouver nécessite une conception bien différente. Cela nécessite notamment de prendre en compte leurs valeurs, c’est-à-dire, les idées que chacun a sur la façon dont il souhaite vivre, interagir et agir. « Les valeurs orientent la manière dont vous agissez ». Or, FB ne permet pas aux gens de vivre selon leurs valeurs. Les logiciels sociaux « simplifient et accélèrent certaines relations sociales et certaines actions, au détriment des autres »… et au final, nous poussent à agir en contradiction avec nos valeurs. C’est ce qu’Edelman appelle le coût caché des logiciels sociaux, le « coût des systèmes désalignés ».

« Tout environnement social peut être désaligné avec nos valeurs, mais avec les logiciels sociaux, il est plus difficile de résister. Comparé aux systèmes sociaux passés – régis par des conventions sociales, des normes ou des lois – le logiciel donne moins d’espace pour la réinterprétation personnelle ou la désobéissance. Il tend à coder exactement comment nous sommes censés interagir. »

Face à cela, nous sommes à la fois coincés par les normes et conventions sociales, mais aussi et surtout par la structuration d’interaction des logiciels eux-mêmes.

« Le logiciel social est donc différent des lois et des conventions sociales. Il nous guide beaucoup plus strictement à travers certaines actions et manières de relation. En conséquence, nous avons moins de chance de poursuivre nos propres valeurs. La structure codée des notifications push rend plus difficile la priorisation de la valeur de l’attention personnelle ; la structure codée des goûts faits qu’il est plus difficile de prioriser de ne pas se fier aux opinions des autres ; et des structures similaires interfèrent avec d’autres valeurs, comme être honnête ou gentil avec les gens, être réfléchi, etc. »

Endelman invite Zuckerberg à réviser son logiciel en produisant un logiciel moins contraignant, pouvant être remodelé par l’utilisateur et lui permettant d’implémenter des valeurs différenciées. Il intrique sa proposition de questions :

  • Pour chacune de ces valeurs, existe-t-il des caractéristiques des espaces sociaux qui facilitent la pratique ?
  • Comment les utilisateurs décident-ils des valeurs à intégrer dans leur socialisation ? Comment le logiciel peut-il supporter cette décision ?
  • Y a-t-il des types de conversations plus ou moins significatifs ? Existe-t-il un moyen d’identifier des conversations moins alignées sur les valeurs ?
  • Pouvons-nous accomplir tout cela sans imposer nos propres valeurs corporatives ou personnelles ?

Dans un second texte un peu ésotérique à mon goût, Edelman invite à réimaginer les systèmes sociaux en tant « qu’espaces de pratiques » pour les valeurs des utilisateurs.

« Lorsque nous demandons conseil à des amis – si vous regardez attentivement – nous ne leur demandons pas tant ce que nous devrions faire. Nous leur demandons plutôt ce qui est important dans notre situation. Nous demandons des valeurs qui pourraient être nouvelles pour nous. Les humains se demandent constamment «ce qui est important» – pour un conjoint, un vin, un langage de programmation… »

Or, les plateformes, sont meilleures pour partager des choses que de la sagesse. Et Edelman d’en appeler à des plateformes pour partager des valeurs, afin qu’elles soient plus empathiques qu’elles ne le sont. Nous ne disions pas autre chose quand nous pointions la question des valeurs que masque la promesse de la société en réseau comme la question de la taille afin que nos réseaux demeurent à l’échelle de nos possibilités d’action.

Reste que, comme le constate Casey Newton pour TheVerge, la question attentionnelle vient de progresser. Les dénonciations de ses partisans avaient jusqu’à présent rencontré peu d’échos dans les entreprises. En utilisant ce terme, Zuckerberg le légitimise. « L’avantage moral se fait toujours au profit de ceux qui ont inventé le terme ».

Hubert Guillaud

MAJ : Le mouvement Times Well Spent prend néanmoins de la force. En janvier, dans Washington monthly, l’investisseur Roger McNamee, ancien de Facebook, livrait une longue tribune pour inviter à réguler Facebook. On y apprenait que c’est accompagné du designer Tristan Harris qu’il s’était rendu au Congrès pour attirer l’attention des sénateurs américains sur la question attentionnelle. Harris vient d’ailleurs de regrouper un certains nombres de « repentis » (ces anciens de Google, Facebook et autres startups de la Silicon Valley qui s’effrayent du monstre attentionnel qu’ils ont créés) dans un nouveau mouvement de résistance (et de collecte de fonds) rapporte le New York Times, le Centre pour une technologie humaine dont le premier objectif est de recueillir les doléances des utilisateurs.

À lire aussi sur internetactu.net