À mesure qu’elles croissent, les plateformes deviennent-elles plus hostiles ?

Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les médias sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs.

La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles pratiquent une modération a posteriori. Mais cela ne signifie pas que cette modération est contrainte. Comme l’explique le chercheur Tarleton Gillespie (@tarletong) dans son dernier livre, Custodians of the Internet : Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media (Les gardiens de l’Internet : les plates-formes, la modération du contenu et les décisions cachées qui façonnent les médias sociaux, Yale University Press, juin 2018, non traduit), la modération est au coeur de l’offre des plateformes de médias sociaux. Les médias sociaux ont émergé par la promesse d’apprivoiser le chaos du web, via des modèles lisibles, des protocoles ordonnés et du contenu sélectionné. « La modération est, à bien des égards », affirme Gillespie, « la marchandise offerte par les plateformes ». Tout l’enjeu pour elles est donc d’équilibrer le contrôle de la qualité et la croissance qui permettra de s’assurer un monopole et une influence leur permettant de redéfinir les attentes des utilisateurs.

Mais si les plateformes souhaitent conserver le contrôle de la qualité, tirer parti des effets de réseau pour croître est une priorité plus importante encore, ce qui suggère que la valeur de la plateforme repose plus sur sa croissance que sur ses capacités de modération… Or, l’ampleur et les failles de la modération sont à hauteur de la taille des réseaux. Comme le soulignait dans une tribune pour le New York Times le spécialiste des médias Siva Vaidhyanathan (@sivavaid), auteur Antisocial Media : How Facebook Disconnects Us and Undermines Democracy (Médias antisociaux : comment Facebook nous déconnecte et mine la démocratie, Oxford University Press, mai 2018, non traduit), en évoquant l’audition récente de Sheryl Sandberg de Facebook par le Congrès américain, la modération est un tonneau des Danaïdes pour les médias sociaux. Sandberg estime que Facebook aurait supprimé 1,3 milliard de faux comptes d’utilisateurs entre octobre 2017 et mars 2018 ! Un chiffre bien plus élevé que ce à quoi nous avait habitué le rapport de transparence du géant des réseaux sociaux. Pour Siva Vaidhyanathan, si Facebook a déployé des efforts considérables pour lutter contre la désinformation, force est de constater que le nettoyage du web ressemble au nettoyage des écuries d’Augias ! Ni les chiffonniers du web de Manille ou d’ailleurs, ni les algorithmes de détection de contenus ne suffisent à endiguer l’horreur, comme le soulignait très bien l’excellent documentaire The Cleaners. Pour Vaidhyanathan, les failles de ce nettoyage causent trop de préjudices à trop de monde. Il va falloir accepter que Facebook soit « trop gros pour gouverner et trop gros pour être réparé ». Comme nous le disions déjà en interrogeant la question de la taille de nos outils, le problème des réseaux sociaux est de ne pas pouvoir demeurer à l’échelle de nos possibilités d’action.

Ces failles de modération expliquent les différences entre les règles que ces réseaux affichent et les règles qu’ils appliquent. La modération du contenu est comme la sécurité des aéroports : elle relève plus de la comédie sécuritaire que de la sécurité. Les erreurs de modération ne signifient pas que ce que voit un utilisateur est aléatoire pour autant, poursuit Adam Clair. Supprimer ou amplifier un type de contenu particulier – qu’il s’agisse de dissensions politiques, de discours de haine, d’images choquantes ou violentes… – est une question de volonté et non de capacité. Ce n’est pas non plus vraiment un problème technique : aucun code ou technologie sophistiquée n’est requis pour supprimer simplement le contenu. Cela nécessite simplement des ressources, généralement humaines.

Le problème, souligne Adam Clair, c’est que les imperfections de la modération peuvent être acceptables à petites échelles, sur un forum de niche par exemple, elles deviennent structurellement malsaines à grande échelle.

Or, les plateformes aiment à paraître neutres. Comme le note Gillespie, les plateformes aiment communiquer sur les incroyables quantités de contenu qu’elles mettent à disposition, mais restent relativement silencieuses sur ce qu’elles suppriment – notamment « pour préserver l’illusion d’être une plateforme ouverte et éviter la responsabilité juridique et culturelle ». L’opacité autour de la modération de contenu permet pourtant à chaque camp de se plaindre, de manipuler… ou de croire être manipulé. Les plateformes sont devenues un champ de bataille et plus elles deviennent grandes, plus les antagonismes pour les tribus disparates qui s’y développent sont élevés.

Gillespie note que les plateformes commencent par accueillir «des utilisateurs plus homogènes, qui partagent l’objectif de protéger et de nourrir la plate-forme, et qui peuvent résoudre certaines tensions par des moyens informels». Sur un petit forum, quelques centaines ou même quelques milliers d’utilisateurs peuvent se réunir pour discuter d’un sujet donné avec un certain degré d’homogénéité entre eux, comme tout groupe d’intérêt. L’harmonie y est favorisée non seulement par le sujet de niche, mais aussi par les normes communautaires et le fait qu’on puisse s’adresser directement à des modérateurs humains accessibles. Les moutons noirs peuvent être réprimandés pour qu’ils se conforment aux normes de la communauté… Mais, au fur et à mesure que les utilisateurs se multiplient et se diversifient, le bloc monolithique se fissure et des communautés avec des systèmes de valeurs très différentes se forment et exigent des méthodes pour résoudre les conflits.
« À un certain moment, une plateforme devient trop pluraliste pour être gouvernée de manière holistique. »

Les plateformes de médias sociaux présupposent souvent que leurs utilisateurs sont de bonne foi, minimisant les effets de réseaux qu’elles amplifient. Lorsqu’elles traitent d’abus, elles ont tendance à se concentrer sur les noeuds qui relaient ces informations plus que sur les interconnexions qui les propagent. Les modérateurs déterminent la validité des messages sans connaître l’identité du posteur ou le contexte. Dans leur tentative supposée neutre pour arbitrer les contenus, les plateformes assument donc une interprétation erronée. Or, les tensions sur les médias sociaux se forment à des niveaux globaux plus qu’individuels. Comme le soulignait la fondatrice de Recode, Kara Swisher (@karaswisher), cet été dans le New York Times, Facebook, Google et Twitter sont devenus les marchands d’armes numériques de l’âge moderne. Les plateformes sont devenues des champs de bataille, et plus les plateformes sont vastes et plus les enjeux pour les communautés qui se disputent en visibilité sont élevés… Or, rappelle Gillespie, la modération sur ces plateformes est devenue industrielle. Les personnes et les programmes qui modèrent ne sont plus issus des communautés. Ils examinent des milliers d’images et de contenus hors contexte. Pour protéger leur propre santé mentale, ils doivent apprendre d’ailleurs à compartimenter leur travail, les séparant davantage des communautés qu’ils surveillent et rendant impossible toute réflexion sur les normes de ces communautés.

Dans son livre, Gillespie estime que les plateformes devaient modérer plus agressivement et recommande d’améliorer la transparence de la modération, de mieux la distribuer aux utilisateurs, de rejeter les mesures de popularité et de diversifier les employés qui conçoivent les plateformes. Mais pour Adam Clair, il faut encore que les plateformes soient incitées à améliorer la modération. Sans chiffres montrant la valeur commerciale de l’amélioration de la modération, aucune plateforme n’investira dans des changements. Et ce d’autant qu’aucune communauté ne souhaite être modérée (sauf si elle peut utiliser cette modération contre les autres communautés).

Les plateformes préfèrent ne pas mettre en avant leurs interventions. Cela ne les empêche pas d’être très visibles pour les utilisateurs, où pas un jour ne passe sans qu’on évoque des censures de contenus, qui mettent en avant des technologies invisibles, mais omniprésentes. Siva Vaidhyanathan, dans son livre, estime que si les plateformes étaient moins aveuglées par leur orgueil et l’assurance de leur toute-puissance bienveillante, elles auraient pu construire des solutions pour rendre Facebook moins ingouvernable et moins facilement détournable. Pour lui, le fait de croire que l’interconnexion des utilisateurs est nécessairement bonne en soi est un présupposé qui pose problème en soi. Les cadres de ces entreprises qui se considèrent comme des dieux bienveillants estiment trop rapidement que les individus et les communautés sont à la recherche d’expériences nouvelles. Mais ce sont des arguments qui leur permettent de masquer leur rôle dans l’armement généralisé de la communication. Comme le soulignait la chercheuse Zeynep Tufekci dans Wired, en regrettant l’âge d’or de la liberté d’expression, nous avons peu de défense contre ces menaces nouvelles et puissantes à l’encontre des idéaux du discours démocratique.

Clair rappelle qu’une plateforme n’est rien sans ce que les utilisateurs y publient. Ils créent à la fois la valeur et en supportent la toxicité. Pour lui, la crise des médias sociaux découle à la fois d’un fantasme sur ce que les gens souhaitent et d’un fantasme sur le comportement des gens qui seraient naturellement intéressés, infiniment rationnels et indépendants de tout contexte. Pour Clair, il est temps pour les médias sociaux de reconnaître la nature des conflits et d’abandonner la neutralité qu’ils promeuvent. « Avec des milliards d’utilisateurs en jeu, les sociétés de médias sociaux sont peu disposées à apporter des changements majeurs à leurs fondements, mais si elles ne le font pas, elles risquent de voir leurs structures entières s’effondrer sous leur propre poids. »

MAJ : Sur son blog, le chercheur en science de l’information Olivier Ertzscheid rappelle également que la haine sur les plateformes est d’abord l’effet d’architectures et de modèles économiques toxiques.

MAJ : Pour la Vie des idées, le spécialiste en sciences de l’information, Romain Badouard livre une belle synthèse de travaux récents sur la brutalisation des échanges sur les plateformes en ligne. Les usages stratégiques de la violence en ligne reposent bien plus sur des questions structurelles d’infrastructure des plateformes. Pour le chercheur, l’amélioration de la situation repose d’abord sur une plus grande responsabilisation des plateformes, à rendre plus transparent leurs revenus publicitaires qui favorisent les fake news et également à accompagner le développement de contre-discours.

À lire aussi sur internetactu.net