La sagesse populaire des réseaux nous rappelle qu’il ne faut pas nourrir les trolls (don’t feed the troll), ce qui signifie qu’il est plus avisé de ne pas répondre à des commentaires haineux afin de ne pas engendrer un discours de haine encore plus violent et plus nourrit.
Pourtant, nous rappelait déjà le sociologue Antonio Casilli, « Le trolling ne doit pas être considéré comme une aberration de la sociabilité sur l’internet, mais comme l’une de ses facettes ». En fait, la radicalité des Trolls est une réponse aux blocages des formes d’expression publiques, qu’elles soient en ligne ou pas. On s’énerve pour affirmer son propos, pour le faire exister, pour se faire entendre des autres. « L’existence même des trolls montre que l’espace public est largement un concept fantasmatique », insiste avec raison le sociologue. Les Trolls (réels comme virtuels) risquent surtout de se développer à mesure que le dialogue démocratique se ferme ou se recompose.
Bien souvent, « le troll se nourrit des arguments rationnels qu’on lui oppose pour en faire de l’irrationalité », expliquait très bien Xavier de la Porte dans une chronique récente. C’est ce qui explique que toute tentative de discussion soit vouée à l’échec (Hugo Mercier et Dan Sperber parlent du rôle social de l’argumentation pour montrer combien nos arguments servent avant tout à justifier nos croyances et actions). Le troll ne cherche pas une idéologie cohérente. Il déteste. Comme le pointait encore Xavier, dans une communauté homogène, le troll peut-être utile en participant à reformuler les règles qui font communauté. Mais bien souvent, les communautés sont elles-mêmes multiples et en désaccord et la démultiplication des trolls en désaccord entre eux, favorise leur victoire. « Les trolls gagnent quand ils focalisent la discussion, quand on ne trouve plus de base commune au discours, quand la communauté se fissure, quand l’agressivité devient le registre des échanges ».
Engager le dialogue avec les trolls
D’où l’adage qui veut de ne pas répondre aux trolls. Pourtant, leur existence a une réelle incidence, expliquait un article de Mother Jones. Des chercheurs ont montré que les commentaires outranciers favorisaient la polarisation de l’auditoire, c’est-à-dire qu’ils renforcent nos croyances préexistantes. Cass Sustein dans son livre Vers les extrêmes. Comment les esprits apparentés s’unissent et s’opposent ne disait pas autre chose en dénonçant les mécaniques de groupe qui conduisent à la polarisation de l’opinion. En ligne, la réception d’une information se transforme selon que les commentaires sont civils où qu’ils se terminent en guerre d’insulte. D’où l’attention que les plateformes portent à la gestion des commentaires, tentant de trouver des solutions techniques pour valoriser les meilleurs commentaires et minimiser les moins intéressants (voir également sur FastCompany les solutions de Civic IQ qui catégorise les utilisateurs selon leurs convictions afin de les aider à mieux débattre), ou les réflexions valorisant le pseudonymat sur l’identité réelle.
Mais la technique n’est peut-être pas la seule arme pour leur répondre. Si leur influence est effective, ne pas répondre aux trolls n’est peut-être pas la bonne attitude à adopter. C’est ce que suggère Susan Benesch (@dangerousspeech), spécialiste de l’analyse des violences en ligne et fondatrice du Dangerous Speech Project pour le World Policy Institute qui tente de comprendre la propagation des incitations à la violence. Sur son blog, le chercheur Ethan Zuckerman (@EthanZ) revient en détail sur la conférence qu’elle a récemment donnée au Centre Berkman (@berkmancenter) intitulée « la lutte contre les trolls pour les débutants : des méthodes orientées par les données pour diminuer la violence en ligne ».
Benesch pense qu’il faut engager le dialogue avec les Trolls, notamment parce qu’il est le chemin le plus efficace pour réduire le « discours dangereux », c’est-à-dire pour elle, un discours qui catalyse la violence. Les approches des Etats visant à punir et censurer ne sont pas efficaces… et ils fonctionnent peut-être moins en ligne que hors ligne, notamment parce que ce qui est censuré sait facilement se déplacer d’un site à un autre.
Pour Benesch, le principe de ne pas nourrir le troll recouvre plusieurs hypothèses implicites, qui ne sont pas nécessairement vérifiées. D’abord, nous supposons que si nous négligeons un troll, il va arrêter. Ensuite, nous supposons également que la haine en ligne est créée par les trolls, mais plusieurs expériences ont montré que plus de la moitié des commentaires racistes ou sexistes n’étaient pas le fait de trolls : c’est tout à chacun qui est capable d’y céder parfois, certainement d’autant plus volontiers quand l’exemple est donné. Nous supposons que les trolls ont tous les mêmes motivations et qu’ils répondront de la même façon à l’indifférence. Enfin, nous supposons que les trolls sont le problème, sans considérer l’effet de leurs propos sur le public.
Pour elle, il faut se défaire de la croyance que les trolls sont le problème, pour regarder comment les discours dangereux sont un phénomène plus large. Et l’avantage des environnements de prise de parole en ligne est que nous pouvons examiner leurs effets sur les gens, en regardant les réponses, en mesurant leur impact. Pour Benesch, nous devrions aborder le discours dangereux par un contre discours… L’internet ne créé pas de discours de haine. S’il peut nous désinhiber pour parler, l’internet créé surtout un environnement qui nous rend conscient d’une parole que nous n’aurions pas pu entendre autrement. La plupart d’entre nous ne sont pas confrontés aux propos sexistes qui s’échangent dans des vestiaires ou aux propos racistes de certains. Avec l’internet, la parole traverse des communautés autrefois fermées sur elles-mêmes.
Répondre pour changer la norme
Et la chercheuse veut voir dans cette nouvelle fonctionnalité une opportunité. Historiquement, l’approche de la norme pour des adolescents se limitait aux opinions d’une petite communauté homogène autour d’eux. Ce n’est plus le cas et c’est certainement là une occasion positive pour nous amener à développer une vision du monde plus large et plus nuancée. Le recours au contre-discours signifie qu’il faut croire en la possibilité de modifier les normes dans les communautés de parole. Et ces modifications existent, rappelle la chercheuse. La probabilité qu’un politicien utilise le terme nègre en public est devenue proche de zéro. Mais il y 60 ans, la plupart des politiciens américains n’auraient pas pu être élus sans utiliser ce mot. « Le comportement des gens se déplace de façon spectaculaire en réponse à des normes communautaires »… et la plupart des gens sont susceptibles de suivre les normes de discours cohérents dans un moment et une situation donnée, même les trolls. Un propos qui rappelle les principes de l’économie comportementale qui explique qu’en rappelant les normes sociales les plus acceptées, les gens s’y conforment plus facilement pour se sentir dans la norme.
Avec l’aide de l’équipe d’Ushaidi au Kenya, Benesch a construit Umati (un mot swahili pour dire foule), un outil pour recueillir et analyser les discours de haine en ligne, afin d’éviter que les élections de 2013 ne s’enflamment comme ce fut le cas en 2007, par le développement de d’appels à la violence en ligne. Dans leur rapport final (.pdf), les chercheurs ont trouvé que les discours haineux étaient bien plus développés sur Facebook que sur Twitter, du fait de la présence de contre-discours sur cette dernière plateforme. Sur Twitter, le contre-discours était régulier et nourri : souvent il se contentait de rappeler que les propos devaient rester civils et productifs. Et Benesch d’évoquer l’histoire d’un utilisateur qui tweetant un message expliquant qu’il serait d’accord avec l’extermination d’un groupe ethnique et qui a été immédiatement rappelé à l’ordre par d’autres utilisateurs, avant de s’excuser. Ce n’est pas là le comportement d’un troll, souligne Benesch. Si l’utilisateur en question avait simplement été à la recherche d’attention, il n’aurait pas reculé quand ses tweets enflammés ont rencontré un contre-discours spontané. Et ce contre-discours est important pour les médias également, car il est possible pour ceux-ci d’amplifier non seulement le discours haineux, mais également les tentatives pour le contrer. En étudiant des exemples de contre-discours réussis, Benesch tente de développer une taxinomie des contre-discours et de déterminer quelles formes sont les plus utiles à quels moments… Il n’est bien sûr pas réaliste de penser que ces réponses feront changer d’opinion les plus haineux, mais il suffit d’influencer une masse critique de gens dans une communauté pour rappeler la norme, le bon comportement…
Twitter et Facebook ne sont pas les seuls environnements propices aux propos enflammés, on en trouve également dans les communautés de jeux en ligne, souligne encore Susan Benesch. La société de développement de jeux vidéo Riot Games par exemple est très intéressée par ces recherches et a coopéré avec des chercheurs qui ont mis en avant que plus de la moitié des messages incendiaires venaient d’utilisateurs « normaux »… Ils ont également remarqué que de très petits changements dans la plateforme, comme le choix du langage qui s’adresse aux joueurs ou des changements de police ou de couleurs de caractères pouvaient sensiblement améliorer les comportements.
La compassion et l’empathie n’ont pas partout les mêmes moteurs
Le projet de recherche Compassion de Facebook travaille sur ce sujet en cherchant à amener les gens à utiliser Facebook d’une manière plus « pro-sociale ». Ainsi, lorsque vous signalez un contenu offensant sur Facebook, Facebook vous incite d’abord à engager la conversation avec la personne qui l’a posté, en invitant poliment à dire à l’utilisateur que son message vous a choqué. Comme Riot Games, ils ont trouvé que de petits messages pouvaient conduire à des changements de comportement plus efficaces que la censure.
En Birmanie, Facebook est la plateforme d’échange dominante. Là-bas, des discours de haine violents opposent bouddhistes et musulmans. Mais les enseignements sur la compassion de Facebook s’y appliquent mal. Les gens ne sont pas très à l’aise pour dire à quelqu’un qu’ils connaissent et qui pourrait les menacer que son discours les dérange. Cela signifie que les recherches sur la compassion doivent toujours être menées en contexte… rappelle Susan Benesch, et pointe le défi d’utiliser des espaces privés (où celui qui publie un message est maître de la censure des commentaires) comme des espaces semi-publics. En Birmanie, sur Facebook, les appels à attaquer, expulser ou tuer les membres de l’autre groupe ethnique sont fréquents dans les commentaires. Le Media Lab du Myanmar organise des ateliers pour les journalistes afin de leur apprendre à produire une couverture des évènements plus équilibrée et plus complète sur les questions ethniques, explique Cherian George de MediaAsia. D’autres études (.pdf) ont montré que les commentaires sont moins agressifs quand un journaliste y répond ou quand il pose une question fermée en fin d’article, incitant à prendre position en pour ou en contre. Certes, l’anonymat des commentateurs favorise l’effet de désinhibition et ces commentateurs ont plus tendance à être inciviles que les intervenants non anonymes, rappelait un article du New Yorker, mais l’anonymat encourage également la participation, stimule la pensée créative et la prise de risque. Si les études montrent que les commentateurs anonymes sont plus susceptibles d’être à contre-courant ou de défendre des positions plus extrêmes que les commentateurs qui ne sont pas anonymes, ils sont beaucoup moins susceptibles de faire changer d’opinion ceux qui les lisent, car l’anonymat rend moins influent et moins crédible.
Reste que cela n’est peut-être pas suffisant. Pour Benesch, nous avons besoin de plus de recherche sur ces questions. Nous avons besoin de comprendre si le contre-discours qui utilise l’humour ou la parodie est plus efficace que la confrontation directe. Nous avons besoin de comprendre les normes des discours dans différentes communautés. Et comprendre quels types de discours sont de bonnes réponses à de mauvais discours. Le célèbre avocat américain, Louis Brandeis avait l’habitude de dire que le remède à une mauvaise parole est plus de paroles… Peut-être n’avait-il pas si tort…
Comme le souligne Ethan Zuckerman, le discours de Benesch nous plonge dans l’abyme du contrôle de la parole… Un sujet qui forcément nous met mal à l’aise, déchiré que nous sommes entre liberté et contrôle. Le travail de Susan Benesch est difficile, notamment parce qu’il est difficile de définir ce qu’est un discours incendiaire ou un discours dangereux. Pour qui est-il dangereux ? En quoi l’est-il ?… Comme l’explique Cherian George, « les sociétés ouvertes sont aux prises avec des discours haineux parce que la liberté et l’égalité sont des principes démocratiques importants. Mais, si ces discours relèvent de la liberté de parole, ils peuvent avoir tendance à faire disparaître l’égalité de traitement. » La loi protège les gens des discriminations et des violences qu’ils subissent, mais plus rarement des sentiments ou des croyances qui les blessent. Comprendre l’impact des commentaires, trouver des solutions pour rétablir l’équité des contributions est certainement une piste pour limiter le pouvoir des trolls, quels qu’ils soient… Et nous montrer que la vérité est toujours plus complexe qu’on ne le pense.
Hubert Guillaud