Signaler un contenu répréhensible… et après ?

Quand l’usager est confronté à des propos inappropriés, à de la pornographie infantile, à une violation du droit d’auteur ou à de la violence, il n’a la plupart du temps qu’un seul recours en ligne : appuyer sur un bouton pour signaler un contenu répréhensible. Une fonction simple et très répandue, que l’on trouve sur Vine, Youtube, Facebook ou Twitter, rapporte The Atlantic.

facebook-signaler-abus-choi

Les chercheurs Kate Crawford (@katecrawford) et Tarleton Gillespie (@tarletong) ont publié récemment une analyse qui estime que ces boutons pour signaler un contenu inapproprié ont fait leur heure et que les médias sociaux vont devoir évoluer. Pourtant, les boutons de signalement et les niveaux d’oppositions auxquels ont accès les utilisateurs sont parfois très différents d’une plateforme à l’autre, rapportent les chercheurs qui ont comparé les différents types de signalement qui leur étaient accessibles selon les plateformes.

d61a27da7
Image : Selon les plateformes, le signalement de contenu répréhensible est plus ou moins bien détaillé… ou compliqué !

Mais quel que soit le niveau de signalement qu’il permet, le système en lui-même présente plus d’inconvénients que d’avantages. D’abord parce qu’il peut-être manipulé politiquement : des groupes peuvent l’utiliser pour signaler des contenus qui contreviennent à leurs idées. Ensuite parce que c’est un système de signalisation souvent trop simple, trop binaire. Enfin, parce que ce type de boutons n’est qu’une solution technique à des problèmes sociaux. Les plateformes peuvent améliorer la façon dont elles gèrent les signalements, mais aucun algorithme ne saura décider si un signalement est abusif ou pas. Face à un problème social, il y aura toujours besoin d’un esprit humain, estiment les chercheurs.

Le signalement est la première étape d’un processus de régulation des contenus, un processus que la plupart des sites qui les mettent en place espèrent voir disparaître et qu’ils présentent comme un mécanisme de maintien de l’ordre, à la fois rationnel et équitable. Mais la régulation des contenus litigieux est un processus toujours « bordélique », coincé entre les caprices de l’interprétation et les pressions sociales. En fait, il permet juste aux plates-formes de médias sociaux de justifier leur capacité à porter des jugements sur les contenus et à les censurer.

Plutôt que d’utiliser de simples boutons, Crawford et Gillespie suggèrent aux plateformes d’ouvrir le processus de modération au public. Plutôt que de la faire dans le plus grand secret, les chercheurs proposent de mettre en débat avec le public les problèmes signalés. Et de prendre pour exemple le jeu massivement multijoueur League of Legends, qui a construit ce qu’ils appellent le Tribunal, un système de modération communautaire où les joueurs peuvent débattre des délits qu’ont commis d’autres joueurs. Au lieu d’une modération invisible, le débat est ouvert et visible, ce qui produit à la fois plus de conflits, certes… mais aussi plus d’honnêteté.

« Les signalements de contenus offensants peuvent nous permettre de désapprouver ce que les autres disent, mais sans enregistrement public ou espace de contestation, ils nous laissent peu de chance de défendre le droit de dire les choses qui doivent être dites ou de nous mobiliser contre quelque chose de si grave qu’il mérite plus qu’une suppression silencieuse. »

Décidément, il nous faut engager le dialogue avec les trolls !

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Benoît Thieulin, président du CNNum, ne dit pas autre chose dans une tribune critique de la loi antiterroriste pour le Huffington Post :

    « Internet est souvent perçu, à tort, comme une zone de laisser-faire, voire de non-droit. Cette perception est le fait de nombreux utilisateurs, mais elle l’est encore plus pour ceux qui l’utilisent moins. Les législations d’exception, autant inefficaces que faiblement pédagogiques, confortent l’idée d’un monde numérique à part, où le droit s’appliquerait difficilement et où les pratiques litigieuses auraient la possibilité de prospérer.

    Il faut rompre avec ce cercle vicieux et penser les mécanismes de sanction et de vigilance différemment. Pour répondre au besoin des communautés sur Internet d’agir dans un espace où les règles sont intelligibles et opposables pour tous, il est nécessaire de rapprocher l’appareil répressif de l’espace où ont lieu ces comportements. Les méthodes de régulation doivent être transparentes, ouvertes et claires. Donnons les moyens à la communauté de veiller sur elle-même, en premier recours, en faisant le pari de la pédagogie et de sanctions proportionnées et adaptées. « 

  2. Bonjour,

    Merci pour cet article et pour toute la réflexion sur le dialogue avec les trolls que je suis avec beaucoup d’attention ici.
    Pour en savoir plus sur ce qu’il y a derrière les boutons « signaler un contenu », Wired a récemment consacré une enquête à la modération délocalisée aux Philippines http://www.wired.com/2014/10/content-moderation/