Bulle de filtre et désinformation : Facebook, une entreprise politique ?

On l’a déjà souligné. La question des bulles de filtres que favorisent nos outils sociaux semble devenir plus complexe à mesure qu’on cherche à la cerner. Depuis l’élection de Donald Trump à la présidence des États-Unis, les commentaires et analyses vont bon train. Paul Bradley Carr, le directeur éditorial de Pando.com, a été l’un des premiers à appuyer exactement là où ça fait mal.

Fausse information : le combat que FB n’a pas mené !

Dans un billet énervé, il soulignait que des gens de Twitter et Facebook lui avaient confirmé que tôt dans la campagne de Trump, une décision avait été prise d’exempter les comptes du candidat des règles et standards de régulation habituelle. « Dans les deux entreprises, à leur sommet, il a été décidé, que les candidats à la présidentielle étaient un cas spécial, et qu’il servait les intérêts de la démocratie de les autoriser à dire ce qu’ils voulaient dire, n’importe quand, sans filtrage. Et c’est ainsi que nous avons vu Trump utiliser ses tweets et la mise à jour de ses statuts pour attaquer les minorités, diffamer, injurier les femmes, et surtout mentir, tricher et voler le moyen d’arriver à la Maison-Blanche. »

Dès le lendemain de l’élection, Zuckerberg s’était pourtant longuement défendu que Facebook puisse en être responsable à quelque titre que ce soit, estimant que très peu d’informations qui arrivent aux lecteurs sont de fausses informations. Pourtant, souligne Michael Nunez de Gizmodo, la direction de Facebook était agitée de vifs débats depuis mai sur ces questions. Une étude interne a tenté de mesurer la partialité de la distribution d’information et a montré que les fausses informations affectaient d’une manière disproportionnée les gens de droite par rapport aux gens de gauche. Et la mise à jour prévue pour réduire la partialité de l’information n’a pas été lancée. Une source anonyme expliquait donc que FB avait développé un outil pour réduire l’exposition des gens aux fausses informations et aux canulars, mais celles-ci affectant d’une manière disproportionnée les sites conservateurs, la direction de FB a décidé de ne pas la retenir pour ne pas être accusée de partialité. Dans un post sur FB publié après les élections, un ancien concepteur de produits de FB a blâmé le réseau social pour avoir accru la visibilité de médias hautement partisans à la crédibilité légère.

Au début de l’année, Buzzfeed a étudié des milliers de fausses informations sur FB et a constaté que si l’engagement moyen sur les fausses informations a considérablement diminué, la portée de celles-ci a augmenté en 2016. Une autre étude de Buzzfeed montrait que les pages hyperpartisanes de FB ont publié de fausses informations à un taux plus qu’alarmant à mesure que la campagne électorale se développait. Craig Silverman, l’éditeur de BuzzFeed, soulignait déjà en août, que FB devait innover ou admettre sa défaite face à la désinformation. Une étude plus récente portant sur les 3 derniers mois de la campagne, montrait d’ailleurs que la désinformation sur FB était bien plus virale que les informations vérifiées et que la viralité des fausses informations s’étaient même aggravé à la fin de la campagne électorale.

cxariqnvqaer3tg

Une autre enquête de Buzzfeed a montré combien le modèle économique même de FB a favorisé le développement de la désinformation et du spam, par l’achat de followers et le recours aux fermes à clics (voir également l’enquête de Business Insider ou celle relayée par le NYTimes et par la Technology Review sur l’efficacité des bots de Trump). Comme le souligne avec brio le sociologue Antonio Casilli, FB est d’abord un « marché de nos contacts et de notre engagement actif » fondé sur un système de production de clics fondé sur du travail caché – parce que délocalisé. C’est l’économie du clic et du digital labor qui ont aidé la victoire de Trump, conclu le sociologue. Comme le souligne très bien encore l’observateur Frédéric Filloux, tout ce qui ne favorise pas la frénésie du « Like » ou du partage va objectivement à l’encontre de l’intérêt économique de FB.

paidpagesonfb

Facebook : du déni à la volte-face ! De l’entreprise politique au ministère de la Vérité ?

Depuis la douche électorale de l’élection de Trump, FB commence à entrevoir la réalité de son impact sur le monde. Certes, FB n’a certainement pas fait l’élection de Trump, beaucoup moins que les chaînes de télévision populaires qui relayaient ses propos en continu, mais tout de même… Alors que la première réaction de Zuckerberg a été le déni, comme le soulignait très justement la chercheuse Zeynep Tufekci dans le New York Times, la direction de Facebook, via Mark Zuckerberg lui-même vient d’annoncer sa volte-face, rapporte Jérôme Marin pour Silicon 2.0.

Ansi, FB envisage notamment de montrer des messages d’alerte sur les articles signalés comme mensongers ; de pointer les articles posant problème vers des contre-informations ; de limiter l’accès à sa plateforme publicitaire pour les faux sites d’actualité et ceux qui en abusent… Plus concrètement, Zuckerberg a annoncé qu’il souhaitait : améliorer la détection de la désinformation, via de meilleurs systèmes techniques ; permettre aux gens de signaler plus facilement des histoires fausses ; développer des systèmes de vérifications tiers ; développer des modalités pour avertir les gens sur la désinformation ; améliorer la qualité des articles connexes qui apparaissent dans le flux de nouvelles ; perturber l’économie publicitaire de FB elle-même pour mieux identifier les fermes à spams ; et développer l’écoute de FB avec sa communauté pour trouver de nouveaux moyens pour améliorer la vérification de l’information.

Google a également annoncé vouloir aller dans le même sens, en lançant notamment un label pour signaler les articles de fact-checking dans Google News. Les initiatives pour reprendre le contrôle de notre information se démultiplient. Brian Feldman du New York Magazine a lancé une extension pour Chrome permettant de savoir si on consulte un site capable de contenir des erreurs ou des canulars, rapporte Big Browser.

Reste que si FB entend enfin raison, le chemin pour la retrouver ne sera pas si simple. Comme le souligne Zuckerberg lui-même, « nous ne voulons pas être les arbitres de la vérité ». Mais l’équilibre sera difficile à trouver. Qui va signaler les messages mensongers ? Comment suggérer concrètement des contre-informations ? FB peut-il vraiment se détourner de son modèle économique qui repose justement sur l’achat de followers et de likes ? Comme le soulignaient les journalistes Damien Leloup et Michaël Szadkowski dans un article pour leMonde.fr : voir FB jouer un rôle actif dans la définition du vrai et du faux en matière d’information est plus inquiétant que rassurant. Et, pour autant, que FB parvienne à en éviter les écueils, risque de « donner à Facebook une responsabilité bien plus grande que celle qu’elle n’a aujourd’hui ». Le journaliste Vincent Glad sur son blog dresse les mêmes constats : veut-on vraiment qu’une entreprise privée joue le rôle de censeur en chef ? Comment Facebook va-t-il pouvoir définir « la vérité » ? Quelle gradation de la vérité FB pourra-t-il proposer ? Et enfin comment FB va-t-il faire face aux fausses informations que produisent parfois même les sites d’information les plus reconnus ?

Ça va effectivement être compliqué !

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. très intéressant !

    Il faudrait aussi rappeler que Google a développé un algorithme capable de détecter les contenus qui contiennent de fausses informations (type : « Barack Obama est né au Kenya »).

    Article de recherche « Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources » : https://arxiv.org/pdf/1502.03519v1.pdf

    Article de presse à ce sujet : http://www.npr.org/sections/13.7/2015/03/24/395012901/what-if-web-search-results-were-based-on-accuracy

  2. La question, posée ainsi, est-elle vraiment différente de celle du journaliste, arbitre de la vérité, publiant dans un journal financé par la publicité ? C’est simplement une variante du paradoxe de l’économie de l’attention.

    Il me semble qu’il serait plus productif de s’interroger sur les conséquences de changement de « régime de vérité » que propose le web en remplaçant « l’objectivité » journalistique par « la transparence » du réseau.
    V. p ex ces deux vieux billets :
    http://blogues.ebsi.umontreal.ca/jms/index.php/post/2010/12/06/De-la-transparence
    http://blogues.ebsi.umontreal.ca/jms/index.php/post/2011/04/05/La-redocumentarisation-%28du-journalisme%29-en-deux-citations

  3. @JMSalaun : la question me semble très différente de celle du journalisme, notamment, car, comme le soulignent bien des chercheurs, l’infrastructure économique et virale de FB nous plonge dans un autre écosystème. FB propose un canal plus unifié, un mécanisme amplifié par rapport à la presse traditionnelle. FB ne fonctionne pas comme la pub ni même comme la propagande qu’on connaissait jusqu’alors. La désinformation se propage par nos relations les plus proches, par nos amis : et rien ne paraît plus convaincant que cette proximité. Nous sommes pris dans les retz de la socialisation, et ça me semble bien différent.

    1. Bien sûr, on est d’accord sur ce constat qui pointe justement le chgt de régime de vérité. Mais dans l’article, l’accent est plus mis sur l’eco du clic qui relève de l’éco de l’attention, tout comme celle des médias traditionnels (même si le marché se mesure différemment). C’est pourquoi j’ai réagi.
      Pour le débat avec Martin, je crois que le point crucial est qu’Habermas avait tort: l’espace public moderne ne se construit pas seulement sur l’usage public de la raison, mais l’affect y tient aussi une grande place, y compris dès son origine au temps des Lumières.
      C’est pourquoi, par ex, il est important de suivre de près non seulement les effets de réseaux (qui trient les infos en fonction de la notoriété/personnalisation), mais aussi les pratiques de plus en plus courantes mettant au premier plan « l’expérience utilisateur ». On pourrait d’ailleurs relire à partir de cette grille l’effet Trump des médias sociaux. Mon grain de sel.

  4. Le filet de la socialisation ne seraient-ils pas en fait qu’une autre instance du « régime de vérité » foucaldien?

    Si oui, Jean-Michel a raison de le faire revenir. Le rapport du sujet à la vérité est toujours un rapport de pouvoir. FB utilise le pouvoir intime.

    Sauf que FB, comme tu le fais remonter dans ton billet, n’agit pas pcq c’est dans son intérêt. Ni propagande, ni publicité, c’est quand même un enjeu d’attention Ce qui veut dire politique. D’où la question dans le titre.

  5. Pour le spécialiste des médias, Mack Hagood, si la désinformation est un problème, elle est plus le symptôme que la maladie, explique-t-il dans CultureDigitally… La thèse de la désinformation semble supposer que si les gens avaient à une information de meilleure qualité, ils feraient de meilleurs choix politiques. C’est loin d’être le cas. Nous interagissons avec l’information en nous nourrissant surtout de ce qui confirme nos intuitions. « Pour comprendre ce qui afflige notre démocratie numérique, nous devons adopter une conception affective des sujets politiques et de leur utilisation des médias ». Notre rapport à l’information tient plus de l’affectif que du raisonnable. Et c’est là où la communication viscérale de Trump a marqué des points. Les partisans de Trump n’ont pas voté pour lui parce qu’ils étaient mal informés en ligne : ils ont consommé et distribué de la désinformation parce qu’ils appréciaient Trump, parce que c’était agréable à faire, parce que ça déstabilisait encore plus les élites en place… Ils ont sélectionné des informations en accord avec leurs investissements affectifs. Et le chercheurs de pointer vers les travaux d’autres chercheurs qui s’intéressent à la dynamique affective des médias numériques, comme Melissa Gregg, Jodi Dean, Natasha Dow Schull ou Zizi Papcharissi… A regarder !

    1. Merci pour les liens. Je m’en voudrais de ne pas aussi mentionner Bronner (et sa Démocratie des crédules) qui a balisé le terrain en 2013.

  6. Dans sa chronique matinale, Xavier de la Porte cite l’une des dernières études (.pdf) d’Eytan Bakshy, le chief data scientist de Facebook, qui minimise la bulle de filtre et fait porter la responsabilité de leur bulle sur les individus. Des conclusions qui vont dans le sens de ses études précédentes et qui sont précieuses, car rares sont les études qui peuvent aussi finement utiliser le matériel de FB. Reste à comprendre, si ces études sont avérées, pourquoi la direction de FB a décidé d’aller dans une autre direction…

  7. « veut-on vraiment qu’une entreprise privée joue le rôle de censeur en chef ? »
    Ce qui est sûr c’est que ce serait pire que ce soit un organisme public qui le fasse.