Wikipédia : les outils de la confiance

wikipedia.jpgAlors que Wikipédia n’a cessé de croître en volume (l’encyclopédie vient de fêter son 2 millionième article dans la version anglaise, 555 000 dans la version française) comme en réputation depuis son lancement en 2001, l’information qui en émane continue d’être traitée avec suspicion. Ces dernières années, une série de mesures a eu pour but de renforcer la confiance dans ce qui reste l’un des plus étonnants – et symboliques – outils collaboratif qui soit, explique le NewScientist, et cet effort va continuer. Le mois dernier, plusieurs outils indépendants de Wikipedia ont vu le jour comme WikiScanner (qui permet d’analyser la provenance de certaines adresses IP utilisées pour corriger une entrée et notamment d’identifier si ces corrections proviennent de grandes organisations, qui pourraient vouloir « arranger » l’information dans un sens qui leur convienne) ; Wikirage (qui permet de connaître quels articles ont été les plus modifiés et donc de distinguer les articles sensibles des articles qui le sont moins, la version française) ; WikiMindMap (un moteur de recherche heuristique qui permet de mettre à jour les cartes conceptuelles de l’encyclopédie, c’est-à-dire les connexions sémantiques existantes entre les articles)…

Mais il n’y a pas que l’harnachement de l’encyclopédie par des outils qui permette de mieux surveiller son état. Le fondateur de Wikipedia, Jimmy Wales, a annoncé une nouvelle politique d’édition sur la version allemande. Selon le NewScientist, cette nouvelle politique, qui devrait être mise en place dès septembre 2007, consiste à ne rendre visibles instantanément que les corrections faites par des utilisateurs « de confiance ». Pour gagner ce statut de confiance, les utilisateurs devront montrer patte blanche en produisant au moins 30 corrections en 30 jours. Les utilisateurs néophytes devront attendre la validation d’un éditeur de confiance pour que leurs corrections soient prises en compte. Le risque est certes qu’ils se montrent découragés de participer quand ils n’auront plus la gratification de voir leurs corrections immédiatement prises en compte, mais la diminution du « vandalisme » – qui est un effet pervers mesuré mais très visible – est certainement à ce prix. Ce système risque aussi d’accroître le travail des éditeurs de confiance qui se lasseront peut-être de contrôler les corrections a priori, après l’avoir longtemps pratiqué à posteriori.

Pour autant, toutes les versions de Wikipedia ne prendront pas cette route. L’édition anglaise, plus égalitaire, distribuera elle une page supplémentaire pour chaque entrée, certifiée sans vandalisme. Les lecteurs pourraient également accéder à un lien vers une version figée d’un article, labellisé à un moment donné pour ses qualités.

Plus intéressant encore : la mise à niveau de Wikipédia permettra d’attribuer automatiquement des estimations sur la confiance dans un article. Cela sera possible grâce à un ajout logiciel développé par Luca de Alfaro de l’université de Californie à Santa Cruz. Le système assigne à chaque contributeur un indice de confiance basé sur l’historique de leurs interventions. Ceux dont les contributions sont peu altérées obtiennent un bon indice, ceux dont les contributions sont rapidement remaniées un moins bon. Les nouveaux utilisateurs commencent avec un taux bas, mais c’est pour leur permettre de mieux progresser. Autre avantage, le logiciel indique d’une couleur différente les corrections apportées par les contributeurs ayant un faible indicateur de confiance et permettant de mieux repérer leurs changements et donc de mieux surveiller leurs contributions.

« Ce qui est intéressant dans cet indice de confiance », résume Olivier Ertzscheid, « c’est qu’il ne repose pas sur la qualité intrinsèque de ce qui est écrit (laquelle est statistiquement ou algorithmiquement invérifiable), mais sur l’interrogation de la densité de la dimension palimpsestique de Wikipédia. Je m’explique : plus une écriture est vite recouverte par une autre, et moins elle est fiable. En d’autres termes encore, une non-expertise chasse l’autre, et au final (le ratio d’utilisateurs/nombre de modifications étant statistiquement parlant) l’indice de confiance mesuré semble donner des résultats probants. »

En appuyant son développement sur une batterie d’outils de surveillance et d’analyse, Wikipédia se transforme sous nos yeux. Comme le dit encore très bien Olivier Ertzscheid : « L’anti-corpus (un corpus étant par essence ce qui est donné comme fixé, comme stable), qui par ceux-là même qui le bâtissent, se trouve ainsi doté d’un appareillage, d’une artefacture technique qui donne à l’anti-corpus documentaire les moyens de transformer son éternel inachèvement en une dynamique documentaire inédite. »

Au-delà de son caractère inédit, ce qui est intéressant dans cet exemple, c’est de comprendre la double piste que les animateurs de l’encyclopédie ont choisie pour restaurer la confiance. D’une part en augmentant le pouvoir de leurs meilleurs utilisateurs, qui vont pouvoir se distinguer de la masse en validant et labellisant certains contenus. Et surtout, en dotant l’encyclopédie d’outils qui permettent de rendre son fonctionnement toujours plus transparent. Des outils qui permettent d’observer le fonctionnement des mécanismes internes d’édition et de régulation : un monitoring du monitoring en quelque sorte.

Il y a incontestablement dans ces deux pistes de développement, une vraie définition des enjeux de la confiance à l’heure du web 2.0.

Hubert Guillaud

PS : Pour en savoir plus sur Wikipédia et ses nouveaux développements, le mieux est certainement de se rendre au colloque que Wikimedia organise sur son propre objet, les 18 et 19 octobre prochains à la Cité des Sciences à Paris.

À lire aussi sur internetactu.net

0 commentaires

  1. “L’anti-corpus (un corpus étant par essence ce qui est donné comme fixé, comme stable), qui par ceux-là même qui le bâtissent, se trouve ainsi doté d’un appareillage, d’une artefacture technique qui donne à l’anti-corpus documentaire les moyens de transformer son éternel inachèvement en une dynamique documentaire inédite.”

    Abus de pipotron ?

  2. « les utilisateurs devront montrer patte blanche en produisant au moins 30 corrections en 30 jours. »

    Donc pour modifier sur Wikipédia il faut faire au moins une correction par jour… voilà qui va encore renforcer la « culture geek », déja omniprésente sur Wikipédia.

    « Je m’explique : plus une écriture est vite recouverte par une autre, et moins elle est fiable. »

    On croit rever ! Cette personne est-elle déja allée sur Wikipedia ? Il est établit qu’énormément d’articles (pudiquement nommés « sensibles », et pas seulement des articles politiques) sont en permanence sous surveillance de personnes partisanes, qui remodifient à leur convenance l’article. Un contributeur potentiel se voit donc contraint de se soumettre à l’idéologie ambiante ou de passer son chemin. Ou est la fiabilité ?

    A l’inverse, si une information fausse mais complexe est introduite sur un article Wikipedia, la probabilité est faible pour qu’une personne, disposant de l’expertise suffisante pour detecter et corriger l’erreur, intervienne dans un court laps de temps. C’est ce qu’a montré une étude de Sciences-Po sur Wikipedia. Donc à nouveau, aucune fiabilité à une écriture qui met longtemps à etre modifiée…

    « Le système assigne à chaque contributeur un indice de confiance basé sur l’historique de leurs interventions. Ceux dont les contributions sont peu altérées obtiennent un bon indice, ceux dont les contributions sont rapidement remaniées un moins bon. »

    Sur Wikipedia, il est possible de suivre « en direct » les contributions d’un utilisateur. Et, c’est un fait avéré, on a assité à la création de comptes utilisateurs, dont le seul but était de censurer (revert) toutes les interventions d’une autre utilisateur. Donc il sera très facile de faire volontairement chuter « l’indice de confiance » d’un contributeur.

    Autre cas (moins pervers) : les conflits d’éditions, qui pulullent sur Wikipedia. Et bien selon cette logique, deux contributeurs en conflits (qui donc se « corrigent » mutuellement) verront leur « l’indice de confiance » chuter, peu importe que l’un des deux ai raison ou non ! Bref pour vivre heureux (et en confiance) vivons cachés…

    Bref, ces outils pourront sans doute lutter contre le vandalisme sommaire, mais pas améliorer la fiabilité de Wikipedia. La forme s’améliorera peut-etre, mais certainement pas le fond.

    « Les lecteurs pourraient également accéder à un lien vers une version figée d’un article, labellisé à un moment donné pour ses qualités. »

    C’est la bonne nouvelle de cet article : suivre la voie de son concurrent Citizenium semble etre la seule solution pour permettre à Wikipedia de sortir de l’impasse… Le problème est sur Wikipedia plus qu’ailleurs, le « Culte de l’amateur », a la vie dure. mais c’est une autre histoire…

  3. la confiance, c’est exactement le coeur de la valeur du media (découlant de l’organisation de la société). on peut légitimement penser que des indices de confiance pourront être à l’avenir utilisés pour toute information qui « sortirait » dans un media. Car la pertinence de l’information, son utilisation, a de fait une valeur en terme de crédibilité. Dernier exemple, lorsque le directeur exécutif d’Orange « dément » que sa société commercialisera l’Iphone, pour ensuite l’annoncer en grandes pompes. L’information est ici tronquée, du fait que la négociation est en cours à l’heure du démenti. Mais quelle crédit apporter alors aux informations suivantes… ?

  4. L’outil « WikiScanner » a eu son heure de gloire, car il a pu mettre en évidence les manipulations de l’information réalisées par les « institutionnels ».
    Mais maintenant que c’est connu, éventé, c’est fini, les « institutionnels » lanceront leurs torsions de la vérité depuis des adresses IP banales, et surtout pas depuis leurs adresses IP connues.

  5. Attentionpour les dates du colloque sur Wikipédia : 19 et 20 octobre prochain à la Cité des sciences de la Vilette (Paris). Inscription gratuite.

  6. Fondamentalement, le fait de nommer Wikipedia une encyclopédie pose question. Si l’on reprend l’étymologie, encyclopédie signifie « un ouvrage qui traite de toutes les matières d’un domaine » ; le projet de Diderot et d’Alembert proposant « un ouvrage où l’on traite de connaissances à intention universelle ».

    On est donc plus dans le cadre de la deuxième définition, qui n’implique pas obligatoirement l’exhaustivité. Mais ce n’est pas la définition répandue. En tout il serait préférable à mon sens de ne pas comparer Wikipédia à des encyclopédies.

    Son intérêt se trouve ailleurs : une expression citoyenne (au sens large), nécessairement évolutive.

    En ce sens, la notation des auteurs s’appuyant sur le faible nombre de corrections (voir plus bas l’indice de confiance) me semble un non sens.

    Pour moi, Wikipedia est un espace de partage de savoirs en construction, qui vient compléter (en amont comme en aval) des sources encyclopédiques, sa valeur se définissant par la dynamique de contribution et de discussion sur les contributions (n’oublions pas la richesse de contenu et d’analyse lorsque l’on clique sur l’onglet « discussion » d’un article), les ouvertures vers de nouvelles connaissances émergentes que cela procure.
    D’autre part, d’autres sources organisées peuvent se définir par leur validité scientifique et/ou leur exhausitivité.

    Encore une fois, comme pour toute apparition d’une forme nouvelle, on cherche avant tout à comparer, opposer à un existant, alors que la proposition est autre et complémentaire.

  7. c’est devenu très difficile de modifier des infos sur wikipédia, et je parle d’infos réelles, des super modérateurs (?) ou je ne sais pas qui, modifient et suppriment pour x raison des infos pourtant réelles et vérifiées qui ne posent pas de problèmes, donc je n’y participe plus, dommage