Interroger la crédibilité en ligne

David Lankes, directeur de l’Ecole d’études sur l’information de l’université de Syracuse aux Etats-Unis et codirecteur de Credibility Commons, étudie la pertinence de l’information sur l’Internet. Pour Ecrans, il explique les différentes approches que son équipe expérimente pour mieux comprendre la crédibilité des informations sur le web. Parmi les prototypes sur lesquels il travaille, StoryStarters permet de retrouver un même sujet sur tous les blogs de ceux qui utilisent l’application ; Reference Extract, est un moteur de recherche qui permet de chercher dans l’annuaire des sites des bibliothèques (choisies parce qu’elles sont censées faire autorité dans la recherche d’information), qui participent à l’Internet Public Library.

« En ce moment, nous développons des outils qui permettent d’identifier des pages web crédibles. Par exemple : le site a-t-il un auteur identifié ? Les informations sur le nom de domaine enregistré correspondent-elles au site montré ?, etc. Nous travaillons également à la construction d’une large collection de sites crédibles, tels que déterminés par des experts, et ensuite nous essayerons de voir si nos outils peuvent recouper ces jugements. Nous collaborons aussi avec des chercheurs d’autres domaines comme les langues ou la santé, pour voir si ces outils peuvent réellement aider les personnes à se fier aux sites qu’ils consultent. »

À lire aussi sur internetactu.net

0 commentaires

  1. Oui,OK mais meme sans logiciels il est facile de savoir par la pratique de la lecture des blogs que la redite ,le pillage etc..est de mise dans la blogosphere,a titre d exemple,sur 100 blogs lus régulièrement,seulement 4% d’info nouvelles-dans les domaines:KM,veille,Web2,Anthropologie..
    La superpositions des OPLM est effarante.