Des agrégateurs aux disséminateurs

Les outils d’agrégation, les moteurs de recherche, les répertoires de liens « sociaux » et autres outils du web d’aujourd’hui, sont censés savoir faire émerger un sens de cette accumulation. Ils sont encore loin du compte. Où sont les outils qui nous aideront à prendre les chemins de traverse ?

L'iPhone d'AppleTrois jours après son lancement, plus de 70 000 billets sur les blogs parlent de l’iPhone d’Apple.

Mais qu’en disent tout ces gens ? Si je me concentre sur les blogs « d’autorité » (comprenez, vers lesquels beaucoup d’autres blogs ont créé des liens), il me reste encore plus de 4 000 billets à lire ! Et je ne parle pas des dizaines de commentaires qui accompagnent certains billets, dont un tout petit nombre présente certainement un intérêt.

Les outils d’agrégation, les moteurs de recherche, les répertoires de liens « sociaux » et autres outils du web d’aujourd’hui, sont censés savoir faire émerger un sens de cette accumulation. Ils sont encore loin du compte.

Au mieux, ils classent : voilà tous les billets qui parlent de l’iPhone ; voilà les billets repérés par quelqu’un ; voici les plus cités, les mieux notés (par qui ?). Mais, comme le montrent également deux études sur les photos de lieux dans FlickR, plus ils classent, plus ce qui émerge est une information moyenne, banale : la carte des photos de Londres et de Barcelone se concentre sur les lieux touristiques, quelle surprise !

On pourrait dire la même chose de beaucoup d’outils de recommandation : si vous recherchez les Beatles, le plus souvent ils vous conseilleront les Rolling Stones, John Lennon ou Paul McCartney : j’y serais arrivé tout seul ! Vous avez acheté Fahrenheit 9/11 de Michael Moore, les internautes ont également acheté Bowling For Columbine et L’Amérique de Michael Moore : surpris ?

Les outils du web 2.0 nous ont fait rentrer dans l’ère de l’agrégation, mais c’est une expérience dont on perçoit assez vite les limites. Ils favorisent la somme des regards plutôt que leur pertinence. Bien sûr, savoir qu’on partage un intérêt avec une foule de gens est une information, mais une information sur quoi ?…

Le remarquable billet de Tristan Nitot sur l’iPhone, je ne l’aurais certainement pas trouvé via Technorati. Je l’ai trouvé parce que je lis son blogue, certain d’y croiser régulièrement des informations intéressantes.

D’un côté, c’est rassurant. Cela montre que nous avons encore un rôle à jouer.

Mais c’est aussi rageant, parce qu’on a l’impression que les outils ne nous aident pas là où l’on voudrait qu’ils le fassent, alors qu’il ne manque pas grand-chose pour que cela devienne possible. Les actions que l’on réalise sur le web, les photos que l’on collecte, les vidéos que l’on visionne et que l’on critique, les signets que l’on met de côté… Toutes ces traces, si nous savions mieux les comparer (et pas seulement les agréger) à celles des autres, si nous comprenions mieux comment leur dissémination fait sens, peut-être nous permettraient-elles d’y voir plus clair ?

Un bon exemple pour moi est LibraryThing, un site qui vous permet de gérer et critiquer les livres que vous avez lu. Sa force est de comparer votre bibliothèque à celle d’autres amateurs et de vous proposer de voir les bibliothèques de ceux qui ont le plus de livres en commun avec vous. Mais il se contente de trop peu : ces « bibliothèques » se composent essentiellement des 20 derniers livres que nous avons lus ou des 10 qui nous ont le plus marqué ; on compare les titres, pas les critiques que nous avons produites. Là encore, c’est un espace « moyen » qui émerge, alors qu’il faudrait peu de chose pour faire apparaître des milliers de « co-bibliothèques » beaucoup plus typées.

Les représentations cartographiques de l’information sont parfois de formidables outils pour faire ressortir les à-côtés, au moins parce que les points de concentration en deviennent souvent illisibles. Quand on regarde une carte peuplée de photos, les points chauds en deviennent tellement denses que ce sont les points latéraux, déportés, qui finissent par ressortir, s’imposent parce qu’ils demeurent exploitables. Sous l’afflux, ingérable, notre regard se décale, cherche ce qui n’est pas central, voit ce qui est disséminé plutôt que ce qui est rassemblé.

La représentation cartographique permet de mettre en avant d’autres points, d’autres noeuds, d’autres centres, qu’une analyse de fond ne fait pas ressortir. C’est pour moi toute la limite des outils que nous utilisons aujourd’hui, tout « web 2.0 » qu’ils s’affirment, qui favorisent la somme ou la moyenne des regards plutôt que leur pertinence… Mais comment faire sens ? Comment aider le regard à se déporter, quand la plupart de nos outils favorisent le sens commun ? Comment favoriser, mettre en valeur, mieux analyser la dissémination plutôt que la concentration ? La qualité ou la pertinence, plutôt que la quantité ? Trop d’outils mettent en avant le plus lié, le plus vu, le plus écouté, le plus lu. Qui est souvent aussi le plus apprécié, car on vote pour ce qu’on voit, lit, écoute, connaît et reconnaît. Le succès va au succès, fort bien, mais a-t-on besoin d’une telle débauche d’innovation pour un résultat si pauvre ?

Où sont les outils qui nous aideront à prendre les chemins de traverse ?

Hubert Guillaud

À lire aussi sur internetactu.net

0 commentaires

  1. Très bon post ! Et c’est bien là qu’on comprend que le phénomène Web 2.0 est survendu actuellement (même s’il présente des évolutions véritables et palpables).

  2. Article très intéressant sur les limites du web 2.0 tel qu’il existe actuellement en tout cas.
    A mon sens pour comparer, pour avoir une vision objective de la pertinence d’un article, il faut passer par des solutions techniques (comme les microformats et la problématique de la sémantique en général) et la mise en place de réferents (des leaders d’opinions pouvant faire une sélection de contenu en amont) au sein de chaque communautés.

    J’ai commencé à lire « Wikinomics » ou comment la collaboration de masse change tout. Le peu que j’ai pu en lire me donne envie d’acheter la version française qui devrait sortir sous peu…

    NB : moi aussi j’ai lu l’article de Tristan Nitot (que je considère comme l’un de mes réferent en matière d’open source !)

  3. Excellente réflexion Hubert. Il m’a rappelé les ronchonnements observés lors de certaines grandes manifestation sur la difficulté de ceux qui les suivent à distance à tirer efficacement quelque chose du bruit ambiant. Cela m’a aussi fait penser à des réflexions que j’avais formulées en juillet dernier sur le fait que les outils 2.0 servaient visiblement plus à savoir quel est le buzz qu’à faciliter la recherche et l’extraction.
    Dans le fonds, je ne vois pas vraiment de réponse à ta question. Le volume d’information publié est tel qu’il me semble vain d’envisager raisonner en terme de filtre ou de sélection et puis il faudrait peut-être se poser la question du niveau de résultat envisagé. Le problème se situe en effet plus sur le temps que l’on est prêt à consacrer et dans l’acceptation du niveau de résultat qu’on est en droit d’attendre compte tenu de cet investissement.
    Maintenant, au-delà des outils automatiques ou de ceux qui permettent des sélections fruit de l’intelligence collective (dont on devrait plus se soucier de la logique pour les premiers ou des intérêts des groupes dominants chez les second), je pense qu’il faut regarder de près l’émergence de nouveaux médiateurs humains. Finalement, c’est bien sur les noeuds du réseau que l’on s’appuie le mieux. En fin de compte, on fait confiance à des gens dont on pense qu’ils ont une lecture de l’information intéressante pour nous et qu’ils sauront extraire le bon jus parce que, eux, ils consacrent le temps que nous n’avons pas. Francis Pisani, notamment, a déjà évoqué la montée en charge de cette nouvelle forme de médias (ou de journalisme ?). Il ne faudrait pas oublier le facteur humain et après tout, l’air du temps est au retour des comités de lecture et des experts…

  4. En effet, merci pour cette jolie réflexion et cette invitation à dépasser le stade de l’agrégation ! Moi aussi je suis fan de Francis Pisani et de quelques autres personnalités chariqmatiques à qui j’accorde crédit et confiance pour décrypter les informations NTIC et m’entrainner vers les chemins de traverse ! 🙂

  5. La carte ne serait plus le territoire?
    Vous avez raison de pointer sur la manifestation perpétuellement renouvelée de cette tendance sociale: on s’agglutine sur les redondances au lieu de s’ouvrir sur le discernement qui permet l’exploration et donc, l’invention.
    Les effets grégaires ont vite pris le pli dans le Web, comme ailleurs: des premiers portails aux entreprises genre Myspace qui sont comme autant de parcs de concentration, corrails d’un troupeau humain à rassembler pour abreuver de publicité, d’Altavista à Google en passant par le tagging, nous nous référons de plus en plus à des points cardinaux dans lesquels seules les accumulations font sens.
    Les solutions commencent pourtant à émerger mais elles sont pour l’instant réservées aux professionnels, ou à l’état beta si j’ose dire, ainsi l’excellent projet de moteur de recherche ontologique Excalibur, qui renaît de ses cendres, basé au Canada.
    En attendant quelques autres surprises utilisant des technologies très éloignées des algorythmes et autres méthodes de calcul actuels de ce web 2.0 qui prend de plus en plus la forme des reflexions prospectives du philosophe Peter Sloterdijk.
    Le web 2.0, en flattant l’ego et le buzz, étouffe comme vous le dîtes (presque!;-) l’individu et son originalité.

  6. Je trouve que last.fm fait un bon travail dans ce domaine, en détectant nos « voisins » (profil proche) et en nous permettant de recevoir des recommandations de nos voisins et de nos amis. Ils ont même un curseur qui permet, pour ces recommandations ou pour une radio basée sur un tag particulier, de régler le niveau de « popularité » des groupes écoutés. On peut ainsi choisir des morceaux de son genre préféré qui seront, au choix, « mainstream » ou « confidentiels ».
    C’est encore loin d’être suffisant pour des recommandations de qualité. Il me semble que la solution passe obligatoirement par un système de tags, mais pour lequel il nous manque aujourd’hui la deuxième étape : celle du filtrage de tout ce que l’on récolte. C’est ce que j’essayais de décrire (en anglais) en mars 2005 : http://www.findapath.org/index.php?p=12

  7. Je viens d’avoir une très intéressante conversation avec Raphaël Labbé, l’un des développeur de U.lik, un moteur de recommandation justement, qui m’expliquait la différence entre le Collaborative Filtering (du type Last.fm) et le Content Based filtering (utilisé par Pandora notamment), qui sont un peu les 2 systèmes qui président aujourd’hui au monde de la recommandation. Il me racontait également que si les résultats d’Amazon sont aussi peu pertinents, ce serait dû au bridage volontaire du système : la recommandation doit servir un achat d’impulsion. L’utilisateur ne doit pas réfléchir, mais consommer. Il est donc plus simple en effet de proposer un autre titre de Michael Moore qu’un titre plus différent comme The Take de Naomi Klein par exemple, mais qui devrait plaire aux mêmes amateurs.

    Il a évoqué également le travail réalisé sur U.lik où le profiling permet de mettre en avant, quand vous êtes connectés, ce qui dans les profils des autres est le plus proche de ce qui vous plaît ou vous ressemble. Il évoquait également Findory, le moteur de recherche développé par Greg Linden, l’auteur du moteur de recommandation d’Amazon, qui personnalise ses résultats à mesure que vous l’utilisez. Et me racontait que celui-ci expliquait souvent l’importance de garder de l’ouverture dans un moteur de recommandation pour conserver de l’intérêt : et ainsi de ne pas hésiter à faire apparaître des informations qui n’étaient pas de votre opinion politique – même si vous l’aviez renseigné dans votre profil – pour laisser libre cours à la surprise et renouveler l’intérêt.

    Dans les fonctionnements de ces moteurs, il y a aussi une dichotomie Actif/Passif : je renseigne mon profil vs. le moteur détermine mon profil en fonction de mes actions.

    A creuser, mais intéressant.

  8. Intéressante analyse. Sur la première partie de ton billet, je te cite :
    « Les outils du web 2.0 nous ont fait rentrer dans l’ère de l’agrégation, mais c’est une expérience dont on perçoit assez vite les limites. Ils favorisent la somme des regards plutôt que leur pertinence »

    Tout à fait d’accord, le fait est que la recherche d’information se fait aujourd’hui principalement à travers des moteurs de recherche, pardon, un moteur de recherche Google (même s’il existe des outils d’un autre type que tu cites) et de par leurs algorithmes il renvoient non pas vers LA meilleure référence mais plutôt vers celle la plus communément admise.
    Google l’a d’ailleurs bien compris et cherche à améliorer la pertinence et la qualité des contenu à travers leur produit Google Coop
    (http://www.kerignard.com/blog2/2006/11/google-coop-co-op.html) qui permet une qualification plus sociale, certe, mais plutôt dédiée à des experts vu la non ergonomie de l’implémentation du service et donc (on espère) à une meilleure qualité/pertinence des résultats.

  9. Trop d’accord et finalement heureux ( et riche) sera celui qui trouvera le code de la gestion emotionnelle du web. J’ai écrit récemment à Dailymotion pour leur signaler que dans un compte user la video mise en avant était la plus vue. Grosse erreur qui ne permet plus à l’utilisateur de partager ce qui lui semble le plus important pour lui sur le moment. Benjamin Bejbaum était d’accord sur l’analyse.mais l’user que je suis attend toujours. Merci Hubert pour ce billet.

  10. Pourquoi cestte peure exprimée du concencensus, du goût commun et partagé ?! Y a-t-il un risque à ce que beaucoup de gens ai une référence forte en commun, un film culte commun, un livre commun, etc.?! c’est pourtant l’un des points d’encrage d’une culture. Avoir un commun culturel ne veut pas dire nécessairement uniformité pour tout. On peut très bien tous aimer Mozart et tous aimer jouer des musiques différentes par ailleurs. Excusez-moi, mais je crois que le sentiment que vous exprimez est très courant dans la culture française : bien avant de l’appliquer au web2.0, c’est une analyse très classique et très française que de venter l’individualisme dans les goût, de vanter l’exploration des chemins de traverses, d’exprimer une certaine peure de la vie de groupe et de la culture de masse, etc. Dans d’autres cultures, par exemple les cultures asiatiques, on a tendance, me semble-t-il, à faire l’inverse.

  11. La blogosphère n’est-elle pas, par définition, une formidable chambre d’échos ? Etymologiquement, le blog est un journal de bord (log) de navigation sur le Web. C’est donc un système d’annotation du Web, héritier de la glose. Sur un blog, le billet n’est-il pas lui-même, déjà, un commentaire d’une autre source ?

    Bon d’accord, le terme ‘blog’ s’applique désormais à d’autres dispositifs et désignerait plutôt maintenant, la forme éditoriale des contenus : billets classés chronologiquement et ouverts aux commentaires. Les Skyblogs par exemple, sont déjà des blogs dérivés du sens premier, le journal intime n’étant pas vraiment un ‘journal de bord de navigation sur le Web’. Le blog d’entreprise en dérive également : on garde la forme éditoriale, en oubliant la vocation première.

    Mais beaucoup de blogs, parmi les plus en vue, répondent encore au sens premier du mot. Celui de Francis Pisani par exemple (au moment où j’écris, les 4 derniers billets concernent… iPhone et pointent vers des sources assez intéressantes à mon goût). Celui de Jean-Michel Salaün moins populaire mais non moins pertinent, se veut être clairement un ‘repérage de ressources’ sur le Web donc, un vrai ‘blog’.

    Mais si les blogs sont déjà des commentaires du Web, on se demande pourquoi les moteurs les indexent de la même manière que les sources elles-même… Technocrati est basé globalement sur un système de notation à la mode ‘PageRank’. Le blog est d’autant plus haut dans la liste, qu’il est souvent cité par d’autres. D’où à mon avis, la sur-valorisation du ‘bruit de fond’ des commentaires.

    C’est bien la critique d’Hubert plus haut mais pour ma part, je n’y vois pas une débauche d’innovation mais plutôt une absence d’innovation par rapport aux moteurs généralistes, une absence de technologie spécifiquement adaptée à ce type de contenus.

  12. Cher hubert,
    tout à fait d’accord sur ce problème de la  » notoriété moyenne », dont procède les agrégateurs style Web 2.0et le « page ranking »…
    Dans une autre vie j’ai lu ça, qui me semble aller dans le sens de ce débat : « Une SecondLife pour Google ? in http://www.mondespossibles.typepad.comCe que seront les moteurs de recherche du futur… »
    Meilleurs voeux pour 2007 !

  13. 14. Veuillez excuser la rédaction fautive précédente…

    Cher hubert,
    tout à fait d’accord sur ce problème de la ” notoriété moyenne”, dont procède les agrégateurs style Web 2.0et le “page ranking”…
    Dans une autre vie j’ai lu ça, qui me semble aller dans le sens de ce débat : “Une SecondLife pour Google ? Ce que seront les moteurs de recherche du futur…” in http://www.mondespossibles.typepad.com
    Meilleurs voeux pour 2007 !

  14. A Pierre :
    Pourquoi faire une distinction entre sources, billets et commentaires dans la mesure où des commentaires peuvent devenir à leur tour des sources d’informations et donner lieu à des billets qui à leur tout déclencheront des commentaires qui…et ainsi de suite …la réalité des réseaux et des processus auto-organisationnels, me semble-t-il, appellent à nuancer le propos !

  15. Merci Hubert pour le commentaire je n’avais pas vu qu’il avait été posté !
    J’invite Pierre schweitzer a testé U.[lik] http://www.u-lik.com car effectivement ce qui fait notre force c’est la volonté de s’attaquer à un problème bien spécifique : celui du gout !

  16. Absolument d’accord avec l’ensemble de ces posts. Je rebondis particulièrement sur Linden (http://glinden.blogspot.com/) qui propose de laisser un peu de jeu dans les réponses à une recherche ou dans une réponse « personnalisée » (type amazon avec les recommandations). Ceci pour continuer à stimuler l’intérêt. Et pourquoi pas de l’aléatoire dans des proportions variant avec l’écart-type de nos clics ou achats avec la proposition moyenne renvoyée (suis-je bien clair…). Bref, les recommandations ne peuvent, par construction, qu’être des propositions moyennes. Leur ligne d’horizon est donc vouée à s’écraser, puisque si je leur fait toujours confiance, ma discothèque ou ma bibliothèque ressemblera forcément à celle des gens qui me sont proches et qui le deviendront de plus en plus (en fait on se rapprochera tous de plus en plus). sans risque, pas de nouveauté, pas de création. Pas terrible. Résultat Web 2, moi 0…