On s’enthousiasme facilement des innovations quotidiennes que proposent l’actualité des technologies de l’information. Qu’il s’agisse des innovations technologiques, toutes présentées comme devant révolutionner le monde ; de la pléthore de nouveaux services, tous censés bouleverser les équilibres de leurs secteurs respectifs ; et bien sûr des nouvelles pratiques, d’autant plus méritoires dans ce dédale de nouveautés.
Peut-être faut-il surtout voir dans cette course à l’innovation et à l’utilisation de ces monceaux de gadgets le reflet d’un comportement psychologique, d’une addiction à la nouveauté, comme l’explique le neurologue Irving Biederman, qui montre qu’une nouvelle information déclenche chez chacun d’entre nous des réactions d’ordre chimique qui nous font nous sentir bien.
Nos outils n’évoluent pas à l’aune de nos pratiques
Pourtant, si on prend un peu de recul, qu’est-ce qui a vraiment changé dans nos pratiques depuis 10 ans ? Nous nous connectons à haut débit plus facilement. Nous passons plus de temps sur le web. Nos usages se sont considérablement diversifiés. Certes. Mais nos outils de base sont restés les mêmes. Bien sûr, leurs fonctions ont évolué : utiliser un traitement de texte en ligne (tel que Google Docs) change en effet certaines pratiques, permet de nouvelles collaborations, de nouveaux modes d’accès. Reste qu’au quotidien, le formatage d’un texte est toujours aussi compliqué. Le mail, la messagerie instantanée, le web, la bureautique… tout est encore là, presque dans l’état où nous l’avons trouvé au début. Aucun de ces outils n’a vraiment connu une révolution dans sa conception. Aucun d’entre eux n’a même sérieusement cherché à répondre aux difficultés que ses usages engendraient, à l’instar du mail. Au contraire, le plus souvent : c’est à nos pratiques qu’on demande de s’adapter. Nous tentons de temps à autre de développer des stratégies d’évitement ou de défense, mais globalement, nous subissons autant – voire davantage – les outils que nous en tirons parti.
Aujourd’hui par exemple nous croulons sous les mails sans parvenir vraiment à les trier, à sélectionner les plus importants, à répondre avant qu’on n’oublie… Depuis le début, on range, on classe nos mails. C’est la seule interaction que nous proposent nos outils. Mais où est, par exemple, l’interface qui nous permettra de gérer vraiment nos alertes ? Aujourd’hui, comme hier, si nous attribuons une priorité ou une couleur à des messages, cela n’aura aucune conséquence, ni dans la façon dont ils nous parviennent, ni dans la façon dont ils sont archivés : aucun logiciel de gestion de mail ne nous rappelle le mail que nous avons étiqueté comme important il y a 4 jours et qui a disparu au fin fond de nos boîtes de réception ! Nous accumulons des listes de mails importants et inutiles sans que cela n’ait d’incidence sur l’outil ou sur l’interface. Les mails de nos correspondants arrivent tous dans la même continuité, alors que nos logiciels savent très bien ceux que nous ouvrons et ceux que nous n’ouvrons jamais…
A regarder le fonctionnement de nos pratiques, on constate qu’aucun outil n’est venu en modifier profondément la teneur. Aujourd’hui, nous souffrons tous du mail. Non seulement les outils ne nous ont pas aidé à réduire cette souffrance, mais ils l’accroissent en rajoutant des agrégateurs ou des interfaces sociales aux logiciels de gestion de courrier et aux navigateurs… sans qu’ils soient interconnectés entre eux, démultipliant la redondance de l’information plutôt que de la réduire.
Et que dire quand le rythme s’accélère encore avec les agrégateurs de flux d’actualité de son réseau social comme Twitter ou Friend Feed comme l’évoquait Erick Schonfeld sur Techcrunch (traduction en français). Comment ne pas être dépassé quand on suit comme Robert Scoble 20 000 personnes sur Twitter et que l’on reçoit un twitt par seconde ? « Le lifestreaming qui devait simplifier les choses en concentrant toutes les infos en un seul endroit n’a fait qu’exacerber le problème », conclue avec raison l’auteur du blog linfographik.
Information overload
On pourrait faire le tour des technologies que nous utilisons chaque jour et voir, pour chacune, combien elles sont restées frustes. Combien les liens entre elles sont demeurés inexistants. Entraînés dans l’innovation constante, nous semblons oublier de rendre plus aisément exploitables les innovations passées, y compris les plus utilisées. Bien sûr, de nouveaux outils font leur apparition, ajoutent des couches supplémentaires d’utilisation, permettent des traitements inédits. Mais ils s’ajoutent à la surcharge informationnelle, ils croissent au-delà des capacités cognitives d’un internaute moyen, c’est-à-dire d’une personne qui ne passe pas toute la journée en ligne. Oui, les vrais gens n’ont pas le temps pour utiliser les médias sociaux, clame avec raison Sarah Perez du ReadWriteWeb. « Selon le temps qu’on est capable de passer, on joue un rôle différent sur le réseau », explique Nina Simon, à l’origine de cette réflexion, distinguant les participants (qui passent 1 à 5 heures par semaine sur les sites sociaux), des fournisseurs de contenus (5 à 10 heures), aux animateurs de communautés (10 à 20 heures). A croire que nous sommes capables d’inventer des outils si consommateurs de temps, que seul le temps passé sera bientôt capable de distinguer les utilisateurs les uns des autres.
Vers l’économie de l’attention ?
Certes, nous circulons mieux dans l’information, mais on oublie souvent de nous permettre de mieux la gérer. Si la fracture de l’accès aux nouvelles technologies tend à se réduire, ne sommes-nous pas en train d’en construire une autre, celle des savoirs, des compétences et du temps disponible en ligne ? Celle de l’attention. Une fracture cognitive entre ceux capables d’utiliser les outils et de naviguer dans la surinformation et ceux qui n’en auront ni le temps, ni les moyens, ni les capacités ?
Dans le flot d’innovation continue et permanent du web, chaque nouveauté paraît une révolution. Et c’est vrai, il y en a parfois. Des petites subtilités qui changent tout, des petites applications qui nous permettent de franchir un cap, de passer un seuil, d’anodines astuces qui enchantent nos pratiques. Mais le petit monde de l’internet peut-il continuer longtemps à égrener les innovations, à rajouter chaque année sa sélection d’outils « indispensables », son lot de nouveaux services, décalques les uns des autres, sans se poser de questions ? Il est étrange tout de même, qu’à l’heure des interfaces de programmation ouvertes, des services en plates-formes, que personne ne cherche à proposer des innovations qui puissent rendre le simple e-mail plus aisément utilisable au quotidien, qui puisse éliminer les redondances d’informations entre les outils qu’on utilise ! Il y en a bien sûr. Comme MindUp, le logiciel développé par la start-up française CalindaSoftware (vidéo), ClearContext, Claritude ou Seriosity, qui permettent de structurer les échanges dans sa messagerie électronique par exemple. Mais même pour certains de leurs promoteurs, ce ne sont que des cautères sur une jambe de bois.
Il est temps d’entrer dans le coeur du débat de l’écologie informationnelle, en distinguant mieux ce qui relève d’une culture nouvelle, d’un bouleversement social qui doit interroger chacun dans ses pratiques et ce qui relève d’un saut qualitatif en matière d’interface, de design et de conception logicielle. Une écologie informationnelle n’est pas une utilisation durable de nos outils numériques – qui est aussi un problème important, mais ce n’est pas le même -, mais une utilisation durable de « notre temps de cerveau disponible ». Car si l’information et notre attention sont une matière première, au même titre que le charbon ou le pétrole, il faut reconnaître la valeur de l’activité qui en résulte et les effets néfastes des abus, des excès, des saturations nés des systèmes et des pratiques, notamment numériques. Dans cette infopollution ou nous nous noyons, cette infobésité ou nous surnageons, dans ce temps de L’enfer de l’information ordinaire, comme le clame l’excellent livre éponyme de Christian Morel, « les facteurs humains, sociaux et économiques conduisant à la mauvaise qualité de l’information ordinaire ne sont pas prêts de disparaître ». Ce n’est pas pour autant qu’il ne faut pas s’y atteler.
A quand des outils de haute qualité informationnelle comme on conçoit des bâtiments de haute qualité environnementale ? Comme le disait le philosophe Félix Guattari dans Les trois écologies : « Il n’y aura de réponse véritable à la crise écologique qu’à l’échelle planétaire et à la condition que s’opère une authentique révolution politique, sociale et culturelle réorientant les objectifs de la production des biens matériels et immatériels. Cette révolution ne devra donc pas concerner uniquement les rapports de force visibles à grande échelle mais également des domaines moléculaires de sensibilité, d’intelligence et de désir. »
Il est temps de se préparer à répondre à cette crise écologique là, aussi.
Hubert Guillaud
0 commentaires
tout ca c’est comme la crise des subprimes mortgage on nous refile en douce des risques cachés camouflés dans un texte présenté comme sûr.
le HQE pour l’information c’est : l’ enquête
Sur « l’info-pollution », les entreprises n’ont-elles pas au premier chef un rôle d’éducation à jouer auprès de leurs salariés ? Car entre droit d’accès à des outils de haute qualité informationnelle, et devoir d’user « durablement » des outils de communication (je pense bien sûr aux dégâts faits par les « mauvais » usages des mails), j’ai souvent l’impression que le débat et entre la poule et l’oeuf ! Un sujet proche de l’éducation civique.
Très bon billet pour faire ressentir le débordement perpétuel de la surinformation sur Internet. Ça fait 15 ans que je vois que le web n’arrête pas s’auto-dépasser.
Je ne crois que ce soit spécifiquement spécifique à notre domaine (la science a aussi sa surinformation, etc.) mais il faut croire que c’est la société contemporaine d’individus sur-spécialisés qui créent ce problème (surtout quand ils se mettent tous à contribution).
Je me demande si Revel n’avait pas raison dans « La connaissance inutile » publié il y a 2 décennies…
@Ber : J’espère qu’il n’y a pas que l’enquête.
@Venus : Ni les outils ni les pratiques HQI n’existent à ce jour. Je suis d’accord pour dire qu’il y a un vrai déficit de connaissance de chacun dans la gestion de son information. Mais la non évolution des outils n’aident pas à ce que les pratiques progressent non plus. Je pense qu’il n’y a ni poule ni oeuf, mais les deux symptomes à traiter parallèlement.
Le fait également que nous soyons sur des outils au niveau de coopération faible, à tendance à favoriser le plus petit dénominateur commun. Ce qui favorise l’usage le plus simple, mais pas le plus organisé. Dit autrement, si un membre d’une organisation ne structure pas son information aussi bien que les autres, c’est toute l’information de l’organisation qui se calque sur ce plus petit dénominateur commun. Dans un petit groupe on peut avoir des pratiques plus méthodiques et plus évoluées, il suffit qu’un seul ne les respecte pas et le progrès de tous est anihilé. Ce qui veut dire qu’on aura forcément aussi besoin des outils (regardez la vidéo de MindUp, pour mieux comprendre que les outils peuvent nous aider à structurer).
A signaler, cette ébouriffante séquence de Mike Wesch, ethnographe numérique du Kansas (et déjà talentueux réalisateur d’une vidéo sur les attentes des lycéens) qui illustre assez bien le propos d’Hubert: http://fr.youtube.com/watch?v=-4CV05HyAbM Mike semble d’abord fasciné par le tsunami informationnel, mais termine sur ces mots: « Face à la révolution informationnelle, sommes-nous prêts? »
Petite précision: la HQI n’est pas une totale invention: c’est une création originale qui vient d’un prof d’informatique qui forme des ingénieurs…en bâtiment! http://interbat.cstb.fr/article3.asp?id_une=77
« Autre concept : celui de la « Haute Qualité Informationnelle ». Il a été lancé au Symposium des technologies de l’information dans la construction par Bernard Ferries, coordinateur technique de l’Alliance Internationale pour l’Interopérabilité (IAI) et Michel Léglise, enseignant à l’Ecole d’architecture de Toulouse. Partant d’un constat (malgré les offres de logiciels « parlant » IFC, l’échange de fichiers de plans et de pièces écrites reste encore la règle), il veut s’inspirer de la démarche HQE, notamment de l’une de ses performances les plus remarquables : transférer les coûts vers les investissements initiaux
La Haute Qualité Informationnelle peut se définir comme une démarche de management de projet. Elle vise à « augmenter la qualité des informations produites, échangées et livrées entre tous les intervenants d’une opération, tout au long du processus ».Le raisonnement est simple. Pour qu’une information de qualité soit créée, il faut qu’elle soit valorisée. Les bénéfices induits par une meilleure information peuvent les rémunérer. Et pour reprendre un langage devenu familier avec la HQE, deux premiers exemples de « cibles » peuvent être données à la HQI : la circulation des documents entre intervenants, à travers des outils de gestion en ligne, la préparation des informations de gestion pour l’exploitant en cours d’opération.. »
Voilà un sujet vraiment important. Mais ce qui me frappe le plus, pour moi qui y suis fréquemment confronté dans les organisations, c’est qu’il faille d’abord mettre des mots sur les maux, simplement faire verbaliser les choses.Les comportement de survie informationnelle sont fascinants, tout autant que la propention à rajouter des outils pour tenter de réhausser le niveau d’attention, mais avec pour seul résultat d’augmenter le niveau de bruit. Nous avons créé la technologie, mais depuis toujours nous nous en servons mal et maintenant, elle nous fait mal. Il y a des maux et on rencontre aussi des gens qui en deviennent vraiment malades sinon pire.
Le plus fascinant est quand même la difficulté à inscrire le sujet de la gestion de l’information comme un vrai sujet de gouvernance, simplement à ce qu’il ne soit pas dans les « questions diverses » des comités de direction. Et je ne parle même pas que quelqu’un s’en occupe, et quand c’est le cas, c’est pour faire face aux audits et aux questions réglementaires.
Tableau noir ? en effet. Et je ne suis pas loin de penser que l’industrie devrait vraiment s’en soucier, car elle creuse sa propre tombe à vendre des choses qui commencent à poser de sérieuses questions, du genre de celles qui font s’interroger sur l’investissement dans la technologie.
Mais dans le fond, tout ce que cela éclaire, c’est la nécessité de vraiment gouverner l’information. Je veux dire, d’avoir de la stratégie, des objectifs de performance, des capacités à évaluer et agir. Rares sont les organisations que je fréquente qui se sont préoccupé d’un management qualité de l’information, qui évaluent ce que cela leur rapporte plus que ce que cela leur coûte, surtout comment ils progressent. À l’heure où il faut être agile et aller vite, n’avoir aucune vision ni gestion de son écosystème informationnelle n’est même plus une faiblesse, c’est une faute !
M’wouais…
Prises de tête tout ça… Une technique nouvelle apporte un nouveau champ de rapports de forces, et si les citoyens concernés-allumés voient leurs possibilités se multiplier, les pouvoirs petits et grands eux aussi profitent de la manne.
L’imprimerie n’a pas mis fin à l’exploitation !
Au total pas grand chose ne change, sinon mes inquiétudes! La vraie question est donc ailleurs, mais si vous ne la cherchez pas, ce n’est pas la peine de vous proposer des pistes ou hypothèses!
Bonnes chances les ambitieux, les « malins », qui sont nombreux – et nombreux à s’ignorer – dans cette discussion !
« Vous cherchez un maître, et vous le trouverez! » (Jacques Lacan devant les étudiants, mai 68)
En parlant de maître : « Un homme averti en vaut deux, et avec Internet, beaucoup plus »
Lao Tseu
Ca fait plaisir si de monde partageant le meme esprit…
notre association attends vos reactions sur
http://www.referencenature.fr