Recherche : hubert guillaud 769 résultats

Marin Dacos, L’édition électronique scientifique : la longue marche vers l’appropriation

Professeur agrégé à l’Ecole des hautes études en sciences sociales (Ehess), Marin Dacos est le fondateur de Revues.org (http://www.revues.org), une fédération de revues scientifiques en ligne qui défend une conception ouverte de l’édition électronique en sciences humaines et sociales. Revues.org accueille actuellement 44 revues adhérentes.

Propos recueillis par Hubert Guillaud [1]

Internet Actu nouvelle génération : Comment définiriez-vous l’édition électronique scientifique ? Qu’est-ce qui la distingue de la numérisation ?

Marin Dacos : L’édition électronique scientifique est plus un « moment » qu’un « fait absolu ». Nous nous trouvons dans une période de fondation de ce nouveau support. C’est une opportunité historique de repenser, ou au moins de bousculer des paysages éditoriaux qui se sont parfois durcis à l’excès. Puisque l’édition est la finalité quasiment ultime du travail scientifique, elle est au coeur du travail de documentation et de mise en valeur du travail du chercheur. Elle est donc au centre d’un certain nombre d’enjeux qui concernent la communauté et les individus qui la composent. Les nouvelles technologies ne sont pas seulement l’occasion de transformer les modalités techniques d’édition, mais plutôt une opportunité pour repenser l’ensemble des processus qui lui sont connexes : cela concerne à la fois les protocoles de soumission et d’évaluation des articles et les procédures qui accordent une visibilité à un article ou à une recherche.

Concernant la deuxième partie de votre question, il faut reconnaître qu’il y a longtemps eu une confusion entre les deux termes. Ou plutôt : l’édition électronique n’existait pas car on ne parlait que de numérisation. Aujourd’hui, on parle trop souvent d’édition en pensant numérisation… Bref, les mots ont changé, mais les représentations semblent malheureusement avoir peu bougé. L’édition électronique est un processus vivant de mise en ligne alors que la numérisation est un processus technique de conversion d’un support – ici, le papier – vers un autre – l’électronique. La numérisation est un processus mécanique, technocentré. L’édition est un processus complexe, « éditocentré », si je puis me permettre ce néologisme, dans lequel la technique occupe une part extrêmement importante, mais qui ne se substitue jamais à la finalité première de l’acte éditorial.

Alors que les « sciences dures » ont clairement franchi le pas de l’édition électronique, les sciences humaines semblent « en retard » ?

Depuis longtemps, les sciences dures ont l’habitude de procéder par pre-prints (NDLR : articles diffusés avant leur soumission à un comité de lecture), qui sont du coup accessible sur le réseau en dehors des processus de validation. La validation scientifique n’a lieu que dans un second temps. En sciences humaines, en dehors de la littérature grise très peu diffusée, il n’y a jamais eu de schéma similaire. La conséquence est simple : on confond la production et la validation en un même processus. Cela semble parfaitement logique pour éviter la profusion et la surproduction, mais en réalité cela a mené à une multiplication des titres, ce qui ne permet trop rarement une validation réellement scientifique.

Dans le modèle de Revues.org, vous insistez sur certains termes. Pourquoi une « fédération » ? Pourquoi une « conception ouverte » de l’édition électronique ? Quels enjeux se cachent-ils derrière ces termes ?

Il s’agit de regrouper des revues sans les dissoudre. Chaque projet éditorial conserve une autonomie complète dans la tradition des revues, dont chaque Comité de rédaction défend jalousement l’indépendance. C’est donc tout sauf un portail, tout sauf un agrégat, tout sauf une base de données. C’est un ensemble de projets éditoriaux qui se reconnaissent entre eux, qui s’allient pour pallier leurs faiblesses et pour multiplier leurs forces.

En ce qui concerne la « conception ouverte » de l’édition électronique, je pense qu’il faut considérer que tous les processus scientifiques, qui vont de la production de savoir ou de raisonnement à sa lecture, ne peuvent reposer sur le secret. Ces processus doivent reposer sur la pleine lumière et sur l’échange intellectuel. C’est la fonction première de l’écrit. Avant d’être une mémoire, l’écrit est un outil d’échange. Ces processus ne peuvent pas être appropriés par quelques-uns.

En gros, si une revue veut avoir une démarche de mise en ligne, pour des raisons qui lui sont propres, elle a le choix entre deux directions. Elle peut faire son site toute seule, avec toutes les difficultés techniques et de visibilité que cela représente. Cela revient en somme à dépenser beaucoup d’énergie pour un résultat très difficile à mesurer, je dirais presque à précipiter une noyade dans le grand web. Ou alors, elle s’agrège aux grands portails de contenus à vocation commerciale, dits « anglo-saxons ». Et cela revient à se noyer dans une grande base de donnée où leur identité éditoriale est gommée au milieu de milliers de titres. De plus, ces grandes bases de données commerciales cultivent une vision élitiste de la culture, proportionnelle aux droits d’entrée pour consulter ces revues. Les universitaires entre universitaires… Je dirais même plus les universitaires riches entre universitaires riches…

Le projet de Revues.org est ambitieux. Il consiste à tenir dans une même balance la nécessaire efficacité de la mise en ligne – qui passe par un phénomène de concentration, c’est-à-dire un regroupement de revues – et la nécessaire préoccupation morale et identitaire de la revue. Le but est de tenir à la fois la concentration et l’ouverture. Les deux à la fois.

Votre propos consiste à laisser le pouvoir aux chercheurs, aux éditeurs, aux rédacteurs en chef de revues… Cela signifie tout d’abord qu’il faut être extrêmement concret, proposer des solutions pour récupérer du texte en X-Press ou en Word et proposer des solutions de publication simples à administrer. Sans compter que c’est un pouvoir dont les éditeurs et les scientifiques ne veulent pas forcément, car c’est compliqué de faire une version électronique de sa revue quand on a déjà du mal à boucler les budgets, quand on manque déjà des compétences techniques pour produire la version papier… Pourquoi n’avoir pas plutôt opté pour un service centralisé, qui livrerait un produit fini aux éditeurs ?

Parce qu’une revue à une personnalité. Parce qu’une armée de techniciens ne donnera jamais une âme à un projet éditorial. Parce qu’il nous reste encore à inventer tellement de choses, que seuls les gens qui produisent le contenu et qui l’utilisent au quotidien peuvent correctement guider la marche… Enfin, parce qu’un système centralisé représente un coût tel qu’une sélection sera immédiatement opérée sur les titres. Jean-Claude Guédon a largement démontré que le processus engagé par Elsevier (http://www.elsevier.com), le géant de l’édition scientifique, était un processus d’exclusion de la majorité des titres au profit d’une minorité (voir http://www.ukoln.ac.uk/isg/hyperjournal/guedon.pdf). Tous les sociologues de l’innovation savent que l’impulsion d’une nouveauté naît en général à la marge d’un système plutôt qu’en son centre. Il faut donc penser un système qui soit structuré, tout en se préoccupant de laisser des espaces de respiration scientifique pour ne pas se scléroser.

Vous avez défini des critères de qualité pour l’édition électronique scientifique. Pouvez-vous nous les rappeler et nous les expliquer ?

Il nous a semblé pertinent d’expliciter une démarche qui prenne en compte les multiples dimensions de l’édition électronique : scientifique, éditoriale, technique et commerciale, ce qui revient à poser les questions en termes politiques. L’affirmation de principes simples contraint à la clarté.

Nous proposons un premier principe central qui est la primauté du texte intégral, c’est-à-dire que nous essayons de convaincre les revues de ne pas garder leurs richesses pour elles et de diffuser leurs productions au plus grand nombre via l’internet. Cela doit se faire en tenant compte d’impératifs incontournables : bien souvent, l’indépendance d’une revue repose sur l’existence d’abonnements payants.

Le second principe découle du premier, puisqu’il s’agit de la plus large accessibilité possible. Car publier, c’est donner à lire, à copier à s’inspirer. Ce n’est pas filtrer, cacher, exclure. Je le répète, mais c’est important. Il s’agit de refuser le principe d’un intranet de campus qui limiterait l’accès à la littérature scientifique aux seules bibliothèques capables d’en payer le prix.

Viennent ensuite des principes qui pourraient être perçus comme purement techniques, mais qui ont une dimension éditoriale forte.

Le troisième principe recommande le respect des standards techniques ouverts et libres, car ils sont seuls à pouvoir garantir la réutilisation des données dans des contextes différents, qu’ils soient présents (interopérabilité) ou futurs (portage sur de nouveaux systèmes).

De cela découle le quatrième principe : l’indexabilité et l’interopérabilité. Des échanges automatisés d’informations entre moteurs, sites et publications doivent être possibles. Les outils techniques utilisés pour la publication doivent donc en tenir compte. De la même façon qu’on entend très souvent parler du XML, l’interopérabilité est un peu une tarte à la crème du discours sur les sciences de l’information. Mais toute tentative dans ce domaine reste largement incomprise quand elle devient concrète. Trop souvent, on confond coordination et harmonisation avec uniformisation. Le XML n’a pas été inventé pour appauvrir la représentation des données, mais pour simplifier les échanges et permettre la mise en place de passerelles entre les systèmes.

Le cinquième principe concerne la citabilité sous forme hypertextuelle. C’est une condition absolument nécessaire à l’obtention du statut d’édition « scientifique ». En effet, un document scientifique, un livre ou un article par exemple, ne peut revendiquer ce statut que si l’on peut le citer dans un autre document, c’est-à-dire s’il possède des références claires qui permettent à tout à chacun de le retrouver. Or, un grand nombre de maladresses ou d’intentions malignes interdisent trop souvent la citation. Au rang des maladresses, évoquons les deux principales : le masquage des URL, qui agrège toutes les pages d’un site sous la même adresse, ce qui fait qu’on ne peut citer une page en particulier ; et l’instabilité des adresses, due en partie à l’évolution technique de l’internet et au fait que les sites qui évoluent en conséquence se soucient bien peu de la conversion des anciennes adresses vers les nouvelles. Parmi les intentions malignes, on notera la complexification excessive des URL qui les rendent illisibles et, bien entendu, la sélection économique des visiteurs via un péage.

Le sixième principe, c’est la légèreté et la simplicité. On pense trop souvent que le lecteur est branché sur Renater au bureau et dispose d’un accès internet à haut débit à la maison, en oubliant toutes les personnes qui n’y ont pas accès, françaises ou étrangères.

On vous entend souvent défendre le contenu intégral ? Pourquoi ? Quelle est votre analyse sur les contenus ?

Faut-il encore répondre à cette question en 2004 ? Le web est sous-utilisé si on se limite à la mise en ligne de métadonnées. Les informations bibliographiques sont précieuses, mais le 3615 Electre les propose depuis longtemps. L’arrivée de l’internet permet un changement radical dans le paysage de l’édition électronique et il ne faut pas se priver d’utiliser son potentiel.

La mise en ligne du texte intégral permet d’avoir accès à l’article en lui-même, c’est-à-dire à son « contenu savant ». On réduit donc, dans la signification chirurgicale du terme, le goulot d’étranglement que constitue l’étape d’accession au document papier. C’est à ce moment seul qu’on obtient un gain réel, à la fois quantitatif – on a plus de lecteurs ! -, et qualitatif – l’hypertextualité peut entrer en action.

On a plus de lecteurs ?!… Sur des publications très spécialisées comme celles de Revues.org, on pourrait croire que la mise en ligne n’augmente pas forcément l’audience…

Elle est plus forte, ne serait-ce que parce qu’elle est tout de suite internationale. Les statistiques de fréquentation et les abonnements à la Lettre de Revues.org le montrent. Et puis, c’est là que la dimension éditoriale de Revues.org est importante, car elle est fondamentalement pluridisciplinaire. L’idée, c’est qu’il y a des enrichissements qui peuvent venir de lieux de recherche très éloignés des domaines de spécialitédes lecteurs. Un grand nombre de découvertes scientifiques sont dues à des chocs, des croisements entre disciplines. On objecte souvent à ce raisonnement le fait que l’édition électronique alimente la surabondance de littérature scientifique, qu’un spécialiste qui veut lire tout ce qui se produit dans son domaine de spécialité a déjà bien du mal à satisfaire. Dans ce contexte, le croisement des disciplines semble être une folie ; mais il me semble qu’il est indispensable.

Depuis la Déclaration de Budapest (février 2002, http://www.soros.org/openaccess/fr/read.shtml) ou celle de Berlin (octobre 2003, http://www.inist.fr/openaccess/article.php3?id_article=38), la prise de conscience par la communauté scientifique de l’importance d’une publication ou d’un archivage libre et ouvert progresse. Pourtant, loin d’être encore dominants, ces deux modèles sont différents (Steven Harnad parle de « voie verte » et de « voie dorée »). Quelles différences et quelles complémentarités voyez-vous entre les archives ouvertes et l’édition scientifique en libre accès ? Que vous inspire l’engouement actuel envers le modèle d’archivage en accès ouvert ? Pensez-vous qu’il risque de mettre en danger la chaîne de publication scientifique traditionnelle du livre, comme le pense Crispin Davies, le PDG d’Elsevier (voir : http://media.guardian.co.uk/site/story/0,14173,1250464,00.html) ?

Le mouvement des archives ouvertes repose sur une modalité technique (le protocole Open Archive Initiative : http://www.openarchives.org) et une modalité pratique de mise à disposition de ses propres articles par un chercheur (les dépôts). Ce sont deux choses différentes : le protocole des archives ouvertes se généralisera sans difficulté à l’ensemble de la chaîne scientifique éditoriale en sciences humaines et sociales (SHS). Mais la modalité de dépôt – avec ou sans validation -, couplée au phénomène technique de convergence de l’ensemble des productions, va faire affluer des documents de statuts différents dans la même base de données. Les premiers sont historiquement de vraies archives dans des bases de type e-prints (http://www.eprints.org), entreposées par leurs auteurs et ne reposant donc que sur la déclaration des auteurs eux-même. Les seconds constituent un dépôt organisé par des revues ou des organisateurs de colloques, qui sanctionnent une lecture scientifique, une consécration éditoriale et une adaptation à un projet cohérent et sélectif.
Cette convergence technique va poser au moins deux types de problèmes : tout d’abord le risque de doublons – et à mon sens ce problème n’a jamais été évoqué sérieusement. J’imagine que les usages arbitreront entre un dépôt par les éditeurs et un dépôt par les auteurs. On assiste aujourd’hui à une course de vitesse entre auteurs et éditeurs et aucun d’eux n’a pris l’enjeu à sa juste valeur. D’un côté se constituent des initiatives de dépôts archivistiques qui se structurent autour des auteurs et de l’autre, autour des revues. L’un des deux, par sa masse critique, par sa réactivité et la qualité de sa structuration, devrait finir par l’emporter, car il ne servira à rien que les éditeurs signalent des documents déjà signalés ou que les auteurs déposent des documents déjà disponibles dans les dépôts… Le travail des éditeurs est minoré par le dépôt des archives ouvertes de l’auteur, alors que c’est un travail important. Bien sûr, les auteurs ont intérêt à regrouper autour de leur nom l’ensemble de leurs publications pour constituer des CV en ligne – et c’est une motivation forte pour l’appropriation. J’ai quand même tendance à penser que les auteurs ne sont pas assez concernés par ce genre de questions. Faudra-t-il une impulsion institutionnelle pour que cela prenne ? Une des alternatives qui semble émerger est la constitution de dépôts thématiques qui, s’ils s’imposent, seront des passages obligés pour que les auteurs puissent exister dans leur communauté.

Par ailleurs, la qualité de la structuration des données par l’éditeur, si elle est au rendez-vous, pourrait suffire à faire des éditeurs les principaux pourvoyeurs d’information dans les archives ouvertes. Cela revient à reconnaître qu’il y a un métier d’édition pleinement légitime qui n’est pas remis en cause par les nouvelles technologies… mais qui doit se moderniser.

Cependant, tout cela n’aura un impact véritablement profond que le jour ou l’Open Archive Initiative (OAI) sera un protocole qui intégrera du texte intégral. Aujourd’hui, ce protocole ne prévoit d’indexer que des métadonnées. Et je m’interroge sur ce point. L’OAI pointe parfois vers du texte intégral, mais il n’y a pas de lien qui spécifie où se situe le texte intégral dans les champs structurés ! Or, la recherche sur les métadonnées est très limitée par rapport à la recherche en texte intégral. On pourrait citer de nombreux exemples de dépôts eprints dans lesquels on ne peut chercher que sur l’auteur, le titre ou les mots clés et jamais sur le texte intégral des documents.

Pourquoi le texte intégral est-il si souvent considéré comme secondaire ? Sommes-nous contraints de naviguer dans des bases de données qui ne permettent que de trouver ce qu’on sait d’avance pouvoir y trouver ? Le hasard a toujours beaucoup apporté à la recherche. Il est regrettable que l’on s’appuie sur le vieux modèle de la fiche cartonnée des bibliothèques du siècle dernier pour construire ce qui doit devenir le plus grand espace de recherche de documents scientifiques du monde. C’est en procédant ainsi que l’on renforce la conviction des chercheurs selon laquelle Google est le meilleur moteur qu’ils puissent utiliser, puisqu’il indexe, lui, le texte intégral, et que le Web est un vaste bazar non sélectif. Ce faisant, on conforte les chercheurs dans une inertie dramatique, qui ne constitue pas une incitation à susciter ou alimenter des dépôts d’archives ouvertes. Le cercle vicieux est bouclé.

Encore une fois, on voit bien que la question du texte intégral se pose avec toujours plus d’acuité. Et j’espère que Stevan Harnad (http://www.text-e.org/conf/index.cfm?fa=printable&ConfText_ID=7) avait raison en disant que l’avenir de l’édition électronique, c’est le texte intégral disponible pour tous d’un côté et d’un autre côté, des outils de consultation, de citation, d’annotation, de navigation à haute valeur ajoutée apportés par les agrégateurs.

De son côté, Revues.org est en train de sortir une nouvelle version du moteur de recherche scientifique In-Extenso (http://www.in-extenso.org) qui est capable d’indexer les métadonnées et le texte intégral des dépôts OAI, via le suivi de liens. Mais on outrepasse le protocole OAI en faisant ça.

On a beaucoup parlé, instruments, technique et outils. Est-ce là que se situe l’enjeu de l’édition électronique ? Qu’est-ce qui fera le succès de l’édition électronique ? N’est-ce pas plutôt en termes de formation, de compétence, de mentalités que les freins sont les plus nombreux ?

Bien entendu. Tout ce que nous avons conçu est orienté dans cette direction-là. Revues.org n’est pas un projet technique, mais on ne peut pas appliquer des principes misant sur la conviction, les compétences et le choix fort de maintenir le pouvoir éditorial dans la main des éditeurs, sans outils adaptés à cette philosophie. Nous concentrons toute notre attention désormais sur la formation, l’information et la conviction des différents acteurs de l’édition scientifique qui s’intéressent à notre projet. On a tendance en France à mépriser la technique à un point tel qu’on en devient esclave. Il me semble que si l’on avait parlé d’Open Office et Mozilla en temps et en heure aux endroits où l’on décide, nous ne serions peut-être pas tous les otages techniques et commerciaux d’une grande société américaine. C’est notre mépris pour la technique qui nous a poussés dans les bras du pire des techniciens. En ayant pris une orientation différente à l’origine, on pourrait se concentrer aujourd’hui sur les aspects éditoriaux et humains. La technique n’est pas une fin, mais elle est un préalable nécessaire.
Permettez-moi de vous donner un autre exemple. Le monde de l’édition et de l’imprimerie représente historiquement une tradition forte dans la culture française. La compétence culturelle avait une dimension technique forte via la maîtrise des processus d’impression et de typographie. J’ai le sentiment qu’ils ont totalement démissionné et renoncé à cette position au moment de l’informatisation. Ils ont accepté d’être les otages d’une société qui vend un outil insatisfaisant du point de vue technique et scandaleux du point de vue de l’ouverture des formats, même si ses qualités de mise en page pure sont indéniables. La conséquence de cette inféodation est simple : dans les livres vous trouvez les notes de bas de page en fin de volume parce que X-Press ne sait pas ce qu’est une note de bas de page ! Ce qui est amusant, c’est que dans l’édition, la transition vers l’électronique est rendue difficile par la domination de cet outil. Il est bien entendu que nous ne renoncerons pas à faire comprendre à nos ordinateurs le statut d’une note de bas de page. Mais concrètement, cela signifie que nous avons dû développer un outil dédié à la récupération des notes issues de X-Press pour qu’elles puissent être reconnues par les logiciels de traitement de texte et par notre logiciel d’édition électronique. Nous aurions préféré travailler sur d’autres fonctionnalités, plus innovantes, plutôt que de passer du temps sur un tel rafistolage imposé par l’incurie d’un logiciel très onéreux, disposant d’une position quasiment monopolistique.

La direction du Département des Sciences de l’Homme et de la Société du CNRS vient de publier dans sa lettre mensuelle (n° 69, mai 2004 : http://www.cnrs.fr/SHS/actions/lettre.php) les résultats d’une enquête visant à classer les périodiques de sciences humaines selon la méthode dite du « facteur d’impact » (http://www.fing.org/index.php?num=4843,2), pratiqué dans les sciences exactes. Les résultats de l’enquête vont avoir des répercussions immédiates (http://lafeuille.blogspot.com/2004/06/les-revues-scientifiques-se-lvent.html) sur les revues scientifiques financées par le CNRS et plus encore, sur l’édition électronique, puisque de nombreuses revues se voient fermement engagées à envisager une édition sur support électronique seul. Y voyez-vous un tournant décisif vers la fin du papier ?

Toutes les revues sont incitées à passer à l’électronique et pas seulement celles ayant eu une évaluation défavorable. Je pense que le CNRS a conscience qu’il est malheureux d’associer au même moment une politique vigoureuse en faveur de l’édition électronique à une politique de réduction du nombre de revues soutenues. Même si les deux événements coïncident chronologiquement, on doit absolument dissocier la question de l’évaluation par la méthode du facteur d’impact et la question de l’éventuelle transition entre le papier et l’électronique.

La question du facteur d’impact est extrêmement épineuse et elle a fait couler beaucoup d’encre depuis la parution de la lettre du département SHS que vous mentionnez. Il me semble qu’aujourd’hui, la plupart des critiques opposées à la méthode employée sont dues au fait que le CNRS n’a pu s’appuyer que sur un corpus papier. Si un jour il avait à sa disposition un corpus très élargi d’articles, d’actes de colloque, d’ouvrages, et surtout de thèses au format électronique, le facteur d’impact perdrait plusieurs de ses défauts actuels.

Il est heureux que le CNRS ait une politique volontariste de migration vers le support électronique de l’ensemble des publications qu’il soutient. La volonté des revues de se mettre en ligne a considérablement évolué depuis que cette orientation s’est affirmée. La cohabitation durable du papier et de l’électronique est une volonté affichée par la plupart des acteurs. Aujourd’hui, l’abandon massif du papier n’est pas une question d’actualité à mon sens. Le CNRS a eu l’intelligence de proposer plusieurs philosophies de mise en ligne, entre une plate-forme déléguée (le Centre d’édition numérique scientifique dirigé par Andrea Iacovella à Lyon) et la plate-forme appropriée de Revues.org. Cela permet de faire cohabiter de façon transparente des revues qui perçoivent la mise en ligne comme un processus technique dont elles peuvent s’émanciper (modèle délégué) et des revues qui considèrent que la mise en ligne est un acte d’édition qui doit rester dans la main des éditeurs (modèle d’appropriation de Revues.org). Chaque modèle ayant ses avantages et ses inconvénients, il est heureux que les acteurs de l’édition puissent avoir le choix.

_________________
[1] NDLR : Membre du comité de rédaction de Revues.org, il est juste de signaler que je fais partie depuis l’origine de cette aventure et que je ne suis pas sans parti-pris sur ces question d’édition électronique comme le signale mon blog consacré à ce sujet : http://lafeuille.blogspot.com. J’espère que cette proximité avec Marin Dacos aura été, ici, un atout pour nous aider à poser avec clarté les enjeux du débat, qu’une manière de promouvoir sa plate-forme, ce qui n’est pas l’enjeu de ce dossier.

Les enjeux de l’édition électronique scientifique

Depuis les débuts de l’internet, les revues scientifiques électroniques cristallisent beaucoup d’espérances. La forme courte des articles, la volonté fréquente de s’abstraire des enjeux économiques, font que beaucoup ont voulu voir en elles les précurseurs d’un changement radical dans lequel s’engouffrerait toute l’édition papier traditionnelle. Il n’en a rien été. Gros plan sur les enjeux de l’édition électronique pour mieux comprendre comment ce petit secteur, emblématique de la conversion du monde de l’édition au format électronique, est tiraillé deux tendances : se limiter à développer un nouveau mode de diffusion, ou inventer un nouveau mode de production qui mettrait l’électronique au coeur de l’ensemble du dispositif.

L’édition électronique scientifique

Nous sommes heureux de vous présenter le troisième numéro « hors série » d’Internet Actu nouvelle génération.

Après vous avoir emmenés au coeur des pages persos (http://www.fing.org/index.php?num=4859,2) avec Valérie Beaudouin de France Télécom R&D, nous avons souhaité nous attarder sur l’édition électronique scientifique. La question pourrait paraître ne concerner qu’une frange de la société de l’information. Pourtant, l’exigence à la fois technique, économique et scientifique à laquelle doit répondre cette édition électronique, peut certainement éclairer bien d’autres pratiques.

Pour traiter ce sujet, nous avons invité Marin Dacos, le fondateur de Revues.org, une fédération de revues scientifiques électroniques qui depuis 1999 trace une voie originale dans le paysage complexe des revues, où l’on trouve à la fois éditeurs commerciaux, initiatives universitaires et plus, encore tentatives éparses et isolées de mises en ligne de contenus scientifiques. Nous avons souhaité accompagner son interview d’un dossier pour l’introduire et expliquer, rapidement, l’historique, les enjeux et l’état de l’art de l’édition électronique scientifique.

Bonne lecture.

Pour notre part, nous prenons quelques vacances méritées et vous donnons rendez-vous au jeudi 26 août.

Hubert Guillaud et la rédaction d’Internet Actu nouvelle génération

Des modèles sans repères

L’atout des NAN (Neighborhood Area Networks ou réseaux de voisinage sans fil), n’est pas que technique, comme nous l’expliquent Cyril Fiévet et Jean-Michel Cornu dans notre dossier de cette semaine. La promesse des réseaux Mesh et ad hoc ne consiste pas seulement à diminuer les coûts d’infrastructure ou à faciliter la mise en réseau, sans fil et sans couture. Il réside plutôt dans la manière dont ces réseaux contribuent à restructurer les échanges sur un modèle distribué plutôt que centralisé.

Sacrée gageure pour une technologie que de proposer un modèle d’échange qui soit aussi éloigné, voire opposé au modèle dominant, qui ne soit pas pyramidal, qui ne s’organise autour d’aucun repère – ou plutôt, autour de tellement de repères qu’aucun n’apparaît plus remarquable qu’un autre. La décentralisation à l’extrême que promettent les réseaux de voisinage annonce non seulement de nouvelles plates-formes techniques et applicatives, mais plus encore de nouvelles plates-formes d’usages où chacun est un point d’accès, un maillon de la grille, un élément du réseau.

Bien sûr, les technologies ne changent pas le monde. Ce n’est pas demain que disparaîtront les réseaux et projets centralisés. Ceux-ci peuvent avoir de nombreuses raisons d’être, pour autant qu’ils soient vraiment adaptés aux buts et aux intérêts qu’ils servent. D’ailleurs, en attendant qu’on s’acclimate à ces nouveaux modes d’organisation, les projets centralisés sont bien rassurants. Ils épousent nos modes de pensées, la façon dont nous structurons la plupart de nos rapports aux autres et aux choses. Ils épousent notre mode d’organisation cognitif qui nous pousse à catégoriser, ranger, arborer. Ils ne demandent ni effort de participation, ni effort d’imagination pour se les approprier. Ils s’utilisent, souvent bien d’ailleurs.

Les technologies distribuées, les usages fédérés, les applications décentralisées sont encore loin de s’utiliser avec autant de facilité. Ils nécessitent bien souvent de sortir des sentiers battus, de faire des efforts pour penser les choses « autrement » : il n’y a plus de point d’eau, de service unique autour duquel tout le monde vient s’abreuver. Bien sûr, ils nous interrogent avec force sur les systèmes d’identification et de gestion de droits car ils nécessitent de gérer une très large gamme d’autorisation et d’interdiction. Ils requièrent de faire une place aux différences, aux individualités, aux passerelles. Ils nous obligent à prendre en compte l’altérité et à nous adapter. Et puis surtout, ils permettent à chacun de donner de la voix. Ca n’organise pas pour autant le débat, mais ça permet peut-être d’entendre tout le monde.

Hubert Guillaud

Université de printemps de la Fing : Le Bien commun à l’épreuve du développement numérique

Après deux journées intensives, l’université de printemps de la Fing consacrée au « Bien commun à l’épreuve du développement numérique » s’est achevée. L’occasion pour nous de revenir sur les notions qui y ont été abordées, sur les problématiques qui y ont été débattues, sur les enjeux qui y ont été soulignés.

Le micropaiement : stade ultime du capitalisme ?

L’internet est-il vraiment en train de façonner une nouvelle économie des biens immatériels dont l’un des principes essentiel serait de court-circuiter les anciens intermédiaires pour s’en passer ou les remplacer par d’autres ? Et si les modalités de l’échange marchand étaient en train d’évoluer de manière radicale en « fractalisant » différemment l’économie, la notion d’échange, le capitalisme ? Et si l’internet n’était pas un nouveau supermarché, mais bien plutôt un réseau de micro marchés individuels dont les acteurs seraient non seulement les producteurs de bien culturels (artistes, rédacteurs…) renégociant leur rapport à la distribution, mais aussi l’internaute lui-même, au travers de sa culture et de ce qu’il entend faire désormais de ce qu’il a acquis, ingurgité, dans son monde lui… Le micropaiement, qui se développe lentement mais (semble-t-il) sûrement serait alors le signe d’un changement profond, qui placerait au centre l’atomisation des échanges marchands et le développement des échanges entre consommateurs (le Consumer to Consumer opposer au Business to Business ou au Business to Consumer). La très lente progression du micropaiement et des notions qui lui sont liées (comme la réputation ou la recommandation, notions essentielles dans ces modèles d’échanges directs) marque-t-elle donc un changement culturel allant de pair avec la mise en place d’une nouvelle façon d’organiser les échanges immatériels ?

Ou bien, au contraire, le micropaiement n’est-il qu’un outil destiné à rendre possible ou simplifier les flux financiers de personnes à personnes sur les produits dématérialisés, supposés coûter moins cher que dans le commerce physique ? Il s’agirait alors d’une méthode commerciale parmi d’autres, adaptée à la forme de l’outil internet pour faire du commerce à l’unité. Le micropaiement, outil ultime du capitalisme, marque alors sa massification en devenant enfin accessible à tous : tout pouvant être vendu et acheté par tous à la manière des offres fantaisistes (ou carrément inquiétantes) que l’on trouve régulièrement sur eBay.

En fait, l’économie de l’internet, que les uns présentent comme fondamentalement non marchande dans ses origines et les autres comme ultra-libérale, est bel et bien les deux la fois, à savoir le plus souvent espace d’échange entre les personnes, mais aussi donc espace de recyclage, pourquoi pas marchand, des valeurs dormantes, des niches de choses à valeur affective, personnelle, communautaire. Autrement dit, l’économie de l’internet tiendrait-elle plutôt d’une économie atomique, une économie d’émergence de valeurs dans un environnement massif que d’une économie mécanique, de valeurs décrétées à reproduire en grand nombre ?

Pourquoi est-ce que le micropaiement n’a jamais décollé ? Décollera-t-il vraiment un jour ? Est-ce d’ailleurs sous une forme monétaire qu’il prendra vraiment son envol – à moins qu’il ne le prenne sous la forme plus évanescente de la recommandation et de la réputation (« le réseautage ») qui permettra demain à un blogueur de devenir éditorialiste dans un grand journal, à un troqueur de devenir commercial dans une multinationale comme un inconnu devient aujourd’hui chanteur ?…

Le micropaiement demeure pourtant toujours aussi fascinant. Peut-être parce que dans notre monde d’aujourd’hui, il reste préhensible, à taille humaine. C’est un mode d’échange qui porte en lui la confiance (ou ne la nécessite pas vraiment, ce qui revient au même) au moins parce qu’il est dénué d’enjeu personnel puisque les sommes sur lesquelles il porte sont minuscules. Pour autant, les exemples qui nous clament qu’il fonctionne sont toujours nombreux et en même temps, ils restent terriblement uniques. Peut-être parce qu’il manque encore un maillon la chaîne ? Une nouvelle forme de marketing, de nouveaux intermédiaires ou de nouveaux outils jouant ce rôle ? A moins que plus fondamentalement, il faille attendre encore l’assimilation de nouvelles habitudes, de nouvelles mentalités pour voir s’amplifier ces pratiques d’échanges directs.

Frank Beau et Hubert Guillaud

Le tchat a-t-il de l’avenir ?

Auriez vous cru en lançant votre premier message instantané sur l’internet que ce petit outil malcommode et envahissant – avec ses fenêtres dans tous les sens – deviendrait un jour une application phare de l’internet ? Certainement pas, même si l’instantanéité de l’outil a eu dès l’origine un côté convainquant et fascinant.

Ce sont les adolescents qui ont, les premiers, fait le succès de la messagerie instantanée, d’abord via les salons de discussions ensuite en « individualisant » les relations au sein de leur cercle d’amis. Après avoir envahi l’univers familial et amical (couplée à l’indétrônable webcam), la messagerie instantanée a permi à des millions de personnes de se voir, de s’écrire et de se parler à distance avec une immédiateté qui semblait les rapprocher. Aujourd’hui, c’est dans le monde professionnel que l’utilisation de ces petits logiciels explose, entre collègues distants, mais plus encore entre voisins de bureaux ou entre partenaires de projets. On insiste volontiers sur les inconvénients de la messagerie instantanée, son caractère envahissant ou sa propension à favoriser la surveillance distante. Mais, dès lors que l’on sait en réguler l’usage, il y a aussi une légèreté, une fluidité de l’échange qui apporte beaucoup à la communication au sein de groupes (amicaux ou professionnels). L’échange est synchrone, immédiat, court : c’est-à-dire qu’il vous rend disponible immédiatement du moment où vous êtes connectés. La fenêtre du logiciel n’empiète pas trop sur celles des logiciels sur lesquels on travaille ; on n’a pas besoin d’utiliser un autre appareil (comme le téléphone) ; et la messagerie fournit également un indicateur de présence et de disponibilité qui traduit en permanence la vie de la communauté et de ses membres.

La totale spontanéité offerte par la MI (messagerie instantanée) explique en grande partie l’engouement qu’elle suscite. Pour les échanges rapides entre personnes connectées, l’outil surpasse de loin le téléphone ou le courrier électronique. Moyen de communication privilégié, qui fait apparaître les êtres humains qui composent notre réseau sur notre écran, il semble réservé pour l’instant aux cercles de nos proches, à gérer l’unipersonnel plutôt que le flux. Comme la plupart des outils de communication, il renforce et augmente le nombre de communications qui nous lient aux gens avec lesquels on communique le plus.

Mais cela pourrait changer. En devenant un outil de communication parmi d’autres, la MI semble bien vouloir quitter les berges de la connivence pour traiter le flux, la masse, le nombre. De plus en plus, elle devient un outil de communication entre l’entreprise, ses employés, ses clients et ses fournisseurs, le site et ses visiteurs, l’administration et ses administrés, soi et le monde… Un peu comme le numéro de son téléphone mobile ou son adresse e-mail, au départ réservés à quelques êtres chers, se sont, petit à petit, mis à conquérir le vaste monde.

Outil expressément moderne, il nécessite plus encore qu’avec les forums et l’e-mail de discipliner sa présence, sa disponibilité et son utilisation – ce qui, on le sait, est toujours le plus difficile dans l’appréhension des outils. En faisant vivre concrètement la connexion permanente, la MI peut transformer la disponibilité en un terrible fardeau. Et il n’y a qu’un pas, pour certains, pour voir dans la MI notre futur virtuel : une oreille ouverte en permanence aux pulsations du monde extérieur, une poubelle où se déverserait tous les bruits du monde, c’est selon.

Bien sûr, on peut croire – comme le dessine notre dossier – que les robots seront une solution efficace pour appréhender ces flux. Demain, sur des interfaces de tchat, des robots automatisés bavarderont avec nous et répondront peut-être enfin à nos questions… avant de répondre aux questions de nos propres robots qu’on enverra parcourir les milliards d’interfaces de tchat pour tenter de nous ramener ce saint Graal : l’information qu’on leur aura demandé. A moins que cela ne se termine, un peu comme l’e-mail aujourd’hui : en eau de boudin ! A devoir trier les bons messages entre des centaines de spams et de virus attachés en pièces jointes…

Mais comme ça paraît étrange et paradoxal, vu d’ici, cet avenir où la MI ne se connecte plus qu’à des machines alors qu’il est pour l’instant l’un des rares outils derrière lequel l’humain semble plus présent, toujours prêt à nous étonner au détour d’une nouvelle intervention.

Hubert Guillaud