Marin Dacos, L’édition électronique scientifique : la longue marche vers l’appropriation

Professeur agrégé à l’Ecole des hautes études en sciences sociales (Ehess), Marin Dacos est le fondateur de Revues.org (http://www.revues.org), une fédération de revues scientifiques en ligne qui défend une conception ouverte de l’édition électronique en sciences humaines et sociales. Revues.org accueille actuellement 44 revues adhérentes.

Propos recueillis par Hubert Guillaud [1]

Internet Actu nouvelle génération : Comment définiriez-vous l’édition électronique scientifique ? Qu’est-ce qui la distingue de la numérisation ?

Marin Dacos : L’édition électronique scientifique est plus un « moment » qu’un « fait absolu ». Nous nous trouvons dans une période de fondation de ce nouveau support. C’est une opportunité historique de repenser, ou au moins de bousculer des paysages éditoriaux qui se sont parfois durcis à l’excès. Puisque l’édition est la finalité quasiment ultime du travail scientifique, elle est au coeur du travail de documentation et de mise en valeur du travail du chercheur. Elle est donc au centre d’un certain nombre d’enjeux qui concernent la communauté et les individus qui la composent. Les nouvelles technologies ne sont pas seulement l’occasion de transformer les modalités techniques d’édition, mais plutôt une opportunité pour repenser l’ensemble des processus qui lui sont connexes : cela concerne à la fois les protocoles de soumission et d’évaluation des articles et les procédures qui accordent une visibilité à un article ou à une recherche.

Concernant la deuxième partie de votre question, il faut reconnaître qu’il y a longtemps eu une confusion entre les deux termes. Ou plutôt : l’édition électronique n’existait pas car on ne parlait que de numérisation. Aujourd’hui, on parle trop souvent d’édition en pensant numérisation… Bref, les mots ont changé, mais les représentations semblent malheureusement avoir peu bougé. L’édition électronique est un processus vivant de mise en ligne alors que la numérisation est un processus technique de conversion d’un support – ici, le papier – vers un autre – l’électronique. La numérisation est un processus mécanique, technocentré. L’édition est un processus complexe, « éditocentré », si je puis me permettre ce néologisme, dans lequel la technique occupe une part extrêmement importante, mais qui ne se substitue jamais à la finalité première de l’acte éditorial.

Alors que les « sciences dures » ont clairement franchi le pas de l’édition électronique, les sciences humaines semblent « en retard » ?

Depuis longtemps, les sciences dures ont l’habitude de procéder par pre-prints (NDLR : articles diffusés avant leur soumission à un comité de lecture), qui sont du coup accessible sur le réseau en dehors des processus de validation. La validation scientifique n’a lieu que dans un second temps. En sciences humaines, en dehors de la littérature grise très peu diffusée, il n’y a jamais eu de schéma similaire. La conséquence est simple : on confond la production et la validation en un même processus. Cela semble parfaitement logique pour éviter la profusion et la surproduction, mais en réalité cela a mené à une multiplication des titres, ce qui ne permet trop rarement une validation réellement scientifique.

Dans le modèle de Revues.org, vous insistez sur certains termes. Pourquoi une « fédération » ? Pourquoi une « conception ouverte » de l’édition électronique ? Quels enjeux se cachent-ils derrière ces termes ?

Il s’agit de regrouper des revues sans les dissoudre. Chaque projet éditorial conserve une autonomie complète dans la tradition des revues, dont chaque Comité de rédaction défend jalousement l’indépendance. C’est donc tout sauf un portail, tout sauf un agrégat, tout sauf une base de données. C’est un ensemble de projets éditoriaux qui se reconnaissent entre eux, qui s’allient pour pallier leurs faiblesses et pour multiplier leurs forces.

En ce qui concerne la « conception ouverte » de l’édition électronique, je pense qu’il faut considérer que tous les processus scientifiques, qui vont de la production de savoir ou de raisonnement à sa lecture, ne peuvent reposer sur le secret. Ces processus doivent reposer sur la pleine lumière et sur l’échange intellectuel. C’est la fonction première de l’écrit. Avant d’être une mémoire, l’écrit est un outil d’échange. Ces processus ne peuvent pas être appropriés par quelques-uns.

En gros, si une revue veut avoir une démarche de mise en ligne, pour des raisons qui lui sont propres, elle a le choix entre deux directions. Elle peut faire son site toute seule, avec toutes les difficultés techniques et de visibilité que cela représente. Cela revient en somme à dépenser beaucoup d’énergie pour un résultat très difficile à mesurer, je dirais presque à précipiter une noyade dans le grand web. Ou alors, elle s’agrège aux grands portails de contenus à vocation commerciale, dits « anglo-saxons ». Et cela revient à se noyer dans une grande base de donnée où leur identité éditoriale est gommée au milieu de milliers de titres. De plus, ces grandes bases de données commerciales cultivent une vision élitiste de la culture, proportionnelle aux droits d’entrée pour consulter ces revues. Les universitaires entre universitaires… Je dirais même plus les universitaires riches entre universitaires riches…

Le projet de Revues.org est ambitieux. Il consiste à tenir dans une même balance la nécessaire efficacité de la mise en ligne – qui passe par un phénomène de concentration, c’est-à-dire un regroupement de revues – et la nécessaire préoccupation morale et identitaire de la revue. Le but est de tenir à la fois la concentration et l’ouverture. Les deux à la fois.

Votre propos consiste à laisser le pouvoir aux chercheurs, aux éditeurs, aux rédacteurs en chef de revues… Cela signifie tout d’abord qu’il faut être extrêmement concret, proposer des solutions pour récupérer du texte en X-Press ou en Word et proposer des solutions de publication simples à administrer. Sans compter que c’est un pouvoir dont les éditeurs et les scientifiques ne veulent pas forcément, car c’est compliqué de faire une version électronique de sa revue quand on a déjà du mal à boucler les budgets, quand on manque déjà des compétences techniques pour produire la version papier… Pourquoi n’avoir pas plutôt opté pour un service centralisé, qui livrerait un produit fini aux éditeurs ?

Parce qu’une revue à une personnalité. Parce qu’une armée de techniciens ne donnera jamais une âme à un projet éditorial. Parce qu’il nous reste encore à inventer tellement de choses, que seuls les gens qui produisent le contenu et qui l’utilisent au quotidien peuvent correctement guider la marche… Enfin, parce qu’un système centralisé représente un coût tel qu’une sélection sera immédiatement opérée sur les titres. Jean-Claude Guédon a largement démontré que le processus engagé par Elsevier (http://www.elsevier.com), le géant de l’édition scientifique, était un processus d’exclusion de la majorité des titres au profit d’une minorité (voir http://www.ukoln.ac.uk/isg/hyperjournal/guedon.pdf). Tous les sociologues de l’innovation savent que l’impulsion d’une nouveauté naît en général à la marge d’un système plutôt qu’en son centre. Il faut donc penser un système qui soit structuré, tout en se préoccupant de laisser des espaces de respiration scientifique pour ne pas se scléroser.

Vous avez défini des critères de qualité pour l’édition électronique scientifique. Pouvez-vous nous les rappeler et nous les expliquer ?

Il nous a semblé pertinent d’expliciter une démarche qui prenne en compte les multiples dimensions de l’édition électronique : scientifique, éditoriale, technique et commerciale, ce qui revient à poser les questions en termes politiques. L’affirmation de principes simples contraint à la clarté.

Nous proposons un premier principe central qui est la primauté du texte intégral, c’est-à-dire que nous essayons de convaincre les revues de ne pas garder leurs richesses pour elles et de diffuser leurs productions au plus grand nombre via l’internet. Cela doit se faire en tenant compte d’impératifs incontournables : bien souvent, l’indépendance d’une revue repose sur l’existence d’abonnements payants.

Le second principe découle du premier, puisqu’il s’agit de la plus large accessibilité possible. Car publier, c’est donner à lire, à copier à s’inspirer. Ce n’est pas filtrer, cacher, exclure. Je le répète, mais c’est important. Il s’agit de refuser le principe d’un intranet de campus qui limiterait l’accès à la littérature scientifique aux seules bibliothèques capables d’en payer le prix.

Viennent ensuite des principes qui pourraient être perçus comme purement techniques, mais qui ont une dimension éditoriale forte.

Le troisième principe recommande le respect des standards techniques ouverts et libres, car ils sont seuls à pouvoir garantir la réutilisation des données dans des contextes différents, qu’ils soient présents (interopérabilité) ou futurs (portage sur de nouveaux systèmes).

De cela découle le quatrième principe : l’indexabilité et l’interopérabilité. Des échanges automatisés d’informations entre moteurs, sites et publications doivent être possibles. Les outils techniques utilisés pour la publication doivent donc en tenir compte. De la même façon qu’on entend très souvent parler du XML, l’interopérabilité est un peu une tarte à la crème du discours sur les sciences de l’information. Mais toute tentative dans ce domaine reste largement incomprise quand elle devient concrète. Trop souvent, on confond coordination et harmonisation avec uniformisation. Le XML n’a pas été inventé pour appauvrir la représentation des données, mais pour simplifier les échanges et permettre la mise en place de passerelles entre les systèmes.

Le cinquième principe concerne la citabilité sous forme hypertextuelle. C’est une condition absolument nécessaire à l’obtention du statut d’édition « scientifique ». En effet, un document scientifique, un livre ou un article par exemple, ne peut revendiquer ce statut que si l’on peut le citer dans un autre document, c’est-à-dire s’il possède des références claires qui permettent à tout à chacun de le retrouver. Or, un grand nombre de maladresses ou d’intentions malignes interdisent trop souvent la citation. Au rang des maladresses, évoquons les deux principales : le masquage des URL, qui agrège toutes les pages d’un site sous la même adresse, ce qui fait qu’on ne peut citer une page en particulier ; et l’instabilité des adresses, due en partie à l’évolution technique de l’internet et au fait que les sites qui évoluent en conséquence se soucient bien peu de la conversion des anciennes adresses vers les nouvelles. Parmi les intentions malignes, on notera la complexification excessive des URL qui les rendent illisibles et, bien entendu, la sélection économique des visiteurs via un péage.

Le sixième principe, c’est la légèreté et la simplicité. On pense trop souvent que le lecteur est branché sur Renater au bureau et dispose d’un accès internet à haut débit à la maison, en oubliant toutes les personnes qui n’y ont pas accès, françaises ou étrangères.

On vous entend souvent défendre le contenu intégral ? Pourquoi ? Quelle est votre analyse sur les contenus ?

Faut-il encore répondre à cette question en 2004 ? Le web est sous-utilisé si on se limite à la mise en ligne de métadonnées. Les informations bibliographiques sont précieuses, mais le 3615 Electre les propose depuis longtemps. L’arrivée de l’internet permet un changement radical dans le paysage de l’édition électronique et il ne faut pas se priver d’utiliser son potentiel.

La mise en ligne du texte intégral permet d’avoir accès à l’article en lui-même, c’est-à-dire à son « contenu savant ». On réduit donc, dans la signification chirurgicale du terme, le goulot d’étranglement que constitue l’étape d’accession au document papier. C’est à ce moment seul qu’on obtient un gain réel, à la fois quantitatif – on a plus de lecteurs ! -, et qualitatif – l’hypertextualité peut entrer en action.

On a plus de lecteurs ?!… Sur des publications très spécialisées comme celles de Revues.org, on pourrait croire que la mise en ligne n’augmente pas forcément l’audience…

Elle est plus forte, ne serait-ce que parce qu’elle est tout de suite internationale. Les statistiques de fréquentation et les abonnements à la Lettre de Revues.org le montrent. Et puis, c’est là que la dimension éditoriale de Revues.org est importante, car elle est fondamentalement pluridisciplinaire. L’idée, c’est qu’il y a des enrichissements qui peuvent venir de lieux de recherche très éloignés des domaines de spécialitédes lecteurs. Un grand nombre de découvertes scientifiques sont dues à des chocs, des croisements entre disciplines. On objecte souvent à ce raisonnement le fait que l’édition électronique alimente la surabondance de littérature scientifique, qu’un spécialiste qui veut lire tout ce qui se produit dans son domaine de spécialité a déjà bien du mal à satisfaire. Dans ce contexte, le croisement des disciplines semble être une folie ; mais il me semble qu’il est indispensable.

Depuis la Déclaration de Budapest (février 2002, http://www.soros.org/openaccess/fr/read.shtml) ou celle de Berlin (octobre 2003, http://www.inist.fr/openaccess/article.php3?id_article=38), la prise de conscience par la communauté scientifique de l’importance d’une publication ou d’un archivage libre et ouvert progresse. Pourtant, loin d’être encore dominants, ces deux modèles sont différents (Steven Harnad parle de « voie verte » et de « voie dorée »). Quelles différences et quelles complémentarités voyez-vous entre les archives ouvertes et l’édition scientifique en libre accès ? Que vous inspire l’engouement actuel envers le modèle d’archivage en accès ouvert ? Pensez-vous qu’il risque de mettre en danger la chaîne de publication scientifique traditionnelle du livre, comme le pense Crispin Davies, le PDG d’Elsevier (voir : http://media.guardian.co.uk/site/story/0,14173,1250464,00.html) ?

Le mouvement des archives ouvertes repose sur une modalité technique (le protocole Open Archive Initiative : http://www.openarchives.org) et une modalité pratique de mise à disposition de ses propres articles par un chercheur (les dépôts). Ce sont deux choses différentes : le protocole des archives ouvertes se généralisera sans difficulté à l’ensemble de la chaîne scientifique éditoriale en sciences humaines et sociales (SHS). Mais la modalité de dépôt – avec ou sans validation -, couplée au phénomène technique de convergence de l’ensemble des productions, va faire affluer des documents de statuts différents dans la même base de données. Les premiers sont historiquement de vraies archives dans des bases de type e-prints (http://www.eprints.org), entreposées par leurs auteurs et ne reposant donc que sur la déclaration des auteurs eux-même. Les seconds constituent un dépôt organisé par des revues ou des organisateurs de colloques, qui sanctionnent une lecture scientifique, une consécration éditoriale et une adaptation à un projet cohérent et sélectif.
Cette convergence technique va poser au moins deux types de problèmes : tout d’abord le risque de doublons – et à mon sens ce problème n’a jamais été évoqué sérieusement. J’imagine que les usages arbitreront entre un dépôt par les éditeurs et un dépôt par les auteurs. On assiste aujourd’hui à une course de vitesse entre auteurs et éditeurs et aucun d’eux n’a pris l’enjeu à sa juste valeur. D’un côté se constituent des initiatives de dépôts archivistiques qui se structurent autour des auteurs et de l’autre, autour des revues. L’un des deux, par sa masse critique, par sa réactivité et la qualité de sa structuration, devrait finir par l’emporter, car il ne servira à rien que les éditeurs signalent des documents déjà signalés ou que les auteurs déposent des documents déjà disponibles dans les dépôts… Le travail des éditeurs est minoré par le dépôt des archives ouvertes de l’auteur, alors que c’est un travail important. Bien sûr, les auteurs ont intérêt à regrouper autour de leur nom l’ensemble de leurs publications pour constituer des CV en ligne – et c’est une motivation forte pour l’appropriation. J’ai quand même tendance à penser que les auteurs ne sont pas assez concernés par ce genre de questions. Faudra-t-il une impulsion institutionnelle pour que cela prenne ? Une des alternatives qui semble émerger est la constitution de dépôts thématiques qui, s’ils s’imposent, seront des passages obligés pour que les auteurs puissent exister dans leur communauté.

Par ailleurs, la qualité de la structuration des données par l’éditeur, si elle est au rendez-vous, pourrait suffire à faire des éditeurs les principaux pourvoyeurs d’information dans les archives ouvertes. Cela revient à reconnaître qu’il y a un métier d’édition pleinement légitime qui n’est pas remis en cause par les nouvelles technologies… mais qui doit se moderniser.

Cependant, tout cela n’aura un impact véritablement profond que le jour ou l’Open Archive Initiative (OAI) sera un protocole qui intégrera du texte intégral. Aujourd’hui, ce protocole ne prévoit d’indexer que des métadonnées. Et je m’interroge sur ce point. L’OAI pointe parfois vers du texte intégral, mais il n’y a pas de lien qui spécifie où se situe le texte intégral dans les champs structurés ! Or, la recherche sur les métadonnées est très limitée par rapport à la recherche en texte intégral. On pourrait citer de nombreux exemples de dépôts eprints dans lesquels on ne peut chercher que sur l’auteur, le titre ou les mots clés et jamais sur le texte intégral des documents.

Pourquoi le texte intégral est-il si souvent considéré comme secondaire ? Sommes-nous contraints de naviguer dans des bases de données qui ne permettent que de trouver ce qu’on sait d’avance pouvoir y trouver ? Le hasard a toujours beaucoup apporté à la recherche. Il est regrettable que l’on s’appuie sur le vieux modèle de la fiche cartonnée des bibliothèques du siècle dernier pour construire ce qui doit devenir le plus grand espace de recherche de documents scientifiques du monde. C’est en procédant ainsi que l’on renforce la conviction des chercheurs selon laquelle Google est le meilleur moteur qu’ils puissent utiliser, puisqu’il indexe, lui, le texte intégral, et que le Web est un vaste bazar non sélectif. Ce faisant, on conforte les chercheurs dans une inertie dramatique, qui ne constitue pas une incitation à susciter ou alimenter des dépôts d’archives ouvertes. Le cercle vicieux est bouclé.

Encore une fois, on voit bien que la question du texte intégral se pose avec toujours plus d’acuité. Et j’espère que Stevan Harnad (http://www.text-e.org/conf/index.cfm?fa=printable&ConfText_ID=7) avait raison en disant que l’avenir de l’édition électronique, c’est le texte intégral disponible pour tous d’un côté et d’un autre côté, des outils de consultation, de citation, d’annotation, de navigation à haute valeur ajoutée apportés par les agrégateurs.

De son côté, Revues.org est en train de sortir une nouvelle version du moteur de recherche scientifique In-Extenso (http://www.in-extenso.org) qui est capable d’indexer les métadonnées et le texte intégral des dépôts OAI, via le suivi de liens. Mais on outrepasse le protocole OAI en faisant ça.

On a beaucoup parlé, instruments, technique et outils. Est-ce là que se situe l’enjeu de l’édition électronique ? Qu’est-ce qui fera le succès de l’édition électronique ? N’est-ce pas plutôt en termes de formation, de compétence, de mentalités que les freins sont les plus nombreux ?

Bien entendu. Tout ce que nous avons conçu est orienté dans cette direction-là. Revues.org n’est pas un projet technique, mais on ne peut pas appliquer des principes misant sur la conviction, les compétences et le choix fort de maintenir le pouvoir éditorial dans la main des éditeurs, sans outils adaptés à cette philosophie. Nous concentrons toute notre attention désormais sur la formation, l’information et la conviction des différents acteurs de l’édition scientifique qui s’intéressent à notre projet. On a tendance en France à mépriser la technique à un point tel qu’on en devient esclave. Il me semble que si l’on avait parlé d’Open Office et Mozilla en temps et en heure aux endroits où l’on décide, nous ne serions peut-être pas tous les otages techniques et commerciaux d’une grande société américaine. C’est notre mépris pour la technique qui nous a poussés dans les bras du pire des techniciens. En ayant pris une orientation différente à l’origine, on pourrait se concentrer aujourd’hui sur les aspects éditoriaux et humains. La technique n’est pas une fin, mais elle est un préalable nécessaire.
Permettez-moi de vous donner un autre exemple. Le monde de l’édition et de l’imprimerie représente historiquement une tradition forte dans la culture française. La compétence culturelle avait une dimension technique forte via la maîtrise des processus d’impression et de typographie. J’ai le sentiment qu’ils ont totalement démissionné et renoncé à cette position au moment de l’informatisation. Ils ont accepté d’être les otages d’une société qui vend un outil insatisfaisant du point de vue technique et scandaleux du point de vue de l’ouverture des formats, même si ses qualités de mise en page pure sont indéniables. La conséquence de cette inféodation est simple : dans les livres vous trouvez les notes de bas de page en fin de volume parce que X-Press ne sait pas ce qu’est une note de bas de page ! Ce qui est amusant, c’est que dans l’édition, la transition vers l’électronique est rendue difficile par la domination de cet outil. Il est bien entendu que nous ne renoncerons pas à faire comprendre à nos ordinateurs le statut d’une note de bas de page. Mais concrètement, cela signifie que nous avons dû développer un outil dédié à la récupération des notes issues de X-Press pour qu’elles puissent être reconnues par les logiciels de traitement de texte et par notre logiciel d’édition électronique. Nous aurions préféré travailler sur d’autres fonctionnalités, plus innovantes, plutôt que de passer du temps sur un tel rafistolage imposé par l’incurie d’un logiciel très onéreux, disposant d’une position quasiment monopolistique.

La direction du Département des Sciences de l’Homme et de la Société du CNRS vient de publier dans sa lettre mensuelle (n° 69, mai 2004 : http://www.cnrs.fr/SHS/actions/lettre.php) les résultats d’une enquête visant à classer les périodiques de sciences humaines selon la méthode dite du « facteur d’impact » (http://www.fing.org/index.php?num=4843,2), pratiqué dans les sciences exactes. Les résultats de l’enquête vont avoir des répercussions immédiates (http://lafeuille.blogspot.com/2004/06/les-revues-scientifiques-se-lvent.html) sur les revues scientifiques financées par le CNRS et plus encore, sur l’édition électronique, puisque de nombreuses revues se voient fermement engagées à envisager une édition sur support électronique seul. Y voyez-vous un tournant décisif vers la fin du papier ?

Toutes les revues sont incitées à passer à l’électronique et pas seulement celles ayant eu une évaluation défavorable. Je pense que le CNRS a conscience qu’il est malheureux d’associer au même moment une politique vigoureuse en faveur de l’édition électronique à une politique de réduction du nombre de revues soutenues. Même si les deux événements coïncident chronologiquement, on doit absolument dissocier la question de l’évaluation par la méthode du facteur d’impact et la question de l’éventuelle transition entre le papier et l’électronique.

La question du facteur d’impact est extrêmement épineuse et elle a fait couler beaucoup d’encre depuis la parution de la lettre du département SHS que vous mentionnez. Il me semble qu’aujourd’hui, la plupart des critiques opposées à la méthode employée sont dues au fait que le CNRS n’a pu s’appuyer que sur un corpus papier. Si un jour il avait à sa disposition un corpus très élargi d’articles, d’actes de colloque, d’ouvrages, et surtout de thèses au format électronique, le facteur d’impact perdrait plusieurs de ses défauts actuels.

Il est heureux que le CNRS ait une politique volontariste de migration vers le support électronique de l’ensemble des publications qu’il soutient. La volonté des revues de se mettre en ligne a considérablement évolué depuis que cette orientation s’est affirmée. La cohabitation durable du papier et de l’électronique est une volonté affichée par la plupart des acteurs. Aujourd’hui, l’abandon massif du papier n’est pas une question d’actualité à mon sens. Le CNRS a eu l’intelligence de proposer plusieurs philosophies de mise en ligne, entre une plate-forme déléguée (le Centre d’édition numérique scientifique dirigé par Andrea Iacovella à Lyon) et la plate-forme appropriée de Revues.org. Cela permet de faire cohabiter de façon transparente des revues qui perçoivent la mise en ligne comme un processus technique dont elles peuvent s’émanciper (modèle délégué) et des revues qui considèrent que la mise en ligne est un acte d’édition qui doit rester dans la main des éditeurs (modèle d’appropriation de Revues.org). Chaque modèle ayant ses avantages et ses inconvénients, il est heureux que les acteurs de l’édition puissent avoir le choix.

_________________
[1] NDLR : Membre du comité de rédaction de Revues.org, il est juste de signaler que je fais partie depuis l’origine de cette aventure et que je ne suis pas sans parti-pris sur ces question d’édition électronique comme le signale mon blog consacré à ce sujet : http://lafeuille.blogspot.com. J’espère que cette proximité avec Marin Dacos aura été, ici, un atout pour nous aider à poser avec clarté les enjeux du débat, qu’une manière de promouvoir sa plate-forme, ce qui n’est pas l’enjeu de ce dossier.

Professeur agrégé à l’Ecole des hautes études en sciences sociales (Ehess), Marin Dacos est le fondateur de Revues.org (http://www.revues.org), une fédération de revues scientifiques en ligne qui défend une conception ouverte de l’édition électronique en sciences humaines et sociales. Revues.org accueille actuellement 44 revues adhérentes.

Propos recueillis par Hubert Guillaud [1]

Internet Actu nouvelle génération : Comment définiriez-vous l’édition électronique scientifique ? Qu’est-ce qui la distingue de la numérisation  ?

Marin Dacos : L’édition électronique scientifique est plus un « moment » qu’un « fait absolu ». Nous nous trouvons dans une période de fondation de ce nouveau support. C’est une opportunité historique de repenser, ou au moins de bousculer des paysages éditoriaux qui se sont parfois durcis à l’excès. Puisque l’édition est la finalité quasiment ultime du travail scientifique, elle est au coeur du travail de documentation et de mise en valeur du travail du chercheur. Elle est donc au centre d’un certain nombre d’enjeux qui concernent la communauté et les individus qui la composent. Les nouvelles technologies ne sont pas seulement l’occasion de transformer les modalités techniques d’édition, mais plutôt une opportunité pour repenser l’ensemble des processus qui lui sont connexes : cela concerne à la fois les protocoles de soumission et d’évaluation des articles et les procédures qui accordent une visibilité à un article ou à une recherche.

Concernant la deuxième partie de votre question, il faut reconnaître qu’il y a longtemps eu une confusion entre les deux termes. Ou plutôt : l’édition électronique n’existait pas car on ne parlait que de numérisation. Aujourd’hui, on parle trop souvent d’édition en pensant numérisation… Bref, les mots ont changé, mais les représentations semblent malheureusement avoir peu bougé. L’édition électronique est un processus vivant de mise en ligne alors que la numérisation est un processus technique de conversion d’un support – ici, le papier – vers un autre – l’électronique. La numérisation est un processus mécanique, technocentré. L’édition est un processus complexe, « éditocentré », si je puis me permettre ce néologisme, dans lequel la technique occupe une part extrêmement importante, mais qui ne se substitue jamais à la finalité première de l’acte éditorial.

Alors que les « sciences dures » ont clairement franchi le pas de l’édition électronique, les sciences humaines semblent « en retard » ?

Depuis longtemps, les sciences dures ont l’habitude de procéder par pre-prints (NDLR : articles diffusés avant leur soumission à un comité de lecture), qui sont du coup accessible sur le réseau en dehors des processus de validation. La validation scientifique n’a lieu que dans un second temps. En sciences humaines, en dehors de la littérature grise très peu diffusée, il n’y a jamais eu de schéma similaire. La conséquence est simple : on confond la production et la validation en un même processus. Cela semble parfaitement logique pour éviter la profusion et la surproduction, mais en réalité cela a mené à une multiplication des titres, ce qui ne permet trop rarement une validation réellement scientifique.

Dans le modèle de Revues.org, vous insistez sur certains termes. Pourquoi une « fédération » ? Pourquoi une « conception ouverte » de l’édition électronique ? Quels enjeux se cachent-ils derrière ces termes ?

Il s’agit de regrouper des revues sans les dissoudre. Chaque projet éditorial conserve une autonomie complète dans la tradition des revues, dont chaque Comité de rédaction défend jalousement l’indépendance. C’est donc tout sauf un portail, tout sauf un agrégat, tout sauf une base de données. C’est un ensemble de projets éditoriaux qui se reconnaissent entre eux, qui s’allient pour pallier leurs faiblesses et pour multiplier leurs forces.

En ce qui concerne la « conception ouverte » de l’édition électronique, je pense qu’il faut considérer que tous les processus scientifiques, qui vont de la production de savoir ou de raisonnement à sa lecture, ne peuvent reposer sur le secret. Ces processus doivent reposer sur la pleine lumière et sur l’échange intellectuel. C’est la fonction première de l’écrit. Avant d’être une mémoire, l’écrit est un outil d’échange. Ces processus ne peuvent pas être appropriés par quelques-uns.

En gros, si une revue veut avoir une démarche de mise en ligne, pour des raisons qui lui sont propres, elle a le choix entre deux directions. Elle peut faire son site toute seule, avec toutes les difficultés techniques et de visibilité que cela représente. Cela revient en somme à dépenser beaucoup d’énergie pour un résultat très difficile à mesurer, je dirais presque à précipiter une noyade dans le grand web. Ou alors, elle s’agrège aux grands portails de contenus à vocation commerciale, dits « anglo-saxons ». Et cela revient à se noyer dans une grande base de donnée où leur identité éditoriale est gommée au milieu de milliers de titres. De plus, ces grandes bases de données commerciales cultivent une vision élitiste de la culture, proportionnelle aux droits d’entrée pour consulter ces revues. Les universitaires entre universitaires… Je dirais même plus les universitaires riches entre universitaires riches…

Le projet de Revues.org est ambitieux. Il consiste à tenir dans une même balance la nécessaire efficacité de la mise en ligne – qui passe par un phénomène de concentration, c’est-à-dire un regroupement de revues – et la nécessaire préoccupation morale et identitaire de la revue. Le but est de tenir à la fois la concentration et l’ouverture. Les deux à la fois.

Votre propos consiste à laisser le pouvoir aux chercheurs, aux éditeurs, aux rédacteurs en chef de revues… Cela signifie tout d’abord qu’il faut être extrêmement concret, proposer des solutions pour récupérer du texte en X-Press ou en Word et proposer des solutions de publication simples à administrer. Sans compter que c’est un pouvoir dont les éditeurs et les scientifiques ne veulent pas forcément, car c’est compliqué de faire une version électronique de sa revue quand on a déjà du mal à boucler les budgets, quand on manque déjà des compétences techniques pour produire la version papier… Pourquoi n’avoir pas plutôt opté pour un service centralisé, qui livrerait un produit fini aux éditeurs ?

Parce qu’une revue à une personnalité. Parce qu’une armée de techniciens ne donnera jamais une âme à un projet éditorial. Parce qu’il nous reste encore à inventer tellement de choses, que seuls les gens qui produisent le contenu et qui l’utilisent au quotidien peuvent correctement guider la marche… Enfin, parce qu’un système centralisé représente un coût tel qu’une sélection sera immédiatement opérée sur les titres. Jean-Claude Guédon a largement démontré que le processus engagé par Elsevier (http://www.elsevier.com), le géant de l’édition scientifique, était un processus d’exclusion de la majorité des titres au profit d’une minorité (voir http://www.ukoln.ac.uk/isg/hyperjournal/guedon.pdf). Tous les sociologues de l’innovation savent que l’impulsion d’une nouveauté naît en général à la marge d’un système plutôt qu’en son centre. Il faut donc penser un système qui soit structuré, tout en se préoccupant de laisser des espaces de respiration scientifique pour ne pas se scléroser.

Vous avez défini des critères de qualité pour l’édition électronique scientifique. Pouvez-vous nous les rappeler et nous les expliquer ?

Il nous a semblé pertinent d’expliciter une démarche qui prenne en compte les multiples dimensions de l’édition électronique : scientifique, éditoriale, technique et commerciale, ce qui revient à poser les questions en termes politiques. L’affirmation de principes simples contraint à la clarté.

Nous proposons un premier principe central qui est la primauté du texte intégral, c’est-à-dire que nous essayons de convaincre les revues de ne pas garder leurs richesses pour elles et de diffuser leurs productions au plus grand nombre via l’internet. Cela doit se faire en tenant compte d’impératifs incontournables : bien souvent, l’indépendance d’une revue repose sur l’existence d’abonnements payants.

Le second principe découle du premier, puisqu’il s’agit de la plus large accessibilité possible. Car publier, c’est donner à lire, à copier à s’inspirer. Ce n’est pas filtrer, cacher, exclure. Je le répète, mais c’est important. Il s’agit de refuser le principe d’un intranet de campus qui limiterait l’accès à la littérature scientifique aux seules bibliothèques capables d’en payer le prix.

Viennent ensuite des principes qui pourraient être perçus comme purement techniques, mais qui ont une dimension éditoriale forte.

Le troisième principe recommande le respect des standards techniques ouverts et libres, car ils sont seuls à pouvoir garantir la réutilisation des données dans des contextes différents, qu’ils soient présents (interopérabilité) ou futurs (portage sur de nouveaux systèmes).

De cela découle le quatrième principe : l’indexabilité et l’interopérabilité. Des échanges automatisés d’informations entre moteurs, sites et publications doivent être possibles. Les outils techniques utilisés pour la publication doivent donc en tenir compte. De la même façon qu’on entend très souvent parler du XML, l’interopérabilité est un peu une tarte à la crème du discours sur les sciences de l’information. Mais toute tentative dans ce domaine reste largement incomprise quand elle devient concrète. Trop souvent, on confond coordination et harmonisation avec uniformisation. Le XML n’a pas été inventé pour appauvrir la représentation des données, mais pour simplifier les échanges et permettre la mise en place de passerelles entre les systèmes.

Le cinquième principe concerne la citabilité sous forme hypertextuelle. C’est une condition absolument nécessaire à l’obtention du statut d’édition « scientifique ». En effet, un document scientifique, un livre ou un article par exemple, ne peut revendiquer ce statut que si l’on peut le citer dans un autre document, c’est-à-dire s’il possède des références claires qui permettent à tout à chacun de le retrouver. Or, un grand nombre de maladresses ou d’intentions malignes interdisent trop souvent la citation. Au rang des maladresses, évoquons les deux principales : le masquage des URL, qui agrège toutes les pages d’un site sous la même adresse, ce qui fait qu’on ne peut citer une page en particulier ; et l’instabilité des adresses, due en partie à l’évolution technique de l’internet et au fait que les sites qui évoluent en conséquence se soucient bien peu de la conversion  des anciennes adresses vers les nouvelles. Parmi les intentions malignes, on notera la complexification excessive des URL qui les rendent illisibles et, bien entendu, la sélection économique des visiteurs via un péage.

Le sixième principe, c’est la légèreté et la simplicité. On pense trop souvent que le lecteur est branché sur Renater au bureau et dispose d’un accès internet à haut débit à la maison, en oubliant toutes les personnes qui n’y ont pas accès, françaises ou étrangères.

On vous entend souvent défendre le contenu intégral ? Pourquoi ? Quelle est votre analyse sur les contenus ?

Faut-il encore répondre à cette question en 2004 ? Le web est sous-utilisé si on se limite à la mise en ligne de métadonnées. Les informations bibliographiques sont précieuses, mais le 3615 Electre les propose depuis longtemps. L’arrivée de l’internet permet un changement radical dans le paysage de l’édition électronique et il ne faut pas se priver d’utiliser son potentiel.

La mise en ligne du texte intégral permet d’avoir accès à l’article en lui-même, c’est-à-dire à son « contenu savant ». On réduit donc, dans la signification chirurgicale du terme, le goulot d’étranglement que constitue l’étape d’accession au document papier. C’est à ce moment seul qu’on obtient un gain réel, à la fois quantitatif – on a plus de lecteurs ! -, et qualitatif – l’hypertextualité peut entrer en action.

On a plus de lecteurs ? !… Sur des publications très spécialisées comme celles de Revues.org, on pourrait croire que la mise en ligne n’augmente pas forcément l’audience…

Elle est plus forte, ne serait-ce que parce qu’elle est tout de suite internationale. Les statistiques de fréquentation et les abonnements à la Lettre de Revues.org le montrent. Et puis, c’est là que la dimension éditoriale de Revues.org est importante, car elle est fondamentalement pluridisciplinaire. L’idée, c’est qu’il y a des enrichissements qui peuvent venir de lieux de recherche très éloignés des domaines de spécialitédes lecteurs. Un grand nombre de découvertes scientifiques sont dues à des chocs, des croisements entre disciplines. On objecte souvent à ce raisonnement le fait que l’édition électronique alimente la surabondance de littérature scientifique, qu’un spécialiste qui veut lire tout ce qui se produit dans son domaine de spécialité a déjà bien du mal à satisfaire. Dans ce contexte, le croisement des disciplines semble être une folie  ; mais il me semble qu’il est indispensable.

Depuis la Déclaration de Budapest (février 2002, http://www.soros.org/openaccess/fr/read.shtml) ou celle de Berlin (octobre 2003, http://www.inist.fr/openaccess/article.php3?id_article=38), la prise de conscience par la communauté scientifique de l’importance d’une publication ou d’un archivage libre et ouvert progresse. Pourtant, loin d’être encore dominants, ces deux modèles sont différents (Steven Harnad parle de « voie verte » et de « voie dorée »). Quelles différences et quelles complémentarités voyez-vous entre les archives ouvertes et l’édition scientifique en libre accès ? Que vous inspire l’engouement actuel envers le modèle d’archivage en accès ouvert ? Pensez-vous qu’il risque de mettre en danger la chaîne de publication scientifique traditionnelle du livre, comme le pense Crispin Davies, le PDG d’Elsevier (voir : http://media.guardian.co.uk/site/story/0,14173,1250464,00.html) ?

Le mouvement des archives ouvertes repose sur une modalité technique (le protocole Open Archive Initiative : http://www.openarchives.org) et une modalité pratique de mise à disposition de ses propres articles par un chercheur (les dépôts). Ce sont deux choses différentes : le protocole des archives ouvertes se généralisera sans difficulté à l’ensemble de la chaîne scientifique éditoriale en sciences humaines et sociales (SHS). Mais la modalité de dépôt – avec ou sans validation -, couplée au phénomène technique de convergence de l’ensemble des productions, va faire affluer des documents de statuts différents dans la même base de données. Les premiers sont historiquement de vraies archives dans des bases de type e-prints (http://www.eprints.org), entreposées par leurs auteurs et ne reposant donc que sur la déclaration des auteurs eux-même. Les seconds constituent un dépôt organisé par des revues ou des organisateurs de colloques, qui sanctionnent une lecture scientifique, une consécration éditoriale et une adaptation à un projet cohérent et sélectif.
Cette convergence technique va poser au moins deux types de problèmes : tout d’abord le risque de doublons – et à mon sens ce problème n’a jamais été évoqué sérieusement. J’imagine que les usages arbitreront entre un dépôt par les éditeurs et un dépôt par les auteurs. On assiste aujourd’hui à une course de vitesse entre auteurs et éditeurs et aucun d’eux n’a pris l’enjeu à sa juste valeur. D’un côté se constituent des initiatives de dépôts archivistiques qui se structurent autour des auteurs et de l’autre, autour des revues. L’un des deux, par sa masse critique, par sa réactivité et la qualité de sa structuration, devrait finir par l’emporter, car il ne servira à rien que les éditeurs signalent des documents déjà signalés ou que les auteurs déposent des documents déjà disponibles dans les dépôts… Le travail des éditeurs est minoré par le dépôt des archives ouvertes de l’auteur, alors que c’est un travail important. Bien sûr, les auteurs ont intérêt à regrouper autour de leur nom l’ensemble de leurs publications pour constituer des CV en ligne – et c’est une motivation forte pour l’appropriation. J’ai quand même tendance à penser que les auteurs ne sont pas assez concernés par ce genre de questions. Faudra-t-il une impulsion institutionnelle pour que cela prenne ? Une des alternatives qui semble émerger est la constitution de dépôts thématiques qui, s’ils s’imposent, seront des passages obligés pour que les auteurs puissent exister dans leur communauté.

Par ailleurs, la qualité de la structuration des données par l’éditeur, si elle est au rendez-vous, pourrait suffire à faire des éditeurs les principaux pourvoyeurs d’information dans les archives ouvertes. Cela revient à reconnaître qu’il y a un métier d’édition pleinement légitime qui n’est pas remis en cause par les nouvelles technologies… mais qui doit se moderniser.

Cependant, tout cela n’aura un impact véritablement profond que le jour ou l’Open Archive Initiative (OAI) sera un protocole qui intégrera du texte intégral. Aujourd’hui, ce protocole ne prévoit d’indexer que des métadonnées. Et je m’interroge sur ce point. L’OAI pointe parfois vers du texte intégral, mais il n’y a pas de lien qui spécifie où se situe le texte intégral dans les champs structurés ! Or, la recherche sur les métadonnées est très limitée par rapport à la recherche en texte intégral. On pourrait citer de nombreux exemples de dépôts eprints dans lesquels on ne peut chercher que sur l’auteur, le titre ou les mots clés et jamais sur le texte intégral des documents.

Pourquoi le texte intégral est-il si souvent considéré comme secondaire ? Sommes-nous contraints de naviguer dans des bases de données qui ne permettent que de trouver ce qu’on sait d’avance pouvoir y trouver ? Le hasard a toujours beaucoup apporté à la recherche. Il est regrettable que l’on s’appuie sur le vieux modèle de la fiche cartonnée des bibliothèques du siècle dernier pour construire ce qui doit devenir le plus grand espace de recherche de documents scientifiques du monde. C’est en procédant ainsi que l’on renforce la conviction des chercheurs selon laquelle Google est le meilleur moteur qu’ils puissent utiliser, puisqu’il indexe, lui, le texte intégral, et que le Web est un vaste bazar non sélectif. Ce faisant, on conforte les chercheurs dans une inertie dramatique, qui ne constitue pas une incitation à susciter ou alimenter des dépôts d’archives ouvertes. Le cercle vicieux est bouclé.

Encore une fois, on voit bien que la question du texte intégral se pose avec toujours plus d’acuité. Et j’espère que Stevan Harnad (http://www.text-e.org/conf/index.cfm?fa=printable&ConfText_ID=7) avait raison en disant que l’avenir de l’édition électronique, c’est le texte intégral disponible pour tous d’un côté et d’un autre côté, des outils de consultation, de citation, d’annotation, de navigation à haute valeur ajoutée apportés par les agrégateurs.

De son côté, Revues.org est en train de sortir une nouvelle version du moteur de recherche scientifique In-Extenso (http://www.in-extenso.org) qui est capable d’indexer les métadonnées et le texte intégral des dépôts OAI, via le suivi de liens. Mais on outrepasse le protocole OAI en faisant ça.

On a beaucoup parlé, instruments, technique et outils. Est-ce là que se situe l’enjeu de l’édition électronique ? Qu’est-ce qui fera le succès de l’édition électronique ? N’est-ce pas plutôt en termes de formation, de compétence, de mentalités que les freins sont les plus nombreux ?

Bien entendu. Tout ce que nous avons conçu est orienté dans cette direction-là. Revues.org n’est pas un projet technique, mais on ne peut pas appliquer des principes misant sur la conviction, les compétences et le choix fort de maintenir le pouvoir éditorial dans la main des éditeurs, sans outils adaptés à cette philosophie. Nous concentrons toute notre attention désormais sur la formation, l’information et la conviction des différents acteurs de l’édition scientifique qui s’intéressent à notre projet. On a tendance en France à mépriser la technique à un point tel qu’on en devient esclave. Il me semble que si l’on avait parlé d’Open Office et Mozilla en temps et en heure aux endroits où l’on décide, nous ne serions peut-être pas tous les otages techniques et commerciaux d’une grande société américaine. C’est notre mépris pour la technique qui nous a poussés dans les bras du pire des techniciens. En ayant pris une orientation différente à l’origine, on pourrait se concentrer aujourd’hui sur les aspects éditoriaux et humains. La technique n’est pas une fin, mais elle est un préalable nécessaire.
Permettez-moi de vous donner un autre exemple. Le monde de l’édition et de l’imprimerie représente historiquement une tradition forte dans la culture française. La compétence culturelle avait une dimension technique forte via la maîtrise des processus d’impression et de typographie. J’ai le sentiment qu’ils ont totalement démissionné et renoncé à cette position au moment de l’informatisation. Ils ont accepté d’être les otages d’une société qui vend un outil insatisfaisant du point de vue technique et scandaleux du point de vue de l’ouverture des formats, même si ses qualités de mise en page pure sont indéniables. La conséquence de cette inféodation est simple : dans les livres vous trouvez les notes de bas de page en fin de volume parce que X-Press ne sait pas ce qu’est une note de bas de page ! Ce qui est amusant, c’est que dans l’édition, la transition vers l’électronique est rendue difficile par la domination de cet outil. Il est bien entendu que nous ne renoncerons pas à faire comprendre à nos ordinateurs le statut d’une note de bas de page. Mais concrètement, cela signifie que nous avons dû développer un outil dédié à la récupération des notes issues de X-Press pour qu’elles puissent être reconnues par les logiciels de traitement de texte et par notre logiciel d’édition électronique. Nous aurions préféré travailler sur d’autres fonctionnalités, plus innovantes, plutôt que de passer du temps sur un tel rafistolage imposé par l’incurie d’un logiciel très onéreux, disposant d’une position quasiment monopolistique.

La direction du Département des Sciences de l’Homme et de la Société du CNRS vient de publier dans sa lettre mensuelle (n° 69, mai 2004 : http://www.cnrs.fr/SHS/actions/lettre.php) les résultats d’une enquête visant à classer les périodiques de sciences humaines selon la méthode dite du « facteur d’impact » (http://www.fing.org/index.php?num=4843,2), pratiqué dans les sciences exactes. Les résultats de l’enquête vont avoir des répercussions immédiates (http://lafeuille.blogspot.com/2004/06/les-revues-scientifiques-se-lvent.html) sur les revues scientifiques financées par le CNRS et plus encore, sur l’édition électronique, puisque de nombreuses revues se voient fermement engagées à envisager une édition sur support électronique seul. Y voyez-vous un tournant décisif vers la fin du papier ?

Toutes les revues sont incitées à passer à l’électronique et pas seulement celles ayant eu une évaluation défavorable. Je pense que le CNRS a conscience qu’il est malheureux d’associer au même moment une politique vigoureuse en faveur de l’édition électronique à une politique de réduction du nombre de revues soutenues. Même si les deux événements coïncident chronologiquement, on doit absolument dissocier la question de l’évaluation par la méthode du facteur d’impact et la question de l’éventuelle transition entre le papier et l’électronique.

La question du facteur d’impact est extrêmement épineuse et elle a fait couler beaucoup d’encre depuis la parution de la lettre du département SHS que vous mentionnez. Il me semble qu’aujourd’hui, la plupart des critiques opposées à la méthode employée sont dues au fait que le CNRS n’a pu s’appuyer que sur un corpus papier. Si un jour il avait à sa disposition un corpus très élargi d’articles, d’actes de colloque, d’ouvrages, et surtout de thèses au format électronique, le facteur d’impact perdrait plusieurs de ses défauts actuels.

Il est heureux que le CNRS ait une politique volontariste de migration vers le support électronique de l’ensemble des publications qu’il soutient. La volonté des revues de se mettre en ligne a considérablement évolué depuis que cette orientation s’est affirmée. La cohabitation durable du papier et de l’électronique est une volonté affichée par la plupart des acteurs. Aujourd’hui, l’abandon massif du papier n’est pas une question d’actualité à mon sens. Le CNRS a eu l’intelligence de proposer plusieurs philosophies de mise en ligne, entre une plate-forme déléguée (le Centre d’édition numérique scientifique dirigé par Andrea Iacovella à Lyon) et la plate-forme appropriée de Revues.org. Cela permet de faire cohabiter de façon transparente des revues qui perçoivent la mise en ligne comme un processus technique dont elles peuvent s’émanciper (modèle délégué) et des revues qui considèrent que la mise en ligne est un acte d’édition qui doit rester dans la main des éditeurs (modèle d’appropriation de Revues.org). Chaque modèle ayant ses avantages et ses inconvénients, il est heureux que les acteurs de l’édition puissent avoir le choix.

_________________
[1] NDLR : Membre du comité de rédaction de Revues.org, il est juste de signaler que je fais partie depuis l’origine de cette aventure et que je ne suis pas sans parti-pris sur ces question d’édition électronique comme le signale mon blog consacré à ce sujet : http://lafeuille.blogspot.com. J’espère que cette proximité avec Marin Dacos aura été, ici, un atout pour nous aider à poser avec clarté les enjeux du débat, qu’une manière de promouvoir sa plate-forme, ce qui n’est pas l’enjeu de ce dossier.

Voir aussi le dossier « Les enjeux de l’édition électronique scientifique » : http://www.fing.org/index.php?num=5055,2

À lire aussi sur internetactu.net