IV L'édition numérique en ligne

Pierre Mounier - 27.10.2020

4.1 L’accès ouvert aux publications de recherche

Pierre Mounier

Historique

L’accès ouvert, ou open access en anglais, est un mouvement qui s’est répandu dans le monde de l’édition académique à partir des années 90. Il désigne le fait de diffuser des publications académiques, livres et articles de revues, gratuitement sur Internet.
Ce sont les physiciens qui, les premiers, ont vu l’intérêt d’utiliser Internet pour diffuser leurs articles en accès ouvert. On considère habituellement le serveur ArXiv, créé en 1991, comme un point d’origine du mouvement pour l’accès ouvert aux publications de recherche.
ArXiv est en réalité dans la continuité d’une pratique ancienne dans cette communauté scientifique consistant à partager entre collègues les résultats de recherche ou hypothèses de travail, par échange épistolaire. Internet est donc pour eux simplement un moyen plus pratique de diffuser rapidement leurs résultats de recherche afin d’obtenir des commentaires de leurs collègues sur les premières versions des articles qu’ils s’apprêtent à soumettre aux revues de leur domaine. C’est la raison pour laquelle, les articles diffusés sur ArXiv sont appelés « preprints ».
Au cours des années 90, un autre phénomène, concernant cette fois l’ensemble des disciplines scientifiques, est venu donner un tout autre sens à la pratique de la publication en accès ouvert des résultats de recherche.
Il s’agit de ce qu’on a coutume de nommer « crise du prix des périodiques scientifiques » : la concentration dans le secteur de l’édition scientifique autour d’un nombre très réduit de groupes d’édition, mais aussi le développement de systèmes d’évaluation de la recherche concentrant la valeur scientifique reconnue des publications sur un nombre réduit de titres, a conduit à une augmentation rapide et continue des tarifs d’abonnement aux revues académiques.
Les bibliothèques de recherche ont ainsi vu leurs dépenses augmenter considérablement pour pouvoir acheter les revues les plus importantes des disciplines enseignées dans les universités. L’American Research Library Association en particulier a très tôt tiré la sonnette d’alarme en indiquant que la trajectoire des coûts d’acquisition des publications académiques n’était pas soutenable.
Dans sa globalité, le mouvement pour l’accès ouvert aux publications académiques vise donc à apporter des réponses à ce défi économique. Mais ce mouvement est aussi très divers, et mobilise des disciplines comme les sciences humaines et sociales qui ne sont pas concernées par les augmentations déraisonnables du prix des abonnements que connaissent les disciplines scientifiques.
Dans ce cas, ce sont d’autres motivations, comme le désir d’augmenter l’accessibilité de publications mal distribuées, ou de pouvoir être lu par des publics non académiques, ou encore de s’affranchir des contraintes qu’impose l’édition imprimée, qui sont en jeu.
Aujourd’hui, le mouvement pour l’accès ouvert se diversifie considérablement. Il prend plusieurs formes :
- Tout d’abord, des plateformes Web sur lesquels les chercheurs sont invités à diffuser gratuitement les publications dont ils sont les auteurs. Le périmètre de ces « entrepôts numériques » aussi appelées « archives ouvertes » peut être établi sur la base d’une université ou institution de recherche, comme ORBI à l’Université de Liège, d’une discipline ou d’un ensemble de disciplines comme RePEc pour l’économie, ArXiv pour les sciences physiques et mathématiques, ou encore à un niveau national comme HAL pour la France. Ils constituent ce qu’on appelle « la voie verte » vers l’accès ouvert.
- Par ailleurs, des revues anciennes ayant changé de mode de diffusion ou de nouvelles revues librement accessibles sur Internet constituant ce qu’on appelle « la voie dorée » de l’accès ouvert. Cette voie a été ouverte en particulier par le prix Nobel de Médecine Harold Varmus qui crée en 2001 la plateforme de revues PLOS – Public Library of Science – dans le domaine des sciences de la vie.
- Ces revues sont diffusées par l’intermédiaire de plateformes agrégatrices comme OpenEdition Journals (anciennement Revues.org) en France, Scielo au Brésil et en Amérique Latine, Ubiquity dans le monde anglophone, J-Stage au Japon, Hrcak en Croatie, parmi de nombreux exemples.
- Plus récemment, les monographies de recherche commencent elles aussi à être diffusées en accès ouvert sur Internet, via des plateformes comme OpenEdition Books, Oapen ou diverses plateformes institutionnelles.

4.2 Les défis de l’accès ouvert pour l’édition

Le principal défi que représente l’accès ouvert pour le secteur de l’édition est évidemment la question du modèle économique, puisque dans ce contexte, il n’existe plus de système d’abonnement susceptible de financer le travail d’édition. Les alternatives sont nombreuses :
- La plus connue consiste à demander aux auteurs de contribuer financièrement à l’édition de leurs articles. Ce système, connu sous le nom d’« article processing charge » ou APC, et qui revient peu ou prou à l’édition à compte d’auteur, est surtout pratiqué dans les sciences de la vie où les laboratoires de recherche disposent de fonds suffisamment importants pour payer des coûts de publication de plusieurs milliers de dollars par article.
- Le plus grand nombre de revues, en particulier en sciences humaines et sociales, ne peuvent fonctionner sur le modèle des APC et sont donc financées par des subventions publiques en argent ou en nature par mise à disposition de personnels.
- D’autres modèles complémentaires de crowdfunding institutionnel actuellement expérimenté par l’Open Library of Humanities, ou le modèle Freemium par OpenEdition contribuent à une diversité de modèles économiques correspondant à la diversité de modes et de niveau de financement des différentes communautés scientifiques.
- À l’heure actuelle, les consortiums de bibliothèques de plusieurs pays développés, mènent des négociations globales avec les éditeurs commerciaux pour obtenir une bascule coordonnée des revues depuis les systèmes d’abonnement vers les systèmes d’APC. Ces négociations donnent lieu, lorsqu’elles réussissent à des « accords transformants » visant à ce que le passage d’un modèle à l’autre concorde avec une maîtrise des dépenses, comme tente de la faire le projet DEAL en Allemagne.
Se développant depuis plus de vingt ans, le mouvement pour l’accès ouvert est en passe de remporter son pari en termes d’adoption par les communautés scientifiques. Au cours des dernières années, les organismes subventionnaires de la recherche ont adopté des politiques contraignantes de publication en accès ouvert des résultats des recherches qu’ils financent. Le répertoire ROARMAP en identifient près de 1000 en 2019, dont 600 en Europe et 19 en Suisse.
Le Fonds National Suisse a adopté une politique de mandat à l’égard des recherches qu’il finance : désormais, les publications, livres et articles de revues, issus de ces projets de recherche doivent être publiés ou bien directement en accès ouvert – et dans ce cas les coûts de publication sont éligibles à financement -, ou bien être déposées dans un entrepôt numérique public avec un embargo maximal de 6 mois après publication originale pour les articles, de 12 mois pour les livres.
Le Directory of Open Access Journals recense pour sa part plus de 13 000 revues académiques en accès ouvert dont 300 en Suisse.
Le Directory of Open Access Books recense 21000 ouvrages et chapitres d’ouvrage publiés par 300 éditeurs environ. Selon l’Open Science Monitor mis en place par la Commission Européenne, en 2017, 40.4% des articles publiés dans l’Union Européenne sont en accès ouvert, 51.8% en ce qui concerne la Suisse.

Perspectives

Aujourd’hui, le mouvement vers l’accès ouvert, qui concerne les publications, constitue le premier volet d’un ensemble plus vaste qui relève de la « science ouverte ». Le concept de science ouverte implique non seulement l’accès aux publications, mais aussi aux données de la recherche, voire aux processus même de la recherche, avec des pratiques telles que l’évaluation ouverte par les pairs et la recherche participative. En définitive, c’est une refondation des pratiques de recherche elles-mêmes qui se profile avec la science ouverte.

4.3 La pérennisation des contenus

Une question pas si nouvelle

La mutation de l’édition de l’imprimé au numérique engendre des défis à différents niveaux de la chaîne du livre. Alors que les questions liées aux modèles économiques focalisent l’attention, celles qui sont relatives à la conservation et la pérennisation des contenus sont moins souvent abordées.
Une manière classique d’aborder la question est de penser que le numérique crée un problème de conservation qui ne se pose pas pour l’imprimé puisque le papier, support matériel, serait « auto-suffisant » dans sa conservation. La tentation est alors de se concentrer sur les questions techniques de pérennisation des contenus numériques (supports, formats, encodages).
Pourtant, pas plus que le document numérique, le document imprimé n’est pérenne en soi. Si nous avons conservé et pouvons toujours accéder à des documents vieux de plusieurs siècles, c’est qu’un ensemble d’institutions – les bibliothèques puis les bibliothèques nationales – et de procédures – le dépôt légal, ont assuré cette conservation de l’imprimé à travers les siècles. Et si, au-delà des questions purement techniques, la question de la pérennisation des contenus numériques se pose aujourd’hui, c’est parce que les institutions conservatrices de l’imprimé ont mis du temps à se saisir de la même question pour le numérique.

Les acteurs de la pérennisation des contenus numériques

Ainsi le « dépôt légal numérique » assuré par les bibliothèques nationales fait-il son apparition en 2002 en Allemagne, en 2006 en France et est loin d’être systématique dans nombre de pays.
La Bibliothèque Nationale Suisse a lancé en 2001 le portail e-Helvetica qui « contient des sites web historiques, des documents publiés sous forme électronique tels que livres, revues, publications universitaires et normes ainsi que des ouvrages imprimés existant sous forme numérisée ».
Ce sont malgré tout des initiatives venant d’acteurs non-institutionnels, qui font office de pionnier en la matière. Ainsi, par exemple Internet Archive, créé par Brewster Kahle en 1996 est-elle une fondation à but non lucratif. Depuis sa création, Internet Archive a archivé 330 milliards de pages web et 20 millions de livres numériques de par le monde.
La pérennité des contenus numériques contraint donc les institutions spécialistes de la conservation à acquérir des compétences nouvelles, ce qu’elles commencent à faire depuis quelques années.
Deux problématiques distinctes doivent être traitées séparément :
- La protection et l’accessibilité des documents à court et moyen terme (quelques années)
- La conservation des documents à long terme (plusieurs siècles)
La première question est aujourd’hui bien traitée, au-delà des systèmes habituels de sauvegarde sur disque dur ou bande magnétique, par la démultiplication des lieux de stockage en réseau. Ainsi plusieurs fournisseurs de service commerciaux, comme Google ou Amazon, offrent des solutions de stockage des fichiers répartis sur plusieurs data centers, eux-mêmes répartis sur plusieurs zones géographiques, qui permettent une accessibilité permanente sans risque de perte de données.
Les bibliothèques académiques ont de leur côté imaginé des solutions similaires pour héberger et sauvegarder leurs données, par exemple avec le système LOCKSS qui réplique les fichiers sur plusieurs serveurs hébergés par les bibliothèques elles-mêmes.

Les défis techniques de la conservation à long terme

Les défis techniques que représente la conservation à long terme sont plus importants. Le principal d’entre eux réside dans le fait qu’un contenu numérique n’est pas accessible sans un système technique qui permette de le représenter. Ainsi, le contenu d’un fichier ne peut, en raison de son format particulier, être lu sans recourir à un logiciel qui permet de l’ouvrir et de l’afficher, lui-même ne fonctionnant qu’au sein d’un système d’exploitation qui lui-même est le plus souvent dépendant de l’architecture particulière d’un type de machines physiques.
Conserver un fichier en l’état est donc inutile si, par ailleurs, les logiciels, systèmes d’exploitation et architectures matérielles qui permettent de l’exploiter disparaissent par obsolescence. Dans ce cas, plusieurs solutions peuvent être mises en œuvre :
- Tout d’abord, la conservation en l’état de l’ensemble du dispositif technique, ordinateur compris, qui permettra toujours de lire les fichiers concernés
- Par ailleurs, la conservation des logiciels et systèmes d’exploitation par virtualisation : des logiciels permettent en effet de simuler le fonctionnement d’un ancien système sur un ordinateur récent, permettant ainsi de toujours accéder aux contenus conservés.
- Mais, la solution la plus ambitieuse consiste à convertir en permanence les fichiers conservés dans les nouveaux formats qui apparaissent au fur et à mesure des changements techniques. Il est pour cela nécessaire de s’appuyer sur des institutions spécialisées disposant de fortes compétences techniques.
Dès lors, la pérennisation des contenus passe par l’adoption dès leur conception de formats ouverts, c’est-à-dire publics et documentés qui garantissent qu’un accès en l’état ou une conversion dans un nouveau format plus récent sera toujours possible, sans perte d’information. Le format PDF/A-1, s’il est propriétaire, n’en est pas moins documenté et standardisé par une norme ISO qui garantit en principe l’accessibilité des fichiers générés sous ce format.
Son intérêt principal est de garantir la pérennité non seulement du contenu, mais aussi de sa mise en forme et donc de sa représentation. Les formats XML ont l’avantage pour leur part de permettre un encodage très précis de l’information au niveau du contenu et de sa description par des métadonnées qui peuvent être elles-mêmes standardisées par exemple avec la norme Dublin Core ou METS.
Mais la structuration en XML doit elle-même être documentée au moyen de modèles ou schémas qui permettent en outre de contrôler la validité de la structure de l’information. En matière de publication, les schémas DocBook et JATS sont les plus utilisés. Plus récemment, le schéma BITS, un dérivé de JATS, a fait son apparition, spécifiquement pour les livres.
Enfin, les méthodes d’archivage de données numériques de manière plus générale répondent elles-mêmes aux exigences de standards, comme OAIS.
References https: