V L’édition numérique : La mise en pratique de l’édition numérique

Dominique Roux - 20.04.2020

La mise en pratique de l’édition numérique

Ma définition de l’édition structurée va largement s’appuyer sur un cas pratique, le projet devenu IR Métopes (Méthodes et outils pour l’édition structurée) développé dans le contexte de l’édition savante institutionnelle française.
Les principes, méthodes et outils évoqués peuvent cependant s’inscrire dans tout contexte éditorial numérique soucieux de multidiffusion.

5.1 Aspects technologiques et éditoriaux

Dominique Roux

L’activité de production éditoriale s’inscrit aujourd’hui pleinement dans un environnement technique renouvelé au cours des trente dernières années. Elle se construit autour de phénomènes de convergence, caractéristiques du moment où le numérique passe de simple avatar de la chaîne éditoriale au statut de technologie régissant tout un « écosystème éditorial ».
L’avènement puis le développement d’internet ont été de ce point de vue déterminants. La place centrale du réseau et son potentiel en termes de diffusion ont en effet joué un rôle de catalyseur et d’accélérateur de la généralisation et de la convergence des techniques :
– pour la préparation de la publication, par la généralisation des échanges avec l’auteur, sous la forme de fichiers de traitement de texte ou de PDF annotés (ou de tirages papier produits à partir de ces outils) ;
– pour la fabrication du produit, réalité au moins depuis les années 1980 avec la transmission systématique d’un fichier à l’imprimeur chargé de l’élaboration de la forme imprimante ;
– pour son référencement, sa promotion et sa commercialisation, c’est-à-dire non seulement l’alimentation du site Web de la structure éditoriale, mais aussi la constitution des systèmes d’échanges entre éditeur et diffuseur-distributeur, entre diffuseurs-distributeurs et libraires ou avec plateformes. Le format ONIX en est l’expression et le point de passage obligatoire ;
Enfin, il est à noter l’émergence forte de dispositifs de lecture de type liseuse ou tablette qui font de la lecture d’ePubs sur écran une réalité sans cesse plus tangible et le développement de formes de diffusion sur les plateformes : XHTML, PDF…
Il s’ensuit pour l’éditeur la nécessité de multiplier les formes de diffusion en économisant les interventions éditoriales (coûteuses et risquées) tout en assurant, avec une haute exigence éditoriale, une identité de contenu.
Dans ce contexte, la notion de fonds éditorial constitué par un ensemble de fichiers de contenu mis au point et appareillé sous la forme d’un fichier pivot unique, fruit direct du travail éditorial et porteur de toutes les formes de diffusion, devient, de notre point de vue, primordiale.
La constitution de tels fichiers encodés en XML et la mise au point de leur environnement d’exploitation reposent sur quelques principes et idées simples :
– l’application des principes de séparation du fond et de la forme (des formes),
– l’analogie entre l’activité d’édition et la pratique du balisage des textes,
– la claire distinction entre l’établissement de l’architecture et de l’appareillage du texte par le secrétaire de rédaction au fil de la chaîne de production,
– les transformations du texte à des fins de diffusion (dans des architectures éditoriales qui n’excluent aucun support et qui peuvent reposer sur des complémentarités de formes et/ou de contenus livre et site Web, ePub…).
L’éditeur se doit alors de repenser les conditions d’exercice de son activité sur la base de l’exploitation d’un fonds qui ne consiste plus en un stock d’ouvrages mais en diverses formes éditoriales dérivées d’un fonds de textes structurés normés (XML). Il s’agit, pour le métier, d’une véritable révolution copernicienne qui, d’un simple statut d’« outil » ou de « choix technique », fait passer le numérique, plus précisément les données numériques, au rang de « format pivot ».
Il entre alors dans la logique du Single Source Publishing, modèle unique de données interopérables porteur de la totalité des formes et des modes de diffusion, ainsi que des dispositifs d’inscription du contenu sur des supports divers.
Ce modèle organisationnel et technique assure à l’éditeur la pleine propriété de fichiers structurés, fruits d’un travail éditorial unique. Ces fichiers pérennes, reconfigurables, garants du fond et porteurs de formes de diffusion multiples, remplissent toutes les conditions de l’interopérabilité des fonds. Ils offrent la possibilité du développement d’un catalogue commun, et jettent les bases d’une édition en réseau miroir d’une érudition qui aujourd’hui se conçoit et se construit de la sorte…
Il entre fortement en résonance avec les réalités, les demandes et les contraintes du contexte aujourd’hui incontournable de la production et de la diffusion numériques. En effet, et en termes d’interopérabilité et d’économie de diffusion des savoirs :
– il repose sur des normes ou sur des standards partagés par de nombreux acteurs du domaine ce qui est un facteur d’interopérabilité des contenus ;
– il participe à la clarification de la notion de « plus-value éditoriale » en permettant de l’identifier et de la localiser précisément ;
– il est facteur d’économies, ne serait-ce que parce qu’une intervention éditoriale unique permet une multiplicité de formes de diffusion ;
– il est indépendant des modèles économiques : l’éditeur a une totale liberté de choix des articulations formes / modèles de diffusion gratuite ou payante et peut construire des complémentarités entre formes de diffusion ;
– il offre des perspectives nouvelles en termes de droits, à partir de la clarification des statuts du texte et de la claire localisation des acteurs de la plus-value éditoriale permettant de mettre en place des adaptations pertinentes dans un contexte où peut peser le devoir de diffusion en Open Access ;
– il est aussi un point de convergence en termes d’articulation avec les autres métiers de la « vie » du flux numérique (bibliothécaires, archivistes, chercheurs auteurs, chercheurs lecteurs…) et, plus encore, en termes d’ouverture aux données de la recherche (textes appareillés et éditions issues de corpus, thèses en ligne…) ;
– il est enfin garant d’une certaine pérennité des données.
Il s’agit de passer d’une édition numérique centrée sur les outils à une édition numérique centrée sur les données, avec pour objectifs la construction — politique et matérielle — et la pérennisation de fonds inscrits dans un paysage technique numérique non plus subi mais maîtrisé et asservi aux politiques éditoriales publiques.

5.2 E-book ou éditions électroniques

Plutôt que de détailler les supports, nous distinguerons deux modalités de lecture :
– la lecture du flux mis en page, soit ouvrage et ouvrage homothétique : ouvrage imprimé, PDF, éventuellement interactif, équivalent ou epub paginé ;
– la lecture du flux mis en ligne : diffusé sur une plateforme, sous forme de pages web ou sous forme d’epub.
Dans chacun des cas il s’agira d’adapter les éléments structurels du fonds aux caractéristiques, aux particularités, aux contraintes ou aux lacunes propres au mode de diffusion. Ainsi, par exemple :
– une note de bas de page deviendra un appel dans le texte et un contenu placé en bas de page dans le cas de la production d’un imprimé, ou un lien hypertexte vers un contenu placé en fin d’une page web, ou bien alimentera une fenêtre pop-up au passage du pointeur sur une zone de texte d’appel…
– une note de tableau fera l’objet d’un dispositif identique dans les dispositifs en flux ou sera l’objet d’une reconstruction statique dans le cas de la production de formes imprimées quand le logiciel de mise en page ne sait les traiter…
– les dispositifs de type index ou références croisées disparaîtront totalement des plateformes dans leur état actuel, deviendront des liens hypertexte dans des pdf interactifs, les epubs ou les sites web et, apparaîtront sous la forme d’une résolution les contextualisant dans le cas d’une mise en page (table d’index pointant vers des numéros de pages, renvois rédigés pointant vers telle ou telle partie du texte nommée et localisée dans la logique de la double page.
Chaque forme doit être vue comme un ensemble de contraintes, de concessions mais aussi de possibles et il s’agira de développer un effort d’imagination éditoriale, et d’ergonomie, pour tirer le meilleur parti de chacun des dispositifs.
À l’inverse, et c’est un nouveau point concernant la responsabilité éditoriale, les choix de « possibles » effectués pour inscrire le flux dans un des dispositifs devront prendre en compte les possibilités de reproduire, en termes de visibilité ou de citabilité, l’inscription du même contenu dans une forme autre et donc le souci de ne pas créer des aberrations en termes de citation ou de référencement bibliographique.
Sur ces bases il paraît possible, à l’échelle de chaque maison ou structure d’édition, de bâtir de véritables stratégies de multi-diffusion dans lesquelles les différentes formes, toutes construites à partir d’un fonds éditorial unique — le fichier « pivot » idéalement encodé ans notre cas en XML-TEI –, jouent sur la complémentarité de leurs dispositifs et s’inscrivent dans des modèles économiques qui peuvent varier :
libre accès gratuit venant compléter l’achat du livre imprimé et offrant d’autres modes d’accès à la même information (hyperliens) ou des contenus « enrichis » (illustration en couleurs vs illustrations imprimées en noir et blanc, accès direct aux éléments d’apparat, aux sources bibliographiques, aux données premières etc…).
De tels dispositifs doivent permettre de faire évoluer la publication statique des résultats vers une conception plus ouverte de la publication intégrant l’accès aux données et faisant, de la publication, une donnée.
L’important est de reconstruire tout un workflow de production non plus centré sur la forme mise en page mais sur un fichier pivot, à l’encodage riche, a-forme, porteur de possibilités d’adaptations et de production d’ergonomies de lecture et de circulation dans l’information propres à chacune des formes de diffusion.

5.3 Formats pivots

Plutôt que de détailler « tous les formats » de diffusion existants, possibles ou imaginables, nous nous intéresserons aux formats pivots susceptibles de les produire, c’est-à-dire aux formats ayant capacité à décrire structurellement un fonds éditorial, ses contenus et les divers apports de plus-value éditoriale dans une forme offrant à la fois une pérennité informatique et une indépendance totale vis-à-vis des systèmes d’exploitation informatiques, des logiciels et des dispositifs de diffusion…
Il prennent aujourd’hui la forme de langages à balises, c’est à dire de flux textuels dans lesquels chaque élément de texte, paragraphe ou chaîne de caractères, est enchâssé entre deux balises qui précisent, caractérisent et documentent de façon détaillée son rôle structurel dans le fil du texte.
Une portion de texte pourra être caractérisée comme citation, dans telle ou telle langue et se voir « documentée » par sa source exprimée sous forme de référence bibliographique structurée ; un terme pourra se voir qualifié de point d’entrée d’index, affecté de la catégorie « index géographique » et documenté par ses coordonnées géographique et par la hiérarchie des entités géographiques dans lesquels il s’inscrit ; une autre portion de texte, enfin, pourra être défini comme « note », caractérisé comme note philologique ou critique et disposer de descripteurs renseignant sur sa possible numérotation ou placement dans le flux textuel…
Le mode de représentation actuel de ces réseaux textuels est l’arborescence stricte propre au XML : un « livre » est une suite de « chapitres », constitués d’une succession de « paragraphes », certains ayant valeur « d’intertitres » de tel ou tel niveau, de « texte » au sens le plus élémentaire, de « citation », de « note », « d’appel à figure », etc.
Les balises utilisées renvoient à des vocabulaires normés ou standardisés qui garantissent à la fois la possibilité d’échange des contenus et leur traitement automatique ou semi-automatique pour la construction des formes.
Ils réduisent tout contenu et son annotation à des fichiers textes strictement encodés en Unicode (texte et systèmes descriptif et documentaire), certes a-formes, mais porteurs de toutes les formes et, de plus, intelligibles au lecteur. Ces caractéristiques définissent en elles-mêmes à la fois ce qu’est un fonds éditorial à l’heure du numérique et une forme de pérennité.
Parmi ces formats et langages à balises propres au monde de l’édition nous distinguerons, à partir d’exemples, deux types : les langages « métier » et les langages « généralistes ».
Le vocabulaire JATS (Journal Article Tag Suite) est un exemple de format XML utilisé pour décrire la littérature scientifique publiée en ligne. Il s’agit d’une norme technique élaborée par la National Information Standards Organization (NISO) et approuvée par l’Amercian National Standards Institute. Il en existe une déclinaison adaptée à la description d’ouvrages BITS, pour Books Interchange Tag Suite. Ce sont pour nous des langages métiers. Il s’agit d’ensembles de balises propres à permettre la description, la documentation et la description de réseaux d’informations contenue dans des revues ou des livres.
Les éléments qu’ils permettent de décrire sont donc étroitement liés et limités au constituant alimentaire de ces objets ; livres, revues, articles, chapitres dont ils inscrivent les formes dans un contexte numérique. Ils garantissent dans ce contexte la bonne traduction du flux éditorial dans un contexte de diffusion numérique. Leur possibilité de description est cependant limitée de façon efficace au seul constituant physique et structurel du livre de la revue et sont étroitement liées à ses formes et à ses déclinaisons en ligne.
Ce format constitue une forme privilégiée d’alimentation en pleine thèse des plateformes développée par PKP (Public Knowledge Project, OJS, OMP) et est recommandée par la cOAlition S comme format de dépôt et d’archivage des contenus des produits de la recherche en libre accès.
Le vocabulaire TEI (Text Encoding Initative) est un exemple de vocabulaire généraliste propre au monde de la recherche en humanité. Riche de plus de 600 balises, il permet des descriptions structurelles de n’importe quelle source primaire de ce domaine. Organisé en modules, il autorise la constitution de sous-ensembles documentés pour la description de tel ou tel type de sources : documents d’archives, documents épigraphiques, correspondances, éditions savantes de sources, transcriptions d’entretiens, ou bien, contenu d’ouvrages ou de revues dans leur forme éditée.
Tous ces objets sont descriptibles à partir d’un même vocabulaire dont les éléments communs sont utilisés en fonction du contexte de description : savant ou avisé éditorial. Pour l’éditeur, tout n’est plus qu’affaire de granularité, finesse et alignement possible des unités descriptives et de transformation : passage d’un balisage sémantique à un balisage formel. Les descriptions et la sémantisation savante de données entre directement en résonnance avec les formes éditoriales dont elles permettent la construction et l’enrichissement.
L’éditeur ne traite plus avec un manuscrit mais avec les catégories savantes pour lesquelles il invente dans chaque contexte de diffusion et pour chaque format (PDF, ouvrage imprimé, ePub, site web) une grammaire de formes et d’articulations à partir d’une base unique (fichier de recherche exprimé en XML-TEI) transformé en fichier d’édition, exprimé au moyen du même vocabulaire, dans une autre acception des termes, en un fichier pivot pour des opérations de Single Source Publishing.
Dans chacun de ces formats deux dimensions descriptives du document propres aux contraintes de la diffusion et plus particulièrement de la diffusion numériques sont prises en compte : la description des données textuelles du contenu édité et la production de métadonnées permettant le bon référencement du flux numérique… mais aussi la production du contenu des pages de titre de l’ouvrage imprimé.
Dans ce domaine d’autres vocabulaires et d’autres référentiels normés sont des facteurs d’efficacité et de convergence comme, par exemple ONIX (ONline Information EXchange) est un format standard que les éditeurs peuvent employer pour distribuer de l'information électronique à propos de leurs livres aux grossistes, distributeurs, revendeurs et libraires… à tous ceux qui sont impliqués dans la vente de livres.
ONIX permet la transmission des informations sur les livres entre différentes organisations et ce, même si leurs infrastructures et besoins d'affaires diffèrent. Le support employé est un fichier XML qui est également un standard en technologies de l'information. Celui-ci, peut-être produit ou alimenté (tout comme le DublinCore) à partir des métadonnées de fichiers JATS ou TEI sous réserve bien sûr de documentation de ceux-ci et d’une granularité suffisante initiale des données.
C’est un des effets et une illustration de la convergence des données dans le domaine de l’édition numérique.
C’est enfin sur la base de ces encodages pérennes et ouverts du fonds éditorial numérique que peuvent être produits les différents formats de son exploitation en toute indépendance des matériels, logiciels, systèmes d’exploitation ou systèmes ou formats propriétaires et en assurant, avec un coût maîtrisé, optimisé et réduit, et la conservation de la qualité éditoriale, un haut niveau de réutilisabilité, d’interopérabilité et d’interactivité des contenus.

5.4 Mise en œuvre, prestataires de service et sous-traitance

La mise en œuvre d’un modèle de Single Source Publishing tel que nous l’avons décrit relève, à notre avis, plus d’une adaptation des pratiques éditoriales, et donc d’une formation raisonnable des éditeurs pour leur pleine adaptation au contexte de production numérique, que d’une « révolution » technique.
Dans le contexte de l’édition savante publique le choix de l’appropriation et de l’internationalisation des méthodes et outils semble à la fois possible, souhaitable et raisonnable. L’initiative et l’infrastructure de recherche Métopes vont dans ce sens.
Dans d’autres contextes, toutes les articulations sont possibles à condition de ne pas se laisser déborder par la technique et de bien placer au centre de la démarche les invariables de la fonction éditoriale.
L’enjeu demeure à la fois, pour l’éditeur, la maîtrise de la production du fonds éditorial nécessairement numérique en assurant sa bonne qualité technique (granularité, capacité à produire à partir d’un format pérenne des normes, des standards, des formats…) en pleine propriété et en pleine souveraineté.
En termes de métier j’ai l’habitude d’affirmer que « rien ne change ». L’éditeur remplit les fonctions éditoriales traditionnelles, les invariants, parmi lesquels :
– définir le projet éditorial
– mettre au point les contenus
– les adapter au(x) dispositif(s) de diffusion
– inscrire les rapports avec l’auteur dans un cadre contractuel approprié à la nature du texte et aux exploitations envisagées
– assurer l’exploitation (et la pérennité) du fonds sur le long terme
– construire un système économiquement viable ou tout au moins raisonnable.
La formation, si formation il y a, est d’abord une sensibilisation à la logique de l’édition structurée qui s’appuie sur l’analogie forte entre préparation de copie au sens traditionnel du terme et mécanismes de stylage, en environnement de traitement de texte.
Au-delà de l’intelligence du texte, qualité éditoriale fondamentale, c’est la capacité à traiter des documents longs, de façon systématique au moyen de feuilles de styles qui est mobilisée de même que la maîtrise des mécanismes de construction d’index, de réseaux de références croisées.
C’est ensuite l’inscription de la pratique éditoriale dans trois temps distincts qui consacrent la séparation stricte de l’établissement du fonds et de la réalisation des formes :
– l’édition du texte (et la production du fonds encodé en XML) ;
– l’annotation du flux XML, la constitution des métadonnées et leur enrichissement normé par la connexion à des référentiels ;
– la construction des formes par la transformation du flux XML enrichi et son inscription dans les particularités ou les restrictions propres à chaque mode de diffusion.
L’environnement et l’outil qu’ils convient alors de maîtriser, tout au moins dans son utilisation paramétrée, est un éditeur XML qui permet de vérifier la validité logique et informatique du flux XML normé, de le corriger (en termes éditoriaux, de l’enrichir et de le transformer).
L’effort d’adaptation n’est pas supérieur à celui déjà demandé aux acteurs du monde éditorial lors de la première intrusion du numérique dans leur monde et de la généralisation de l’usage du traitement de texte.
C’est, de manière générale, l’appropriation d’une culture de la transformation et de l’adaptation au contexte ou au mode de diffusion avec la prise en compte des contraintes et des possibilités de chacun des dispositifs :
– standards traités par les plateformes, services et dispositifs propres aux plateformes ;
– possibilités offertes par les standards ePub 2 et 3 en relation avec les limitations des dispositifs de lecture (tablettes, liseuses…) ;
– contraintes de la projection du contenu numérique dans l’espace à deux dimensions de la double page et relations avec les éléments de paratexte (index, tables…).
Là, c’est la bonne connaissance des standards et de leurs possibles qui devra être acquise et mise en œuvre ; une connaissance au moins théorique, et si possible pratique des langages et techniques associés au formalisme XML pour la transformation et la mise en forme des flux : XSL et CSS ;
et, enfin, une approche orientée « structure » des outils de mise en page avec une très bonne perception de la modularité qu’ils sont susceptibles mettre en œuvre au moment de la construction des formes paginées : usage des styles de caractères, de paragraphes, d’objets… automatismes tirant parti du modèle de données sous-jacent.
C’est enfin une remise en ordre de la chaîne éditoriale impliquant tous les acteurs, des fonctions éditoriales de sélection aux tâches les plus élémentaires de réalisation. Elle se caractérise par une logique de travail cumulatif d’amélioration progressive du fichier initial, sans double travail et sans retours en arrière causés par une chaîne opératoire inappropriée (c’est-à-dire la chasse impitoyable à toute action qui pourrait être assimilée à de la rétroconversion).
Elle se concrétise par de nouveaux temps de communication avec les auteurs et plus particulièrement par un nouveau régime d’épreuvage qui permet de retarder le contrôle de la ou des formes et se concentre sur l’établissement des contenus.
C’est en fait un retour à l’économie raisonnable de la composition au plomb dont les équilibres ont été bouleversés par l’irruption mal maîtrisée et mal pensée des outils numériques dans la sphère éditoriale.
Dans le cas du plomb les modifications de la forme paginée coûtait cher ; dans le cas de la diffusion numérique la cherté potentielle réside, au-delà de l’impératif d’identité de contenu, dans la correction consécutive de formes multiples présentes et à venir… Dans ce système, la sous-traitance est possible à tous les niveaux et selon différentes lignes de partage des tâches.
Le pivot demeure le fichier XML dont la production peut être déléguée à un intervenant qui conduit le manuscrit remis par l’auteur et validé par l’instance éditoriale vers un fichier de traitement de texte, renfermant la version du texte normalisée, corrigée, stylé au moyen d’une feuille de styles permettant la production automatique du fonds encodé en XML standardisé.
Ce flux pourra être importé dans un environnement de mise en page et confié « brut » à un maquettiste chargé de la construction de la forme définitive, ou bien encore transformé en ePub et externalisé pour, par exemple, la définition fine et personnalisée d’une CSS…

5.5 Critères et choix de partenaires pour la diffusion

Si l’on s’intéresse plus particulièrement à la diffusion de contenus en ligne, les plateformes et systèmes de constitution et de diffusion de contenus sont des partenaires incontournables dont il convient de bien connaître les caractéristiques pour choisir et pour construire des articulations raisonnables et pertinentes.
En termes de dispositifs de diffusion nous distinguerons, à partir de la situation française dans le domaine des Sciences humaines et sociales, d’abord cas :
– les plateformes de type OpenEdition, Cairn, Erudit, Scielo… qui permettent de développer des réseaux de publications « qui chuchotent entre elles » et s’inscrivant dans des modèles économiques variables : du libre accès intégral au modèle commercial le moins ouvert en passant par des modèles mixtes de type « Freemium » assurant à la fois un certain niveau d’accès libre au contenu et un revenu éditorial construit sur la mise à disposition de services autour des contenus. Dans ce schéma, l’éditeur fournit le contenu et la plateforme l’intègre et construit la visibilité et les services.
– les dispositifs techniques permettant à un organisme, un laboratoire, un établissement… de gérer dès le dépôt des soumissions, au fil du processus d’évaluation puis d’édition matérielle et jusqu’à sa diffusion, le contenu d’une revue. Les outils conçus et diffusés par l’initiative du Public Knowledge Project (PKP) : Open Journal System (OJS) et Open Monograph Press (OMP) avec plus de 50 000 instances installées de par le monde en sont représentatifs.
En termes d’alimentation les deux modèles reposent sur le modèle du Single Source Publishing l’éditeur pouvant, dans le cas des plateformes, assurer l’alimentation lui-même ou bien en déléguant les tâches de rétro conversion à la plateforme au risque d’une augmentation du coût, d’une baisse de qualité éditoriale consécutive à une transformation moins maîtrisée et d’une capture du contenu au motif de sa transformation.
S’il fallait établir des critères pour guider les éditeurs dans un choix d’outil, de dispositif ou de plateforme de diffusion, les critères établis dans le contexte de l’OpenScience par le Comité pour la Science ouverte, même s’ils relèvent de l’édition publique et de ses impératifs d’ouverture, peuvent être généralisés à toute entreprise éditoriale.
Ils privilégient en effet la notion de pleine propriété et de souveraineté de l’éditeur quant à son fonds éditorial. Ils se déclinent notamment en termes de gouvernance, d’éthique et transparence, d’indépendance, de viabilité, de réplicabilité et de portabilité, de modèle économique et d’interopérabilité.
Ils portent tout autant sur le fonctionnement des plateformes que sur la qualité et la structure des contenus éditoriaux et peuvent être généralisés à tout contexte éditorial.

5.6 Procédures de contrôle et expertise éditoriale

Si l’on revient sur les différentes étapes de la chaîne éditoriale en contexte de Single Source Publishing, il est possible d’esquisser et de lui superposer des stratégies d’épreuvage et de contrôle de la qualité des divers éléments assemblés ou mis en réseau lors de la mise au point des contenus destinés à s’articuler dans les publications.
La tendance générale sera d’éviter de se précipiter dans la forme paginée qui appelle un contrôle spécifique et tardif à un moment ou la seule vérification concernera la bonne disposition des éléments sur la double page et la validité du mode de décomposition du flux en double pages (il s’agit juste d’un bon à tirer qui devrait exclure les modifications du fonds).
La pratique de la mise en page immédiate du texte s’est en effet répandue, au faux prétexte d’une « meilleure qualité de relecture» et faisant surtout fi du temps gaspillé par les secrétariats de rédaction pour reconstruire des formes acceptables en intégrant de nombreux repentirs et corrections trop tardifs.
Il nous paraît donc indispensable et raisonnable de mettre en place des procédures de travail et d’échange contractuels avec les auteurs ou les responsables éditoriaux qui, au moins lorsque plusieurs formes de diffusion d’un même contenu sont envisagées, prennent en compte la stricte séparation de la mise au point du fond et de la construction des formes.
Elles garantissent par ailleurs à l’institution éditrice la constitution en pleine propriété d’un fonds éditorial numérique susceptible de survivre aux mutations (rapides) des environnements techniques. Le régime d’épreuve qui en découle reprendra les grandes lignes de l’épreuve au plomb avec : des épreuves en placard (qui peuvent reproduire la typographie et la justification horizontale des ouvrages papier) échangées au fil de la mise au point du contenu.
Ces épreuves en placard pourront prendre la forme d’un flux et permettre à l’auteur et à l’éditeur d’apprécier et de vérifier la qualité (et bien sûr la correction et la complétude) des diffusions en ligne ; l’introduction de marqueurs d’index, éléments structurels exploités sous des formes distinctes dans les différentes formes de diffusion, devrait être effectuée à ce stade ; puis, une fois le contenu fixé, normalisé, structuré et amendé, la confection d’épreuves en pages si le contenu doit prendre la forme d’un livre (papier ou PDF).
Ce problème, a priori anodin, est en fait un des obstacles importants – si ce n’est «l’Obstacle» – à la bonne implantation de politiques numériques (aussi bien en fabrication qu’en diffusion). Il cristallise au moins par méconnaissance technique, mais souvent par démagogie, faiblesse ou par inadaptation ou bien encore par une mauvaise articulation des modes de gouvernance ou une mauvaise répartition des rôles – au regard du champ de compétence effectif –, toutes les tensions et injonctions contradictoires entre auteurs, secrétariats d’édition, direction des structures éditoriales et tutelles, qui sont autant de facteurs d’échec et de gaspillage d’énergie ou de moyens. Il est le lieu où les divers acteurs de la structure devraient tenir un discours cohérent, unique, en phase avec les impératifs techniques du mode de production.
Dans la chaîne d’édition structurée, en amont, et pour permettre d’arriver à cette situation idéale, il conviendra donc de multiplier autant de fois que nécessaires les échanges avec et les validations par l’auteur dans un contexte de traitement de texte et de lever toutes les ambiguïtés concernant le stylage (et donc la structuration à venir) du texte. Ces échanges permettront de déboucher sur un « bon à composer » qui prendra la forme de la transformation en XML (pivot) du contenu.
En contexte XML, une attention particulière sera portée à la qualité des relations texte-images, à la documentation de celles-ci (titres, légendes, crédits, textes permettant de garantir l’accessibilité…) et à leur bonne insertion au point d’appel pertinent dans le flux du texte.
Ces ressources devront être placées sur des serveurs garantissant leur pérennité d’accès et la fourniture d’adresses stables et idéalement prédictibles.
Les épreuves produites à partir du flux XML prendront soit la forme de pages web, soit la forme de PDF produits par import dans InDesign, par exemple, sur la base d’une maquette spécifique permettant une relecture confortable du flux sans passer par l’étape de calage de la mise en page.
Transmises à l’auteur sous la forme de PDF ou d’impressions, elles permettront de recueillir ses demandes et corrections qui devront être reportées dans le flux XML. Le processus pourra se répéter autant de fois que nécessaire. Les éléments illustratifs (images, séquence animées, séquences sonores…) appelés depuis le texte font l’objet de validations parallèles.
Dans le contrôle du flux une attention particulière sera apportée bien sûr à la validité du flux, c’est le rôle de l’éditeur XML, et au contrôle et la qualité des métadonnées ajoutées et de leur conformité aux référentiels choisis (Orcid, IdRef, FundRef…).
Une fois les éléments constitutifs du contenu, textes et images, mis au point et validés par un « bon à composer », chacune des formes pourra faire l’objet d’un « bon à tirer ou à diffuser », simple contrôle de l’architecture de la forme et n’autorisant, idéalement, plus aucune correction de fond.
References https: