Fabriquer des éditions, éditer des fabriques : reconfiguration des processus techniques éditoriaux et nouveaux modèles épistémologiques Antoine Fauchié Thèse de doctorat en Littérature, option Humanités numériques Thèse en Littérature, option Humanités numériques, dirigée par Marcello Vitali-Rosati (Université de Montréal) et codirigée par Michael Sinatra (Université de Montréal) Les processus d’édition sont constitutifs de la production du sens et ils reflètent des visions du monde plurielles. Cette thèse propose de comprendre ces processus à travers le concept de fabrique. Une fabrique est l’imbrication de différentes dimensions techniques, telles que le travail sur le texte ou la construction de procédés de fabrication et de production de formes, d’objets et d’artefacts que sont les livres. Le phénomène de fabrique d’édition est ainsi un acte éditorial qui comprend autant la formalisation d’un contenu que la constitution des outils permettant ce travail. Ce concept de fabrique est développé tout au long de cette recherche en établissant des analyses théoriques des différents objets de l’édition, en réalisant des études de dispositifs techniques, et en menant des expérimentations éditoriales. Nous interrogeons les fabriques d’édition dans le domaine des lettres, et plus particulièrement des modèles alternatifs, en considérant que la pensée émerge des processus dispositifs. La place hégémonique de plusieurs logiciels, depuis l’avènement de l’informatique dans l’édition, limite tout questionnement sur la technique. C’est pourtant en étudiant des pratiques originales et marginales que nous pouvons décrire de nouvelles modélisations créatrices de sens. Notre corpus est composé d’objets éditoriaux, de structures d’édition et de dispositifs techniques qui questionnent les modèles établis et qui construisent de nouveaux modèles épistémologiques en interrogeant notre rapport à la technique. Le parcours général de cette thèse est progressif, expérimental et performatif. Il s’agit de définir le livre comme artefact et d’étudier l’édition comme acte et comme éditorialisation. Nous abordons le numérique comme environnement puis comme processus technique, en analysant l’édition numérique au prisme des humanités numériques. Nous établissons que les formats sont des dispositifs de modélisation du sens, et nous effectuons une critique du logiciel pour conceptualiser la fabrique et pour observer le phénomène de fabrique d’édition. La mise en place des éléments techniques nécessaires à une chaîne ou à une fabrique d’édition fait partie intégrante de l’acte éditorial et de la production du sens. Sources : https://src.quaternum.net/t CC BY-SA Antoine Fauchié ========== Version texte de la thèse d'Antoine Fauchié. Version allégée, sans : table des matières, liste des figures, liste des extraits de code, formatage sémantique, figures (images et extraits de code). Contact : Antoine Fauchié, www.quaternum.net, antoine.fauchie@umontreal.ca ========== Acronymes et sigles   API Une API, ou Application Programming Interface, est une interface de programmation d’application qui permet d’accéder à des informations structurées via des méthodes décrites.   AST L’AST, ou Abstract Syntaxic Tree, est un arbre syntaxique abstrait qui constitue une modélisation abstraite d’un document structuré.   CMS Un CMS, ou Content Management System, est un système de gestion de contenus, habituellement proposé sous la forme d’un logiciel avec une interface graphique.   Coko Coko, pour Collaborative Knowledge Foundation (note : https://coko.foundation), est une fondation à but non lucratif qui crée, développe et maintien des outils libres, notamment en lien avec l’édition ou la publication.   DOM Le DOM, ou Document Object Model, est un modèle d’objets de document, il s’agit de la manifestation abstraite d’un document dont les composants sont manipulables.   GML GML, pour Generalized Markup Language, est le prédécesseur du premier langage de balisage descriptif, SGML (voir SGML), et est plus spécifiquement un point d’articulation entre un balisage procédural et un balisage descriptif.   HTML HTML, pour HyperText Markup Language, est un balisage standard et descriptif conçu pour la structuration sémantique et l’affichage graphique dans les navigateurs web.   IDE Un IDE est un environnement de développement, Integrated Development Environment en anglais, qui regroupe un ensemble d’outils tels qu’un éditeur de texte, un terminal ou des fonctions de versionnement et de déploiement.   OSP Open Source Publishing (note : http://osp.kitchen) est un collectif de designers dont ses membres sont basés en Europe et principalement en Belgique.   PAO La publication assistée par ordinateur correspond à l’usage de logiciels pour la structuration et la composition de documents qui sont ensuite imprimés. Traditionnellement, la PAO doit permettre de gérer des contenus sous forme de pages.   RFC Les Requests for Comments sont des spécifications techniques qui reposent sur un système de soumission et de validation (note : https://www.rfc-editor.org), ces spécifications constituent notamment le socle technique d’Internet.   SaaS Software as a Service, ou logiciel en tant que service en français, définit des logiciels qui sont hébergés sur des serveurs et dont l’usage se fait via une connexion Internet (et souvent un navigateur web) sans avoir besoin d’installer le logiciel.   SGML Standard Generalized Markup Language est le premier langage de balisage descriptif qui permet de décrire sémantiquement un document et de séparer strictement sa structure de sa mise en forme. SGML hérite des recherches autour de GML (voir GML) et connaît de nombreuses implémentations dont HTML (voir HTML) constitue la plus répandue.   WYSIWYG What You See Is What You Get, ou ce que vous voyez est ce que vous obtenez, correspond à un mode d’écriture et d’édition basé sur la représentation graphique plutôt que sur le sens.   WYSIWYM What You See Is What You Mean, ou ce que vous voyez est ce que vous signifiez, est un mode d’écriture et d’édition qui s’oppose au WYSIWYG (voir WYSIWYG).   XML XML, pour Extensible Markup Language, est un métalangage de balisage descriptif qui peut être décliné pour des usages très divers grâce à l’élaboration d’un schéma. Remerciements Mes remerciements vont d’abord à mes directeur et codirecteur de recherche, pour leur soutien inconditionnel durant tout le doctorat. Merci à Marcello Vitali-Rosati, pour cette opportunité de faire de la recherche, pour la possibilité de construire ensemble et chaque jour de nouvelles modélisations. Ce cheminement a été possible grâce à sa bienveillance et à sa rigueur, toujours avec une énergie incroyable. Merci à Michael Sinatra, pour m’avoir connecté à des communautés académiques accueillantes, et pour m’avoir enseigné certains des mécanismes complexes de l’Université. Son accompagnement sans failles a été décisif dans la réalisation de ce projet universitaire et professionnel. Merci à Evelyne Broudoux et à Emmanuël Souchier pour avoir évalué mon travail. Cette thèse doit beaucoup à Margot Mellet, chercheuse talentueuse, éditrice acharnée, première relectrice, et amie. Nous écrivons, paraît-il, d’abord pour une personne, cette thèse a été rédigée en me demandant continuellement ce qu’en penserait Margot. Les projets présentés dans cette thèse sont initiés, menés, développés, fixés, parfois abandonnés, souvent défendus, par des personnes curieuses et enrichissantes. Merci à David Larlet, Guillaume Grossetie, Thomas Parisot, Timothée Guicherd, Maïtané Lenoir, et Yves Marcoux. Je remercie plus particulièrement Hélène Beauchef, Jean-François Vallée, Nicolas Sauret, Servanne Monjour, chacune et chacun pour des raisons différentes, mais toutes et tous pour être une source d’inspiration et de motivation. Merci à Roch Delannay pour avoir nourri mes réflexions (et parfois aussi mon estomac), infatigable répondant à mes interrogations, et insatiable interlocuteur sur de nombreuses thématiques qui sont présentes dans ce texte. La Chaire de recherche du Canada sur les écritures numériques est une fabrique de pensée à laquelle ont contribué, ou contribuent encore, beaucoup de petites mains (dont je suis) dont la richesse intellectuelle et humaine est inestimable. Merci à Eugénie Matthey-Jonais, Giulia Ferretti, Emmanuelle Lescouet, François Maltais-Tremblay, Charlotte Lebon, Yann Audin, Arilys Jia, Luiz Capelo, Enrico Agostini Marchese. Un merci spécial à Mathilde Verstraete, vraiment, ainsi qu’à Louis-Olivier Brassard. Merci à Julie Blanc, dont les collaborations théoriques et pratiques m’ont beaucoup apporté dans la constitution de ce travail de recherche. Merci à Rekka Bellum et Devine Lu Linvega, qui, au-delà de leur générosité, offrent des perspectives aussi radicales qu’enthousiasmantes. Merci à Julien Taquet qui, en plus de m’avoir permis de résoudre nombre de problèmes liés à la composition de la version paginée de la thèse, est un fin connaisseur des rouages numériques et imprimés. De près ou de loin, et sur des plans particulièrement variés, plusieurs personnes ont été d’un soutien considérable dans cette thèse. Je remercie vivement Julien Bidoret, Constance Crompton, Igor Milhit, Benoît Epron, Valérie Larroche, Susan Brown, Benoît Melançon, Nicolas Taffin, Enzo Poggio, John Maxwell, Emmanuel Château-Dutier, Joe Mooring. Merci à Gabrielle Pannetier Leboeuf pour les tomates dans l’insectarium. L’écriture est une question de rythme, et celui de Gabrielle m’a clairement permis de trouver ma mesure. Merci aux personnels administratifs de l’Université de Montréal, et en premier lieu à Kathy Leduc. Merci aux bibliothécaires et aux aides bibliothécaires de la bibliothèque Lettres et sciences humaines de l’Université de Montréal, ce travail doit aussi beaucoup aux ressources documentaires et humaines toujours disponibles. Merci aux collectifs Inachevé d’imprimer (et d’abord à Arthur Perret) et PrePostPrint qui animent et agitent. Merci à celles et à ceux qui me soutiennent ici et ailleurs : Elyane, Michel, Marie, Jean, Laetitia, Bernard, Marie-Thérèse, Yannick, Julien, Thomas. Une mention spéciale pour Michel, pour sa disponibilité, et son œil curieux et avisé. Merci à Vimala pour les encouragements, pour les joies, pour le temps perdu et la vie gagnée, et surtout pour m’avoir extrait trop souvent de la thèse. Ce travail de recherche s’est déroulé dans des conditions intellectuelles et affectives qui débordent largement le cadre du doctorat, et dont celui-ci s’est nourri abondamment — parfois malgré moi. La thèse est un exercice d’exploration, d’analyse, de réflexion critique et d’écriture qui ne peut être réalisé qu’avec des apports culturels riches, des visions du monde politiques et positives, et une radicalité esthétique permanente. Je dois beaucoup de tout cela à Isabelle, qui a su me montrer que toute existence ne peut se réaliser qu’avec le désir de vivre pleinement, tout en brisant les codes qui nous oppressent — y compris ceux du doctorat. Merci. Cette recherche a été soutenue par le Fonds de recherche du Québec - Société et culture, ainsi que par la Chaire de recherche du Canada sur les écritures numériques, le Groupe de recherche sur les éditions critiques en contexte numérique, le Centre de recherche interuniversitaire sur les humanités numériques, le Département de littératures et de langues du monde de l’Université de Montréal, et le Département des littératures de langue française de l’Université de Montréal. Conventions d’écriture   Écritures inclusives La rédaction de cette thèse suit les principales recommandations de l’Université de Montréal en matière d’écriture inclusive (note : https://francais.umontreal.ca/ressources-et-formations/inclusivement/presentation/), notamment en privilégiant les formes épicènes ou le doublet complet. Nous appliquons également l’accord de proximité, qui consiste à accorder en genre l’adjectif et le participe passé avec le nom le plus proche qu’il qualifie. En plus de mettre en pratique des méthodes d’écriture inclusive, nous avons également tenté d’appliquer une écriture non sexiste, par exemple en rendant visible le genre féminin souvent invisibilisé.   Mise en page de la version imprimée L’usage d’une colonne pour faire apparaître les notes, les renvois, les références bibliographiques ou les définitions des concepts est une adaptation d’un principe de composition hérité — notamment — d’Edward Tufte. Ce principe est plus récemment adopté et revendiqué pour la mise en page de travaux de recherche. Parmi plusieurs initiatives, celles d’Arthur Perret sont exemplaires et ont beaucoup inspiré certains choix de mise en page. La composition du texte de labeur, ferré à gauche et en drapeau, est un choix volontaire qui vise à faciliter la lecture avec un espacement constant entre les mots.   Affichage des références et style bibliographique Les références bibliographiques sont systématiquement indiquées dans la marge, en regard de la citation dans le texte, pour permettre une visibilité immédiate des références sans avoir à naviguer dans le document (web ou paginé). Toutes les références apparaissent par ailleurs dans les bibliographies (une seule pour la version paginée). Le style bibliographique utilisé est le style APA (version française développé notamment par les Bibliothèques de l’Université de Montréal) avec quelques ajustements.   Indication des commits et accès aux sources En regard de chaque unité textuelle du corps de la thèse — texte introductif de chaque chapitre, et sections — sont affichées plusieurs informations : l’identifiant du dernier commit sur la version paginée, auquel s’ajoute le lien vers la source du document sur la version web. Ainsi, une mention telle que <bbe05b4> apparaît en regard des titres de chapitre et des titres de section (également pour l’introduction et la conclusion), permettant d’identifier les dernières modifications, voire l’historique complet du fichier source concerné.   Remarques sur les citations dans leur langue originale Suivant les recommandations du Département de littératures et de langues du monde de l’Université de Montréal, les citations longues sont laissées dans leurs langues originales, en l’occurrence l’anglais quand il ne s’agit pas du français. Le contexte de la thèse justifie également ce choix, puisque les recherches se sont déroulées majoritairement au Canada avec des communautés francophones et anglophones. Avant-propos   Un travail de recherche performatif Cette thèse est une démonstration performative, certaines des méthodes et des techniques issues des expérimentations présentées dans les études de cas sont reprises pour les modes d’écriture et d’édition. Les objets web et paginés sont le résultat d’un travail de balisage du texte, de modélisation via des gabarits pour les versions web et paginée, ainsi que de l’élaboration de certains scripts pour l’affichage contextuel de certaines informations (telles que les renvois ou les définitions des concepts par exemple) ou pour l’automatisation de la génération des formats de sortie. Cela explique l’effort mis dans la valorisation de ce travail, via un accès aux sources versionnées, qui comprennent les textes et les gabarits. Cet accès est permis tout au long de la thèse via des indications en regard de chaque chapitre et section — avec des liens hypertextes pour la version web.   Artefacts de la thèse et lectures Cette thèse est disponible dans deux formats via l’adresse https://these.quaternum.net : un format web constitué d’un ensemble de pages HTML, et un format PDF aussi appelé “version paginée”. Cette version paginée, imprimable ou imprimée, ne propose pas toutes les fonctionnalités de la version web, et notamment l’accès aux sources via des URLs. Nous renvoyons à la version web pour disposer d’un environnement de lecture qui a été pensé en même temps que l’écriture de la thèse. Cette version web a été réalisée en même temps que l’écriture de la thèse, elle invite à des renvois entre les chapitres et les sections, ainsi qu’aux différentes définitions des concepts invoqués et développés.   Montréal, Tiohtá:ke, Mooniyaang Cette recherche a été menée à Montréal et plus spécifiquement à l’Université de Montréal, celle-ci reconnaît qu’elle est située en territoire autochtone non cédé par voie de traité. L’Université de Montréal salue ceux et celles qui, depuis des temps immémoriaux, en ont été les gardiens traditionnels, et exprime son respect pour la contribution des peuples autochtones à la culture des sociétés ici et partout autour du monde. ========== Introduction [7672de9] Cette thèse porte sur les processus d’édition : elle défend l’hypothèse qu’ils sont constitutifs de la production du sens et qu’ils reflètent des visions du monde plurielles. Nous considérons le phénomène de fabrique d’édition, dans lequel des dimensions techniques sont imbriquées, telles que la construction de procédés de fabrication et de production de formes, d’objets et d’artefacts que sont les livres, ou tel que le travail sur le texte, comme l’architecture des contenus, la structuration sémantique et la composition typographique. L’acte éditorial comprend autant la formalisation d’un texte que la constitution des outils permettant ce travail. 0.1. Interroger la fabrication technique [1ac73c3] L’invention de l’impression typographique a engendré de nombreuses évolutions dans la fabrication du livre, depuis des procédés manuels jusqu’à l’automatisation en passant par la mécanisation. Les méthodes et les outils pour faire des livres ont encore été bouleversés par l’émergence puis l’ubiquité du numérique, notamment avec la place qu’occupent désormais les logiciels et le travail en réseau. Ce numérique accélère, bouscule et interroge les pratiques d’édition, depuis la réception d’un manuscrit jusqu’à la diffusion d’un livre. Des chaînes d’édition apparaissent, elles sont des ensembles techniques qui rassemblent les outils et les rouages nécessaires à la production de fichiers informatiques, pour l’impression de documents paginés ou pour la mise à disposition de livres numériques dans des formats divers et sur des plateformes multiples. Pour certaines structures d’édition, le recours à des logiciels — majoritairement propriétaires ou opaques — n’est pas une fatalité, elles se positionnent contre cette approche qui masque les mécanismes techniques, et décident d’assembler ou de construire les outils qui leur sont utiles. Observer ces pratiques nous permet d’interroger l’activité même d’édition, pratiques que nous pouvons qualifier de non conventionnelles et qui génèrent de nouveaux modèles épistémologiques. Le pas de côté opéré par ces initiatives pose la question de la fabrication du sens. Nous interrogeons les procédés techniques d’édition dans le domaine des lettres, nous déterminons quelles visions du monde s’incarnent dans leur mise en place. Nous considérons que la pensée est imbriquée dans des processus dispositifs ; il convient ainsi de déterminer quel est le déroulement de réalisations éditoriales comme la fabrication d’un livre. Si la place hégémonique de plusieurs logiciels semble empêcher tout questionnement sur la technique, c’est pourtant en étudiant des pratiques originales et parfois marginales que nous sommes en mesure de dévoiler et de partager l’agencement de nouvelles modélisations créatrices de sens. Ces positionnements politiques et poétiques s’expriment dans de nombreux paramètres du livre — en tant qu’objet ou artefact et par des pratiques éditoriales. Quelles relations entretiennent le texte et la technique dans les opérations d’édition ? Notre hypothèse considère que l’acte éditorial est fait d’un double mouvement : le travail sur le texte et l’élaboration des éléments techniques pour ce travail. Il s’agit d’une imbrication des différentes opérations techniques liées au texte et à sa formalisation, et de la constitution de l’assemblage des outils nécessaires à ces opérations. Dit autrement, la mise en place des éléments techniques nécessaires à une chaîne ou à une fabrique d’édition fait partie intégrante de l’acte éditorial et de la production du sens. L’entremêlement des phases de révision ou de composition du texte, avec la création de programmes qui permettent ces opérations, est un phénomène que nous qualifions de fabrique d’édition. Ces fabriques d’édition sont de nouveaux modèles épistémologiques, en tant qu’elles façonnent des modèles de connaissance technique et textuelle, et constituent aussi des modèles de savoir. 0.2. Situer notre recherche [131f817] Ce travail de recherche sur l’édition s’inscrit dans plusieurs champs, cette pluridisciplinarité forme une convergence. Notre étude d’objets éditoriaux et de structures d’édition ancre notre recherche dans le vaste champ littéraire (Bourdieu, 1998). Nous analysons plus spécifiquement des dispositifs qui articulent texte et technique (Archibald, 2009) et qui sont à l’origine d’objets culturels qui forment la littérature, objets considérés comme des matérialités (Chartier, 2005). Les sciences de l’information et de la communication constituent une diversité de théories qui analysent le rôle joué par les processus d’information et de communication sur l’espace social, économique et politique (Ávila Araújo, 2022). Il s’agit plus spécifiquement d’étudier l’édition en tant que dispositif d’information, et ainsi de convoquer des théories comme l’énonciation éditoriale (Souchier, 1998) ou l’éditorialisation (Vitali-Rosati, 2020), ou encore d’aborder le concept de chaînes d’édition (Crozat, 2012). Les études du livre et de l’édition se consacrent à des phénomènes globaux tels que la constitution du savoir à travers l’histoire de l’édition (Sordet & Darnton, 2021), considérant le livre comme un moteur de l’histoire (Febvre & Martin, 1957). Ces études observent et analysent les évolutions historiques et sociales auxquelles l’édition contribue (Eisenstein, 1979), ainsi que les enjeux économiques autour du livre (Mollier, 2007). Le numérique constitue un terrain de recherche pour ces études de l’édition et pour les sciences de l’information et de la communication, permettant de traiter des questions centrales comme l’auctorialité (Broudoux, 2022), ou comme l’apparition et la transformation de métiers et de pratiques (Zacklad, 2007), plus spécifiquement dans l’édition numérique (Sinatra & Vitali-Rosati, 2014). Les études des médias nous permettent de disposer d’outils théoriques pour interroger le livre et analyser ses évolutions dans une perspective de (re)médiation (Bolter & Grusin, 2000). Les médias sont des structures de communication qui reposent sur des formes technologiques et leurs protocoles (Gitelman, 2006, p. 7). En considérant le livre comme un média, et l’édition comme étant à son origine, nous relevons les tensions inhérentes à l’étude de ces objets. Enfin, nous adoptons l’approche des humanités numériques qui contribue à constituer une méthodologie articulant recherches théoriques, expérimentations pratiques, et regards réflexifs et critiques (Burdick, Drucker& al., 2012). Nous considérons que les humanités numériques se sont en grande partie fondées sur des pratiques d’édition (Mounier, 2012), et que les enjeux de publication restent au cœur de cette approche. La propension à construire les outils nécessaires à une recherche scientifique contemporaine caractérise également l’approche dite des digital humanities (Ramsay, 2016). Nous nous plaçons clairement dans cette tendance, ne pouvant pas envisager une pratique académique sans participer à l’élaboration des processus techniques d’émergence et de production du sens, et à des environnements collectifs de fabrication critique, qui relèvent d’un nouveau type d’herméneutique. 0.3. Imbriquer recherches théoriques et expérimentations [131f817] Notre méthodologie est articulée autour de recherches théoriques dans les domaines mentionnés, d’études de cas d’artefacts ou de dispositifs éditoriaux, et d’expérimentations de chaînes d’édition menées principalement à la Chaire de recherche du Canada sur les écritures numériques (note : En lien avec le Centre de recherche interuniversitaire sur les humanités numériques et le Groupe de recherche sur les éditions critiques en contexte numérique). Cette méthodologie est ainsi construite autour d’un mouvement réflexif qui allie recherche théorique et expérimentations pratiques. Notre hypothèse s’est fondée à la suite de l’étude et de la mise en place de chaînes d’édition et de publication, c’est donc autant dans l’analyse de dispositifs techniques d’édition que dans la conception et la programmation de tels processus techniques que nous avons pu identifier ce phénomène de fabrique d’édition. Notre corpus est d’abord constitué de dispositifs, tels que des chaînes d’édition, mais aussi plus spécifiquement des livres, des logiciels, des programmes informatiques et des plateformes. Les objets de notre corpus s’inscrivent dans le domaine des lettres, c’est-à-dire la littérature au sens large comprenant les essais et les publications savantes en sciences humaines. Nous établissons deux grilles méthodologiques pour établir nos études de cas, la première est appliquée pour sélectionner ces objets, la seconde pour structurer ces études. Les livres et les dispositifs d’édition retenus pour nos études répondent aux quatre critères suivants : modularité, ouverture, originalité et hybridation. Il s’agit d’une part de considérer les processus techniques, leur modularité correspondant à une décomposition de l’outillage. Cette approche est opérée de façon critique pour distinguer la fonction de l’outil, et nous permet d’identifier des composants plutôt que des solutions. L’ouverture signifie une volonté de rendre disponibles des informations sur la fabrication des livres voire sur les processus techniques ; cela se traduit par la mise à disposition publique du code source (sous des licences distinctement open source ou libres) ou la publication d’éléments de documentation permettant d’en comprendre le fonctionnement. Par originalité nous entendons un caractère non conventionnel, les objets se distinguant par leur forme, leur démarche éditoriale et politique. Nous observons des écarts entre plusieurs initiatives d’édition, qui s’expriment à travers des positionnements forts par rapport à la technologie (par exemple construire ses propres outils plutôt que d’acheter des logiciels privateurs) ou des choix radicaux de diffusion (décider de ne pas intégrer un écosystème économique par exemple). Nous considérons que ces écarts sont particulièrement signifiants lorsqu’il s’agit de repérer et de définir des modèles épistémologiques émergents. Enfin le critère d’hybridation concerne la faculté de dispositifs à mêler une tradition imprimée avec des technologies numériques, l’une enrichissant les autres et réciproquement. Notre grille d’interprétation comporte quatre phases complémentaires qui nous permettent d’établir des études de cas : description générale et contextuelle, fonctionnement, spécimen(s), et critiques. La description a une double fonction de présentation globale et de remise en contexte dans un domaine spécifique. Les structures, les programmes et les artefacts ont nécessairement une histoire que nous décrivons en les mettant en regard avec d’autres initiatives lorsque cela est pertinent. Le fonctionnement est décrit de façon analytique, en donnant des informations techniques qui permettent de comprendre la modélisation adoptée ou constituée. Cela est rendu possible aussi en présentant des spécimens dans le cas de chaînes d’édition ou de dispositifs techniques. Enfin, l’étude comprend une dimension critique qui consiste à mettre en tension les analyses de l’objet et les théories et concepts abordés, en replaçant continuellement ce travail dans le cadre de cette thèse. Lorsque cela s’avère approprié, des liens sont établis avec d’autres objets similaires. Ces phases interprétatives et analytiques sont ajustées en fonction des types d’objets (artefact ou processus par exemple) et de leur périmètre (démarche isolée ou programme largement utilisé notamment). Notre démarche relève d’une forme de recherche-action, les projets dans lesquels nous nous impliquons font partie intégrante de notre recherche (Nicolas-Le Strat, 2018). Notre méthode est fondée autour de réalisations de prototypes, de modélisations éditoriales et d’outils dans le domaine de l’édition. Plusieurs chaînes de publication ont ainsi été mises en place en lien direct avec des structures d’édition, comme projets de recherche mêlant théorie et pratique, mais aussi comme contribution à un domaine professionnel. Durant la réalisation de la thèse, plusieurs productions académiques ont permis de soumettre des hypothèses qui participent à cette thèse, jalonnant notre cheminement de recherche et servant à confirmer certaines de nos réflexions. Plusieurs sections de ce texte ont ainsi d’abord fait l’objet de communications, d’articles de revues ou de chapitres d’ouvrages collectifs (parus ou en cours de parution). Cet effort de formalisation des étapes de recherche incluses dans le doctorat a été réalisé au sein de diverses communautés académiques : humanités numériques, sciences de l’information et de la communication, littératures. Ces productions, remaniées en grande partie pour ce texte, sont indiquées dans les sections correspondantes. Aussi, le carnet de recherche (note : https://www.quaternum.net/phd), mis en place dès le début de notre parcours de doctorat, représente un espace d’écriture et de prototypage dans lequel plusieurs intuitions théoriques et des expérimentations pratiques ont été regroupées, comme des publications intermédiaires indispensables à la constitution de notre recherche. Ces deux pratiques d’écriture, qui ont ponctué l’établissement de cet objet académique qu’est la thèse, sont des outils de la pensée. Cette méthodologie nous amène à adopter une structure de plan spécifique afin d’adresser ces différents types de recherche tout en les combinant. L’étude de dispositifs multiples forme une progression dans laquelle des analyses théoriques sont fondées, et l’examen de principes conceptuels constitue un développement critique qui est articulé avec la présentation d’expérimentations techniques. Il est pour nous impossible de séparer strictement ce qui relèverait d’un préalable théorique d’une confirmation pratique postérieure. Nous considérons fermement que les outils conditionnent la pensée. Chaque chapitre est consacré à une thématique (livre, édition, numérique, format, logiciel) et suit la même structure en cinq sections : établissement d’un concept via la présentation et l’analyse de la thématique ; prolongement critique et théorique ; illustration avec une première étude de cas d’un dispositif extérieur ; construction d’une hypothèse conceptuelle en réponse à la thématique ; épuisement de cette proposition avec une deuxième étude de cas d’un dispositif expérimenté auquel nous avons contribué — ou dont nous sommes à l’origine. L’articulation de ces sections au sein de chaque chapitre nous permet de construire une modélisation épistémologique lisible. Cette thèse constitue une production universitaire performative, que ce soit en termes de méthodologie, dans sa dimension de recherche-action, dans la réalisation des artefacts permettant sa lecture ou dans la publication des sources de ce texte (note : https://src.quaternum.net/t). 0.4. Plan de la thèse [209ee7c] Le premier chapitre définit le livre depuis ses procédés de reproduction, actant la dimension technique à la fois comme constitutive de cet objet culturel — et de fait désormais industriel —, et trace énonciatrice. Le livre porte ses conditions d’existence technique, cela se révèle également dans ses formes — multiples et interreliées aux intentions éditoriales — que nous étudions puis illustrons avec l’analyse du livre Busy Doing Nothing de Rekka Bellum et Devine Lu Linvega. Le livre est un artefact qui expose un processus de fabrication, celui-ci permet d’identifier des façons de faire. Ainsi il ne doit plus être considéré comme un résultat, mais comme le reflet des conditions de l’émergence du sens. La description critique d’un livre de la maison d’édition les Ateliers de [sens public] constitue une étude d’un acte éditorial déployé en des formes et versions complémentaires. L’édition est l’objet du deuxième chapitre ; nous étudions ce processus en tant qu’une série d’actions qui forment un dispositif. Nous formulons l’hypothèse que l’édition est une activité hybride et réflexive, un acte plutôt qu’un geste, que nous explicitons et confirmons avec l’étude de la structure d’édition Abrüpt. Cette étude de cas présente l’originalité de la démarche d’Abrüpt, ainsi qu’un (anti)livre (dynamique) et un gabarit. C’est un acte éditorial que cette maison d’édition réalise, constituant une forme d’éditorialisation. Nous explicitons ce concept d’éditorialisation, en tant qu’il se constitue comme une réaction théorique à l’édition dans un environnement désormais numérique. La seconde étude de cas est consacrée à nouveau aux Ateliers de [sens public], mais en étudiant cette fois le Pressoir, la chaîne d’édition conçue et développée pour fabriquer des livres et permettre leur diffusion dans l’espace numérique. Dans le chapitre 3, nous prolongeons les analyses engagées sur l’édition et le numérique, d’une part en définissant le numérique et ses cultures, d’autre part en apportant une critique de l’homothétisation — qui découle d’une duplication du modèle épistémologique de l’imprimé dans le numérique. L’analyse d’Ekdosis, paquet LaTeX permettant un processus d’encodage d’éditions critiques de textes classiques, est une perspective de faire avec le numérique. Nous établissons ensuite une analyse du fondement de l’édition numérique au prisme des humanités numériques, principalement dans la relation qu’entretiennent les sciences humaines avec des pratiques d’édition et de publication. Un tournant est opéré avec les humanités numériques, en tant que démarche critique, réflexive et outillée. L’étude de cas dédiée au projet éditorial Le Novendécaméron s’inscrit dans cette réflexion, en analysant les mécanismes mis en place pour éditer et publier de la littérature, aujourd’hui. Les formats structurent et modélisent le sens, c’est l’objet du chapitre 4 qui analyse cette question dans l’activité d’édition. Nous proposons un panorama des possibilités sémantiques dans des environnements contraints et néanmoins ouverts comme le format texte et les langages de balisage. Le choix et l’usage des formats correspondent à des modélisations spécifiques, comme l’atteste l’étude du langage de balisage léger Markdown et des convertisseurs qui l’accompagnent comme Pandoc. De cette analyse découle le principe d’édition multi-formats à partir d’une source unique, ou single source publishing. Il se révèle autant une pratique spécifique qu’une opportunité pour envisager des modes d’édition sémantique, comme une scénarisation du sens dans les méthodes de fabrication du texte en artefact. Nous confrontons les principes de la publication multimodale basée sur une source unique en analysant le module d’export de formats de l’éditeur de texte Stylo et des pratiques qui lui sont liées. Le cinquième chapitre constitue une critique du logiciel, d’abord d’un point de vue général avec une exploration définitoire et historique, puis en observant en particulier son évolution et son usage dans des activités d’édition. Nous présentons et analysons des initiatives éditoriales qui refusent le logiciel, qui pensent et construisent leurs propres dispositifs, leurs fabriques. La maison d’édition C&F développe des pratiques éditoriales et typographiques autour du mouvement dit du CSS print, son étude permet d’appréhender des choix constitutifs de l’acte éditorial. Ces éléments nous conduisent à développer le concept de fabrique avec les théories de Tim Ingold et de Vilèm Flusser, afin d’identifier et de nommer ce phénomène où les pratiques programmatiques sont imbriquées dans les manipulations du texte. Ce phénomène de fabrique d’édition est confronté à deux expérimentations que nous avons menées dans le cadre de cette thèse : un espace intermédiaire d’écriture et d’édition, et la fabrication de cette thèse. 0.5. Des modes de lecture [131f817] Cette thèse constitue une fabrique d’édition, plusieurs artefacts en permettent la lecture. Deux formats sont proposés — un site web et un document paginé au format PDF —, auxquels s’ajoute un accès aux sources de ces documents (note : https://src.quaternum.net/t). Ces fichiers sont générés via un balisage et une modélisation sémantiques. Les principes de l’édition multi-formats à partir d’une source unique (voir 4.4. Le single source publishing comme acte éditorial sémantique) sont appliqués, ce qui signifie que plusieurs artefacts sont produits depuis un même fichier via des gabarits qui modélisent le sens. La version web, en flux, constitue le format idéal pour lire et naviguer dans la thèse, en raison des liens hypertextes (renvois internes divers et liens externes) et de l’espace commun de lecture entre le texte et les sources. Ces sources sont les fichiers à l’origine des pages, ainsi que dans les gabarits qui en permettent la modélisation et les différents fichiers de configuration. Ces modèles de données ont été conçus et écrits conjointement aux argumentations, ils n’en sont pas dissociables et c’est pourquoi des liens sont régulièrement placés en regard de différents types de contenus — chapitres, citations longues, définitions et liste des définitions, figures (images et codes), table des matières, etc. — pour les rendre accessibles. L’équivalent paginé a été imaginé comme une adaptation de ce fonctionnement, bien que dans cette version les allers-retours entre les renvois — indiqués par des numéros de page — soient de fait fastidieux. Enfin, pour lier plus fortement cette thèse et ses modes de fabrication, il est possible d’accéder à l’historique de versionnement de chaque portion. En l’occurrence l’unité ici est la section, et à la suite de chacune d’entre elles sont placés un lien pour accéder à la source et un identifiant qui correspond à la dernière modification. Cet effort global de partage ou de dévoilement participe à un positionnement fort : la recherche scientifique, et plus globalement la constitution de la connaissance, n’est possible qu’en rendant libre l’accès autant aux productions scientifiques qu’à leur source (ou aux jeux de données le cas échéant). ========== Chapitre 1 Le livre, cet artefact éditorial [4cd7b24] Le livre est un objet culturel et industriel. Son caractère commun dissimule des processus intellectuels, techniques et économiques complexes. Que nous révèlent une définition approfondie du livre et une description des procédés techniques qui sont à son origine ? Le livre est le résultat de modes de production du savoir, son étude nous permet à la fois d’identifier des modélisations épistémologiques et d’établir le lien entre la technique et un dispositif de production et de diffusion de la connaissance. Le livre, en tant qu’aboutissement d’une chaîne, porte ses conditions d’existence, il est un artefact. Nous confrontons plusieurs considérations du livre — fonction, concept et aspects — en explorant certains des événements historiques importants des modes de reproduction de cet objet paginé. Ainsi, nous établissons un lien entre les évolutions du livre et celles de la technique. La circulation du savoir est liée aux formes du livre, l’analyse de certaines d’entre elles nous amène à distinguer fabrication et production, et à refuser une dualité entre contenant et contenu. Les livres qui se démarquent par leur forme expriment des modalités spécifiques de production et de diffusion de la connaissance. C’est pourquoi nous nous intéressons à Busy Doing Nothing de Rekka Bellum et Devine Lu Linvega, un ouvrage dont la forme et ses formats questionnent la façon dont un livre peut être conçu et édité dans une perspective ouverte et expérimentale. À partir de cette étude de cas et de nos recherches théoriques sur une définition conceptuelle du livre, nous sommes en mesure de considérer le livre comme un artefact. Il s’agit alors d’affirmer les liens entre livre et technique, la définition du livre dépendant des conditions de sa fabrication et de sa production. L’étude de cas d’une expérimentation à laquelle nous avons contribué, l’ouvrage Exigeons de meilleures bibliothèques de R. David Lankes publié aux Ateliers de [sens public], illustre et épuise le concept d’artefact éditorial, en tant que mode de production d’un objet culturel qui conserve les marques d’un processus technique de fabrication, et donne également à voir une pratique non conventionnelle d’édition. 1.1. Le livre : fonctions, concept et modes de production [209ee7c] Comment définir le livre ? Le livre a une longue histoire faite de nombreux écrits qui le racontent et le définissent. Le livre est autant objet que sujet, il se décrit lui-même. Ces définitions du livre convergent vers un point qui nous intéresse plus particulièrement : son lien avec la technique et plus précisément avec ses modes de conception, de fabrication et de production. À partir d’approches pluridisciplinaires, que ce soit en histoire, en littérature ou en étude des médias, nous établissons une définition du livre en tant que concept, et objet ou influence des évolutions techniques.   1.1.1. Le livre comme fonctions et comme concept En 1964 l’Unesco donne une définition du livre particulièrement synthétique qui tient en une phrase, rapportée par Émile Delavenay dix ans plus tard :   [Le livre] […] est une publication non périodique imprimée contenant au moins 49 pages, pages de couverture non comprises. (Delavenay, 1974, p. 9)   Publication, non périodique, imprimée et un nombre de pages minimum sont les quatre caractéristiques les plus élémentaires du livre, listées par l’Unesco, qui, en tant qu’organisation mondiale, est à même de proposer une définition qui peut être considérée comme universelle. La distinction est d’emblée faite avec des objets moins épais, comme les brochures dont le nombre de pages peut être inférieur aux 49 pages données ici comme minimum, ou encore avec d’autres objets éditoriaux comme les revues, par définition périodiques. Le livre est donc un objet clos, dans le temps puisqu’il est non périodique et dans l’espace avec un nombre de pages requis, et disposant de dimensions spécifiques et reproduit en de multiples exemplaires. Les perspectives de recensement, de classement et de conservation des livres prennent une place importante ici, le livre doit être un objet identifiable. Mais ce que dit surtout l’ouvrage cité plus haut, en 1974, c’est le rôle du livre : un support de transmission et de conservation dont le contenu peut être divers, et dont les conditions de production et de diffusion sont pour cela déterminantes. Albert Labarre donne quant à lui trois notions essentielles du livre, qui peuvent être entendues comme des fonctions :   Pour définir le livre, il faut faire appel à trois notions dont la conjonction est nécessaire : support de l’écriture, diffusion et conservation d’un texte, maniabilité. (Labarre, 1970, p. 3)   Si l’écriture est entendue ici comme une suite de signes graphiques représentant une langue, l’écriture peut être plus largement considérée comme toute sorte d’inscriptions destinées à délivrer une information — les domaines de l’illustration ou du code peuvent par exemple être compris dans cette considération à partir du moment où il y a une syntaxe (graphique, sémantique ou fonctionnelle). Il s’agit bien de transmettre une information, la diffusion est un point essentiel quant à la nature de cet objet. Une précision est faite pour écarter d’autres supports de l’écriture, il y a livre s’il y a édition (Labarre, 1970, p. 4) — nous abordons plus longuement la définition de l’édition par la suite (voir 2.1. Évolution de l’édition). Pour qu’il y ait diffusion il faut qu’il y ait conservation : le livre est d’abord un système de stockage d’informations. Qu’il s’agisse d’une tablette d’argile, d’une feuille de papier ou d’un disque magnétique, l’information est inscrite, stockée et conservée, pour pouvoir être transmise. Albert Labarre parle aussi d’un objet “maniable”, qui différencie le livre d’autres supports trop volumineux pour être déplacés, stockés ou partagés facilement. Enfin, le contenu du livre s’avère être d’abord du texte, une suite de signes constituant un écrit. Il n’est pas possible, aujourd’hui, de réduire le livre à une aporie, le vingtième siècle a par exemple vu surgir des démarches éditoriales très éloignées du texte, que ce soit des livres illustrés, la bande dessinée, les livres d’artistes ou encore des livres (objets) concepts. Nous ne détaillons pas cette liste, mais il faut noter que le concept de livre est d’autant plus difficile à cerner avec ses contenus et ses formes multiples, il en est de même depuis l’émergence du numérique (voir 3.2. Le livre numérique ou la pensée homothétique). Le livre serait donc l’ensemble des conditions de circulation de la connaissance, voire de toute information qui nécessite d’être conservée, selon des considérations situées entre le quinzième et le vingtième siècle. Nous n’abordons pas ici le livre manuscrit qui a une histoire longue, nous nous concentrons sur les conditions de fabrication de l’objet imprimé puis numérique. Entre les débuts de l’imprimerie à caractères mobiles et l’émergence d’Internet et du Web, le livre est cet objet imprimé qui permet d’inscrire et de transmettre le savoir, de raconter des histoires, de construire le monde des idées, ou d’enseigner. Ainsi, pendant cette période, les conditions de fixation puis de diffusion de toute connaissance semblent pouvoir être réduites à une suite de spécifications techniques : type de papier, nombre de pages, taille du texte, couleurs des illustrations, type d’impression, poids et dimension de l’objet, etc. Plusieurs de ces paramètres changent considérablement la façon dont l’objet livre est diffusé ou perçu, que ce soit les supports eux-mêmes, ou leurs formes comme nous le voyons dans une section suivante (voir 1.2. La forme du livre et sa matérialité). Mais ces spécificités dépendent aussi des techniques de production : un livre ne peut évidemment pas être diffusé de la même façon si sa fabrication a été réalisée selon des techniques comme l’impression à caractères mobiles (ou impression typographique), l’impression offset ou plus récemment l’impression numérique. Ces considérations techniques sont à nouveau posées au contact de l’informatique puis du numérique. Le numérique redéfinit le livre, notamment avec des formes et des formats aussi divers que le PDF, l’EPUB ou la page web, remettant en cause jusqu’à la page — pourtant centrale dans la première définition présentée ci-dessus. C’est ce qu’affirme Roger Chartier dès 1992, alors que l’informatique personnelle émerge et que le Web est encore marginal. Dans L’ordre des livres (Chartier, 1992) il est question de la difficulté de “cerner” le livre. Quelles que soient les époques, Roger Chartier établit que cet objet n’est pas singulier mais pluriel. Au vingt-et-unième siècle une question surgit alors : si le livre n’est plus imprimé mais enregistré sur des espaces de stockage comme des disques durs, est-il encore un livre ? Il faut bien s’accorder sur une nouvelle définition, ne réduisant pas le livre à un seul type d’artefact. Cette production humaine est mouvante, peut-être immuable, mais profondément changeante et reconfigurée à mesure que les dispositifs techniques qui lui donnent vie évoluent eux aussi. La prise en compte du numérique nous oblige à déplacer notre regard. Ainsi les trois fonctions établies par Albert Labarre ne suffisent plus pour circonscrire un objet complexe désormais concerné par les bouleversements induits par le numérique.   […] the book is a fluid artifact whose form and usage have shifted over time under numerous influences: social, financial, and technological. (Borsuk, 2018, p. xiii)   Amaranth Borsuk propose une définition du livre en distinguant quatre aspects, ou quatre approches par lesquelles le livre peut être défini : l’objet, le contenu, l’idée et l’interface. En ne se focalisant pas sur le texte ou sur la question de l’imprimé, elle donne une définition contemporaine du livre et analyse cet objet complexe tout en prenant en compte le numérique. En proposant ces quatre axes, Amaranth Borsuk décrit certaines fonctions similaires de celles d’Albert Labarre tout en effectuant un décentrement nécessaire : le livre est un support de contenu, un objet qui est une interface de lecture mais aussi une représentation sociale partagée. Ainsi le livre est d’abord un objet, c’est un support de stockage de données. Si le contenu d’un livre nécessite une forme, l’écriture elle-même et le livre dépendent des choix technologiques liés au support. Cet objet complexe nécessite des processus de conception et de fabrication adaptés au type de contenu, et donc aussi à l’usage qui est fait du livre. Ce contenu a justement fortement évolué depuis l’invention de l’imprimerie à caractères mobiles : le premier livre publié par Gutenberg est une Bible, suivie par des textes religieux ou théologiques, puis érudits et encyclopédiques, jusqu’à une longue période de textes littéraires de natures diverses. Ensuite le livre est une idée, pour Amaranth Borsuk la représentation sociale du livre est conceptuelle. Cela se vérifie d’autant plus aujourd’hui où un même contenu peut être proposé sous la forme d’un fichier PDF, d’un livre de poche ou d’un grand format imprimé. Si ce qui est inscrit dans le livre est identique quel que soit le format, ce dernier influe sur sa circulation et sur sa perception. Ce média est aussi détourné comme un objet artistique à part entière, devenant une œuvre d’art avec les livres d’artiste débutés au vingtième siècle (Drucker, 2004), notamment grâce à l’amélioration des procédés de fabrication et des expérimentations conjointes entre artistes, éditeurs et éditrices, et imprimeurs. Enfin, le livre est une interface. Pour reprendre les mots d’Amaranth Borsuk, “il est essentiellement une interface par laquelle nous rencontrons des idées” (Borsuk, 2018, p. 197). Nous accédons à de l’information via cette interface, que ce livre soit en papier, affiché sur un écran à encre électronique tenu dans la main ou sur un écran d’ordinateur portable. Définition Livre Le livre est un artefact éditorial clos, il est le résultat d’un travail d’écriture et d’édition, de création ou de réflexion, un objet physique (par exemple imprimé) ou numérique (un fichier ou un flux) maniable voir malléable. Le livre est un concept, il donne lieu à des recherches et des théories spécifiques, il est également un champ d’études lié à l’histoire, la sociologie, les sciences de l’information ou la bibliothéconomie. C’est un objet qui délimite un texte, dont la forme et le format sont pluriels. Il s’agit d’un artefact produit selon des procédés complexes qui évoluent depuis plusieurs siècles. Le livre est une interface, pour reprendre l’expression d’Amaranth Borsuk, c’est un média qui permet d’inscrire et de transmettre des idées. Le livre est un objet technique, son existence même dépend de la façon dont il est conçu, fabriqué, produit et reproduit. Les quatre axes que développe Amaranth Borsuk dans The Book, accompagnés de nombreux exemples, viennent compléter les fonctions abordées par Pascal Labarre, nous permettant de définir le livre selon ses conditions d’émergence et en prenant en compte ses évolutions. Ce sont justement les évolutions de cet objet technique qui doivent désormais être analysées, depuis les origines de l’impression jusqu’à des formes actuelles dans un contexte où le numérique a une place prépondérante.   1.1.2. Évolution des procédés techniques de reproduction Nous explorons ici le lien entre l’histoire du livre et la technique, l’évolution des modes de reproduction imprimée ayant directement influencé les conditions d’existence de la connaissance et de sa diffusion. De l’impression typographique à l’impression à la demande, nous constatons que les procédés de production ont modifié le livre en tant qu’objet mais aussi en tant que concept. Le temps ou le coût nécessaires à l’aboutissement d’un document paginé et relié ont grandement évolué, permettant une diversité d’initiatives éditoriales tant industrielles qu’artisanales. Qu’est-ce que nous entendons par technique, et plus particulièrement appliquée au livre ? La technique correspond aux procédés nécessaires à la réalisation d’une activité spécifique, en l’occurrence ici l’édition ou la publication, activité que nous divisons en trois étapes : conception, fabrication et production. Définir la conception, la fabrication et la production nous permet d’appréhender la technique dans le champ du livre et de l’édition. La conception du livre est l’étape qui consiste à définir les propriétés de l’objet, ainsi que l’agencement du contenu dans cet objet. La fabrication est la réalisation pratique de cette conception, elle passe par l’invocation de procédés techniques spécifiques en vue d’obtenir un objet. Ce qui résulte de la fabrication est un exemplaire prototype, il permet de définir un modèle pour une production en plus grand nombre. Si les questions de diffusion peuvent être prises en compte dès la conception, elles ne sont réalisées que par la production. La production est le fait de générer un certain nombre d’exemplaires du livre, il s’agit en effet de répondre à un objectif précis de diffusion. Pour arriver à cette fin, différentes méthodes peuvent être utilisées, qui varient notamment en fonction de l’ampleur de la diffusion — par exemple si un grand nombre d’exemplaires doit être produit. La fabrication et la production sont des étapes parfois confondues, nous les différencions pour appuyer une distinction importante : mettre en place les outils nécessaires à la création d’un artefact est différent de produire cet artefact en plusieurs exemplaires de façon répétée et organisée. Ces trois étapes, bien que distinctes, sont imbriquées : la conception est pensée comme précédant — dans le temps et de façon logique — la fabrication ou la production ; il ne peut pas y avoir de fabrication ou de production sans conception ; enfin, la fabrication est la condition de la production. La fabrication de l’objet livre peut être une forme de preuve de concept, nécessaire avant un passage à une échelle plus large avec la production, néanmoins la fabrication peut se limiter à elle-même, comme choix de ne créer qu’un seul exemplaire d’un livre. La technique, dans le cas du livre et de l’édition, est l’ensemble de ces procédés ainsi que leur organisation et leur relation, en vue d’obtenir un objet, un artefact transmissible et diffusable. L’impression typographique est une technique de fabrication et de production du livre qui a permis une plus grande et une plus rapide diffusion du livre, il s’agit d’un dispositif technique qui a modifié en profondeur le livre. Au quinzième siècle, Gutenberg — humaniste, inventeur et entrepreneur de son époque — est parvenu à réunir plusieurs facteurs pour donner naissance à l’impression à caractères mobiles en plomb, après d’autres inventions dont il a sans doute eu connaissance ou qui ont été concomitantes.   Though popularly considered the “inventor” of printing, many of the technologies Gutenberg used were already in existence by the time he set up shop. His great achievement lay in bringing these technologies together, perfecting them, and persuading others to fund his vision. (Borsuk, 2018, p. 65)   Si ailleurs des techniques d’impression similaires étaient déjà en place (Sordet & Darnton, 2021, p. 171-182), la force de l’invention de Gutenberg, en Europe, est surtout d’avoir réuni les éléments nécessaires à cet achèvement et d’être parvenue à convaincre son époque. Cette technique d’impression peut-elle être considérée comme le déclencheur d’une révolution ? Les bouleversements sociaux, culturels et économiques suscités par la technique d’impression à caractères mobiles sont si importants qu’ils sont souvent considérés comme tels. Nous réfutons cette position pour constater qu’il s’agit d’une évolution longue, cette analyse est nécessaire pour mieux appréhender les changements liés à la technique, faits de nombreux mécanismes imbriqués et non de ruptures nettes. L’imprimerie typographique met par exemple plusieurs dizaines d’années à remplacer le processus de reproduction des livres qui l’a précédée, le système de copie manuelle de manuscrits est alors assuré par un réseau de copistes. L’impression à caractères mobiles accélère inéluctablement et grandement cette faculté de produire de multiples exemplaires d’un même livre. Si le procédé d’impression à caractères mobiles est mécanique, la composition typographique, nécessaire pour former les pages des livres avec l’invention de Gutenberg, est encore un travail manuel. Cette composition typographique est basée sur la typographie — le fait de ne plus dépendre d’un dessin manuel des lettres pour reproduire des textes —, qui elle-même est déjà une forme de mécanisation. Pour Marshall McLuhan il s’agit en effet de “la première mécanisation d’un travail manuel” (McLuhan & Wolton, 1962, p. 278). Cette décomposition du procédé technique d’impression à caractères mobiles permet de comprendre qu’il ne s’agit pas d’un ensemble uniforme mais d’un assemblage d’inventions ayant chacune des répercussions diverses — les prémisses de la mécanisation avec la typographique, et un travail manuel avec la composition typographique. L’emballement et l’accélération des moyens de production de la connaissance qui suivent l’invention de l’impression typographique ont été étudiés en profondeur, et notamment dans un ouvrage majeur, The Printing Press as an Agent of Change d’Elizabeth Eisenstein. Dans ce travail — une recension importante de l’évolution de la production et de la diffusion du savoir en Europe à partir du quinzième siècle — la chercheuse insiste sur ce qu’elle nomme la “révolution inaperçue” (Eisenstein, 1979, p. 3-42). Si ce terme de “révolution”, déjà initié dans les années 1960 (Escarpit, 1965), est ensuite largement utilisé dans les études du livre et de l’édition à partir des années 1980 (Sordet & Darnton, 2021, p. 706-707), nous considérons toutefois qu’il est plus pertinent de parler d’évolution. Henri-Jean Martin souligne les nombreuses continuités formelles entre des modes de reproduction manuscrits et typographiques, le titre de son livre avec Louis Febvre marque cette position forte, avec le terme d’“apparition” plutôt que celui de “révolution” (Febvre & Martin, 1957). Il est bien question d’un glissement, les ruptures étudiées ne sont pas si nettes lorsqu’il s’agit du livre et de ses modes de production, même si l’expression de “révolution industrielle” est utilisée pour qualifier la situation économique globale qui a suivi. Dans le prolongement de cette volonté d’analyser le changement dans les modes de production des livres avec un plus grand recul, Anthony Grafton répond à l’imposant travail d’Elizabeth Eisenstein pour préciser que cette révolution est plutôt une évolution lente sur différents plans (Grafton, 1980). Il souligne notamment le fait que certains points sont injustement amplifiés et ne donnent pas une bonne représentation de la réalité. Par exemple il insiste sur le fait que les lieux d’édition-impression du seizième siècle n’étaient pas des salons de discussion intellectuels, en raison du bruit qui y régnait et de leur saleté, ou encore que ces dispositifs de production n’ont pas immédiatement changé les modes d’écriture des auteurs et des autrices. La production du savoir a été profondément modifiée par l’invention technique de l’impression typographique, qui introduit une mécanisation avec la typographie et permet d’entrevoir une industrialisation en cours, à laquelle le livre et l’édition ont participé. Bien après l’impression typographique de Gutenberg, des procédés mécaniques puis industriels accélèrent encore la production de livres et élargissent sa diffusion, bouleversant l’organisation des structures d’édition. Des procédés à la fois manuels et mécaniques sont utilisés jusqu’au début du vingtième siècle, tous inspirés de la presse typographique, le processus consistant à encrer une composition typographique puis à la presser contre une feuille de papier. Plusieurs éléments sont mécanisés, d’abord l’étape de l’encrage avec l’utilisation d’une rotative — alimentée par la vapeur —, il ne s’agit plus d’imprimer feuille par feuille mais une bande de papier continu. C’est le domaine de la presse écrite — à comprendre ici comme les journaux imprimés — qui a profondément accéléré l’évolution de ces techniques. Ensuite l’étape de la composition est elle aussi mécanisée, avec la création de la Linotype puis de la Monotype. Ces deux inventions ont en commun de rassembler au sein d’une même machine des étapes longues et laborieuses jusqu’ici effectuées manuellement dans un atelier : le remplissage d’une casse à la main nécessitant plusieurs personnes et plusieurs corps de métiers. L’image d’Épinal des débuts de l’imprimerie est ainsi déconstruite, et l’organisation des espaces de production du livre est modifiée : les phases de composition (conception et fabrication) et de production sont désormais séparées. Ces processus mécaniques évoluent pour réduire le temps d’impression, pour produire plus rapidement un plus grand nombre d’exemplaires. Avec la première révolution industrielle une nouvelle organisation se met en place, organisation centrée sur la capacité à produire plus et plus vite. De cela ne dépendent pas que les progrès techniques d’impression, mais aussi la matière première pour produire des livres ou des documents imprimés. Ainsi pendant le dix-neuvième siècle la tension économique concerne toute la chaîne de production, y compris le papier. Albert Labarre souligne à ce titre les relations entre les techniques d’impression et les techniques de fabrication du papier : “l’abondance du papier était inutile si la presse n’était pas améliorée, et réciproquement” (Labarre, 1970, p. 105). L’industrialisation du livre est une industrialisation globale, permise par des moyens techniques qui évoluent constamment et qui modifie d’abord l’organisation et les métiers nécessaires à la production des livres. Parmi les techniques d’impression, l’offset est déterminante quant aux enjeux économiques de production, de diffusion et de vente du livre. Apparue au vingtième siècle, la technique d’impression offset permet de produire facilement un plus grand nombre d’exemplaires, avec une qualité d’impression élevée. Ce procédé consiste à transférer indirectement de l’encre sur du papier via un système de rouleaux (Martin, 1985, p. 87-96), procédé hérité de la lithographie — une technique artisanale utilisée à partir du dix-huitième siècle. Utilisée dès le début du vingtième siècle, cette technique est améliorée continuellement, notamment pour s’adapter à la photocomposition puis au numérique. L’impression offset est encore utilisée au vingt-et-unième siècle, désormais presque exclusivement avec une préparation via l’informatique, permettant de gagner du temps sur la gravure des plaques des rouleaux. Cette technique d’impression offre une grande qualité et un coût de production assez bas pour tout tirage dépassant un certain nombre d’exemplaires — le temps de réglage des machines est amorti dès 500 exemplaires environ. Par exemple pour un objet éditorial classique, comme un livre imprimé en quadrichomie, et dont le nombre d’exemplaires dépasse le millier, alors l’impression offset est un choix plus judicieux qu’une impression numérique. La majorité des livres sont produits de cette façon entre la deuxième moitié du vingtième siècle et le début du vingt-et-unième siècle. Cette technique d’impression a une influence sur le livre via la contrainte du nombre d’exemplaires, les structures d’édition devant prévoir des tirages relativement importants pour réduire les coûts — ce qui peut sembler contradictoire. La production du livre est alors désormais étalonnée sur ce procédé technique. À la suite de l’impression typographique, des procédés mécaniques d’impression et de composition, puis de l’offset, le numérique est un nouvel élément qui vient encore modifier les processus de production du livre, et plus particulièrement avec l’impression numérique et l’impression à la demande. L’impression numérique est une technique d’impression plus légère que l’offset puisqu’elle nécessite des machines beaucoup plus petites et plus rapides à régler, utilisant le plus souvent le procédé de jet d’encre — comme les imprimantes dites de bureau. Au début des années 2010 il est possible d’obtenir une qualité équivalente à celle de l’impression offset, remettant ainsi en cause le principe du tirage. Cela permet à des livres d’exister en étant produits en quelques dizaines ou centaines d’exemplaires seulement, tout en ayant des caractéristiques communes avec ceux imprimés en offset. Cela va plus loin puisqu’il devient également possible d’imprimer en un seul exemplaire tout en disposant de frais d’impression acceptable. Si le coût d’un exemplaire est plus important qu’avec l’offset, il n’est en revanche plus nécessaire d’investir dans un tirage et de gérer le stockage. L’impression à la demande consiste à imprimer un livre (couverture et intérieur compris) en un seul exemplaire à partir d’un fichier numérique, cet objet paginé étant ensuite acheminé à la librairie ou à la personne qui l’a commandé. Avec l’impression à la demande un livre est produit en quelques minutes, et il peut ensuite être livré en quelques jours. Des plateformes spécialisées dans cette technique de production sont déployées sur des points stratégiques dans le monde afin de pouvoir livrer rapidement les documents imprimés. Les implications d’un tel changement sont importantes, principalement sur la question de l’investissement nécessaire pour publier un livre, mais concernant aussi la rapidité pour obtenir un premier exemplaire, ou encore la limitation ou l’absence de stockage. L’impression à la demande est également une occasion de réimprimer voire de rééditer des livres avec une pression économique moins importante. Il est même possible d’imprimer des exemplaires uniques d’un même livre, et ainsi d’ajouter des informations personnalisées — comme un code unique de téléchargement vers un fichier informatique — dans le livre imprimé. L’impression à la demande ne vient pas se substituer à la technique de l’offset, mais elle convient à des démarches spécifiques. Citons-en deux diamétralement opposées sur le plan économique : l’édition artisanale et la réédition de livres épuisés. Dans un cas l’objectif est de faciliter l’impression du livre et l’existence même d’un texte, sans dépendre du système de tirage, tout en étant capable de diffuser rapidement des exemplaires, comme nous le voyons dans l’étude de cas qui suit (voir 1.3. Éditer autrement : le cas de Busy Doing Nothing). Dans l’autre, le recours à l’impression à la demande vise la réduction du coût d’investissement tout en continuant de diffuser un titre déjà connu et qui a un intérêt financier sur le long terme — exploitant ainsi le phénomène dit de longue traîne (Anderson, Vadé& al., 2007) à moindre coût. L’impression à la demande est donc une opportunité de reconsidérer la manière dont des livres peuvent être produits, et donc leur condition même d’existence. Ce panorama des techniques d’impression nous permet de comprendre combien le livre a évolué avec l’arrivée de nouveaux modes de production. La définition du livre dépend de ces différents changements techniques, changements qui ont permis son apparition et ses transformations. Faire exister un livre au dix-huitième siècle ou aujourd’hui diffère totalement, tant sur les investissements économiques que les technologies nécessaires à la réalisation de tout projet éditorial, avec des potentialités de diffusion très diverses. L’accélération des modes de production de l’objet livre — dont la diffusion dépend — a permis l’existence d’un nombre d’œuvres plus important au fil des siècles. La multiplication des initiatives éditoriales a suscité des inventions techniques donnant lieu à de nouveaux modes d’accès à la production du livre. Deux livres nous permettent de prolonger notre définition du livre et illustrent les enjeux de production et de diffusion.   1.1.3. 101 définitions du livre The Book (Borsuk, 2018) et The Book: 101 Definitions (Borsuk, 2021) sont deux ouvrages dédiés à la définition du livre, publiés en 2018 et en 2020 et respectivement écrits et édités par Amaranth Borsuk, professeure associée à l’Université de Washington. Il s’agit d’un essai critique publié aux presses du MIT et d’un recueil de définitions du livre publié chez Anteism Books. Ces deux ouvrages, pris ensemble, constituent une démarche qui illustre et qui questionne ce qu’est un livre en tant qu’objet et en tant que concept. En effet le choix des procédés techniques pour leur fabrication, leur production et leur diffusion ont une implication sur la réception de ces textes. Étudier les contenus et les modes de production de The Book et de The Book: 101 Definitions est également une occasion de montrer comment deux artefacts éditoriaux peuvent dialoguer, voire se répondre, dans des espaces différents. L’objectif de cette double entreprise critique et artistique réalisée par Amaranth Borsuk est de donner des définitions actuelles du livre avec une approche formelle et contemporaine, et avec un appui historique non négligeable — sans pour autant être le centre de cette démarche. Les deux objets sont probablement le reflet du profil d’Amaranth Borsuk, une universitaire qui est aussi une artiste, dont le travail porte sur l’imprimé autant que le numérique, et dont la recherche se mêle à la création. Amaranth Borsuk propose, avec The Book, un travail de recherche important dans un paysage pourtant saturé d’études sur le livre — comme l’atteste la bibliographie déjà très sélective. Les études du livre sont devenues, depuis la deuxième moitié du vingtième siècle, un champ à part entière avec des contributions importantes, provenant d’abord majoritairement des historiennes et des historiens, puis des médiologues. Par exemple les récents ouvrages D’encre et de papier : une histoire du livre imprimé (Deloignon, Chatelain& al., 2021) et Histoire du livre et de l’édition (Sordet & Darnton, 2021) se situent du côté historique, contrairement à The Book qui lui se place du côté des études des médias. Malgré cette surabondance dans ce champ, le livre d’Amaranth Borsuk trouve toute sa place dans ce paysage en tant qu’essai critique. L’ouvrage est divisé en quatre parties, les quatre approches possibles et complémentaires du livre que nous avons déjà abordées : le livre comme objet, le livre comme contenu, le livre comme idée, et le livre comme interface. The Book: 101 Definitions est quant à lui un recueil de 101 définitions proposées par différentes personnalités : autrices, auteurs, artistes et universitaires. Ce deuxième ouvrage propose un décentrement à travers des définitions très diverses, inédites, et qui ne constituent pas un travail académique. Voici quelques exemples de définitions :   Books are the matter of writing in solid form. [Derek Beaulieu] A book is an object that vibrates upon contact. [Danielle Vogel] Le livre est un support matériel qui, tout au long de son histoire, a offert toujours plus de manipulabilité à son lecteur. Avec le numérique, ce n’est plus seulement le support, mais le contenu lui-même qui est manipulable. Le support numérique s’inscrit ainsi dans une continuité. Néanmoins, on peut parler de passage à la limite dans la mesure où toute la médiation est calculée ; avec le support numérique, tout devient manipulable. [Serge Bouchardon] (Borsuk, 2021, p. 10, 96, 18)   Les deux objets forment une même initiative éditoriale. La rédaction de The Book (l’essai publié aux presses du MIT) s’est faite en même temps que la recension d’un certain nombre de définitions du livre auprès d’auteurs, d’autrices, d’artistes et d’universitaires qu’Amaranth Borsuk a contacté. Le site web (note : https://t-h-e-b-o-o-k.com) “Essential Knowledge: The Book” est un compagnon vivant du livre The Book, clos par définition. Cet objet numérique réunit ainsi des définitions subjectives qui viennent compléter le travail critique et peut-être plus objectif du livre publié aux presses du MIT. Les 101 citations du site web ont donc été reprises dans The Book: 101 Definitions (le deuxième livre), comme une version figée et imprimée. Ces 101 citations ne se retrouvent pas dans The Book, même si ce dernier rassemble également des définitions : des textes dont est dédiée à chaque fois une pleine page, 30 au total. Il s’agit de citations extraites d’ouvrages, académiques pour la plupart, et donnant un autre éclairage au texte ; elles servent aussi de repères dans le livre avec leur fond noir reconnaissable. Ces deux livres se distinguent également par la forme et les moyens de production invoqués pour les produire. The Book est imprimé en noir et blanc au format poche de 127 par 177,8mm, avec une couverture souple répondant aux codes de la collection The MIT Press Essential Knowledge Series. Le livre est également disponible en versions numériques aux formats PDF et EPUB. The Book: 101 Definitions est imprimé en risographie, en monochrome (bleu) pour l’intérieur et en bichromie (bleu et vert) pour la couverture, avec un tirage initial de 350 exemplaires et un format poche légèrement plus long de 127 par 188mm. Le premier est d’allure classique, avec une couverture sombre et une typographie discrète ; il s’agit d’un manuel ou d’un essai qui peut facilement être emporté et consulté. Le second a un aspect plus original, avec les deux rectangles superposés sur la couverture propre à la collection “Documents” de la maison d’édition Anteism ; la typographie est élégante et le papier est de meilleure qualité. L’utilisation de l’encre de couleur bleue pour les pages intérieures intrigue et attire le regard. Le rendu final donne une impression de fabrication et de production artisanales, sentiment décuplé avec le tirage limité à 350 exemplaires. Les codes graphiques et physiques respectifs répondent aux contraintes des collections dans lesquels ces livres sont publiés. Les techniques d’impression diffèrent fortement entre les deux objets, invitant à deux types d’approches et de lectures. Les modes de production donnent à voir deux textes distincts. La forme a une importance prépondérante, elle traduit deux démarches éditoriales différentes. Les presses du MIT disposent d’une reconnaissance et d’une diffusion très larges, donnant une légitimité presque immédiate à l’ouvrage — les nombreuses recensions et critiques du livre en sont d’ailleurs un signe. Le réseau de diffusion/distribution d’Anteism est en revanche très différent. Cette maison d’édition s’inscrit dans le domaine des arts, avec des objets qui se rapprochent du livre d’artiste, souvent en édition limitée. Nous avons d’ailleurs découvert 101 Definitions lors d’un salon du livre à Montréal, c’est l’objet physique qui a d’abord été identifié, et à ce titre la couverture et la facture générale de l’objet ont joué un rôle important. Le site web est d’abord pensé comme un compagnon du livre publié aux presses du MIT en 2018, les citations ne font pas partie du livre imprimé et permettent une autre approche de ce travail critique — en l’occurrence des points de vue plus subjectifs, complémentaires d’une recherche scientifique. Les citations répertoriées sur cet espace numérique ont été plus nombreuses avant le travail de sélection de l’autrice, les identifiants visibles dans le code source du site web allant jusqu’à plus de 450. Ce travail de recension puis de sélection a ensuite pris la forme d’un livre imprimé en 2021, soit trois ans après le livre publié aux presses du MIT. La co-existence des deux livres imprimés propose en soi une vision du livre plurielle, avec un effet additionnel des définitions qui se croisent et se superposent. The Book et The Book: 101 Definitions jouent sur les codes du livre et sur ses possibles réceptions. Comme le souligne Olivier Deloignon, une démarche éditoriale peut osciller entre norme et contre-norme (Deloignon, Chatelain& al., 2021, p. x), nous en avons la preuve ici. L’histoire longue du livre nous permet d’appréhender ses différentes acceptions et conceptualisations, ou tout du moins certaines d’entre elles, tant les approches sont nombreuses et plurielles. Les fonctions définies par Albert Lamarre, complétées et augmentées par les axes décris et conceptualisés par Amaranth Borsuk, permettent de disposer d’une définition contemporaine du livre (voir la définition de Livre, chapitre 1), qui prend en compte ses conditions de conception, de fabrication, de production et de diffusion. Utiliser l’histoire du livre pour aborder une évolution des techniques nous a permis d’analyser les processus de production du livre et l’influence sur les façons de rendre disponible des textes. Enfin l’analyse du double travail éditorial autour des livres d’Amaranth Borsuk confirme l’enjeu des modes de production pour la diffusion d’un livre. Pour prolonger cette question nous détaillons la forme du livre. 1.2. La forme du livre et sa matérialité [07f3e07] Après avoir établi une définition du livre en prenant en considération ses modes de production, nous posons la question de la matérialité du livre. Le fond de notre propos est de réfuter toute dualité, soit l’opposition entre contenant et contenu, et de constater à quel point les modes de fabrication et de production sont liés au contenu même des livres. Dit autrement, les textes et leur mise en livre sont imbriqués. Il est nécessaire de distinguer objet et forme, pour différencier ce qui relève de la production et de la fabrication. La définition de la forme, nécessaire pour obtenir ensuite un objet, est réalisée au moment de la fabrication, soit le moment charnière entre la conception et la production, moment où les choix techniques sont effectués en lien direct avec le contenu des textes à mettre en livre. Nous considérons que l’objet livre est le résultat d’une production, donc d’une action répétée en vue de diffuser un support de connaissance. Dans le cas du livre, l’objet produit a donc une forme issue d’une fabrication. Pour comprendre l’impossibilité de séparer totalement contenant et contenu, nous explorons tout d’abord les formes du livre. Les considérations matérielles ont en effet directement contribué à constituer le livre, en tant que forme, objet puis concept. Des formes nouvelles ou émergentes ont permis des évolutions majeures dans le champ de la littérature au sens large. Pour expliciter notre argumentation nous développons justement cette idée avec le cas de la littérature, et ainsi expliciter combien la forme du livre, l’incarnation, l’objet, est liée autant au texte qu’à sa diffusion, à sa commercialisation ou à sa lecture. Nous avons déjà abordé les questions des contraintes pour la production des objets imprimés avec les procédés d’impression, nous étudions maintenant les contraintes qui interviennent lors de la fabricaton des formes. Enfin, deux formes littéraires retiennent notre attention en tant qu’exemples originaux et radicaux.   1.2.1. Le livre et ses formes Une forme est la qualité d’un objet, autrement dit sa structure, son agencement. Il s’agit principalement des caractéristiques physiques, perceptibles, qui permettent de distinguer cet objet, de le reconnaître, de l’identifier. L’objet livre se traduit ainsi par une forme, et même des formes, multiples. Que ce soient des types de papier et des dimensions pour le livre imprimé, ou des formats de fichiers et des modes de lecture pour le livre numérique. Ces choix résultent d’une politique éditoriale, mais ils reflètent aussi le contenu même du livre. Le livre, en tant que support et objet produit, se confond avec son contenu.   […] the terme book commonly refers interchangeably to both medium and content, regardless of our acculturation to the codex. (Borsuk, 2018, p. xi)   Nous observons combien l’évolution des formes du livre imprimé nous conduit à affirmer que le livre constitue un tout, comprenant le contenu autant que la forme, qu’il n’est pas possible de les distinguer. La tablette, le volumen puis le codex sont des supports dont l’histoire est autant technique que politique (Sordet & Darnton, 2021, p. 35-50), et qui ont une grande influence sur la manière de faire circuler le savoir. Les premiers supports de l’écrit, en Europe, ont été des tablettes d’argile puis des rouleaux aussi appelés volumen. Le système de pages reliées n’a pas été la première forme du livre, d’autres supports ont été longtemps utilisés pour enregistrer et transmettre du texte. La disposition en rouleau (à déroulement latéral) du volumen est directement lié au matériau utilisé pour écrire, en l’occurrence des feuilles de papyrus. L’usage massif du papyrus pour écrire s’explique par l’abondance de cette matière première, dont les propriétés physiques ne lui permettent toutefois pas d’être pliée. En roulant le papyrus il est possible de stocker facilement des grandes quantités d’informations, le volumen est ainsi la principale forme du livre jusqu’au cinquième siècle. Ces premières formes du livre imposent donc une façon d’écrire, de stocker des documents et de les lire. Le codex est un événement majeur dans l’histoire du livre, bien avant l’apparition de l’impression à caractères mobiles. Le codex est un support paginé fait de pages qui se superposent et s’enchaînent, il apparaît au deuxième siècle avant notre ère pour répondre à la nécessité de disposer d’un dispositif de stockage et de lecture plus maniable. Si une forme de codex, faite de tablettes en argile reliées, précède le volumen et continue d’être utilisée pour des usages administratifs (Sordet & Darnton, 2021, p. 43-44), il s’impose grâce à l’apparition de matériaux désormais pliables comme le parchemin — contrairement au papyrus qui se brise. Avec le livre paginé, le texte ne se déroule plus il se consulte de pages en pages. Avec cette “liasse de pages cousues ensemble” (Manguel & Le Bœuf, 1998, p. 156) le livre peut être manipulé plus facilement contrairement au volumen, tenir à plat sans devoir utiliser ses deux mains, et au bon endroit en ouvrant le livre à la page souhaitée.   Les livres s’affirment grâce à leurs titres, leurs auteurs, leurs places dans un catalogue ou une bibliothèque, leurs illustrations de couvertures. Par leur taille aussi. […] Je juge un livre à sa couverture ; je juge un livre à sa forme. (Manguel & Le Bœuf, 1998, p. 155)   Dans “La forme du livre” Alberto Manguel décrit l’évolution des formes du livre depuis l’invention de l’imprimerie à caractères mobiles en Europe, jusqu’à la fin du vingtième siècle, pointant la relation forte entre les pratiques d’édition et de lecture et les techniques de fabrication et de production. Ce chapitre adopte une approche historique, retraçant l’apparition successive de différentes formes du livre à travers l’histoire de la civilisation. Depuis les tablettes mésopotamiennes du douzième siècle avant notre ère jusqu’aux livres imprimés du vingtième siècle, Alberto Manguel établit un riche panorama des formes du livre. L’auteur souligne à plusieurs reprises la cohabitation simultanée de plusieurs formes. En effet le codex n’a pas immédiatement supplanté le volumen, ce dernier ayant tout de même fini par disparaître presque totalement (note : Le volumen est encore utilisé dans certaines cultures, nous pouvons par exemple citer le cas de la Torah.). Nous pouvons encore constater aujourd’hui la co-existence voire la complémentarité de certains supports ou formes spécifiques, par exemple avec le cas emblématique du livre imprimé et du livre numérique : l’un accompagne ou légitime l’autre, leur relation d’interdépendance est liée aux usages autant qu’aux formes. Les évolutions des formes, évolutions qui sont parfois des transitions, se font sur un temps long de plusieurs dizaines d’années voir de siècles, et cette temporalité est importante à prendre en compte dans un contexte d’accélération depuis la moitié du dix-neuvième siècle. Dans les nombreux exemples donnés par Alberto Manguel, nous retrouvons un motif récurrent qui consiste en plusieurs phases successives : 1. dans un premier temps des besoins — transport, dispositions de lecture, stratégies économiques — déclenchent des nouvelles expérimentations de forme, ces preuves de concept sont possibles grâce à de nouvelles techniques de fabrication du livre ; 2. l’amélioration de ces techniques permet de multiplier leur occurrence, ce qui engendre de nouveaux usages, usages qui s’imposeront ou non ; 3. dès l’apparition de la figure de l’éditeur, les expérimentations formelles sont aussi des recherches de maximisation des profits via la vente d’objets livre. Alberto Manguel donne deux exemples qui illustrent ce phénomène : les éditions d’Alde Manuce et le livre de poche. Avec Alde Manuce, le texte prend le pas sur l’objet. La priorité est la mise en avant du texte et sa lisibilité, et non plus l’aspect raffiné ou luxueux de l’objet comme c’est majoritairement le cas à la fin du quinzième et au début du seizième siècles. Plutôt qu’une “décoration précieuse” il privilégie “clarté et érudition” (Manguel & Le Bœuf, 1998, p. 169). Le besoin de faire circuler des textes et de les utiliser comme support d’un enseignement pousse Alde Manuce à créer des petits formats qui tiennent dans la poche. Le deuxième exemple prolonge le premier, puisqu’il s’agit des premiers livres de poche des éditions Penguin au milieu des années 1930. L’éditeur Allen Lane entreprend de rendre le livre plus petit, plus maniable, meilleur marché pour l’éditeur et le lecteur, et plus commun.   Pourquoi ne pourrait-on pas traiter les livres comme des objets quotidiens, aussi nécessaires et aussi disponibles que des chaussettes ou du thé ? (Manguel & Le Bœuf, 1998, p. 177)   Allen Lane parvient à convaincre la maison d’édition de créer une collection pour accueillir différents textes de littérature, ouvrant un marché nouveau : des titres classiques ou contemporains proposés à des publics jusqu’ici relativement éloignés du livre. Des recherches typographiques, alors menées par le typographe Jan Tschichold, permettent de faire exister une évolution moderne des livres d’Alde Manuce — cette fois en littérature générale — Jan Tschichold rapporte d’ailleurs certaines de ses recherches dans Livre et typographie (Tschichold & Paris, 1994). Les livres de Penguin deviennent un cas emblématique d’évolution de la forme du livre au service d’une démarche éditoriale et de la recherche d’un profit plus important. Dans les deux cas la valeur symbolique du livre évolue, le texte prévaut en grande partie sur l’objet final, via un travail sur la forme. Cet enjeu de la relation entre l’objet (produit) et les formes (fabriquées) est également abordé par Amaranth Borsuk dans The Book (Borsuk, 2018, p. 1-60), avec des constats similaires : l’évolution des formes de l’objet livre se fait au rythme des besoins, des nouveaux usages, des inventions techniques et de leur adoption. Si des formes émergentes en supplantent d’autres, un phénomène de cohabitation est également observé. L’un des enjeux fondamentaux consiste à relever des défis techniques pour fabriquer de nouvelles formes et produire des objets en grand nombre. La conclusion qu’Amaranth Borsuk partage avec Alberto Manguel est bien résumée par Jan Tschichold :   Détruire un usage ancien n’a toutefois de sens, et l’innovation n’aura de durée, que si cela correspond à une nécessité et se révèle meilleur que l’ancienne façon de faire. (Tschichold & Paris, 1994, p. 111)   Les formes les plus expérimentales ou les plus inhabituelles sont vouées à rester marginales voire à disparaître, mais elles peuvent participer à une évolution plus large du livre comme c’est le cas du livre de poche. Certaines formes non conventionnelles, par exemple un très grand format ou des choix graphiques à la limite de la lisibilité, sont parfois réinterprétées pour être réintégrées dans des objets produits en très grande quantité — notamment par des grandes maisons d’édition. Ces dernières n’auraient pas pris le risque de générer de telles originalités, mais en constatant que des livres de structures éditoriales plus expérimentales sont reconnus et validés par des communautés, elles répliquent ces nouveaux modèles à plus grande échelle. Cet élément est fondamental pour comprendre les évolutions de formes à l’œuvre pour le livre, ou de façon plus générale pour la littérature.   1.2.2. La littérature et ses formes (matérielles) Afin de démontrer que la forme du livre est interreliée au texte et que le livre constitue ainsi un tout, nous analysons un cas où une dualité est encore parfois entretenue, la littérature. Notre argumentation se base sur l’analyse de deux ouvrages à l’originalité formelle : L’Utopie de Thomas More et de House of Leaves de Mark Z. Danielewski. Le livre et plus globalement la littérature a pu être idéalisée — ou l’est encore — comme quelque chose d’abstrait, exemptes des conditions techniques, économiques ou sociales permettant pourtant son existence. Pierre Bourdieu critique cette vision de la littérature dans l’avant-propos de son ouvrage Les règles de l’art (Bourdieu, 1998, p. 9-16), lorsqu’il fustige celles et ceux qui considèrent que la littérature est un art trop “ineffable” pour être étudiée.   En réalité, comprendre la genèse sociale du champ littéraire, de la croyance qui le soutient, du jeu de langage qui s’y joue, des intérêts et des enjeux matériels ou symboliques qui s’y engendrent, ce n’est pas sacrifier au plaisir de réduire ou de détruire […]. C’est tout simplement regarder les choses en face et les voir comme elles sont. (Bourdieu, 1998, p. 16)   Robin de Mourat souligne aussi la difficulté plus globale d’appréhender une matérialité du livre, et détaille la dualité kantienne liée au domaine juridique avec la figure de l’auteur, ou les recherches historiques de Roger Chartier sur cette question (Mourat, 2020, p. 129-131). Nous considérons une matérialité de la littérature à travers son premier support, le livre. Dit autrement, le livre est l’une des composantes des conjonctures médiatrices de la littérature, pour reprendre une expression de Jean-Marc Larrue et Marcello Vitali-Rosati (Larrue & Vitali-Rosati, 2019). La littérature, à travers le livre, est un écosystème et une infrastructure. Ainsi avec le livre vient toute une chaîne qui permet l’existence et l’accès à la littérature : les conditions d’apparition du texte ; la conception et la fabrication des formes du livre ; les possibilités de production et de diffusion de l’objet imprimé ; la circulation du livre dans des espaces économiques marchands et non marchands ; etc. La littérature dépend du support et de sa forme. Jean-François Vallée analyse les différences entre plusieurs éditions de L’Utopie de Thomas More dans un article intitulé “Le livre utopique” (Vallée, 2013), et démontre ainsi la relation entre le texte et sa forme. Jean-François Vallée questionne les disparitions de certaines parties du livre dans des éditions plus modernes de cet ouvrage. Ces disparitions sont le résultat d’initiatives éditoriales qui n’ont pas considéré certains éléments comme faisant partie intégrante du livre de Thomas More, comme les cartes, les marginalia ou les textes provenant d’autres mains.   […] les éditions originales de L’Utopie semblent conçues pour créer sur et autour de leurs pages imprimées une chorégraphie textuelle et iconographique dont la rhétorique paradoxale, la structure éditoriale et typographique sophistiquée, ainsi que les nombreux niveaux de dialogues, ont pour but avoué de littéralement transformer l’“ami lecteur” qui a osé poser le pied – ou l’œil – sur ce territoire livresque proprement utopique. (Vallée, 2013, p. 21)   La forme des éditions originales comporte énormément de notes en marge, mais aussi des documents complémentaires dont Thomas More c’est pas l’auteur. Ces éléments constituent un dialogue interne au livre et donnent à lire et à découvrir des subtilités difficiles à comprendre sans elles. En Europe la structure du livre s’est plus fortement normalisée durant les siècles qui ont suivi l’apparition de l’impression à caractères mobiles. Il s’agit alors de relever un défi technique : réussir à composer des pages avec de multiples niveaux d’information. Un livre comme L’Utopie, utopiste aussi dans sa forme, constitue une difficulté pour des démarches d’édition qui se standardisent, la forme de ce livre ne ressemble pas aux autres. Le deuxième exemple est un livre plus contemporain. House of leaves est un roman singulier de Mark Z. Danielewski publié en 2000 chez Pantheon Books et dont la forme originale en fait un objet littéraire singulier. Ce roman est une succession de strates narratives avec une maison comme centre, maison dont l’intérieur est en expansion. L’objet imprimé présente plusieurs particularités comme des mises en page originales (la composition du texte change en fonction du récit), la présence importante de notes, des paratextes internes ou encore l’utilisation de codes couleur. L’“entrelacs de voix narratives” (Archibald, 2009, p. 215-217) est autant visible dans le récit que dans la mise en page. Pour que l’histoire puisse être appréhendée totalement il est nécessaire que la forme soit originale et complexe.   La disposition du texte sur la page fait l’objet d’un travail minutieux : le livre n’est plus un support neutre que le lecteur peut oublier mais se rappelle à lui à tout moment, en bousculant ses habitudes de réception, voire en empêchant la lecture. (Debeaux, 2021)   Le livre déborde aussi sur d’autres supports comme des espaces en ligne (forum ou blogs), à moins que ce ne soient ces espaces qui influencent le livre (imprimé) lui-même. Quoi qu’il en soit ce livre ne respecte pas les normes de l’édition en termes de structure et de mise en page. Ces deux ouvrages donnent à voir des formes singulières et un bouleversement des exigences habituelles pour faire livre et pour faire littérature. Les auteurs de ces deux textes, et de ces deux livres, Thomas More et Mark Z. Danielewski, ont dû penser, avec la structure d’édition, une forme pour que leur œuvre littéraire existe et puisse être reçue. Sans ce contournement des exigences, sans le fait de repenser des contraintes que nous analysons par la suite, ces deux textes n’auraient pas été compris dans leur entièreté. Ces deux analyses ne prennent pas en compte le cheminement éditorial amenant à ces artefacts, c’est ce que nous faisons dans le chapitre suivant dédié à l’édition (voir 2. L’édition : un acte technique).   1.2.3. Des contraintes et des formes Les formes originales du livre — et de la littérature — présentées ci-dessus sont le résultat d’un travail autour du texte et de ses particularités, mais aussi la compréhension et l’intégration d’un certain nombre de contraintes techniques inhérentes au livre et à ses métiers. Le livre est un objet dont la forme est fabriquée en jouant avec ces contraintes. Parmi elles nous pouvons considérer la façon dont le texte est découpé et agencé, les dimensions de l’objet imprimé, le choix du papier ou encore les outils à disposition pour composer le texte et les pages. Ce ne sont que quelques exemples des nombreux paramètres et des exigences dans le processus de fabrication puis de production du livre. Ces contraintes conditionnent la forme du livre, mais s’en défaire peut aussi être une opportunité d’engager de nouvelles formes. Explicitons quelques-unes de ces exigences pour comprendre de quoi dépendent ces formes du livre, et donc ce qui façonne la littérature. Il ne s’agit pas d’un exercice exhaustif, il n’y a pas non plus d’ordre particulier ici, que ce soit en termes d’importance ou de linéarité dans le processus d’édition ou de fabrication. Par exemple la dimension d’un livre imprimé est à la fois une disposition de lecture et un cadre pour le texte, c’est autant l’interface qui permet de lire que le rythme du texte qui sont ici concernés. Autre exemple : le type de papier utilisé pour un livre imprimé va jouer sur l’épaisseur du livre, mais aussi sur l’interface de lecture que constituent les pages reliées. Enfin, les logiciels doivent être connus et maîtrisés, aujourd’hui il semble a priori complexe de ne pas savoir utiliser un logiciel de publication assistée par ordinateur comme InDesign. Explorons plus en détail quelques-unes de ces exigences. Le livre peut faire l’objet de multiples agencements, le texte et les autres contenus étant structurés d’une manière précise pour répondre à des codes ou les détourner. Il peut s’agir d’un découpage en parties ou en chapitres, des notes peuvent être présentes en bas des pages ou dans les marges, une répartition particulière peut être adoptée entre du texte et des images, dans tous ces cas l’enjeu est de permettre une compréhension globale ou précise en fonction du contenu initial. Par exemple un essai sans ponctuation n’est pas accepté comme un texte lisible, en revanche la poésie détourne ces normes en faisant un usage intentionnel de règles ou en les brisant. Un nombre trop important de notes de bas de page dans un roman peut venir en perturber la lecture, voire modifier profondément la compréhension de ce type de littérature — est-ce alors autre chose qu’un roman ? Certaines normes sont plus implicites, comme le fait de ne pas disposer trop de paratexte sur chaque page au risque de réduire la zone du texte principal. Dans ce cas le Dictionnaire historique et critique de Pierre Bayle fait par exemple figure de livre non conventionnel avec ses très nombreuses gloses autour d’un texte finalement assez réduit, mais ce sont ces éléments qui font l’intérêt de cet ouvrage qui rompt les codes majoritaires. La constitution de formes du livre, qu’elles soient originales ou non, est une négociation continue de ces règles. Le papier a été et est encore un enjeu central du livre imprimé, une contrainte complexe tant en termes de qualité, d’impression, ou de durabilité. Que ce soit pour la fabrication puis la production (pas de codex sans un papier qui peut se plier), pour le transport (un papier épais implique des livres qui prennent plus de place), pour le prix (un papier de bonne qualité est souvent plus coûteux et fait un livre plus cher) ou pour la conservation (quel est le pH de ce papier ? est-il compatible avec la colle utilisée pour la reliure ?), le papier contraint toutes les étapes de réalisation d’un livre, ainsi que sa réception et sa durée de vie. Par exemple le livre de poche des années 1950 en Europe, avec son papier bon marché et son dos collé, n’est pas un objet qui peut être conservé — il n’a d’ailleurs pas été conçu pour cela. Avec le papier vient également la question du format de l’objet, depuis les éditions d’Alde Manuce il est entendu que le livre doit être un objet commensurable, à moins de cas très particuliers — comme des ouvrages originaux en littérature jeunesse ou des livres d’artistes. Des monstres livresques de plusieurs milliers de pages sont-ils encore des livres ? Impossible pour une librairie de trouver une place pour plusieurs de ces objets aux côtés de livres de quelques centimètres d’épaisseur, en revanche s’il n’y en a qu’un sur les tables d’une librairie il se fait remarquer. Parmi les contraintes qui conditionnent la forme du livre, il y a également les outils nécessaires à la conception et à la fabrication. Si nous avons déjà abordé la question des procédés techniques pour la production (voir 1.1. Le livre : fonctions, concept et modes de production), aujourd’hui les logiciels utilisés pour composer le texte, gérer les relations entre les différents éléments structurels d’un livre, ou encore calibrer les images et leurs couleurs, participent également de la constitution de formes spécifiques. La littérature, au sens large, dépend donc aussi des outils informatiques indispensables à sa formalisation. InDesign, après QuarkXPress des années 1980 jusqu’au début des années 2000, est la principale solution logicielle pour composer et mettre en forme des textes destinés à être imprimés — voir même aussi pour le livre numérique. Sans une maîtrise de ces outils et les coûts associés aux licences d’utilisation, difficile de produire des livres. Nous détaillons plus loin les implications de l’usage du logiciel (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts), nous retenons que son choix est économique (coût et dépendance), politique (capacités d’émancipation) et social (inscription dans une communauté). Ce que nous qualifions de contraintes participe à cette matérialité du livre, il n’est pas possible de s’abstraire totalement des limites techniques, des règles à l’œuvre ou des cadres imposés par des outils. Ces exigences constituent nécessairement le livre, qu’elles soient appliquées ou détournées. Pour prolonger et confirmer notre entreprise de définition du livre, en tant que forme, objet et concept, nous détaillons désormais un projet éditorial dans sa globalité. 1.3. Éditer autrement : le cas de Busy Doing Nothing [63dfd2e] Quelles peuvent être les caractéristiques d’un livre d’aujourd’hui ? Le duo Hundred Rabbits répond à cette question avec une aventure éditoriale qui illustre la définition d’un livre, en adoptant une démarche originale et en utilisant des procédés techniques actuels. Si le résultat est un livre imprimé qui semble classique en tant qu’objet, il interroge les processus de fabrication et de production, il remet en cause des principes de légitimité éditoriale, et il dévoile également les liens qui existent entre plusieurs artefacts d’un même projet éditorial. En dédiant une étude de cas à l’ouvrage Busy Doing Nothing, nous prolongeons la définition du livre en tant que concept, et nous observons combien son évolution est liée à celles des avancées techniques et technologiques.   In 2020, we completed our circumnavigation of The Pacific Ocean. The last passage from Japan (Shimoda) to Canada (Victoria) took 51 days, and it was the hardest thing we’ve ever done. (Bellum & Linvega, 2021)     1.3.1. Un journal de bord édité Busy Doing Nothing (Bellum & Linvega, 2021) est un livre écrit et édité par Rekka Bellum et Devine Lu Linvega en 2020 pour les versions numériques et 2021 pour la version imprimée : il s’agit du journal de bord de leur traversée en bateau de l’océan Pacifique entre le Japon et le Canada entre juin et juillet 2020 pendant 51 jours. D’abord écrit dans un carnet manuscrit, ce journal de bord a été transcrit sur le site web de Hundred Rabbits — le nom du duo que forme les deux auteurs — en 2020 (Rabbits, 2020) puis édité sous forme de livre numérique aux formats EPUB et PDF en février 2021. Ces deux dernières versions comportent des ajouts significatifs : des corrections et des ajustements importants dans le texte, des illustrations supplémentaires, et une section avec des contenus additionnels — concernant la nourriture stockée sur le bateau et plusieurs recettes. En décembre 2021 une édition imprimée est proposée, comportant les mêmes contenus que les versions PDF et EPUB. Ce livre existe ainsi sous deux versions différentes et quatre formats. Une version originale, ou non éditée : une page web (Rabbits, 2020) comportant la transcription du journal de bord avec quelques photos du voyage et du carnet manuscrit (pour les illustrations). Une version augmentée en un texte original corrigé et augmenté, avec des contenus supplémentaires : au format EPUB : un livre numérique pour des liseuses à encre électronique ; au format PDF : un livre numérique paginé pour tout type de dispositif informatique ; enfin au format imprimé : un livre imprimé vendu via la plateforme d’impression à la demande Lulu.com. La version imprimée est un livre au format A5 et au dos collé d’environ 250 pages. Trois sections constituent le texte : une introduction, le journal de bord avec une conclusion, des contenus additionnels avec la liste des mets conservés sur le bateau et des recettes. La version EPUB conserve la même structure. Ce projet éditorial a une autre spécificité : les sources de la version augmentée sont disponibles en tant que code sur un dépôt Git sur la plateforme SourceHut (Rabbits, 2023), accessible librement. L’objectif de cette mise à disposition des sources est de montrer comment le livre est fabriqué, de permettre à qui le souhaite de reconstruire le livre, mais aussi de recueillir des contributions si des erreurs sont détectées par les lecteurs et les lectrices.   1.3.2. Une démarche originale Il faut expliquer ici la démarche globale de Rekka Bellum et Devine Lu Linvega, qui constituent le collectif Hundred Rabbits, ainsi que le processus d’édition. Rekka Bellum (note : https://kokorobot.ca/site/rek.html) se définit comme écrivain et dessinateur, et Devine Lu Linvega (note : https://wiki.xxiivv.com/site/devine_lu_linvega.html) comme développeur, artiste et musicien. Le duo vit sur un bateau de 10 mètres de long, et a adopté un mode de vie et de création adapté à cette contrainte : peu d’énergie disponible ; nécessité de pouvoir travailler pendant plusieurs jours ou semaines sans connexion internet ; sélectionner ou créer des outils résistants ; être autonomes vis-à-vis des plateformes centralisées pour développer, diffuser et sauvegarder leurs créations. Ce mode de vie est radical, dans le sens où il est complet et total. Les créations — programmes et contenus — créés par Hundred Rabbits sont le reflet de ces choix, elles donnent à voir un positionnement écologique, politique ou éthique. Le livre Busy Doing Nothing participe aussi de cette démarche de constituer un environnement dédié à la création tout en respectant ce mode de vie.   We founded Hundred Rabbits with the goal of building a platform that could enable us to dedicate our time to the creation of free & open-source software such as Grimgrains (http://grimgrains.com) and orca (https://100r.co/site/orca.html), as well as contribute to the open-source projects of others. (Rabbits, 2021)   Le duo adopte un positionnement politique global en faveur de la maîtrise de leur environnement de création et de l’ouverture, en s’engageant dans des communautés autour du logiciel libre ou open source — à la fois à travers le développement de leurs projets personnels et aussi en contribuant à d’autres initiatives. Cela pose la question de la soutenabilité économique d’une telle démarche, les modalités de ce que nous pourrions qualifier de modèle économique sont décrites par la suite. Le livre a été conçu en deux phases distinctes : la transcription du journal manuscrit sur le site web, puis l’édition de ce texte et la production des artefacts correspondants. La page web présentant la transcription a été écrite directement au format HTML, ce document est versionné dans un dépôt Git sur la plateforme GitHub (note : https://github.com/hundredrabbits/100r.co/blob/main/site/north_pacific_logbook.html), ce qui permet de naviguer dans l’historique des modifications voire de proposer des corrections. L’aspect formel de cette version HTML est simple, les entrées du journal sont représentées sous forme de cellules d’un grand tableau. Après cette page web, les deux formats numériques EPUB et PDF ont été produits simultanément, avec une approche sensiblement différente. Une même source, un fichier au format Markdown, est à l’origine des deux fichiers. L’édition a donc été réalisée dans cet espace de balises légères, et versionné avec Git : le dépôt GitHub nous apprend qu’il y a eu 77 commits entre décembre 2020 et novembre 2021 (Rabbits, 2023). La conversion de la source vers les formats EPUB et PDF est réalisée avec Pandoc, un convertisseur de langages de balisage que nous décrivons plus longuement par la suite (voir 4.4. Le single source publishing comme acte éditorial sémantique), ainsi que (Xe)LaTeX (voir 3.3. Éditer avec le numérique : le cas d’Ekdosis) pour la production du PDF, et Calibre pour la conversion du fichier EPUB au format MOBI — un format proche de l’EPUB mais pour les liseuses Kindle d’Amazon. La version PDF téléchargeable en ligne — commercialisée, voir plus loin — est la même que la version imprimée disponible sur la plateforme Lulu.com. Le format PDF pour la version imprimée suit le même processus de production. Les versions numériques sont produites selon les principes du single source publishing, soit le fait de produire plusieurs artefacts à partir d’une source unique (voir 4.4. Le single source publishing comme acte éditorial sémantique). Une correction dans le fichier source est donc reportée dans tous les fichiers de sortie. Les outils de fabrication choisis pour ce travail éditorial sont à l’image de la démarche globale du collectif Hundred Rabbits, simples, maîtrisés, dépouillés, résilients. L’affirmation “Go slow and fix things” se retrouve sur plusieurs des sites et plateformes des deux artistes. Le collectif Hundred Rabbits n’utilise pas les logiciels habituels, tels que des logiciels de publication assistée par ordinateur comme InDesign, préférant maîtriser les différents programmes nécessaires à la fabrication et — en partie — à la production des différents artefacts. Lors d’une conférence en novembre 2022 Devine explique ce positionnement par rapport aux outils en général et à l’informatique en particulier :   As a disclaimer, all that I am writing now is very naive. I draw, and I make music, when I started doing research I didn’t have the vocabulary to find what I was looking for. I didn’t know what virtual machines were, I didn’t know what compilers were either. I had a vague idea of what programming was. I had written Swift and Objective C, but had no conception of how it actually tied to processors. It seemed like I was learning a service, the same way I was learning “To Photoshop”. It wasn’t like learning a skill, you don’t learn to draw when you use Photoshop, you learn how to operate within the confines of someone else’s playground, and when that rug is pulled from underneath you, there’s nothing you can say or do, and you never really understood how it worked in the first place so you can’t really replicate it. (Rabbits, 2023)   Hundred Rabbits opère un changement de paradigme en refusant de recourir à des “services” et en construisant la majorité des outils utiles à leurs créations, ou en tout cas en acquérant une maîtrise des logiciels et des programmes dûment sélectionnés. Les efforts nécessaires pour parvenir à ce degré d’autonomie sont importants, et nous pouvons noter ici que cela implique au moins des compétences spécifiques, un temps dédié à l’apprentissage des différentes briques technologiques, et une curiosité considérable. Ces éléments sont compatibles avec le mode de vie adopté par le duo, et semblent difficilement envisageables dans le cas d’une structure classique — comme une maison d’édition. Ce livre est auto-édité, ce sont en effet les mêmes personnes qui écrivent, éditent et diffusent l’ouvrage dans ses différentes formes. Les versions numériques sont vendues via la plateforme Itch.io, et la version imprimée via la plateforme Lulu.com, mais la publication ainsi que la diffusion dépendent entièrement de Rekka Bellum et de Devine Lu Linvega. Cette démarche autonome repose sur plusieurs prérequis : le duo dispose d’une communauté active qui suit leurs activités via différents canaux ; Hundred Rabbits dispose de ses propres outils de communication comme son site web, sa lettre d’information ou une présence sur des réseaux sociaux (principalement le réseau fédéré Mastodon en 2023) ; et ils sont présents sur Patreon, plateforme de financement sur laquelle plus de 200 personnes contribuent financièrement à leurs projets (avec ou sans contrepartie). L’option de l’auto-édition, dans ce contexte, se comprend amplement : Hundred Rabbits dispose des outils de diffusion et de communication pour que le livre puisse être connu et acheté, et il n’y a pas de volonté de leur part d’intégrer les circuits classiques du livre — en accord avec leur position politique déjà évoquée. Hundred Rabbits est en soi déjà une structure d’édition, certes plus habituée au jeu vidéo qu’au livre, mais qui a construit sa légitimité depuis plusieurs années. Cette légitimité est une légitimité au-dessus pour reprendre la catégorisation d’Emmanuel Cardon (Cardon, 2015), puisqu’elle est construite avec des communautés identifiées qui permettent au collectif Hundred Rabbits d’être reconnu, de faire autorité (note : Ce terme lui-même ne serait pas reconnu comme légitime par le collectif, tant les deux artistes construisent ou contribuent à des communautés qui ne reposent pas sur des principes verticaux.). Pour prendre la mesure de cette légitimité nous pouvons observer trois facteurs quantitatifs : le nombre de personnes abonnées aux comptes Mastodon de Devine Lu Linvega (11 400 en novembre 2023) et de Rekka Bellum (4 700 en novembre 2023), le nombre de personnes qui contribuent à leur Patreon (460 en novembre 2023, pour un revenu total de 1621$CAD par mois au même moment), et le nombre de personnes abonnées à leur profil Itch.io (plateforme sur laquelle ils mettent à disposition la majorité de leur création). La démarche d’indépendance se comprend mieux en prenant en compte l’activité première du collectif, en effet le domaine du jeu vidéo est habitué depuis longtemps à se constituer autant en grandes structures qu’en petits îlots indépendants. Il y a ici une influence, voire une transposition, des pratiques dans le domaine du jeu vidéo indépendant, voir du développement de logiciels libres, vers l’édition.   1.3.3. Est-ce un livre ? Ce livre est-il un livre ? Nous posons cette question en raison de l’originalité de la démarche, comparée à des pratiques d’édition plus classiques. Ce livre semble répondre, de façon formelle, à la définition que nous avons établie (voir la définition de Livre, chapitre 1) : un artefact éditorial clos, résultat d’un travail d’écriture et d’édition, de création ou de réflexion, un objet physique (par exemple imprimé) ou numérique (un fichier ou un flux) maniable voire malléable. Ces artefacts ne présentent pas de spécificités particulières, si ce n’est le goût de la simplicité, autant dans les versions/formats papier ou numérique, et disposent de formes classiques. Pourtant le livre se situe à la marge des espaces de publication majoritaires : il ne contient pas d’ISBN, il n’est référencé dans aucune base de données de librairies, aucun catalogue de bibliothèque, et non plus sur des plateformes du type Amazon. Ce livre n’est identifiable que via les canaux de communication de Hundred Rabbits, ou très bien référencé sur la plateforme Itch.io. Autant dire que l’objet éditorial se démarque des initiatives habituelles par son affirmation d’être diffusé autrement. Nous constatons que Hundred Rabbits n’a tout simplement pas besoin de référencer ailleurs ce livre (et ses artefacts). D’une part parce que le domaine du livre est probablement un écosystème moins connu des deux protagonistes et que l’investir serait particulièrement chronophage, mais aussi parce qu’il est question de choix politique et de cohérence. Rekka Bellum et Devine Lu Linvega adoptent des pratiques totalement imbriquées dans des principes de création, voire de vie. Le choix éditorial, fort, comprend autant ces questions de diffusion que les outils utilisés pour fabriquer puis produire le livre. Diffuser soi-même un texte participe d’un même élan, élan créatif — qui peut aussi être qualifié de littéraire —, qui consiste également à refuser certains codes, notamment le fait de devoir être référencé en librairie, ou encore un fonctionnement basé sur un mode de rentabilité. Hundred Rabbits construit d’autres conditions pour fabriquer et diffuser des livres. Busy Doing Nothing est un livre d’aujourd’hui. Il porte la trace de sa fabrication, de l’intention éditoriale comme nous l’analysons dans un prochain chapitre (voir 2.2. L’acte, le dispositif et l’action). Si nous considérons les quatre artefacts que sont la page web, le fichier EPUB, le fichier PDF et le livre imprimé, nous pouvons comprendre comment ce livre a été pensé, quel a été l’acte éditorial de Rekka Bellum et de Devine Lu Linvega. Le concept du livre, jusqu’ici considéré comme objet dans un écosystème, doit être confronté à un autre concept, plus proche des questions de fabrication et de technique : l’artefact. 1.4. L’artefact : entre production, fabrication et technique [1ac73c3] Notre définition du livre le comprend, jusqu’ici, en tant que concept, en tant qu’objet qui nécessite des procédés techniques pour être produit, ainsi qu’en tant que forme inséparable de son contenu. Le livre est aussi un artefact, un objet créé via un processus défini, et qui conserve l’empreinte de ce processus. Considérer le livre comme un artefact c’est affirmer qu’il n’est pas seulement un support, une forme issue d’une fabrication, ou un objet résultant d’une production, mais qu’il porte également l’ensemble des procédés techniques nécessaires à son émergence et à son existence. Le livre est le résultat d’une action humaine, culturelle. Le concept d’artefact, dont l’origine latine signifie “fait avec art”, permet d’identifier le livre à travers sa dimension processuelle de forme fabriquée, et d’objet produit. Envisager le livre comme artefact et non plus uniquement le livre comme support, forme et objet, c’est observer quelles sont les façons de faire à l’origine du livre, comment le sens est créé. Le concept d’artefact nous permet d’inclure, dans le livre, ses conditions techniques d’existence. Nous définissons tout d’abord le terme et le concept d’artefact, avec sa pluralité étymologique. Le concept d’artefact est technique, nous relevons plusieurs positionnements théoriques par rapport à cette dimension, nous amenant à examiner plus précisément ce que nous nommons fabrication. Enfin, qu’en est-il du livre en tant qu’artefact ?   1.4.1. Artefact : des définitions convergentes, un concept   Un objet fabriqué. (Ferret, 1998, p. 205)   Les définitions du terme artefact (note : Artefact est aussi écrit “artéfact”, nous considérons ici les deux formes comme équivalentes.) convergent vers plusieurs points essentiels : un artefact est un objet inerte, il est le résultat d’une action humaine (y compris accidentelle), il est artificiel, et il est issu d’un processus technique. Si le terme porte une certaine polysémie, dû au fait qu’il est utilisé de façons diverses (mais pas forcément opposées) selon les domaines, c’est plus particulièrement sa relation avec la technique qui nous intéresse. Nous écartons la signification de parasite dont le terme est l’objet en électronique, sans pour autant abandonner la question de l’accident qui ouvre des perspectives pertinentes.   Structure ou phénomène d’origine artificielle ou accidentelle qui altère une expérience ou un examen portant sur un phénomène naturel. Altération du résultat d’un examen due au procédé technique utilisé. En anthropologie, produit ayant subi une transformation, même minime, par l’homme, et qui se distingue ainsi d’un autre provoqué par un phénomène naturel. (S.A., 2022)   Nous insistons sur deux dimensions du terme : il s’agit d’un résultat et il y a une transformation (ou altération). Un artefact est quelque chose qui se manifeste à nous et que nous pouvons observer, il est le résultat d’une création. La notion de transformation permet de comprendre que cette création est une série d’actions, actions qui ont été prédéterminées et agencées dans un contexte spécifique. L’artefact est la finalisation d’un processus complexe, la partie visible d’une suite de plusieurs opérations. Le terme artefact n’a pas la même acception selon les champs d’étude, dans la discipline des sciences de l’information et de la communication. Philippe Quinton apporte une information jusqu’ici absente des différentes définitions et qui nous semble déterminante :   des artefacts […] sont des produits de l’activité humaine autant que des moyens d’action sur le monde. […] Les artefacts sont ainsi des manifestations spécifiques de l’action de l’homme et de ses transformations du monde. (Quinton, 2007)   Voilà un point particulièrement important lorsque nous prenons en compte le livre et ce qu’il exprime dans nos sociétés. Le livre est à la fois un artefact en tant que forme ou objet produit par l’humain — et plus spécifiquement un artefact engendré grâce à d’autres artefacts comme des outils, du papier ou des machines — et en même temps le livre agit sur le monde et sur nous en tant que moyen d’action. Le terme artefact est un concept. Il contient en effet plusieurs notions complexes, il soulève des questionnements profonds, il fait aussi l’objet de nombreux écrits et recherches (note : Citons notamment la revue Artefact. Techniques, histoire et sciences humaines “destinée à promouvoir les recherches sur la technique, entre processus d’intellection et matérialité des pratiques dans les sociétés humaines sur la longue durée et dans une perspective globale” (https://journals.openedition.org/artefact/267).), directes ou indirectes, et enfin il est utilisé comme fondement de systèmes de pensée. L’artefact est, dans notre cas, un concept qui vient compléter celui du livre pour construire une réflexion sur les processus de fabrication du livre ou plus globalement des textes.   1.4.2. Un concept technique ? Le concept d’artefact nous permet donc de définir le livre en prenant en compte les processus nécessaires à sa fabrication et à sa production. Le livre est un objet qui requiert un ou des processus techniques, nous étudions désormais cette relation entre artefact et technique.   Autrement dit, l’artefact serait l’aspect “visible” d’un dispositif sociotechnique dont il est indissociable. (Latzko-Toth, 2017)   L’artefact serait donc la partie apparente d’un dispositif sociotechnique ou, dit autrement, le résultat d’un processus technique. Définir la technique est un prérequis indispensable, même s’il pose un défi dans une perspective de concision.   […] “la technique” consiste en l’activité au moyen de laquelle le vivant compose et transforme son milieu. (Barron, Camolezi & al., 2021, p. 9)   Loin d’être suffisante, cette définition contemporaine nous donne à voir des dimensions d’action, de transformation et d’agencement, propres à l’activité humaine. La technique produit quelque chose, elle est souvent considérée comme le pendant matériel de la vie sociale — nous réfutons toutefois ce dualisme, la vie sociale est tout autant matérielle. Notons une des racines grecques du terme, τέχνη, techné, qui intègre la dimension de production. Il faut également ajouter que la technique est elle-même en relation avec les notions d’économie ou de valeur, et aussi qu’il y a des techniques. Enfin, la technique ne doit pas être confondue avec la technologie, qui est l’étude des techniques. Étudier la technique consiste à se concentrer sur la façon de faire plutôt que sur la finalité visée. Nous nous plaçons justement dans ce cadre. Deux penseurs ont établi une description claire de l’artefact dans un contexte technique, dont plusieurs éléments nous permettent de comprendre sa relation spécifique avec le livre. Gilbert Simondon et Herbert Simon se sont investis dans l’étude de la technique avec une intensité comparable mais avec des positionnements théoriques différents. Joëlle Forest détaille les “apports de l’approche simonienne” dans un article qui présente également les spécificités de l’approche simondienne (Forest, 2007). Nous retenons ici plusieurs éléments pour définir plus précisément le rapport entre artefact et technique ou, dit autrement, qu’est-ce qu’un artefact. Gilbert Simondon est en quelque sorte un pionnier de la technique, son projet est de mieux la comprendre pour considérer qu’elle est constitutive du monde dans lequel nous agissons. Dans un entretien de 1968, soit dix ans après l’écriture de sa thèse Du mode d’existence des objets techniques, il déclare : “Nous vivons dans une civilisation qui […] est mal technicienne” (S.A., 2013). Herbert Simon publie ses écrits sur la technique plus tard, proposant une approche différente voire opposée, très certainement influencée par ses domaines que sont la sociologie et l’économie. Gilbert Simondon considère l’artefact, ou l’objet technique — les deux expressions sont synonymes —, en soit, observant son évolution, sa filiation. Le philosophe développe une ontologie complexe autour de l’objet technique, avec des qualificatifs d’abstrait pour l’état artificiel et de concret pour l’état naturalisé. Herbert Simon ne définit pas l’artificiel de la même façon, il est clairement fonctionnaliste. Chaque objet technique est conçu pour remplir une fonction, et il faut donc se concentrer sur le processus plus que sur l’artefact lui-même.   Pour Simon, l’artefact désigne plus que l’objet technique abstrait. (Forest, 2007)   Pour résumer les deux positionnements, la pensée de Gilbert Simondon constitue un darwinisme de la technique, les objets techniques portent leur condition d’existence, ils révèlent des processus. Herbert Simon opère un “décentrement” pour reprendre un terme de Joëlle Forest, puisqu’il s’agit désormais d’observer l’amont de l’artefact plutôt que l’objet technique lui-même. Le mode de pensée simondien est radical, les objets ne peuvent pas être que des productions humaines devant remplir des fonctions. Les artefacts pensent, pourrions-nous dire. Nous retenons de Herbert Simon la prise en compte d’un processus au-delà de la lignée technique de l’objet lui-même. L’approche fonctionnaliste d’Hubert Simon pose toutefois un problème pour notre analyse, puisqu’elle concentre l’intérêt sur la conception, considérant cette seule étape comme constitutive du processus technique à l’origine de l’artefact. Examiner les conditions d’existence, et donc non uniquement de conception, est primordial pour expliquer la constitution de l’artefact, et plus spécifiquement du livre dans notre cas. Qu’en est-il alors du livre ? Cet artefact technique doit être apprécié autant comme portant la filiation d’autres objets technique que comme le point de départ d’une analyse de ses modes de conception, et surtout de fabrication et de production.   1.4.3. Du côté de la fabrication Nous l’avons déjà dit, l’artefact résulte d’un processus technique, c’est-à-dire un procédé de fabrication (réalisation d’un artefact via des procédés techniques) ou de production (actions répétés des procédés techniques pour générer plusieurs artefacts en vue de les diffuser). Nous devons ici définir plus précisément le terme de fabrication :   Faire, réaliser (un objet), une chose applicable à un usage déterminé, à partir d’une ou plusieurs matières données, par un travail manuel ou artisanal. (CNRTL, 2012)   La fabrication est l’action de fabriquer, de réaliser un objet pour un usage déterminé, pour reprendre les termes de cette définition. Le terme porte aussi la dimension de transformation, notamment dans le domaine industriel où il s’agit de transformer des matières premières. Transformer, réaliser : ces actions ne sont possibles qu’à condition de formuler des besoins, de définir le passage d’un état à un autre. Dans le cas de l’artefact cela signifie décrire un premier état puis un second. Ces règles de transformation peuvent être départagées en plusieurs sous-étapes, et constituer ainsi un processus complexe. Le travail “manuel ou artisanal” s’oppose à une démarche dite industrielle, celle-ci adopte des procédés mécaniques ou automatisés pour produire des objets en grand nombre et dans une perspective de profit(s) économique(s). Le livre est d’abord issu d’une fabrication en cela que ses métiers sont historiquement artisanaux, il est toutefois incontestable qu’à partir des premières techniques d’impression mécanisées le livre est désormais produit et qu’il dispose d’une industrie. Notons par ailleurs l’expression “industrie du livre” qui définit les activités de production, de diffusion et de commercialisation du livre, à mettre en lien avec l’expression “chaîne du livre”. Si aujourd’hui toute publication reconnue légalement comme un livre — via le dépôt légal par exemple en France ou au Québec — fait partie de cette chaîne du livre, et si la très grande majorité des livres est issue d’une industrie, des structures d’édition n’appliquent pour autant pas une automatisation à toutes les étapes du travail éditorial. Ainsi, d’une part la fabrication consiste en une étape nécessaire à toute pratique d’édition — quand bien même une automatisation serait ensuite à l’œuvre —, et d’autre part des initiatives éditoriales se réclament plus spécifiquement d’une fabrication en raison de l’adoption de moyens techniques qui ne font pas appel à des processus totalement mécanisés ou automatisés. La fabrication est une action qui révèle des intentions et des façons de faire. Plusieurs scénarios sont possibles pour une même réalisation, ainsi une intention peut être implémentée de diverses manières ; ces implémentations sont ces façons de faire. Elles doivent être elles aussi observées, en tant que la trace du geste ou de l’acte d’édition, liées directement aux dispositifs techniques nécessaires pour les réaliser.   1.4.4. Livre et artefact Le terme artefact est associé au livre dans des écrits récents sur le livre numérique, que ce soit des articles ou des thèses, en raison de ce dévoilement permis par le code source de ces objets. Le livre d’Amaranth Borsuk, The Book, compte 18 occurrences parmi les 322 pages (Borsuk, 2018) ; la thèse de Nolwenn Tréhondart intitulée Le livre numérique enrichi : conception, modélisations de pratiques, réception comprend quelque 119 occurrences du terme parmi les 416 pages (Tréhondart, 2016) ; l’introduction du dossier consacré aux éditions numériques dans la revue Sciences du Design (numéro 8) a 5 occurrences tout au long du texte de 5 pages (Bourassa, Haute& al., 2018). L’association du terme artefact à celui de livre n’est pas nouvelle, mais le numérique accentue ce besoin de relever autant la nature de l’objet — artificiel — que le processus qui l’engendre. L’analyse de tels objets — fichiers EPUB, applications ou sites web — est facilitée par l’accès à leur code source, lui-même témoin des moyens techniques utilisés pour les fabriquer ou les produire. Le livre numérique est aussi un objet fabriqué par l’homme, quand bien même les environnements numériques peuvent laisser penser qu’il n’y a que des flux. Les serveurs qui stockent et donnent accès aux fichiers des livres numériques, ainsi que les dispositifs de lecture numérique, sont autant matériels que conçus par des humains. Le concept d’artefact est utile pour définir le livre, pour considérer que le livre porte les conditions de sa fabrication, qu’il est le reflet sinon le révélateur des façons de faire, des façons d’éditer. En lieu et place du terme livre nous pouvons donc utiliser l’expression “artefact éditorial”. Définition Artefact éditorial Le livre est un artefact, le résultat d’un processus technique complexe dont il conserve certaines traces qui sont autant des marques des choix techniques que des énonciations — pour reprendre la théorie de l’énonciation éditoriale d’Emmanuël Souchier. Le livre est un artefact éditorial, il porte ses conditions d’existence, il les révèle si nous lui consacrons une analyse théorique et pratique, et si nous acceptons de remettre en cause notre rapport à la technique comme nous y invite Gilbert Simondon. L’utilisation de cette expression marque la nécessité de prendre en compte non plus seulement le résultat mais aussi et surtout le processus et ses conditions d’émergence. 1.5. Les Ateliers de [sens public] : repenser le livre [8053125] Pour illustrer la relation entre les concepts de livre et d’artefact, et pour épuiser l’expression d’“artefact éditorial”, nous présentons en détail un livre édité par les Ateliers de [sens public], Exigeons de meilleures bibliothèques de R. David Lankes. Cette étude de cas permet de comprendre la dimension artefactuelle du livre dans un contexte précis, de définir à nouveau ce qu’est un livre à travers une initiative originale, et enfin de faire le pont vers la question de la définition de l’édition, à la suite de celle du livre. Notre implication dans les projets de cette structure d’édition — qui a précisément démarré avec ce livre — doit être soulignée, car elle revêt un intérêt particulier. Comme expliqué dans l’introduction (voir 0.3. Imbriquer recherches théoriques et expérimentations), présenter des expérimentations auxquelles l’auteur de cette thèse a participé permet de relever de nombreuses problématiques difficiles à appréhender autrement. Cette étude de cas, comme les quatre autres qui ponctuent les chapitres qui suivent, ne se veut pas objective mais une démarche extime qui entend confronter les théories jusqu’ici présentées, afin de les épuiser dans un cas pratique tout en apportant un regard critique nécessaire.   1.5.1. Une structure collégiale Les Ateliers de [sens public] (note : Aussi appelés “Ateliers” par la suite.) sont nés du besoin de faire exister des textes ailleurs que dans la revue Sens public, de transformer des articles en monographie, de donner un nouvel éclat à des recherches et de créer une conversation. Entre 2018, l’année de sa création, et le printemps 2023, la structure a publié 6 textes aux contenus et aux formats variés.   Le principe de la collection est de proposer une forme de publication multiple en accès libre sur des sujets divers en sciences humaines et sociales qui correspondent aux orientations éditoriales de la revue [Sens public (Arts et lettres, Histoire, Monde numérique, Philosophie, Politique et société, Sciences et environnement)]. (Vitali-Rosati, Monjour & al., 2018)   Entre le fork (nouvelle embranchement à partir d’une source commune) et le spin off (projet dérivé), les Ateliers de [sens public] partagent plusieurs points communs avec la revue Sens public : les sciences humaines et la philosophie, la question du numérique, la littérature en creux, la création d’un espace pour des collectifs, la question de la conversation, etc. Et aussi, et surtout, la question de l’accès ouvert puisque les livres des Ateliers sont tous accessibles en libre accès, sans restriction. Le libre accès est une façon d’appréhender et de diffuser la connaissance, et l’organisation même de la structure est en adéquation avec ce désir et cet acte d’ouverture. Les décisions sont prises de façon collégiale, autour d’un noyau de chercheurs et de chercheuses à l’initiative du projet (comme Nicolas Sauret ou Servanne Monjour), une éditrice et des étudiants qui ont rejoint l’aventure éditoriale (comme Hélène Beauchef, Roch Delannay ou l’auteur de cette thèse) ou des contributeurs experts (comme Marcello Vitali-Rosati ou Michael Sinatra). Ces choix et ces positionnements posent plusieurs questions, comme le financement des projets éditoriaux — dont les modalités d’implication des personnes qui y sont investies —, ainsi que la diffusion de ces productions dans un écosystème occupé majoritairement par des maisons d’édition au fonctionnement plus classiques ou par des presses universitaires rattachées à des universités. La démarche des Ateliers de [sens public] est de repenser la façon d’éditer un livre (Fauchié & Larroche, 2021), à travers plusieurs ouvrages dont nous pouvons donner quelques informations. Le premier livre, Facebook : L’école des fans est un recueil d’essais de Gérard Wormser à propos des réseaux (sociaux) et de l’effet de la place hégémonique de Facebook dans l’espace sociale et médiatique. L’espace numérique est un dialogue entre Éric Méchoulan et Marcello Vitali-Rosati, mettant en scène leur conversation épistolaire (et numérique). Le troisième livre des Ateliers est la traduction d’un essai sur les bibliothèques de R. David Lankes, Exigeons de nouvelles bibliothèques, et le premier titre à intégrer des contenus additionnels. Fabrique de l’interaction parmi les écrans : Formes de présences en recherche et en format est un ouvrage collectif qui présente plusieurs années de recherche du séminaire doctoral “Interactions Multimodales Par ÉCran”. Cinquième livre des Ateliers, Lire Nietzsche à coups de sacoche : Panorama des appropriations féministes de l’œuvre est un essai philosophique de Mélissa Thériault. Le dernier livre publié par les Ateliers, de Gilles Bonnet, Erika Fülöp et Gaëlle Théval, concerne l’engagement d’auteurs et d’autrices de littérature sur les plateformes de vidéo, il est intitulé Qu’est-ce que la littéraTube ? Ces livres reposent sur trois grands principes : le libre accès, ce qui signifie que les contenus sont accessibles sans restriction ; la publication multi-formats (PDF, EPUB, imprimé), voire multimodale avec une version web augmentée pour plusieurs titres ; la maîtrise de la diffusion avec le dépôt des versions sur le propre site web des Ateliers, qui ne dépend pas d’une structure tierce. Le choix du libre accès se traduit par une licence Creative Commons (BY-SA, ce qui signifie que la parenté et le partage à l’identique sont obligatoires). Il faut préciser qu’il ne s’agit pas uniquement d’un accès ouvert, ici des modes de réutilisation sont permis et encadrés. Ensuite, la publication multi-formats ou multimodale est une dimension importante pour un projet de publication de monographies. Les dispositions de lecture peuvent varier, et les Ateliers proposent plusieurs façons de lire leurs textes : en numérique avec une version figée PDF qui peut également être imprimée, toujours en numérique avec une version liquide EPUB pour les liseuses, et enfin une version imprimée pour des lectures hors écran. La version imprimée est proposée via la plateforme Lulu.com en impression à la demande, procédé d’impression déjà évoqué (voir 1.2. La forme du livre et sa matérialité). Les livres plus récents sont disponibles en version web augmentée, il s’agit d’un site web qui comporte les mêmes contenus que les autres formats, avec des enrichissements comme des index, des glossaires, des médias (vidéos, images) ou des encarts additionnels. Enfin les Ateliers disposent de leur propre plateforme, tous ces formats sont disponibles directement sur leur site web (note : https://ateliers.sens-public.org) sans intermédiaire (hormis Lulu.com pour le livre imprimé). Le lien avec la revue Sens public tient aussi dans la manière de produire les artefacts. Dans le cas de la revue, un workflow éditorial a été mis en place dès 2016 ; cette chaîne d’édition a donné lieu à la création de l’éditeur de texte sémantique pour l’édition scientifique Stylo (Vitali-Rosati, Sauret& al., 2020). Cette façon d’éditer des articles scientifiques a trois objectifs : disposer d’outils d’écriture et d’édition libres, contrairement aux traitements de texte propriétaires largement utilisés par la communauté scientifique, avec ce positionnement fort que les outils conditionnent notre écriture (Vitali-Rosati, 2020) ; adopter une écriture et une édition sémantiques des textes ; générer simultanément plusieurs artefacts à partir d’une seule source, pour faciliter le travail d’édition et pour permettre une certaine horizontalité des interventions sur le texte. Stylo est autant une preuve de concept qu’un outil d’écriture et d’édition mis à la disposition de la communauté scientifique avec le soutien, notamment, d’Huma-Num — la très grande infrastructure de recherche en France. Les Ateliers est une structure éditoriale qui a prolongé cette approche pour les livres. Nous n’explicitons pas ici le processus de fabrication des Ateliers (voir 2.5. Le Pressoir : une chaîne d’éditorialisation), mais un livre en particulier, pour analyser en détail les artefacts ainsi que le travail d’édition numérique nécessaire.   1.5.2. Exigeons de meilleures bibliothèques : un livre emblématique Exigeons de meilleures bibliothèques : Plaidoyer pour une bibliothéconomie nouvelle est un livre de R. David Lankes, c’est un projet éditorial d’envergure par ses multiples formes et ajouts, et collectif avec une communauté de bibliothécaires qui a participé au projet. R. David Lankes est professeur de bibliothéconomie et une figure du monde des bibliothèques en Amérique du Nord. Le texte en anglais est autoédité par l’auteur en 2016, le texte français est issu d’un travail de traduction collectif sous la direction de Jean-Michel Lapointe. L’édition augmentée est réalisée par Hélène Beauchef. À la suite d’une première traduction le texte a été annoté puis modifié : des corrections ont été appliquées à la traduction lorsque nécessaire, et des contenus ont été ajoutés pour augmenter ou illustrer certaines parties du texte, tout cela à partir de ce travail d’annotation. C’est donc un processus collectif (plusieurs personnes étaient impliquées) et collaboratif (le travail collectif a été réalisé de façon concertée) qui s’est déroulé. Ce livre se démarque des précédents titres des Ateliers pour une raison principale : sa version web “augmentée” diffère des versions PDF, imprimée ou EPUB. Exigeons de meilleures bibliothèques est une preuve de concept d’une édition numérique enrichie. Les ajouts sont de plusieurs natures, tant en termes de dispositifs de lecture que de contenu. Des outils du livre sont ajoutés, comme un glossaire et un index des noms propres, index qui comporte les renvois vers les occurrences dans les chapitres. La version EPUB ne comporte aucun des deux, et les versions PDF ou imprimée ne comportent que l’index des noms propres, sans renvoi cliquable pour le PDF. Des outils de navigation permettent de parcourir les contenus sur la version web : accès aux chapitres via un menu, passage d’un chapitre à l’autre via des boutons/liens sur l’interface graphique, liens hypertextes dans le texte pour aller directement à une autre partie du texte. Des enrichissements apparaissent au cours du texte et sont également regroupés dans un chapitre dédié. Il s’agit de références bibliographiques supplémentaires, de liens hypertextes, d’images, de vidéos ; ces contenus sont identifiés et portent une mention précisant par qui ils ont été ajoutés. Ils sont par ailleurs identifiés sous forme de bloc entre des paragraphes, visibles ou à dérouler, directement dans le flux du texte ou dans les marges. Si le balisage des organismes et des lieux est réalisé mais non visible sur l’interface de lecture, il est possible de le découvrir dans le code source des pages web, ou dans les sources des contenus (S.A., 2023). Cette qualification d’édition enrichie tient aux éléments qui ne sont pas dans les versions EPUB ou PDF : des outils (avancés) du livre comme les glossaire ou index, des possibilités de navigation, et des contenus additionnels. Ces enrichissements apportent des éléments supplémentaires par rapport au texte originel. Ils donnent des informations complémentaires qui ne figurent pas ailleurs. Exigeons de meilleures bibliothèques est un livre emblématique des Ateliers car il est le premier du catalogue à être enrichi, et le premier à envisager des liens entre plusieurs formats ou versions possibles d’un même texte. Nous envisageons le livre comme un artefact pour inclure dans sa définition le processus technique nécessaire à sa fabrication, et pour ne plus seulement le considérer comme un objet — le résultat d’une production. Ce livre, Exigeons de meilleures bibliothèques, révèle en partie la façon dont il a été fabriqué, et plus spécifiquement via les différents artefacts que sont les versions numériques ou imprimée. Les enrichissements de la version web ne sont par exemple possibles qu’à condition de baliser de façon sémantique les contenus, balisage qui peut être découvert en inspectant le code source des pages web. Ce livre porte les conditions de sa fabrication : les différences entre la version web et les autres formats permettent de comprendre comment cet ouvrage a été édité.   1.5.3. Le livre en tant que hybridation Ce livre est un exemple contemporain de ce qu’est un livre, parce qu’il correspond à la définition que nous avons établie, et parce qu’il est un cas d’hybridation — avec la co-existence et la relation entre les différents formats et versions. Reprenons la définition du livre que nous avons établie (voir la définition de Livre, chapitre 1) : un artefact éditorial clos, résultat d’un travail d’écriture et d’édition, de création ou de réflexion, un objet physique (par exemple imprimé) ou numérique (un fichier ou un flux) maniable voire malléable. Le livre des Ateliers, en tant que l’ensemble des artefacts (formats EPUB, PDF, web et imprimé), remplit ces critères : il est clos en termes de contenus, publié à une certaine date même s’il peut être mis à jour ; il y a eu un travail d’écriture et d’édition, et plus précisément plusieurs phases successives d’écriture et d’édition collectives ; c’est un texte traduit issu d’un texte original, avec des enrichissements sélectionnés et appliqués au texte ; il existe sous différents formats ; ces formats sont portables (imprimé et EPUB), maniables, répondant à des standards (web/HTML, EPUB) ou des normes (PDF), et malléables puisqu’il est possible d’adapter l’affichage aux dispositifs de lecture (web/HTML et EPUB). Exigeons de meilleures bibliothèques répond à notre définition mais présente toutefois une originalité, justement dans la multiplicité des formats, et avec cette forme augmentée. Le livre est repensé dans cette expérimentation éditoriale, dans la complémentarité des versions et dans la diversité des dispositifs de lecture. Cette complémentarité constitue une nouveauté qui peut être intégrée à notre définition, elle ouvre également sur un autre concept en lien avec nos recherches, celui de l’hybridation des modes de fabrication. Le concept d’hybridation, décrit par Alessandro Ludovico dans Post-digital print (Ludovico & Cramer, 2016), définit les relations qu’entretiennent d’une part plusieurs techniques de production et de diffusion éditoriales, et d’autre part plusieurs formats du fait de leur co-existence et de leur complémentarité. La version web de Exigeons de meilleures bibliothèques est complémentaire, par exemple, de la version imprimée. Complémentaire en termes de contenus — les enrichissements de la version web — mais aussi en termes de dispositif de lecture — le format web ne nécessitant rien d’autre qu’un navigateur web, et le format papier n’ayant pas besoin d’un appareil électrique pour être lu. Les deux versions peuvent donc être consultées dans des contextes de lecture différents, elles co-existent et sont complémentaires. En 2012 Alessandro Ludovico réalise une étude de nombreuses initiatives éditoriales afin de démontrer que le numérique apporte une dimension supplémentaire à l’édition. Parmi ses exemples, celui de l’auteur américain Cory Doctorow est particulièrement illustratif. Cory Doctorow propose des formats numériques gratuits (PDF, EPUB ou audio) et imagine plusieurs formes de livres imprimés, du format poche imprimé à la demande via la plateforme Lulu.com à la version plus luxueuse fabriquée par des artisans du livre, cette dernière étant produite en un nombre limité d’exemplaires. Le livre numérique peut devenir un produit d’appel, gratuit, pour déclencher des ventes de livres imprimés. Alessandro Ludovico place l’“impression postnumérique” comme l’horizon de l’hybridation, combinant la souscription, la complémentarité entre papier et numérique, l’utilisation de l’informatique pour la production, ou encore l’adoption de stratégies cross media. L’édition ne doit plus consister à figer un texte pour pouvoir le placer dans un espace économique, mais aussi à étendre le contenu du livre et à anticiper des situations de lecture. Alessandro Ludovico expose le concept d’hybridation comme l’association de processus de production et de diffusion éditoriaux, et comme la complémentarité des formes des artefacts — typiquement le livre imprimé et le livre numérique. Pour reprendre un autre exemple déjà abordé, Busy Doing Nothing du collectif Hundred Rabbits (voir 1.3. Éditer autrement : le cas de Busy Doing Nothing) est également un exemple d’hybridation des formats : la version paginée (PDF ou imprimée) est complémentaire — en termes de contenus — de la version web initiale. Ici le mouvement est inversé par rapport au livre de R. David Lankes, puisque le parcours éditorial — et expérimental — part du Web pour aller vers des formats comme le PDF et l’imprimé. Comme les livres des Ateliers, Busy Doing Nothing porte des principes forts : générer plusieurs artefacts dans un même projet éditorial ; constituer un environnement de diffusion autonome ; maîtriser les outils de production ; donner l’accès aux sources. Et comme le duo Hundred Rabbits, les Ateliers construisent leur propre environnement d’édition et de publication. Cela nécessite un investissement important dans l’apprentissage des techniques et des technologies nécessaires à l’établissement d’une chaîne d’édition et aux outils de diffusion. La dimension de recherche scientifique, comprenant un environnement académique, est une condition de faisabilité d’un tel projet qu’il serait certainement difficile à développer dans le cadre d’une structure éditoriale classique. Les expérimentations des Ateliers peuvent toutefois être considérées comme des exemples dont peuvent s’inspirer d’autres initiatives.   1.5.4. Éditer et fabriquer Pour qu’un livre soit considéré comme tel, faut-il aujourd’hui nécessairement une hybridation ? Un livre disponible dans un seul format ou une seule version, ou imprimé sans équivalent numérique (enrichi ou non), est-il encore un livre ? Il ne s’agit pas ici de porter un jugement sur des publications existantes, mais de constater les changements opérés au sein de structures qui éditent, qui font exister les textes, en prenant en compte différents contextes de lecture selon les types de contenus. Si un artefact éditorial peut faire émerger le processus à son origine, c’est le sens même de l’édition qui est également reconsidéré. Le livre est un objet éditorial complexe, il est le résultat d’un travail d’écriture et d’édition, de création ou de réflexion. Le livre est un concept nécessaire à la compréhension de la constitution de la connaissance et de sa transmission. Le livre est un artefact, un objet physique qui prend la forme d’un ensemble de feuilles de papier reliées ou de fichiers liés. Le livre est maniable voire malléable. Nous sommes parvenus à la définition du livre en tant que concept, objet, forme et artefact, en parcourant autant ses origines historiques, que les évolutions techniques nécessaires à son apparition et à son évolution, ou encore en étudiant des formes contemporaines et originales. Penser le livre comme artefact n’est possible qu’à condition d’étudier des objets éditoriaux en établissant une filiation entre le livre et la technique. Penser le livre comme artefact nous amène donc à observer le processus qui donne lieu au livre. Durant ce premier chapitre nous n’avons ni défini ni étudié ce processus qu’est l’édition. Enfin, les artefacts créés par les Ateliers sont issus d’un processus de fabrication. Ce processus est décrit dans l’étude de cas du Pressoir, la chaîne d’édition des Ateliers (voir 2.5. Le Pressoir : une chaîne d’éditorialisation), et le concept de fabrique est détaillé dans un chapitre suivant (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Éditer, fabriquer : deux activités qui doivent être décrites et mises en relation. Ce qui apparaît donc désormais comme nécessaire est l’établissement d’une définition de l’édition, acte de fabrication d’un texte et de ses artefacts. Le chemin vers la définition d’une fabrique d’édition passe par cette définition. ========== Chapitre 2 L’édition : un acte technique [4cd7b24] Le livre est un aboutissement visible et lisible d’un processus nommé édition. L’édition est donc une série d’actions, de méthodes et un type d’organisation mis en place afin de produire notamment un artefact comme un livre. Établir une définition de l’édition est une entreprise qui est facilitée par les recherches réalisées sur le livre dans le chapitre précédent (voir 1. Le livre, cet artefact éditorial). Comprendre quels sont les rouages et les mécanismes de l’édition, et comment elle évolue aujourd’hui, est un travail complexe et un enjeu décisif sur les questions de production et de circulation du savoir, et sur la conceptualisation de nouveaux modèles épistémologiques. Notre hypothèse consiste en une définition de l’édition comme une activité hybride et réflexive, définition qui se distingue de celles auxquelles nous sommes habituellement confrontés. Nous construisons notre réflexion à travers des théories de l’édition, que nous mettons en tension avec des études de cas d’initiatives contemporaines et singulières. L’édition est un ensemble d’activités organisées autour de dispositifs techniques, elle s’inscrit dans une histoire longue des actions humaines. L’édition constitue un processus dont la distinction de trois fonctions permet de l’établir en tant que concept. En réponse à un travail de recherche et d’exploration historique, nous présentons une initiative contemporaine et expérimentale d’édition, Abrüpt, à travers ses mécanismes techniques et expérimentaux. Cette étude de cas se veut une illustration d’une démarche originale d’édition qui se concentre sur les artefacts produits et les outils nécessaires à cette entreprise. Étant donné des démarches éditoriales aussi fortes que celle d’Abrüpt — combinant des formes éditoriales inattendues et une occupation de l’espace numérique —, le concept d’édition est mis en perspective avec un second concept : l’éditorialisation. Sa définition en sciences de l’information et en études des médias, ainsi que sa confrontation au concept d’édition, ouvre de nouvelles perspectives, et notamment celle d’un débordement des liens entre dispositifs techniques et visions du monde au-delà de la production de livres. Pour confirmer ce concept, et considérer la technicité du dispositif littéraire qu’est l’édition, nous présentons et analysons la chaîne d’édition à l’origine des livres des Ateliers de [sens public] — dont un ouvrage a été présenté dans le chapitre précédent (voir 1.5. Les Ateliers de [sens public] : repenser le livre). Procédé technique, chaîne d’édition ou processus complexe, le Pressoir est une réponse à des enjeux éditoriaux, et la construction d’un environnement pour penser de nouvelles modélisations conceptuelles. Le Pressoir est aussi une expression de l’édition d’aujourd’hui. Après le livre comme artefact littéraire, c’est donc l’édition comme acte technique que nous étudions, avant d’aborder le numérique comme espace et comme moyen. 2.1. Évolution de l’édition [1ac73c3] L’édition est une activité qui regroupe plusieurs actions distinctes dont l’objectif commun est de faire circuler un texte, une connaissance, une création, une idée. Cette activité a grandement évolué, les dimensions culturelles, économiques ou techniques n’étant pas les mêmes au quinzième et au vingt-et-unième siècles. Il s’agit donc de montrer combien l’édition s’est transformée et se transforme encore, en abordant quelques-unes de ses figures (en Europe et en France) et en nous attardant plus longuement sur ses processus : du libraire aux plateformes, de la composition de pages imprimées à l’occupation d’espaces numériques, et de procédés artisanaux à une industrialisation massive. À travers cette description nous établissons une définition (actuelle) de l’édition.   2.1.1. L’édition : une activité qui agit Dans la perspective de l’étude de pratiques et de dispositifs éditoriaux, l’édition est, malgré une certaine polysémie, d’abord considérée comme une activité, et une activité qui vise à rendre disponible un texte, encapsulant par là toutes les étapes nécessaires à cette réalisation.   A. Reproduction, publication et diffusion commerciale par un éditeur d’une œuvre sous forme d’un objet imprimé. B. Préparation du texte d’une œuvre en vue de sa publication. (CNRTL, 2012)   Une première définition de l’édition est clairement attachée à des actions sur un contenu qui permettent de le rendre disponible et lisible. Il s’agit d’accessibilité dans le sens de rendre disponible au public via différents canaux, et de compréhensibilité dans la préparation d’un artefact qui doit être consultable et mémorisable.   Avant de rendre public le texte d’un auteur, de le publier, l’éditeur digne de ce nom doit en effet le travailler et le transformer profondément pour en faire surgir ce qu’on appelle un livre. (Mollier, 2015, p. 8)   La seule mise à disposition, la publication, ne suffit pas à définir l’édition. L’étymologie du mot édition renvoie à la notion de production, le terme étant emprunté au latin impérial editio qui signifie notamment “production, édition”. Éditer c’est produire quelque chose, que ce soit dans le cadre de la “préparation du texte” ou pour la commercialisation d’un objet culturel.   Une édition est constituée de l’ensemble des exemplaires produits en une seule ou plusieurs opérations à partir d’une même composition typographique. […] L’édition est essentiellement une opération manufacturière, vérifiable matériellement et objectivement. (Mailloux, 1980)   Le terme édition est pluriel et peut également renvoyer vers la question de la co-existence de multiples exemplaires et versions, ou vers deux activités distinctes. Dans cet article de bibliothéconomie, Pierre Mailloux explique combien il est difficile de définir ce qu’est une édition lors de l’opération de catalogage. Le critère retenu est celui de la composition du livre, plus que celui du contenu (dans ce texte de 1980, rappelons-le). Ainsi, une édition est considérée comme telle lorsque la composition du texte est différente d’une autre édition, à contenu équivalent. L’enjeu est loin d’être anodin, définir précisément ce qu’est une édition permet de classer un document pour pouvoir le définir, le retrouver mais aussi pour lui donner une valeur symbolique. Enfin, autre point d’attention nécessaire dans cette polysémie, la langue anglaise distingue deux termes pour résumer l’acception française de “édition” : editing et publishing. L’un concerne le travail sur le contenu (textuel ou non), et le second désigne les différentes étapes nécessaires pour produire et publier (voire commercialiser) un artefact. Un editor en anglais qualifie autant un éditeur de texte qu’un monteur de film, l’activité d’édition consisterait donc dans un réagencement de fragments ou de séquences.   L’édition de livres, imprimés ou numériques, joue un rôle central dans l’organisation du débat public. C’est même au cœur de la définition de l’édition qui consiste à placer des textes d’auteurs dans l’espace public et à stimuler leur visibilité. (Quinqueton, 2019)   Publier est une part de l’édition — et non l’inverse. Le fait de rendre publique une information dans un espace public est l’une des conditions du fonctionnement des sociétés occidentales modernes puis contemporaines, et de la vie des idées. Le livre joue un rôle décisif avec son format clos qui permet une diffusion via différents lieux comme des librairies, des bibliothèques ou d’autres espaces de médiation — marchands et non marchands. En permettant de placer le livre dans ces espaces, l’édition devient une capacité d’agir. Plusieurs éléments sont récurrents dans ces différentes définitions de l’activité d’édition : travailler une matière (d’abord textuelle) qui provient d’un auteur/créateur ; faire exister un texte puis un livre dans un espace public ; utiliser des méthodes précises pour cette réalisation ; inclure la technique dans cette activité ; disposer d’une structure organisationnelle pour être en mesure d’éditer. L’édition est un moyen d’agir, c’est une activité politique. Il est primordial de prendre en considération cette dimension et donc la puissance potentielle d’une structure d’édition ou des personnes qui la représentent. Quand bien même une telle structure semble petite par la taille de son catalogue ou de son équipe, placer un texte dans l’espace public a un effet sur cet espace : répercussions médiatiques, réactions populaires, modifications sociales, débats citoyens, etc. L’exemple de L’insurrection qui vient est particulièrement marquant dans l’espace public français du début des années 2000 en France (Margantin, 2009) : l’ouvrage est placé comme acteur clé dans l’accusation d’acte terroriste d’un groupe de personnes, dans l’affaire dite “de Tarnac”. Le livre est utilisé comme catalyseur d’un récit créé par le pouvoir judiciaire et qui sera ensuite démenti par la justice elle-même : “L’audience a permis de comprendre que le “groupe de Tarnac” était une fiction” (Seckel, 2018). Pour toute activité d’édition il y a un pouvoir en action.   2.1.2. Historique d’un phénomène, d’une figure et d’un concept L’édition, convergence de plusieurs activités humaines, est un domaine relativement méconnu dans l’espace public, dont la figure de l’éditeur (note : Dans la suite de cette section nous utilisons majoritairement le masculin, même si ce genre est loin d’être neutre. Historiquement l’édition est d’abord une activité d’hommes, ce qui explique notre usage du terme dans cette approche historique, en revanche aujourd’hui la situation a bien changé.) est la partie la plus visible. Lorsqu’il s’agit d’aborder les évolutions liées au texte ou au livre, l’activité d’édition est en effet rarement explicitée en détail. De nombreux écrits sont consacrés au livre et à son contenu, moins aux procédés nécessaires à cet aboutissement. Les articles de presse ou de magazine parlent du futur de la littérature, du futur du texte ou du futur du livre, mais presque jamais du futur de l’édition. Les nombreux événements liés au livre ou à l’édition le prouvent d’ailleurs : ce sont presque toujours des “salons du livre” et rarement des “salons de l’édition” ou “des éditeurs et des éditrices”.   L’édition est un secteur largement méconnu, discret, voire mystérieux pour beaucoup. (Eyrolles, 2009, p. 8)   La raison de ce “mystère” ou de cette discrétion repose probablement sur la dimension économique de cette activité. Nous ne l’avons pas encore dit, mais l’édition est toujours une activité économique — économie marchande, non marchande, du savoir, etc. Éditer c’est donc produire une valeur, valeur qui peut être échangée, valeur qui est décidée par celles et ceux qui font les livres. Pour comprendre la naissance de l’édition et son évolution, il faut passer de l’activité à la personne qui exerce cette activité, l’éditeur. La figure de l’éditeur est une figure ancienne, que décrit longuement Jean-Yves Mollier dans Une autre histoire de l’édition française :   Innovateur et offreur à la fois de nouveaux produits et de nouveaux contenus, le libraire-éditeur, puisque telle sera longtemps l’appellation qui le désignera, créait de toutes pièces un marché qui s’ignorait et décidait de susciter une demande qui n’existait pas. (Mollier, 2015, p. 113)   La formalisation de cette figure a lieu dès les débuts de l’imprimerie à caractères mobiles, donc dès le quinzième siècle, en France et en Europe. Avant le “libraire-éditeur” évoqué par Jean-Yves Mollier, c’est le libraire-imprimeur qui assure l’édition et la production des textes. Une rupture est opérée entre deux métiers qui sont aussi deux commerces : en France en 1810 un décret régularise l’activité de publication, avec un contrôle plus important des livres mis en circulation. Ainsi, la conception et la vente du livre concernent le libraire-éditeur, alors que le libraire-imprimeur se charge de la production et de la vente. L’origine de l’éditeur est donc autant dans la préparation du texte que dans sa commercialisation, entre ces deux phases se situent la fabrication et la production du livre. Dès l’apparition de l’impression à caractères mobiles, le “libraire-éditeur” (et parfois aussi imprimeur) est l’intermédiaire entre l’auteur et le lecteur. Plusieurs moments clés ont marqué l’évolution de la figure de l’éditeur, sur les plans culturel et économique. Nous nous concentrons ici sur la situation française, d’une part parce qu’elle est longue et fait figure d’exemplarité en Europe ou en Occident, et d’autre part parce qu’elle est très documentée. Après la distinction entre éditeur et imprimeur au début du dix-neuvième siècle, c’est au tournant des années 1830 que l’éditeur devient la “plaque tournante des métiers du livre” (Mollier, 2015). Sans éditeur, pas de livre, et donc pas de circulation de la connaissance. L’industrialisation du monde du livre qui débute alors, principalement grâce à l’accélération des moyens de production des livres imprimés, confirme cette position centrale. Homme de lettres et libraire, l’éditeur est un intellectuel et un négociant. Aujourd’hui, cette figure duale — quoique diluée dans un capitalisme omniprésent (Schiffrin, 1999) — est toujours celle de l’éditeur. Autre particularité importante, l’édition, comme d’autres industries culturelles, est une économie de prototypes (Chantepie & Le Diberder, 2010, p. 40). Étant donné que la réception des titres publiés ne peut pas être totalement anticipée, le succès d’un titre est incertain. Les grands groupes d’édition tentent de fabriquer des succès, et ainsi de fabriquer des modèles reproductibles. Quoi qu’il en soit il y a une part de prise de risque importante dans l’activité d’édition, faite de tests, d’essais, et donc parfois de réussites et d’échecs (échecs d’estime ou économiques). Cette dimension de prototypage a une incidence sur toute la chaîne du livre, et sur la relation entre économie et texte : la façon dont le texte est travaillé (édité) puis fabriqué (publié) est alors déterminante. Il est alors nécessaire d’investir dans la formalisation de chaque texte, unique, tout en permettant une reproduction en grand nombre de ce contenu, et en espérant une reproductibilité pour les prochains titres. L’édition s’est plus récemment constituée autour de phénomènes économiques tels que des regroupements ou des rachats, c’est le cas un peu partout dans le monde, nous nous focalisons ici sur la situation en France. Dès le milieu du dix-neuvième siècle un mouvement de concentration des maisons d’édition est entamé par Louis Hachette, mouvement qui s’accélère fortement dans les années 1950-1960 avec Hachette qui absorbe de nombreuses structures éditoriales (comme Grasset, Fayard, etc.). Au début des années 2000 nous assistons à un phénomène de concentration tel que le terme oligopole est utilisé : le monopole (nombre de titres et flux financiers) appartient à une poignée de grands acteurs comme Hachette, Editis, Gallimard ou quelques autres. Même si l’édition est un domaine de marchandage où les structures naissent, fusionnent, meurent et renaissent, le phénomène de concentration s’accélère à partir de la deuxième moitié du vingtième siècle. De grands groupes d’édition apparaissent, jusqu’ici considérés comme des maisons d’édition déjà imposantes, et aspirent de nombreuses structures. Le panorama des structures éditoriales marchandes est appelé un oligopole à frange (Reynaud, 1982), en raison du petit nombre de très grandes structures qui occupent l’espace économique, et du grand nombre de moyennes et petites structures qui animent l’espace culturel. Cet oligopole à frange est une spécificité de l’industrie culturelle en Europe et en France : pour que quelques grandes entreprises puissent être en situation de monopole il faut néanmoins conserver une certaine bibliodiversité, assurée par de nombreuses structures éditoriales de taille moyenne et de très nombreuses petites structures. L’industrie du livre se structure aussi autour de deux grandes activités que certains groupes d’édition intègrent : la diffusion (opérations commerciales visant à faire connaître le livre) et la distribution (flux logistiques et financiers permettant de donner accès au livre au vendeur tiers), à la fois de leurs propres catalogues mais aussi ceux de petites et moyennes structures. Et c’est ici que se jouent les questions de constitution de grands groupes, puisque la partie la plus rentable de ces véritables industries est justement la distribution ou la diffusion proposées (et parfois imposées) aux maisons d’édition du groupe ou aux structures externes qui ne disposent pas de ces services (Mollier, 2022). L’équilibre, pour le moins temporaire ou précaire comme le démontre le feuilleton inquiétant des nombreux rachats, semble nécessaire entre des petites maisons d’édition dites indépendantes, et de grands groupes industriels — équilibre d’un point de vue purement financier. La masse que représentent des titres produits en abondance par des grands groupes permet à d’autres titres — confectionnés plus artisanalement par des petites maisons d’édition — d’exister et de constituer une vie intellectuelle diversifiée. L’édition est ainsi un phénomène culturel et économique, dont l’éditeur est une figure qui nous permet d’identifier l’émergence de cette activité et ses mécanismes. Définir l’édition nécessite de s’attarder sur le fait que c’est également un objet de recherche en sciences humaines — notamment en sciences de l’information et de la communication — ce qui nous permet de considérer cette notion comme un concept, voire comme une théorie. Les recherches sur l’écriture constituent un socle théorique sur lequel se basent les écrits sur l’édition. Il est donc nécessaire de mentionner plusieurs courants de pensée, d’André Leroi-Gourhan (Leroi-Gourhan, 1964) à Anne-Marie Christin (Christin, 2009) en passant par Jacques Goody (Goody, 1979) ou Jacques Derrida (Derrida, 1967). La question de l’origine de l’écriture passe par une analyse de son image ou d’une recherche sur l’apparition et la construction de l’alphabet ou de l’idéogramme. Un déplacement du regard sémiologique est opéré sur l’édition, définissant ainsi sa constitution, notamment grâce à la théorie de l’énonciation éditoriale (Souchier, 1998) proposée par Emmanuël Souchier et rejoint par Yves Jeanneret. Nous l’avons déjà dit, les questions historiques de l’édition sont très étudiées, notamment par Henri-Jean Martin (Martin, Delmas& al., 1988), Roger Chartier (Chartier, 1992), Jean-Yves Mollier (Mollier, 2015), Robert Darnton (Darnton & Revellat, 1992) ou Yann Sordet (Sordet & Darnton, 2021) — pour ne citer que quelques références situées en France. Les théories de l’édition se concentrent le plus souvent sur le champ de l’édition critique, soit la mise en relation de plusieurs éditions de textes généralement manuscrits et accompagnés d’un important apparat critique. Si nous abordons l’édition critique par la suite (voir 3.3. Éditer avec le numérique : le cas d’Ekdosis) dans le cadre d’une étude d’un processus technique d’édition, elle ne concerne pas directement nos recherches. Les enjeux liés à l’élaboration d’espaces de connaissance, par l’édition et en prenant en considération des processus techniques au-delà des seuls procédés d’impression, font l’objet d’études plus isolées. À ce titre nous mentionnons les questions soulevées par le concept d’éditorialisation, concept qui embrasse le numérique, et que nous abordons plus longuement par la suite (voir 2.4. L’éditorialisation en jeu). L’édition est donc un phénomène, mais également un concept que justifient ces recherches académiques multiples.   2.1.3. Les trois fonctions de l’édition Les procédés techniques d’édition disposent de nombreux ouvrages de documentation, abordant autant la réalisation d’un contrat d’édition, les systèmes de diffusion, la composition typographique, ou encore la compréhension du marché du livre. Les rouages techniques et économiques sont expliqués dans des essais et des manuels, principalement pour répondre aux besoins pratiques des personnes œuvrant dans des structures d’édition. Sans faire un recensement de ces références, nous pouvons noter plusieurs approches complémentaires. Tout d’abord les traités qui abordent toutes les facettes de cette activité au vingtième (Syndicat national de l’édition, 1973) ou au vingt-et-unième siècle (Schuwer, 2002), dans une perspective résolument économique. Il s’agit d’énumérer les opérations d’édition, parfois dans une entreprise encyclopédique pour mieux cerner cette “industrie culturelle” (Eyrolles, 2009). Cela est particulièrement visible en constatant que ces ouvrages sont eux-mêmes édités par des regroupements professionnels ou des professionnels de la profession. Par ailleurs, c’est moins l’activité qui est alors définie, que la figure de l’“éditeur”. Un volet théorique est parfois intégré en préambule, notamment sur la définition des fonctions de cette figure, comme le propose Philippe Schuwer (Schuwer, 2002, p. 15-38) : la découvrabilité, la fabrication et son financement, la diffusion/distribution, la promotion du fonds, et l’obligation de résultats. Les enjeux économiques recouvrent alors le projet intellectuel et la dimension de constitution du savoir et sa nécessaire transmission. À ce titre, l’entretien avec Éric Hazan (Hazan & Moret, 2016) constitue un texte utile pour comprendre les tensions entre différents types de structures, en lien direct avec les diverses opérations techniques et le projet politique inhérent à toute activité éditoriale. Enfin, d’autres ouvrages proposent un regard plus large sur les perspectives de l’édition partout dans le monde (Macvey & Altbach, 1976), ou se concentrent sur les aspects essentiels (Dessauer, 1989) pour qui souhaitent éditer — ou auto-éditer. Nous retenons plus particulièrement un ouvrage qui porte un regard théorique sur l’édition en tant qu’activité autour de trois fonctions centrales, détaillant ce qu’est l’édition dans sa globalité et sa complexité. Outre le fait que L’édition à l’ère numérique place justement le numérique en son centre, Benoît Epron et Marcello Vitali-Rosati élaborent plusieurs théories sans faire de dissociation entre un travail intellectuel et un travail technico-économique :   L’édition peut être comprise comme un processus de médiation qui permet à un contenu d’exister et d’être accessible. On peut distinguer trois étapes de ce processus qui correspondent à trois fonctions différentes de l’édition : une fonction de choix et de production, une fonction de légitimation et une fonction de diffusion. (Epron & Vitali-Rosati, 2018, p. 6)   Benoît Epron et Marcello Vitali-Rosati proposent une définition claire, synthétique et structurée de ce qu’est l’activité d’édition, en réalisant un travail de recherche scientifique également ancré dans des expériences pratiques (note : Marcello Vitali-Rosati co-dirige la collection Parcours numériques aux Presses de l’Université de Montréal.). “La fonction éditoriale” est ainsi un processus divisé en plusieurs étapes et fonctions, centrée autour de la “médiation” : le travail sur le texte et l’artefact ; la reconnaissance accordée à l’acte et à la personne qui édite, puis appliquée à l’objet culturel ; et la transmission de cet objet dans un espace économique, marchand ou non. Ce qui nous semble déterminant dans cette définition — détaillée sur plusieurs pages dans l’ouvrage L’édition à l’ère numérique (Epron & Vitali-Rosati, 2018, p. 6-10) — est le fait de prendre en considération autant le texte que l’artefact final, de signifier l’importance de la légitimation, et enfin de ne pas omettre le rôle de médiateur du livre. Autre distinction décisive et inédite réalisée par Benoît Epron et Marcello Vitali-Rosati, la séparation entre l’instance éditoriale et la maison d’édition. Si les maisons d’édition ont, depuis l’invention de l’imprimerie à caractères mobiles, été les principales instances éditoriales, ce n’est plus forcément le cas depuis l’avènement du Web, l’édition n’est plus une activité qui leur est réservée. Plusieurs exemples attestent de ce phénomène, et notamment la naissance de plateformes d’autoédition ou de publication en ligne sans figure d’éditeur ou d’éditrice. Les fonctionnalités de ces plateformes, ainsi que leurs conditions générales d’utilisation, constituent alors peut-être de nouvelles formes d’instances éditoriales. Nous considérons l’édition comme un processus dont sont issus des artefacts très divers, tant en termes d’objets (produits) que de formes (fabriquées), comme nous l’avons vu précédemment (voir 1.2. La forme du livre et sa matérialité). L’édition, en tant que processus, n’est pas une activité monosémique, il faut prendre en compte la diversité des pratiques, comme il existe une grande variété de formes du livre.   2.1.4. Des éditions Il est vain de chercher une définition uniforme de l’édition, et il est plus pertinent de parler d’éditions plurielles (note : Tout en notant l’ambiguïté qui surgit, nous ne parlons pas ici des différentes versions éditées.), quelle que soit l’époque. De multiples formes d’éditions se succèdent ou cohabitent, les trois livres présentés dans le premier chapitre (voir 1. Le livre, cet artefact éditorial) de cette thèse l’attestent (note : The Book et The Book: 101 Definitions d’Amaranth Borsuk, Busy Doing Nothing du collectif Hundred Rabbits, et Exigeons de meilleures bibliothèques de R. David Lankes). Plusieurs types d’initiatives existent, se chevauchant parfois, autant en termes de domaines que de modèles. Il y a ainsi une forte disparité de formes et de procédés éditoriaux entre la littérature, les essais, les ouvrages scientifiques, les livres pratiques, et les manuels scolaires ou universitaires (ou textbooks en anglais), pour ne donner que quelques exemples. Le travail de structuration, de composition ou de mise en forme pour produire un livre pratique sur la sérigraphie est très différent de celui pour publier un essai sur l’histoire de l’impression en occident. Les modèles d’organisation varient également, cela est particulièrement visible entre une maison d’édition dite indépendante (qui n’appartient à aucun groupe financier) dont l’équilibre financier est fragile, des presses universitaires qui sont souvent rattachées à une université, ou un groupe de médias qui intègre maisons d’édition et chaînes de télévision. Les contraintes financières, la liberté de publication, l’organisation interne ou encore la visibilité médiatique diffèrent entre ces types de modèles. Pour reprendre deux livres déjà présentés et écrits et édités par Amaranth Borsuk (voir 1.1. Le livre : fonctions, concept et modes de production), The Book publié aux Presses du MIT n’a pas été édité et produit dans les mêmes conditions que The Book: 101 Definitions publié par Anteism. Les deux ouvrages ne disposent pas de la même visibilité (nombre d’exemplaires et variété des espaces de diffusion et de vente) et de la même légitimité (reconnaissance des deux structures d’édition). Il est ici nécessaire de prendre en considération le lien ténu entre la structure qui édite et la façon d’éditer, autant que celui entre les contenus d’un livre et la maison d’édition qui la porte. En termes de diversité, les objets étudiés dans le cadre de cette thèse ont en commun d’être majoritairement issus d’initiatives non conventionnelles. Par initiatives non conventionnelles nous entendons des démarches qui questionnent les dispositifs techniques d’édition, fabriquent des formes livresques originales, ou se placent dans les marges (économiques et médiatiques) de la chaîne du livre. Le corpus ainsi constitué présente autant de limites que de choix assumés : il ne s’agit pas d’établir un panorama exhaustif, mais d’analyser plusieurs initiatives et d’identifier des motifs et des modélisations. Notre corpus est composé d’objets et de dispositifs dont les chaînes de production sont visibles et qui peuvent être étudiées. Ces chaînes d’édition consistent en l’assemblage de logiciels ou de programmes qui traduisent une posture éditoriale et politique, il s’agit de démarches spécifiques qui établissent un questionnement continu de la technique, et qui ne peuvent se résoudre à adopter des produits logiciels pour l’édition sans une remise en cause profonde — quand bien même ces produits répondent à des besoins. Ces structures non conventionnelles ont plusieurs points communs : une volonté de construire le référencement de leur catalogue, souvent hors des canaux habituels ; une qualité éditoriale élevée, y compris avec des artefacts se distinguent formellement ; la constitution de communautés actives qui permettent une diffusion ; la recherche et l’expérimentation de modes de fabrication et de production originaux ou inédits. Se placer à la marge des maisons d’édition les plus visibles — et les plus étudiées — participe à cette diversité de formes et de pratiques. Notre définition de l’édition doit parvenir à intégrer ces spécificités, tout en la considérant comme un outil de notre recherche.   2.1.5. Pour une définition actuelle de l’édition Qu’est-ce que l’édition aujourd’hui ? Les chercheuses et les chercheurs qui ont répondu à cette question sont nombreux, comme Henri-Jean Martin (Martin, Delmas& al., 1988), Roger Chartier (Chartier, 1992), Jean-Yves Mollier (Mollier, 2015), Robert Darnton (Darnton & Revellat, 1992), Pascal Fouché (Fouché, 1998), André Schiffrin (Schiffrin, 1999) ou Sophie Noël (Noël, 2012). Benoît Epron et Marcello Vitali-Rosati, après eux, proposent une approche qui nous intéresse plus particulièrement, elle consiste à produire une description conceptuelle qui ne délaisse pas la technique, à ce titre elle est utile à notre démarche générale de recherche sur les processus d’édition. Définition Édition L’édition est un processus technique qui fabrique du sens sous la forme d’artefacts, comme le livre. L’édition est une activité située dans des environnements économiques (marchands et non-marchands), elle se décompose en des étapes précises qui peuvent varier selon ces environnements et selon le projet politique associé. L’édition comprend un travail de clarification et de mise en relation de contenus, sur et autour d’un texte, produisant une légitimation à plusieurs facteurs. La préparation de la diffusion des contenus — rassemblés, sélectionnés, travaillés, et légitimés — fait partie intégrante de l’édition. Au cœur de la démarche d’édition se situe la fabrication et la production de formes et d’objets éditoriaux, des artefacts qui révèlent ces façons de faire. L’édition est enfin un concept, principalement en raison des recherches académiques dont elle fait l’objet. Il s’agit désormais de prolonger ces réflexions sur le processus, et de quitter les questions de chaîne du livre ou d’organisation pour explorer plus précisément ses rouages. Cette définition de l’édition centrée sur le processus doit désormais être complétée avec une double dimension d’acte et de dispositif. 2.2. L’acte, le dispositif et l’action [07f3e07] L’édition est un processus qui produit des artefacts. L’édition est également un processus qui agit, mais s’agit-il d’une énonciation ? D’un geste ? D’un acte ? Un acte est une “manifestation concrète des pouvoirs d’agir d’une personne, ce que fait une personne” (CNRTL, 2012), un éditeur ou une éditrice dans notre cas. L’édition est un processus actant puisqu’il se manifeste dans la fabrication d’une forme et la production d’un objet (le livre) résultat du travail sur un texte : c’est l’hypothèse que nous formulons. L’édition est une action sur le monde, dont les effets peuvent être constatés, et dont les rouages dévoilent en détail cet acte ; nous écartons ainsi toute essentialisation voire toute romantisation de l’édition. Considérer l’édition comme un acte requiert quelques préalables que nous explorons en abordant la théorie de l’énonciation éditoriale d’Emmanuël Souchier (Souchier, 1998), puis celle du geste éditorial de Brigitte Ouvry-Vial (Ouvry-Vial, 2007). Si l’édition, processus technique, est un acte, il se traduit dans un dispositif, c’est-à-dire un ensemble complexe et organisé d’actions, qui ont un agencement spécifique. Un dispositif implique plusieurs perspectives que nous abordons, apportant aussi un regard critique nécessaire à ces propositions. Enfin, la dimension politique du dispositif nous invite à considérer l’édition comme une action, dépendant des mécanismes techniques convoqués. L’acte, le dispositif et l’action sont trois dimensions qui nous permettent d’augmenter la définition de l’édition jusqu’ici exposée, toujours dans l’objectif de prendre en considération les processus de fabrication des livres.   2.2.1. Éditer est un acte Si un livre est considéré comme un objet ordinaire, il porte pourtant les traces d’un processus complexe. Des empreintes diverses — structure du texte, paratexte, composition typographique, caractéristiques de l’objet imprimé, code informatique pour un livre numérique, etc. — sont laissées par des interventions multiples lors de l’édition. Il s’agit de la théorie de l’énonciation éditoriale d’Emmanuël Souchier, théorie qui permet de prendre en considération un objet comme le livre en tant que signifiant total, mais aussi en tant qu’objet de pouvoir.   L’énonciation éditoriale présente deux caractéristiques essentielles. La première concerne la pluralité des instances d’énonciation intervenant dans la constitution du texte ; la seconde, le fait que les marques d’énonciation éditoriale disparaissent derrière la banalité quotidienne et relèvent par là même de « l’évidence » (Brecht), du « non-événement » (Cyrulnik) ou de « l’infra-ordinaire » (Perec), autant de manifestations absorbées par ce que Montaigne ou Pascal – sur les pas de Cicéron – appelaient la « coutume ». (Souchier, 1998, p. 140)   L’objet livre porte des signes — en grande partie transparents ou invisibilisés — des instances d’énonciation qui permettent son existence. Ces signes sont souvent ignorés ou considérés comme mineurs, ils sont pourtant partie intégrante du livre et du pouvoir qu’une instance éditoriale peut exercer à travers lui. En plus de nous placer dans la position d’un sémiologue comme nous invite à le faire Emmanuël Souchier, la théorie de l’énonciation éditoriale nous permet de prendre en considération les multiples “voix” (Souchier, Candel& al., 2019, p. 310-311) qui font partie du processus, cette “polyphonie éditoriale” qui révèle les “corps de métiers” qui interviennent sur le texte, et qui sont la condition d’existence du livre. À la suite de cette théorie, Brigitte Ouvry-Vial propose d’analyser les manières d’éditer dans L’acte éditorial : vers une théorie du geste (Ouvry-Vial, 2007). Elle part du constat que l’acte éditorial n’est pas considéré dans les sciences humaines, plus particulièrement au vingtième et vingt-et-unième siècle et dans une perspective médiologique. À la suite des travaux de Gérard Genette sur le paratexte, elle pointe la nécessité de se concentrer sur les façons de faire : il y a livre s’il y a transmission, et non uniquement parce que cet objet est produit. Ce qui intéresse la chercheuse c’est l’édition comme processus, et plus spécifiquement comme processus de réception et de lecture.   Si l’on considère le livre comme le résultat d’un travail sur le texte et l’image dans lequel le support formel du livre imprimé, comme le texte lui-même, constituent une même séquence spatio-temporelle, éditer consiste en effet à proposer une lecture d’une œuvre écrite ou visuelle par le biais d’un arrangement conceptuel et formel (papier, format, caractères, mise en page mais aussi établissement du texte, présentation, traduction…) qui conditionne le sens et l’interprétation de l’écrit. (Ouvry-Vial, 2007, pp. 72-73)   Notre recherche porte sur ce que nomme l’autrice “arrangement conceptuel et formel”. Brigitte Ouvry-Vial met en regard deux réceptions, celle de l’éditeur ou de l’éditrice, et celle du lecteur ou de la lectrice. La réception éditoriale est une lecture spécifique, faite dans l’objectif d’une “mise en livre” d’un texte. Il s’agit donc de comprendre les intentions de l’auteur ou l’autrice et de les traduire à travers la fabrication d’un objet éditorial. La réception du lecteur est une lecture qui n’a pas comme objectif la remédiation du texte — remédiation qui peut se traduire par la production d’un livre. À la suite de ces éléments elle définit l’acte éditorial comme les “pratiques culturelles et intellectuelles des éditeurs contemporains [et les] formes symboliques qui en découlent”. Brigitte Ouvry-Vial considère le terme d’acte comme trop général, elle y préfère le geste :   Le terme de geste désigne donc dans un premier temps le double acte de lecture et de mise en livre et par extension l’organisation dans le livre des conditions de réception de l’œuvre. (Ouvry-Vial, 2007, p. 79)   La théorie du geste éditorial prolonge notamment celle d’Emmanuël Souchier. L’usage que fait Brigitte Ouvry-Vial du terme geste se justifie dans le développement de cette théorie, tournée vers ce double mouvement de réception et de transmission, ou d’“écriture” et d’“énonciation” comme le formule la chercheuse. D’un point de vue lexical le mot “geste” intègre une dimension de spontanéité, comme une épiphanie évanescente qui porte un acte sans le réaliser totalement. Pour dépasser cette acception du terme “geste” que nous donnons ici, Yves Citton explore longuement son ambiguïté dans Gestes d’humanités: anthropologie sauvage de nos expériences esthétiques (Citton, 2012) et plus particulièrement à travers plusieurs contradictions. L’une d’elle concerne l’écart entre feintise et accomplissement, et l’action qui est permise à travers la performance. Considérer la figure de l’éditeur plutôt que l’activité d’édition nourrit cette conception du geste éditorial, où la faisabilité est supérieure à la réalisation effective, où l’édition repose plus sur une reconnaissance antérieure que sur le travail technique sur un livre.   […] il serait vain de vouloir distinguer trop rigidement entre les « gestes » mis en scène pour la galerie, « pour signifier », en visant des fins exhibitionnistes et manipulatrices, et les « actes » exécutés à des fins purement pratiques, sans égard envers l’existence ou l’inexistence de spectateurs. (Citton, 2012, p. 35)   Il s’agit ici de dépasser le geste pour définir l’édition comme un processus qui intègre des actions précises et multiples : lecture, structuration, correction, composition, fabrication, production, publication, etc. Nous conservons cette expression d’acte éditorial, car elle intègre la dimension technique propre à l’édition en tant que processus. Définition Acte éditorial L’expression d’acte éditorial permet de prendre en considération la question de l’action en tant qu’effet de l’édition sur le texte et qu’effet de l’objet créé sur le monde. Le terme d’acte correspond à une définition de l’édition comme processus et comme réalisation d’une intention. Le geste appelle une intention sans prendre en compte les conditions de réalisation de cette intention. Nous considérons que les figures tutélaires du livre ne suffisent pas à expliquer l’édition. Considérer l’édition comme un geste limite ce processus à une série de décisions ou à la mise en place d’un contrôle sur le texte, sans en expliquer les rouages, et donc sans décrire précisément l’édition en tant que dispositif. L’édition est ainsi un dispositif technique permettant la médiation d’un contenu à travers la réalisation d’un artefact.   2.2.2. Un dispositif en action L’édition est un processus technique, un acte qui est constitué par un dispositif.   Au sens technique, un dispositif est un ensemble d’objets qui sont disposés et articulés dans l’espace, qui vont donner lieu à un déroulement temporel, une exécution […]. Un dispositif est un assemblage de pièces dont la disposition assure le fonctionnement. (Bachimont, 2020, pp. 219-220)   Pourquoi dispositif et non simplement processus ? Le terme de dispositif, bien que polysémique, précise qu’il s’agit d’un agencement d’éléments, et que cet agencement a pour objectif la réalisation d’une action. Le terme de processus définit quant à lui une suite d’étapes qui se suivent les unes après les autres, liées entre elles par une temporalité ou une suite logique, dont l’ensemble crée une cohérence. Le processus n’explicite pas l’organisation des phases, les fonctions induites, ou le but de ces dernières. Dispositif apporte ces deux dimensions : une combinaison d’éléments qui ne relèvent pas seulement de la succession, et le but prédéfini d’une action et de ses étapes.   Dans l’ingénierie, le dispositif (device) désigne souvent le composant d’un système, strictement lié à une fonction, alors que dans l’analyse sociale des pratiques de communication, cette dimension technique est comprise dans le sens plus large d’une mise en ordre des signes, des relations et des pouvoirs. (Jeanneret, 2005, p. 51)   Le terme de dispositif est complexe, car il porte plusieurs sens et qu’il provoque une curiosité et une recherche du fonctionnement des choses. Son sens philosophique engendre de nombreux positionnements théoriques et plus particulièrement dans le champ des sciences de l’information. Une définition issue des travaux de Michel Foucault (Foucault, 1975) est centrée sur la relation de pouvoir qui permet au dit et au non-dit de constituer le dispositif. Nous nous intéressons ici au dispositif en tant qu’agencement de méthodes et d’éléments techniques opéré par une personne dans l’objectif de réaliser une action spécifique. La machine joue un rôle de catalyseur dans le dispositif, elle permet de le penser, de le formuler de façon univoque par l’entremise de l’organisation précise de briques technologiques. À ce point de notre réflexion nous nous interrogeons sur l’effet du dispositif sur la personne qui l’utilise. Dans les pratiques métiers de l’édition nous constatons une forme d’assujettissement : les logiciels habituellement utilisés forment un dispositif dont dépendent les personnes qui l’utilisent. Une modification dans le fonctionnement d’un logiciel comme InDesign provoque une adaptation nécessaire des personnes qui y recourent. La complexité du logiciel, et surtout le fait qu’il soit particulièrement difficile de le modifier — et même illégal, en effet la licence propriétaire comporte notamment cette interdiction — empêche le fonctionnement inverse : l’adaptation de l’outil aux besoins des personnes (note : Nous devons tout de même préciser qu’il est possible d’ajouter une couche logicielle par l’entremise de scripts dans InDesign, mais ces scripts sont sujets à l’obsolescence en raison de l’évolution du logiciel même.). En plus d’être un acte en tant qu’action sur les textes — et un acte en tant que les livres ont eux-mêmes une action sur le monde —, l’édition est un dispositif en cela qu’il agit sur les personnes qui l’utilisent. Les outils techniques et leur agencement ne sont pas neutres, ils ont une influence sur la façon de penser et d’éditer un texte. Prenons un exemple : l’affichage sous forme de pages que proposent habituellement les traitements de texte ne permet pas d’appréhender une édition numérique. Le fait que le texte soit reconfigurable avec le format EPUB, ou qu’il soit déroulable tel un rouleau ou volumen avec une page web, n’est en effet pas une dimension visible par la personne qui édite ou compose un texte sur un traitement de texte. Autre exemple : Google Doc est un traitement de texte avec des options similaires, quoi que plus réduites, à des logiciels comme LibreOffice Writer ou Microsoft Word. Ce n’est pas un outil sémantique, la qualification des différents types de texte n’est pas mise en avant, comme les niveaux de titre (titre principal, sous-titres, etc.), c’est le rendu graphique de ces éléments qui prime. La dimension architextuelle (Genette, 1979) d’un document est accessoire lorsqu’un texte est édité avec un tel outil. L’édition est un dispositif, ses conditions matérielles (ici des logiciels) nous amènent aussi à envisager qu’elles engendrent une pensée dispositive. Ces dispositifs n’existent que parce que nous les considérons, et ainsi affirmer la limitation de certains logiciels n’est valable que par le positionnement que nous adoptons par rapport à ces outils.   […] les dispositifs matériels d’édition ne sont pas seulement des formes d’incarnation d’une pensée abstraite, mais plutôt l’expression et la réalisation de cette même pensée. Comme le suggère Louise Merzeau, on pourrait recourir au mot “dispositif” comme un adjectif et parler dans ce sens d’une “pensée dispositive”, c’est-à-dire d’une pensée qui émerge à travers et par un ensemble précis de conditions matérielles et contextuelles. (Vitali-Rosati, 2023, p. 19)   Ainsi, les choix techniques opérés par certaines structures d’édition sont dictés par une intention autre que celle des logiciels eux-mêmes. Dans l’étude de cas qui suit (voir 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale), la structure d’édition compose son dispositif : ce ne sont pas des logiciels imposés de fait mais un choix raisonné et décidé avec une nécessité autre que la commodité ou l’efficacité. De cet agencement survient une pensée dispositive qui influence à son tour la modélisation du sens à travers des choix techniques. Il y a donc plusieurs dispositions. Il y a un dispositif imposé par des outils extérieurs ou des choix internes, mais aussi et surtout un processus dispositif dont la composition dépend des contraintes matérielles et des décisions des personnes qui opèrent cet ensemble, tout en considérant l’influence qu’à ce processus sur les nouveaux choix. Cette réflexivité, ce mouvement circulaire qui va des contingences matérielles vers les individus et inversement, est constitutif de ce que nous nommons fabrique, concept développé par la suite (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Une fabrique qui permet l’action.   2.2.3. Éditer = agir Définition Dispositif éditorial Un dispositif éditorial consiste en l’agencement de processus techniques en vue de produire un ou des artefacts, dans l’objectif de transmettre un texte. Il s’agit d’un dispositif parce que c’est une suite d’opérations liées et organisées dans un but précis, et que cette organisation technique est autant l’objet de décisions qui opèrent par des contingences matérielles, que le sujet qui génère des modélisations porteuses de sens. L’édition comprend une dimension politique d’abord parce que des textes — ou plus généralement des contenus — sont transmis. Une parole, une idée ou un discours est donc rendu public, et leur réception crée des effets. L’édition transmet un message, du livre de littérature jeunesse à l’essai, l’ouvrage promeut toujours un propos, et il peut aussi être ancré dans un mouvement intellectuel. L’édition est un dispositif, et cette question du dispositif implique également une dimension politique. Toute tentative de s’extraire de cette double dimension politique — contenu et dispositif —, et donc de promouvoir une démarche apolitique, est politique. Le message, ses conditions de transmission et sa réception : ces trois éléments ont des effets dans notre environnement, et peuvent provoquer des bouleversements importants — du Prince de Nicholas Machiavel (Lefort, 1986) au plus récent L’insurrection qui vient du Comité invisible publié par La Fabrique (Margantin, 2009), pour donner deux exemples paradoxaux. L’édition exerce un pouvoir politique. En tant que pouvoir politique, l’édition est une action sur le monde. Cette question de l’action est centrale dans la construction que nous donnons du concept d’édition. Nous nous concentrons plus particulièrement sur les conditions d’émergence des artefacts éditoriaux, et donc de la façon dont sont fabriqués et produits des livres. Les dispositifs habituels, basés sur des traitements de texte ou des logiciels de publication assistée par ordinateur, laissent peu de possibilités en termes d’adaptabilité, comme dit plus haut. Par ailleurs, ces logiciels sont pour la plupart propriétaires et conçus par des entreprises qui n’ont pas toujours de lien avec les métiers de l’édition ou de connaissance profonde du livre. Même quand il s’agit de logiciels libres — promus comme alternative comme c’est le cas avec Scribus face à InDesign —, ces interfaces graphiques ne permettent pas toujours d’accéder aux fonctionnalités attendues. Ou plutôt les interfaces graphiques guident les personnes qui l’utilisent à tel point qu’elles ne peuvent faire que ce qu’elles sont invitées à faire. Des détournements sont toujours possibles, mais ceux-ci impliquent une littératie difficile à acquérir par l’usage de ces interfaces WYSIWYG (note : What You See Is What You Get, ou ce que vous voyez est ce que vous obtenez.) faites de boutons. À aucun moment la personne qui utilise ces logiciels n’est invitée à comprendre le fonctionnement inhérent, le processus éditorial étant même parfois effacé par l’entretien d’une confusion entre la sémantique du texte et sa représentation graphique. Difficile alors de conserver une dimension politique dans le faire — et donc aussi dans l’action sur le monde — quand les outils sont si fermés. Cette question de l’action exercée avec des logiciels fait l’objet d’un article de Silvio Lorusso, intitulé “Liquider l’utilisateur” (Lorusso, 2021) (note : Originellement titré “The User Condition: Computer Agency and Behavior” dans sa première version en anglais.). L’objet de ce texte est de questionner la façon dont l’informatique a évolué et évolue, ainsi que nos usages, pour nous permettre, ou non, d’agir. À partir d’une distinction entre trois types d’activités, distinction empruntée à la philosophe Hannah Arendt, Silvio Lorusso analyse les interfaces informatiques et nos usages de celles-ci. Le labeur, le travail et l’action sont trois catégories qui peuvent être résumées ainsi : le labeur consiste à faire quelque chose de périssable ; le travail permet de produire des choses durables ; et enfin l’action déclenche des changements. En appliquant ces trois types d’activités au numérique, et à partir de plusieurs exemples — notamment le glissement vers des dispositifs informatiques toujours plus intuitifs mais fermés comme le téléphone intelligent —, il aboutit au constat que nous n’utilisons ces interfaces que comme “véhicule”, nous n’avons plus la possibilité d’agir.   En résumé, je propose de définir l’agentivité comme la capacité d’agir, qui est elle-même la capacité d’interrompre un comportement. (Lorusso, 2021, p. 16)   Pour Silvio Lorusso les logiciels et les plateformes laissent de moins en moins de possibilités pour agir, donc pour exercer une action qui contient en soi de l’imprévisible, ou qui offre une certaine liberté d’action ou de non action — en tant que celle-ci dépasse un encadrement strict des manipulations par la personne qui l’utilise. L’auteur de ce long texte fait mention des travaux d’Alan Kay et Adele Goldberg dans les années 1970 autour du développement de l’informatique personnelle avec le projet “Personal Dynamic Media” (Kay & Goldberg, 1977), sur lequel nous revenons plus longuement dans le cinquième chapitre de cette thèse (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). Silvio Lorusso, en plus de promouvoir des initiatives technologiques qui permettent de conserver une large liberté d’usage, propose de repenser notre relation à l’informatique en tant que pratique créatrice :   Nous n’écrivons le médium informatique que lorsque nous ne générons pas simplement du contenu, mais des outils. (Lorusso, 2021, p. 26)   Plusieurs antagonismes sont ici proposés, notamment entre deux praticités : l’autonome qui laisse visibles les paramètres permettant le choix par l’utilisateur, et l’hétéronome qui au contraire forme une boîte noire. L’exemple du flux RSS et du fil Twitter illustre bien cela : d’un côté la maîtrise totale pour diffuser et recevoir des informations depuis un site web (quel qu’il soit), autant en termes de création, de sélection ou de classement ; de l’autre des règles obscures avec un affichage qui dépend de paramètres en grande partie inconnus, sans possibilité de les modifier. L’impraticité est une série de comportements anticipés, il s’agit d’un “savoir-faire” automatisé. Pour Silvio Lorusso la littératie doit reposer sur le fait de comprendre comment les choses fonctionnent pour pouvoir automatiser ce qui peut l’être. L’édition est un acte en tant qu’il peut permettre une action, une agentivité ou une praticité au sens de Silvio Lorusso. L’étude de cas qui suit illustre concrètement une telle pratique d’édition : le choix et la maîtrise des outils d’édition amènent à repenser plusieurs éléments dont les artefacts produits, mais aussi la publication desdits outils. 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale [07f3e07] L’édition est une activité, un acte et un processus dispositif, mais comment cela se traduit-il dans un projet éditorial précis ? Après quelques exemples abordés dans les deux sections précédentes, nous dédions cette étude de cas à une structure d’édition, et plus précisément à un livre et à une série d’outils mis en place pour le fabriquer. Abrüpt se démarque de manière forte dans le paysage éditorial en général, et dans l’espace francophone et européen en particulier. Les livres — et les antilivres — d’Abrüpt révèlent une autre manière de faire de l’édition, que nous étudions désormais afin de confirmer plusieurs des hypothèses présentées jusqu’ici dans ce chapitre, et plus spécifiquement la dimension d’acte de l’activité éditoriale. Cette étude de cas vise à prouver que certaines initiatives, comme celle d’Abrüpt, imposent un nouveau paradigme, celui de publier conjointement des livres sous différentes formes et les outils qui permettent de les fabriquer. Des livres et des dispositifs — les fabriques — de cette maison d’édition sont ici présentés en détail. Un chapitre d’un ouvrage collectif dirigé par Pascal Mougin — Littérature et design — est en cours de parution (Fauchié, 2023), dans lequel nous analysons trois livres et antilivres d’Abrüpt, dont L’incendie est clos d’Otto Borg dont il est question ici. L’objectif de cette étude de cas consiste plutôt à décrire la structure d’édition en tant qu’elle met en place des dispositifs pour expérimenter l’édition et la littérature.   2.3.1. Présentation d’une maison d’édition à la marge Le travail éditorial d’Abrüpt ne peut se résumer à une présentation formelle, tant les productions diverses et multiples de cette structure sont originales et non conventionnelles. Abrüpt est une maison d’édition suisse basée sur les Internets, c’est ainsi qu’elle se définit sur son site web :   À la recherche de cette altération, notre situation demeure les Internets, là où le déracinement réticulaire entretient la virtualité de nos dérives. (Abrüpt, 2023)   Elle a ceci de particulier qu’elle propose un catalogue original, des ouvrages aux formats singuliers mais aussi des objets critiques ou littéraires comme, notamment, des manifestes, qui les accompagnent. Les livres qui composent le catalogue sont des essais, des pamphlets ou des créations littéraires. Autant des rééditions que des œuvres inédites. Entre le printemps 2018 et l’automne 2023 ce sont 51 livres qui ont été publiés, de L’Espagnole de Simone Weil (un recueil de textes autour de la guerre d’Espagne) à Fournais de Pierre-Aurélien Delabre (un objet non identifié qui rassemble des fragments littéraires de tons et de formes diverses) en passant par Mémoire vive de Pierre Ménard (une “suite d’épiphanies” comme le présente Abrüpt) ou Enfer.txt (une révision performatrice du texte d’Arthur Rimbaud, Une saison en enfer) issu du collectif éphémère ZAP. La littérature est au centre de cette maison d’édition, et les formes ou formats sont multiples et complémentaires : des livres imprimés (et référencés dans les bases de données des librairies) ou imprimables (à construire soi-même depuis le site web de la maison), des livres numériques, des fichiers téléchargeables, des sites web comme des livres web (Fauchié, 2017), ou encore des fichiers sources versionnés. Ces artefacts sont commercialisés ou mis à disposition librement — tant dans l’accès que dans la réutilisation. En plus du format imprimé vendu sur son site web (note : https://abrupt.cc) et en librairie, et du format EPUB commercialisé sur les plateformes habituelles, Abrüpt propose des “antilivres”. Il s’agit de versions librement accessibles comme les formats numériques téléchargeables, mais le livre imprimé lui-même est également nommé ainsi. La maison d’édition définit elle-même le terme d’antilivre dans un long manifeste dont voici un extrait :   L’antilivre est une métamorphose, est son désordre, est l’affirmation d’une littérature des courts-circuits, de sa circulation joyeuse, contre l’époque, contre le livre et sa grammaire, contre sa chaîne et ses ronronnements, pour un futur des altérations, pour une information libre et réticulaire, pour une multitude éclairée par celle-ci. (Abrüpt, 2023)   Abrüpt se positionne en opposition à un écosystème établi, en tant qu’électron libre parmi d’autres. Pour préciser ces questions de formes, de formats et d’accès qui sont au cœur de la pratique éditoriale d’Abrüpt, prenons l’exemple d’un livre, L’incendie est clos d’Otto Borg. Il s’agit du troisième livre d’Abrüpt, publié en juin 2018. Comme la majorité des titres du catalogue de l’éditeur, l’ouvrage est proposé dans une version imprimée et dans plusieurs versions numériques. L’objet papier est issu d’une impression à la demande, procédé déjà évoqué (voir 1.1. Le livre : fonctions, concept et modes de production) qui allège la maison d’édition en termes d’investissement financier et de gestion des stocks. Abrüpt utilise les outils de fabrication, de production et de diffusion de notre époque, ce qui inclut ce mode d’impression. Nous ne savons rien sur l’auteur de L’incendie est clos, Otto Borg, à part deux textes publiés chez Abrüpt et quelques brèves lignes sur le site web de l’éditeur. L’incendie est clos est un livre qui s’apparente à de la poésie politique. Chaque page est constituée d’une ou de quelques phrases cinglantes, qui donnent à voir une situation sociale. Cette peinture est froide et sans détour, souvent grinçante et impitoyable. Lire L’incendie est clos d’une traite laisse un goût amer dans la bouche, le lecteur est pris à partie en tant que témoin de notre monde.   Dans le silence de la salle de bain ou dans le garage du pavillon résidentiel, quelques manifestants contre la réforme du droit du travail se sont saisis par le col, seuls par le col à l’aide d’un tuyau dans le silence de la salle de bain ou dans le garage du pavillon résidentiel. (Borg, 2018, p. 44)   Avec l’ouvrage imprimé et le fichier PDF mis en accès libre vient un antivilivre dit dynamique (note : https://www.antilivre.org/lincendie-est-clos/). Il s’agit d’une page web, fond noir, avec quatre actions représentées par quatre boutons : “bouscule”, “détruis”, “dénonce” et “pollue”. Le texte est là mais caché sous les pixels noirs, il se révèle en frottant l’écran. Le lecteur ou la lectrice doit donc agir pour lire. Il est déjà possible de faire un rapprochement entre ces actions de lecture et le contenu des fragments, le lecteur dévoile le texte tout comme le texte dévoile une réalité sociale. L’action “bouscule” permet de passer au fragment suivant sans que l’écran ne soit à nouveau noirci, c’est l’action “détruis” qui réinitialise la disparition des lettres. “dénonce” est un colophon très synthétique accompagné d’une seconde injonction : “P.S. Dessine sur l’écran noir (et sur les murs de nos villes).” Enfin, “pollue” déclenche une capture d’écran. Le qualificatif de “dynamique” sied bien à ce livre numérique, puisqu’une action déclenche un résultat. La page n’est pas statique, elle est le résultat de modifications provoquées par les personnes qui le lisent. Cette dimension donne à cet artefact un lien fort avec son contenu. L’examen du code source de cette page web nous amène à une observation importante : tout est compris dans un seul fichier. Une page web fait souvent appel à plusieurs ressources placées dans plusieurs fichiers, comme une feuille de style, des polices typographiques, des images ou des scripts. Ici tout est réuni dans un seul fichier HTML, et c’est suffisamment rare pour être souligné. Cette démarche, que certaines personnes qualifieront de low-tech (Fourmentraux, 2017), est même à contre-courant des usages actuels. En effet, l’immense majorité des sites web ont recours à des ressources externes à la page web, mais qui peuvent être hébergées sur le même espace ou serveur, et même très souvent à des ressources extérieures provenant d’autres serveurs. Les polices typographiques proposées par Google en tant que service est un exemple parmi d’autres. Il y a un effort de concision dans la conception de cet antilivre dynamique, les quelques lignes de HTML se suffisent à elles-mêmes. Plusieurs hypothèses peuvent expliquer ce choix technique, la principale étant sans doute la portabilité. Un seul fichier signifie que ce livre peut être transporté facilement, contrairement à un site web classique qu’il faut encapsuler – c’est-à-dire que les différents fichiers sont rassemblés et déclarés dans un système d’archivage, c’est d’ailleurs la fonction du format de livre numérique EPUB. La maison d’édition elle-même fait ce constat (Abrüpt, 2019). Il y a ici une adéquation entre la démarche de l’éditeur – “Nous nous organisons autour de textes qui s’agitent et se révoltent, s’altèrent en antilivres, s’échouent en partage” (Abrüpt, 2023) – et l’implémentation technique adoptée. L’antilivre dynamique L’incendie est clos d’Otto Borg est le premier de la maison d’édition, c’est son coup d’envoi, un dispositif de dévoilement (Saemmer, 2019), une interface génératrice d’images. Cet antilivre est un environnement dynamique sans compromis, qui propose un nouvel espace de lecture et d’écriture qui n’est pas une duplication de l’imprimé :   Writing, even writing on a computer screen, is a material practice, and it becomes difficult for a culture to decide where thinking ends and the materiality of writing begins, where the mind ends and the writing space begins. With any technique of writing–on stone or clay, on papyrus or paper, and on the computer screen–the writer may come to regard the mind itself as a writing space. (Bolter, 2001, p. 13)   Abrüpt s’empare du numérique pour faire de cette écriture matérielle, habituellement traduite dans un livre imprimé, un artefact avec de nouvelles dispositions de lecture. Abrüpt adopte les potentialités du numérique en fabriquant des formes riches et en produisant des formats qui ne sont pas la copie de ce qu’est un livre imprimé. Pour parvenir à cela la maison d’édition a mis en place un environnement d’édition particulier. Elle investit, plus qu’elle fait usage, des moyens informatiques.   2.3.2. Des livres produits autrement Abrüpt est une maison d’édition inattendue tant par le catalogue et ses formes inédites que par le recours à des outils imprévus dans le domaine de l’édition littéraire. Le caractère insaisissable définit en effet les livres d’Abrüpt et plus particulièrement les antilivres dynamiques — des sites web tous différents —, ce sont des formes diverses et réinventées. En plus de l’intérêt que peuvent revêtir les artefacts eux-mêmes comme avec l’antilivre présenté ci-dessus, Abrüpt est un cas original (et radical) aussi dans la manière dont ils sont produits. À travers les antilivres ce sont les pratiques d’édition qui sont interrogées, il ne s’agit pas que d’une nouvelle modalité de diffusion ou de lecture. Malgré l’utilisation majoritaire de logiciels d’édition comme InDesign — logiciels propriétaires et disposant d’une interface graphique — dans les métiers du livre, Abrüpt fait un pas de côté. Abrüpt fait irruption dans un environnement numérique, avec à sa disposition de nombreux outils. Le format et l’outil au centre de ses pratiques sont le format texte (Perret, 2022) et le convertisseur Pandoc (Dominici, 2014) — dont il est question plus longuement par la suite (voir 4.2. Les conditions de la sémantique : format texte et balisage). Le format texte, “un fichier qui ne contient que des caractères”, permet de baliser sémantiquement les textes qui sont convertis en de multiples formats de sortie grâce à Pandoc. Le logiciel Pandoc, utilisé en ligne de commande, a été initialement créé par un universitaire, John McFarlane, pour des usages d’édition académique (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). Il ne s’agit pas d’un logiciel commercialisé par une entreprise privée à but lucratif, mais d’un programme pensé, développé et maintenu par un chercheur en philosophie. Pandoc permet de passer d’un format balisé à un autre, en appliquant des modèles de données comme des templates HTML ou LaTeX. L’objectif est de pouvoir travailler le texte dans des fichiers facilement lisibles mais disposant néanmoins de commandes adressées à des programmes informatiques. D’autres logiciels ou programmes informatiques sont utilisés par Abrüpt, comme Make pour formaliser les commandes appliquées, ou LaTeX pour une post-conversion afin d’obtenir un format PDF — utile notamment pour l’impression. Il est possible de deviner les modes de fabrication des livres de cette maison d’édition sur les dépôts de chacun d’eux. Par exemple le dépôt de L’incendie est clos (Abrüpt, 2021) révèle les sources (et un peu la méthode) de fabrication du livre. Des fichiers aux formats Markdown (.md), LaTeX (.tex), JSON (.json) ou HTML (.html) contiennent le texte original du livre, tandis que quelques feuilles de styles regroupent des éléments de mise en page. Le choix des formats lui-même donne des indications, aussi dans ces fichiers subsistent quelques commentaires, entre les lignes de code, pour orienter leur utilisation. C’est du côté du Gabarit Abrüpt (Abrüpt, 2021) qu’il faut se tourner pour disposer de plus d’informations sur la méthode. Dans la description du dépôt regroupant les éléments de ce gabarit, de nombreux détails sont donnés sur son fonctionnement. Des instructions sont clairement énoncées sur le fonctionnement général et sur l’adaptation à d’autres usages. Un effort important est donc placé ici pour la présentation de cet outillage et pour le partage de propositions de modélisation du texte. Cette modélisation porte deux grands principes. Le premier est la distinction entre la source des contenus (un ou plusieurs fichiers au format balisé Markdown), les modèles (ici le gabarit), des formats pivots (comme LaTeX, pont nécessaire entre le format initial Markdown et le résultat final PDF) et des artefacts dans différents formats (comme HTML pour l’antilivre dynamique, le PDF ou l’EPUB). Ce principe permet de séparer ce qui concerne le travail sur le texte et les artefacts issus de l’édition via une modélisation des objectifs éditoriaux. Ces énonciations (Souchier, 1998), qui sont autant d’instructions formulées par des humains pour des machines dans ce qui constitue un acte éditorial, sont lisibles dans les fichiers au format texte. Le second principe est celui du single source publishing ou publication multi-formats à partir d’une source unique (voir 4.4. Le single source publishing comme acte éditorial sémantique). Il s’agit de ne disposer que d’une seule source pour produire plusieurs formats de sortie, cela est possible grâce à la séparation entre contenus et modèles. Abrüpt apporte un soin notable pour expliquer sa démarche et la rendre accessible. Cette démarche transparaît à travers d’autres éléments que la mise à disposition des sources des livres ou de leurs outils de fabrication. Les plus remarquables sont des manifestes. Il y a le manifeste des antilivres déjà évoqué, mais aussi un texte sur le site web d’Abrüpt (note : https://abrupt.cc/manifestes/), et indiqué comme “Manifeste(s) (au pluriel)”. Ce texte est une suite de fragments présenté sur une page web, fragments dont la disposition est modifiable. Le pluriel convient à ce texte qui peut donc être agencé de très multiples façons, en effet les quatre-vingt-dix-neuf fragments qui le composent peuvent être disposés dans un nombre important de possibilités. Soit en déplaçant chaque phrase, soit en cliquant sur le texte “(au pluriel)” qui propose une disposition aléatoire. La forme même du manifeste — ou des manifestes — est une remise en cause des formats habituels. Le texte se recompose en impliquant les personnes qui le lisent. Le manifeste est ici lié aux outils qui le produisent, tant sa forme plurielle n’est possible que par l’usage du langage de balisage HTML et du langage de programmation JavaScript. En mettant en scène ainsi ses intentions, Abrüpt affirme un acte plus qu’un geste, en impliquant aussi les lectrices et les lecteurs dans cette action.   2.3.3. Un non-geste éditorial et des actes éditoriaux Comme nous l’avons vu (voir 2.1. Évolution de l’édition) via l’apport de la théorie de l’acte éditorial de Brigitte Ouvry-Vial (Ouvry-Vial, 2007), le terme “geste” est ambigu. Le geste suppose une part d’inspiration extérieure qui échappe à l’activité d’édition qui est pourtant technique. Dans notre approche de l’édition le geste éditorial n’existe pas, car il sous-entend que la présupposée inspiration dépasse les rouages techniques nécessaires à la réalisation du travail sur un texte. L’édition ne dépend pas d’autre chose que des actes des différentes personnes et outils impliqués dans cette activité, la technique n’est pas qu’une partie de l’édition, elle la constitue. L’édition est un acte, il s’agit d’un processus clairement défini, quand bien même les formes qu’il porte ou qu’il produit sont, elles, génératrices de confusion ou d’ambiguïté. La démarche d’Abrüpt est une vigoureuse affirmation de ce positionnement : l’activité d’édition n’est pas un geste, car elle requiert un ensemble de techniques précises, agrégées dans des technologies d’édition. Ces technologies d’édition sont étudiées dans leurs différentes expressions, nous nous intéressons ici plus particulièrement aux technologies d’édition dites numériques. Julie Blanc et Lucile Haute ont établi un panorama de ces technologies depuis le début des années 1960 jusqu’en 2018 (Blanc & Haute, 2018). Que ce soit des formats, des programmes informatiques, des logiciels, des bibliothèques de code ou des plateformes, les deux chercheuses ont répertorié plusieurs centaines de technologies permettant de faire de l’édition avec le numérique ou l’informatique. Les logiciels, formats et programmes utilisés par Abrüpt apparaissent dans cette frise temporelle, comme autant de satellites assemblés en une constellation cohérente. La pile technique constituée par cette maison d’édition assume d’une part le choix du logiciel libre et d’autre part le refus de recourir à des outils industriels. Ce positionnement technologique est profondément politique, il est motivé par une volonté d’expérimenter librement et de constituer ainsi de nouveaux modèles épistémologiques. Abrüpt joue sur plusieurs plans, à la fois sur le dévoilement des sources de ses livres, sur le positionnement sur de nombreux espaces et enfin sur l’autodéfinition de ses démarches. Le dévoilement des sources permet de structurer son travail d’édition, non pas uniquement autour des artefacts, mais aussi avec la matière dont ils sont faits. La maison d’édition a mis en place plusieurs sites web, mais est aussi présente sur des plateformes comme GitLab, YouTube, Twitter ou Mastodon pour diffuser le résultat de son travail d’édition. À travers les manifestes Abrüpt opère une autodéfinition, autodéfinition performative et parfois abscons mais néanmoins présente. Les nombreuses expressions d’Abrüpt forment un ou des actes, d’une beauté esthétique certaine et disposant d’une forte cohérence globale (titres, catalogues, formes/formats, codes, outils). Il s’agit d’une initiative d’édition avec et en numérique. Pour expliciter l’originalité de ce positionnement, nous devons désormais définir un concept clé ici : l’éditorialisation. 2.4. L’éditorialisation en jeu [1ac73c3] Certaines pratiques d’édition participent à la construction d’un environnement, elles ne sont pas non uniquement la production d’artefacts qui portent des textes, comme nous l’avons vu avec Abrüpt (voir 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale) ainsi qu’avec les Ateliers dans le chapitre précédent (voir 1.5. Les Ateliers de [sens public] : repenser le livre). La constitution de cet espace dépend des outils sollicités autant que des contenus qui l’habitent. Après une définition de l’édition, autant comme processus que comme action, nous prolongeons ces réflexions en prenant en considération cette question de l’environnement d’écriture et d’un espace de diffusion et de lecture. Le positionnement éditorial d’Abrüpt dépasse le cadre du livre paginé ou en flux et participe au phénomène d’éditorialisation. Cette maison d’édition, fortement ancrée dans son époque numérique, est bien plus qu’une structure productrice de livres imprimés ou de livres numériques. L’éditorialisation est une notion, un concept, une théorie et une méthode, elle est “l’ensemble des dynamiques qui constituent l’espace numérique et qui permettent à partir de cette constitution l’émergence du sens” (Vitali-Rosati, 2020, p. 10), elle est un outil de compréhension d’une pratique d’édition en contexte numérique. Aborder l’éditorialisation, après une étude de l’édition, permet d’appréhender les pratiques d’édition à l’ère numérique, et de comprendre les phénomènes d’édition et leur institutionnalisation dans cet environnement. Cette section dédiée à l’éditorialisation analyse le numérique en tant qu’espace et le rôle jouer par l’édition en termes de constitution de cet espace. Le troisième chapitre est plus particulièrement dédié au numérique, non pas en tant qu’environnement à habiter ou à construire, mais dans une perspective de modification des processus dispositifs et des modélisations épistémologiques qui les accompagnent.   2.4.1. La nécessité du concept d’éditorialisation Le terme éditorialisation, absent des dictionnaires, est l’action d’éditorialiser, ce verbe signifiant, en dehors de sa dimension journalistique, le fait de travailler un contenu textuel en vue de le transmettre et de le diffuser. Le mot est donc lié à l’acte d’édition, mais il a, pour le sens commun, un usage plus large. Ce terme est utilisé en sciences de l’information et de la communication pour répondre à des besoins épistémologiques, et plus particulièrement dans les pratiques documentaires ou les analyses du document. Nous nous concentrons ici sur le domaine de l’édition et de l’édition numérique en tant que processus, nous n’abordons pas les enjeux d’autorité néanmoins essentiels dans une perspective documentaire (Broudoux, 2022). En 2007 Bruno Bachimont propose un usage de la notion d’éditorialisation pour définir des pratiques éditoriales propres au numérique. Se plaçant dans un contexte de gestion de contenus multimédias, et plus spécifiquement d’indexation, il part du constat que les technologies numériques obligent à reconsidérer la vieille opposition contenu/contenant :   […] le numérique ouvre la perspective que la manipulation technique du contenant puisse avoir un lien direct et contrôlé avec le sens du contenu […]. (Bachimont, 2007, p. 3)   Avec le numérique nous observons un passage de l’indexation pour la recherche d’information (typiquement via des moteurs de recherche ou des plateformes de contenus) à l’indexation pour la publication (avec la possibilité de réutiliser des ressources éclatées). En effet chaque document peut être fragmenté en autant de ressources qui sont ensuite recomposées en “forme reconstruite”. Pour paraphraser Bruno Bachimont, l’éditorialisation est ce processus d’écriture qui rassemble des ressources pour constituer une nouvelle publication. L’enjeu est alors de construire des outils permettant d’assister la manipulation des contenus pour générer de nouveaux documents, et ainsi faire acte d’édition. Reconsidérer l’édition dans un contexte numérique, et par là même les activités de lecture et d’écriture, constitue une évolution importante — surtout dans le domaine de la publication scientifique (Broudoux, 2022, p. 110) sans pour autant s’y restreindre. Les structures d’édition s’emparent des possibilités du numérique pour envisager de nouvelles modalités de diffusion :   L’édition est un processus délimité dans le temps, l’auteur, l’éditeur et son équipe éditoriale travaillent selon un processus linéaire, la finalité étant la diffusion d’un contenu travaillé ensemble, mais qui restera figé et qui prendra date. Au contraire, l’éditorialisation est un processus ouvert, les lecteurs peuvent y participer, une fin n’est généralement pas déterminée puisque la vision d’un enrichissement permanent y est associée. (Chartron, 2016, p. 18)   À ce stade, l’éditorialisation se distingue de l’usage commun du terme “éditorialiser”. Éditorialiser constitue une forme de médiation dont l’objectif est de transmettre plusieurs informations, pratique observée dans le journalisme notamment. L’éditorialisation, quant à elle, est une activité d’édition dans un environnement numérique, il s’agit d’agencer des contenus structurés, de recréer un sens nouveau à partir des contenus divers et variés, et cela nécessite un environnement et des outils spécifiques — typiquement, le Web. À partir de 2009 le séminaire de Sens public se concentre sur cette question de l’éditorialisation, proposant de nombreuses conférences et des échanges multiples, donnant lieu par la suite à un certain nombre de travaux universitaires. La dimension collective mais aussi ouverte de cet espace permet l’émergence de questionnements et d’apports foisonnants, initiée par Gérard Wormser, Marcello Vitali-Rosati, Louise Merzeau, Nicolas Sauret, Marta Severo ou Evelyne Broudoux parmi d’autres personnes impliquées et de nombreuses personnes qui sont intervenues. À la suite de ces cycles (note : https://seminaire.sens-public.org), intitulés “Nouvelles formes d’éditorialisation” puis “Écritures numériques et éditorialisation” et qui continuent jusqu’en 2019, Louise Merzeau propose en 2013 une approche différente de celle de Bruno Bachimont, mais néanmoins complémentaire (Merzeau, 2013). Basée sur l’expérience d’un événement, elle prolonge la question de la constitution de nouveaux documents à partir du morcellement d’informations disponibles sous différentes formes et sur de multiples plateformes. Le contexte est celui des réseaux sociaux, et le domaine celui des pratiques de lecture et d’écriture, et d’édition. Comment, à partir de multiples fragments, est-il possible d’éditorialiser des formes lisibles de contenu, néanmoins mouvantes et éparpillées ? Considérant des formes multimodales transmédia, Louise Merzeau analyse les dynamiques à l’œuvre sur différentes plateformes d’échanges sociaux et de création de contenus. Louise Merzeau insiste notamment sur la dimension collective de l’éditorialisation :   D’un côté, le processus ininterrompu d’éditorialisation fait déborder les contenus de toute forme stabilisée en les redocumentant à la volée. De l’autre, il met en œuvre une production documentaire affranchie des logiques affinitaires au sein même d’un espace contributif. (Merzeau, 2013, p. 116)   L’éditorialisation, en tant que pratique collective et potentiellement contributive, est une opportunité d’échapper aux tentatives de centralisation et de concentration des grandes entreprises du numérique comme Google ou Facebook. Une forme de réappropriation des contenus et de leur diffusion est possible avec l’éditorialisation, comme le précise Louise Merzeau :   Pensée comme synchronisation collective autour d’un événement et d’un questionnement, [cette activité éditoriale] a pour fonction de fournir des repères, des références, des normes (lexicales) et des règles d’intelligibilité. (Merzeau, 2013, p. 113)   Sur cette question de la réappropriation et de la génération de nouveaux documents, Michael Sinatra et Marcello Vitali-Rosati font un constat similaire en 2014 dans Pratiques de l’édition numérique :   En ce sens, quand on parle d’édition numérique, on peut utiliser le mot “éditorialisation”, qui met l’accent sur les dispositifs technologiques qui déterminent le contexte d’un contenu et son accessibilité. Éditer un contenu ne signifie pas seulement le choisir, le légitimer et le diffuser, mais aussi lui donner son sens propre en l’insérant dans un contexte technique précis, en le reliant à d’autres contenus, en le rendant visible grâce à son indexation, à son référencement, etc. (Sinatra & Vitali-Rosati, 2014, p. 9)   L’édition, et plus particulièrement ici l’édition numérique, doit être comprise non plus seulement comme un processus de production d’artefacts, mais plus globalement comme un ensemble de dynamiques qui permettent la production de connaissance et la création de sens. Les travaux successifs de Bruno Bachimont, de Louise Merzeau, de Michael Sinatra, de Marcello Vitali-Rosati mais aussi de Nicolas Sauret (Sauret, 2020), permettent de considérer des pratiques d’édition en contexte numérique avec ce concept d’éditorialisation. Plus largement, les pratiques d’édition mais aussi de publication surgissent dans de nouveaux cadres, s’émancipant du rôle traditionnel de l’éditeur et de sa figure. Avec l’apparition d’outils de création et de production, mais aussi de plateformes de diffusion, l’amateur peut éditer (Parmentier, 2021). C’est la figure même de l’éditeur qui est peu à peu déconstruite à travers cette opportunité de faire exister des textes à moindres frais. Cela crée une forme d’horizontalité, plaçant les figures d’amateur et d’auteur (reconnu) sur un plan (économique) d’égalité. Cette reconfiguration est à la fois enthousiasmante pour les possibilités de création, et décevante pour la qualité des artefacts et leur condition de circulation, les textes sont en effet souvent enfermés dans les silos bien gardés d’entreprises privées. L’éditorialisation est ainsi une notion qui décrit un phénomène de recomposition dans l’environnement numérique, et un concept qui définit un phénomène d’édition en redéfinissant la constitution et la circulation des contenus.   2.4.2. Vers une théorie de l’éditorialisation Marcello Vitali-Rosati effectue des recherches sur l’éditorialisation depuis plusieurs années, partant des travaux de Bruno Bachimont et menant un travail personnel, singulier mais aussi collectif avec les séminaires Sens public puis Écritures numériques et éditorialisation déjà mentionnés. Pour illustrer cette démarche nous partons d’une première définition stable donnée en 2016 :   Selon la définition restreinte, l’éditorialisation désigne l’ensemble des appareils techniques (le réseau, les serveurs, les plateformes, les CMS, les algorithmes des moteurs de recherche), des structures (l’hypertexte, le multimédia, les métadonnées) et des pratiques (l’annotation, les commentaires, les recommandations via les réseaux sociaux) permettant de produire et d’organiser un contenu sur le web. En d’autres termes, l’éditorialisation est une instance de mise en forme et de structuration d’un contenu dans un environnement numérique. On pourrait dire, en ce sens, que l’éditorialisation est ce que devient l’édition sous l’influence des technologies numériques. (Vitali-Rosati, 2016)   Marcello Vitali-Rosati propose ici une synthèse du concept d’éditorialisation, mais aussi un apport nouveau par rapport aux éléments déjà présentés. L’affirmation selon laquelle l’éditorialisation est, en contexte numérique, le devenir de l’édition, est, en particulier, stimulante. Stimulante car plutôt que de considérer qu’il y a un nouveau domaine à étudier, il s’agit d’observer et d’analyser une évolution de l’édition. Plutôt qu’une recherche détachée, c’est un parcours qui vise à définir l’édition telle qu’elle est aujourd’hui. Nous vivons désormais dans un environnement façonné par le numérique, quel que soit notre rapport ou notre usage de celui-ci. Par ailleurs, Marcello Vitali-Rosati, dans cette acception proposée en 2016, précise qu’il s’agit de “dynamiques” qui sont à l’origine d’une production et d’une structuration de l’“espace numérique”. Il est question de produire et de structurer, c’est-à-dire autant engendrer ou faire exister, que donner une forme ou à un agencement à cette création. Internet et le Web sont clairement concernés et à l’origine de ce double phénomène de production et de structuration, du fait de l’utilisation d’un certain nombre de protocoles (permettant la communication) et de standards (facilitant la structuration). Marcello Vitali-Rosati définit trois aspects fondamentaux de l’éditorialisation (Vitali-Rosati, 2017) : un aspect technologique qui concerne les rouages techniques depuis les serveurs jusqu’aux plateformes en passant par les protocoles et les formats, ces technologies sont constitutives de notre environnement (numérique) ; un aspect culturel qui influence le développement des technologies (et inversement) ; et enfin un aspect pratique qui permet de prendre en compte la dimension créative des actions qui ne se limitent pas à un usage. Distinguer ces trois aspects permet de faire une analyse théorique de l’éditorialisation. À la suite de ses travaux de recherche successifs jusqu’en 2020, Marcello Vitali-Rosati propose une théorie de l’éditorialisation :   L’éditorialisation est l’ensemble des dynamiques qui constituent l’espace numérique et qui permettent, à partir de cette constitution, l’émergence du sens. Ces dynamiques sont le résultat de forces et d’actions différentes qui déterminent après coup l’apparition et l’identification d’objets particuliers (personnes, communautés, algorithmes, plateformes…). (Vitali-Rosati, 2020)   Marcello Vitali-Rosati se place autant dans une perspective d’étude littéraire, une recherche en sciences de l’information qu’une théorie philosophique. Cette théorie nous donne des pistes pour construire notre monde, mais aussi pour le comprendre. Marcello Vitali-Rosati nous propose “une véritable philosophie à l’époque du numérique” :   Parce qu’elle en souligne la structure, l’éditorialisation nous donne la possibilité de comprendre l’espace numérique et de comprendre le sens de nos actions dans cet espace : elle nous révèle les rapports entre les objets, les dynamiques, les forces, les dispositifs de pouvoir, les sources d’autorité. (Vitali-Rosati, 2020)   Ces travaux aboutissent en 2021 à une théorie philosophique qui dépasse largement l’éditorialisation, mais qui, pourtant, part de ce point :   Dans le cadre de l’éditorialisation, si nous ne pouvons pas savoir si Michael Sinatra existe quand nous ne le voyons pas, nous pouvons par contre savoir qu’il y a des dynamiques qui le médient de façon continue indépendamment de nous – et donc qu’il existe en tant que médié techniquement, en tant que pensé par quelque chose. (Vitali-Rosati, 2021)     2.4.3. Édition et éditorialisation Définition Éditorialisation L’éditorialisation est d’abord considérée comme l’édition sous l’effet des technologies numériques, mais l’apport des recherches récentes sur ce concept, et notamment celles de Marcello Vitali-Rosati, permet de considérer ce concept comme un outil méthodologique. L’éditorialisation et ses trois aspects (technologique, culturel, pratique) constituent un cadre de compréhension du numérique, en tant qu’un ensemble de dynamiques, ainsi que, dans le cas de notre étude, un moyen de comprendre ce qu’est l’édition aujourd’hui. Les liens entre édition et éditorialisation ont déjà été soulignés : l’éditorialisation peut être considérée comme l’édition sous l’effet des technologies numériques. Notre usage du concept d’éditorialisation est méthodologique, il nous permet de comprendre ce qu’est l’édition aujourd’hui. Nous précisons les liens qui existent entre ces deux concepts ou théories pour aboutir à une nouvelle définition de l’édition. Commençons par reprendre les trois aspects de l’éditorialisation précédemment présentés : l’aspect technologique, l’aspect culturel et l’aspect pratique permettent de définir plus précisément l’éditorialisation. Ces trois aspects donnent aussi une représentation de l’édition en tant qu’activité, processus et acte. C’est que nous démontrons en les appliquant à l’édition. Tout d’abord l’aspect technologique est la dimension constitutive de l’édition, ce qui permet autant de travailler les textes que de produire les artefacts issus de l’édition. C’est ce que nous avons présenté dans le premier chapitre (voir 1. Le livre, cet artefact éditorial). Ensuite l’aspect culturel permet de faire le lien entre les contenus manipulés dans une démarche éditoriale — qu’il s’agisse de documents ou de ressources selon l’acception de Bruno Bachimont précédemment présentée — et les techniques ou technologies nécessaires à ces manipulations. Il s’agit d’opérer une mise en relation. Enfin, l’aspect pratique est une perspective peu prise en compte dans les considérations ou les définitions de l’édition, et qui croise l’hypothèse générale de cette thèse : les pratiques d’édition ne peuvent se réduire à la seule production d’artefacts, il y a aussi une dimension créative, hybride, qui concerne l’usage des outils et plateformes mais aussi la constitution de chaînes d’édition spécifiques. L’édition non numérique est toujours de l’édition, en revanche toute pratique d’édition s’inscrit aujourd’hui dans un environnement numérique. Quand bien même aucun ordinateur n’est utilisé pour fabriquer un livre, le contexte lui est numérique : les façons de communiquer, de distribuer, de diffuser ou même de partager des informations font à un moment donné usage du numérique (appareils, réseaux, écrans, etc.). De même, la figure de l’amateur a toujours besoin de celle de l’éditeur, les quelques succès d’autoédition le confirment avec une reprise quasi systématique des textes initialement publiés à compte d’auteur sur des plateformes diverses par des maisons d’édition installées. Considérer l’éditorialisation comme une dimension de l’édition (ou inversement), aujourd’hui, consiste à constater une évolution dans un monde désormais façonné par le numérique. C’est d’ailleurs la dimension que nous analysons dans le chapitre suivant (voir 3.1. Le numérique : culture, politique et ubiquité). Si nous avons rapidement abordé les questions numériques, il convient désormais de définir plus précisément ce que recoupe cette notion, et d’apporter un regard critique sur plusieurs de ses acceptions. Avant cela, nous épuisons l’hypothèse selon laquelle l’éditorialisation est un outil méthodologique pour analyser des pratiques d’édition contemporaines avec une étude de cas, celle de la chaîne d’édition des Ateliers de [sens public]. 2.5. Le Pressoir : une chaîne d’éditorialisation [1ac73c3] Comme nous l’avons vu avec l’étude de cas d’Abrüpt (voir 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale), les conditions d’émergence d’artefacts éditoriaux originaux ne se limitent pas à l’adoption de nouveaux outils. La constitution de chaînes d’édition permet aussi une dissémination et une réappropriation des textes ainsi édités. Afin de comprendre comment s’opère cette diffusion numérique, cette forme d’éditorialisation, l’étude de la création d’une chaîne est désormais nécessaire. Comment l’éditorialisation peut-elle être un outil méthodologique pour comprendre des pratiques contemporaines d’édition ? Dans le cadre de ce concept d’éditorialisation, des travaux sur les plateformes ont été réalisés, étudiant les questions d’écriture, de participation, de propagation, etc. Nous nous chargeons ici d’interroger la manière de fabriquer des objets éditoriaux, et plus spécifiquement des livres, dans un contexte numérique et donc avec l’éditorialisation. Dans le chapitre précédent nous avons présenté et analysé un titre des Ateliers de [sens public] (voir 1.5. Les Ateliers de [sens public] : repenser le livre), afin de montrer les spécificités d’un livre contemporain. Exigeons de meilleures bibliothèques de R David Lankes est un exemple emblématique d’un ouvrage publié en différents formats et en plusieurs versions. Ce livre est également à l’origine d’un ensemble de méthodes, d’outils et de programmes qui ont été développés et mis en place pour fabriquer les livres des Ateliers (note : Les deux formes “Ateliers de [sens public]” et “Ateliers” sont utilisés indistinctement dans la suite du texte.). Nous décrivons et critiquons désormais cette chaîne d’édition, nommée Pressoir. Un double préambule est nécessaire à cette étude de cas. Tout d’abord l’auteur de cette thèse a été impliqué dans la mise en place et l’utilisation de la chaîne d’édition des Ateliers, comme cela a été également le cas de Marcello Vitali-Rosati, l’un des chercheurs les plus actifs ces dernières années sur la question de l’éditorialisation. Ensuite l’analyse du Pressoir a fait l’objet d’un article pour la revue Pop! Public. Open. Participatory (Fauchié, Delannay& al., 2023). Le présent texte est issu d’une réécriture complète, toutefois une partie des contenus présents dans cet article peut recouper certains passages ici.   2.5.1. Une chaîne d’édition Les Ateliers est une maison d’édition qui publie des essais dans le domaine des sciences humaines, et plus spécifiquement des sciences de l’information et de la littérature. Les ouvrages publiés comportent un appareil critique (notes, références bibliographiques, bibliographies, index et glossaires) et suivent un parcours éditorial spécifique qu’est celui de l’édition académique (soumission, éditions, relectures, modifications, validation, etc.). Les besoins en édition des Ateliers sont ceux de l’édition savante : des validations par les pairs ; un important travail sur le texte pour des questions de structure et de lisibilité ; des appareils critiques élaborés ; une fabrication qui permet des allers-retours entre les différentes personnes impliquées ; une pérennité des formats pour des modifications ultérieures ; la production d’artefacts qui facilitent une diffusion organisée ; etc. Cette démarche comporte aussi une recherche de nouveaux modèles éditoriaux. Il faut considérer les dimensions d’expérimentation, de prototype voir de bidouillages indispensables à cette recherche. Si Abrüpt (voir 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale) ou les Ateliers font le choix inverse de la plupart des maisons d’édition, en construisant leurs dispositifs techniques loin des logiciels clés en main, c’est dans une volonté d’exploration épistémologique qui dépasse l’objectif de produire des artefacts. Pour réaliser ce projet, les personnes impliquées dans les Ateliers de [sens public] ont adopté des méthodes, mis en place un certain nombre d’outils et fait des choix éminemment politiques pour ainsi composer une chaîne d’édition. L’étude de cette chaîne d’édition est intéressante autant pour comprendre les enjeux de l’éditorialisation que pour l’observation d’un phénomène double. En effet la mise en place d’un dispositif d’édition a été réalisée ici pour la production d’un livre en particulier, Exigeons de meilleures bibliothèques de David Lankes. Ce dispositif n’a pas été seulement un moyen de produire un objet éditorial, il a aussi modifié l’objet lui-même. Si la mise en place d’une chaîne d’édition permet de créer des artefacts, la production de cette chaîne est aussi une façon d’aboutir à de nouvelles expressions éditoriales — parfois inédites. Nous observons donc ici une forme de réflexivité : la façon de faire influence la forme obtenue, et inversement. Un modèle épistémologique émerge grâce à cette combinaison d’édition de texte et de programmation éditoriale. Qu’est-ce qu’une chaîne d’édition ? Il s’agit, d’une façon générale, de l’ensemble des processus techniques nécessaires à la pratique de l’édition, et plus particulièrement des moyens disponibles pour produire un document tel qu’un livre. Concrètement, les méthodes, les outils et les environnements constituent une chaîne d’édition, aussi appelée chaîne éditoriale ou chaîne de publication.   Dans son acceptation la plus générique, une chaîne éditoriale numérique est un logiciel mobilisé pour couvrir l’ensemble des métiers d’une chaîne éditoriale classique (auteur, éditeur, imprimeur) sur un support numérique. Une chaîne éditoriale numérique permet donc d’assister des rédacteurs dans la production et la publication de leurs contenus. (Arribe, 2014, p. 206)   Avec cette définition de Thibaut Arribe nous pouvons voir le lien entre chaîne éditoriale et chaîne du livre, c’est-à-dire les connexions entre les différentes personnes et métiers qui participent à la création et à la production d’un livre. Dans notre recherche nous nous concentrons sur la chaîne éditoriale en tant que processus au sein d’une structure d’édition, processus qui peut mobiliser d’autres intervenants et intervenantes. Si l’auteur de la définition ci-dessus distingue chaîne éditoriale et chaîne éditoriale numérique, nous actons le fait que les deux expressions sont désormais équivalentes si nous considérons le numérique comme l’utilisation de logiciels ou plus globalement de l’informatique — ce qui est en réalité plus complexe comme nous le voyons par la suite (voir 3.1. Le numérique : culture, politique et ubiquité). Lorsque l’expression chaîne éditoriale est utilisée, c’est bien souvent dans un contexte d’utilisation du format XML (voir 4.2. Les conditions de la sémantique : format texte et balisage), en raison des possibilités de modélisation éditoriale permise par ce format.   Une chaîne éditoriale est un procédé technologique et méthodologique consistant à réaliser un modèle de document, à assister les tâches de création du contenu et à automatiser la mise en forme. Son atout premier est de réduire les coûts de production et de maintenance des contenus, et de mieux contrôler leur qualité. (Crozat, 2007)   Dans cette définition donnée par Stéphane Crozat plusieurs éléments sont notables : l’usage du terme chaîne, la modélisation, l’assistance et l’automatisation, et plus globalement l’objectif de facilitation. L’argument principal en faveur de l’adoption des principes d’une chaîne éditoriale, selon l’auteur, est la réduction des “coûts de production et de maintenance”, et le contrôle de la qualité. Si cet argument semble correspondre à une injonction productiviste, il s’agit aussi d’une opportunité de gagner en indépendance vis-à-vis de certains logiciels ou infrastructures. Retenons que l’enjeu est de faciliter l’écriture et l’édition par la mise en place d’une structuration des processus d’édition, cela se traduit donc par une définition claire des différentes étapes ou phases d’édition. Dans cette définition la modélisation des documents fait partie de l’activité d’édition. L’auteur de Scenari : la chaîne éditoriale libre illustre cette question ainsi : un document peut être divisé en fragments afin d’en faciliter l’écriture et l’édition, pour être recomposés au moment de la génération de la publication. Ce sont des modèles de documents qui permettent cette gestion des contenus. Nous rejoignons ici les considérations déjà évoquées à propos de l’éditorialisation. Définition Chaîne d’édition Une chaîne d’édition est l’ensemble des processus, des méthodes et des outils nécessaires à la réalisation d’une activité d’édition, et plus spécifiquement à la création, la fabrication, la production et la diffusion d’un livre. Si l’objet de la chaîne d’édition est la génération d’un tel artefact, sa matière première est le texte sans s’y réduire. Une chaîne d’édition est basée sur une modélisation éditoriale qui doit permettre une gestion sémantique des contenus en vue de la réalisation d’un ou de plusieurs artefacts tels qu’un livre imprimé, un livre numérique, un document structuré ou toute autre forme permettant de diffuser des contenus, des idées, et de faire sens. Une chaîne d’édition est aussi, comme le terme de “chaîne” l’implique, une suite d’étapes linéaires, et à ce titre elle peut être critiquée et mise en regard d’autres dispositifs qui envisagent, de façon divergente, l’édition comme un entremêlement d’opérations en prenant en compte leurs relations et leurs apports mutuels.   2.5.2. Un projet intellectuel et politique La chaîne d’édition des Ateliers est constituée des éléments qui lui permettent de produire des artefacts éditoriaux, de faire de l’édition. Cette chaîne d’édition révèle un modèle épistémologique, mais aussi un mode politique. Il s’agit de la réalisation technique d’un projet intellectuel qui s’exprime ainsi autant par les livres publiés que par la façon de travailler, collectivement. Cela se traduit sur plusieurs plans : l’ouverture, le libre et la pérennité. Les textes sont publiés en libre accès et sous licence Creative Commons, ce qui autorise une lecture et une diffusion sans limitation, et qui encadre une réutilisation des textes. D’ailleurs la possibilité d’une réutilisation est une des pierres angulaires de l’éditorialisation : en permettant des copies, des modifications ou des fragmentations des contenus, d’autres formes et expressions peuvent émerger. L’ouverture des usages des textes sont une des conditions des dynamiques “qui constituent l’espace numérique et qui permettent à partir de cette constitution l’émergence du sens” (Vitali-Rosati, 2020). Les logiciels et les programmes utilisés par les Ateliers pour produire leurs livres sont libres. Le choix du libre n’est pas anodin, l’enjeu est de disposer d’outils dont le fonctionnement peut être compris et analysé, des outils qui sont facilement accessibles, mais qui peuvent aussi être potentiellement modifiables et dont les modifications peuvent être partagées. L’usage du logiciel libre est aussi une condition de la pérennité des sources, des contenus et des modèles d’édition. Le fait que le code source des logiciels et des programmes soit mis à disposition publiquement facilite sa maintenance. Ce code est souvent accompagné d’une documentation pour comprendre son fonctionnement et proposer des méthodes pour le mettre à jour, ainsi que des moyens pour extraire les données — et les disposer dans un autre système si nécessaire. L’utilisation du logiciel libre ne se limite pas à ces éléments fonctionnels, l’enjeu principal est de constituer des chaînes d’édition en expérimentant autant que possible. La limite est alors celle imposée par le fonctionnement même des programmes utilisés, et non par les licences qui y sont associées. Enfin, avec le logiciel libre viennent des communautés, communautés qui peuvent apporter un soutien au projet concerné, et auxquelles un soutien peut être donné en retour. La pérennité correspond à la capacité, pendant un temps long, de lire et de modifier les sources, de générer des versions mises à jour des artefacts, ou de lire les formats de sortie. Le logiciel libre repose majoritairement sur des standards ou des protocoles qui sont partagés et documentés. Cela permet d’échapper à l’enfermement contraint par un format de fichiers dépendant d’un logiciel en particulier. Cette chaîne d’édition des Ateliers est l’expression de sa démarche éditoriale. Il y a une forme de cohérence entre les intentions éditoriales (quelle forme donner aux textes pour qu’ils circulent et qu’ils soient lus) et les processus permettant la réalisation de ces intentions. De la même façon qu’une structure d’édition façonne un texte, elle peut aussi fabriquer ces outils de façonnage.   2.5.3. Des espaces d’écriture Pour définir la chaîne d’édition des Ateliers nous pouvons faire un état des étapes d’édition, en présentant les outils associés à chacune d’elles. Avant cela nous critiquons l’utilisation du terme de “chaîne” : ce terme implique un enchaînement entre les différentes étapes nécessaires à la production d’un document, enchaînement qui suggère une succession ou une linéarité qui n’a pas systématiquement lieu dans les pratiques de cette structure d’édition. L’usage du terme “chaîne” se fait ici par défaut, le terme de “système” ayant également été effectué et épuisé (Fauchié, 2018) celui de fabrique est préféré et explicité en détail par la suite (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). De l’écriture à la publication, voici donc ces différentes phases. L’étape d’écriture des textes — textes structurés dès le début du projet en chapitres ou en parties — se déroule avec l’éditeur de texte sémantique Stylo (Vitali-Rosati, Sauret& al., 2020). Cet environnement d’écriture inclut une structuration sémantique via un langage de balisage léger (Markdown) pour le corps du texte, et un langage de sérialisation de données (YAML) pour les métadonnées liées au document. Dans la pratique une partie des auteurs et des autrices convertissent leurs textes depuis un traitement de texte vers Stylo, il peut donc y avoir une étape d’écriture préalable dans un logiciel type Microsoft Word, souvent sans sémantique. La raison de l’utilisation de Stylo est double : structurer sémantiquement les textes et disposer d’un espace de conversation autour des textes. L’abandon du traitement de texte — majoritairement utilisé pour les pratiques d’écriture, d’autant plus en milieu académique ou savant — pour l’éditeur de texte Stylo permet de faire de faire de l’édition numérique (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) et sémantique. En effet, il s’agit de donner du sens au texte : celui-ci, pour être lu, a autant besoin d’un rendu graphique que d’un balisage pour sa diffusion sur les différents environnements numériques. Il peut s’agir par exemple du format HTML, format qui représente l’information autant graphiquement que sémantiquement. Stylo permet également de prévisualiser le texte, cet aperçu est disponible sous la forme d’une page web qui peut être annotée via le service Hypothesis (note : https://web.hypothes.is). Les annotations permettent d’engager un dialogue sur le texte : signalement de corrections ou de modifications, mais aussi espace d’échanges. Ces commentaires incitent les auteurs et les autrices à échanger sur certains points ou à modifier directement leur texte. Il faut préciser que Stylo intègre un système de versionnement des textes, et qu’une prévisualisation est disponible pour chacune de ces versions, incluant la version courante (donc celle qui comporte les modifications les plus récentes). Deuxième précision : les annotations sont publiques par défaut, mais il est possible de les intégrer dans un groupe privé accessible sur invitation. Enfin, dans le cas des Ateliers les personnes qui annotent et commentent les textes ne sont pas anonymes, tout comme les textes ne sont pas anonymisés. Il s’agit donc d’une évaluation ouverte, effectuée par le comité éditorial des Ateliers — composé de Servanne Monjour et de Nicolas Sauret, parfois accompagnés d’étudiant·e·s. Après cette phase d’écriture et de révision, l’édition du texte commence. Il s’agit de structurer et restructurer : découpage en chapitres, ajout de métadonnées, structuration sémantique des textes — y compris des contenus dits additionnels (médias, repérage des termes à indexer ou à ajouter au glossaire, ajout de références bibliographiques, etc.). Une partie de cette édition du texte est réalisée dans Stylo, jusqu’au moment où il est nécessaire de disposer d’un environnement permettant de prévisualiser le livre (et non plus seulement les textes) et surtout de pouvoir modifier le modèle éditorial librement.   2.5.4. Des espaces d’édition Stylo est utilisé pour l’écriture puis délaissé pour travailler le texte et sa structure tout en prévisualisant le livre dans son ensemble. La structure du texte doit accueillir des données diverses, les Ateliers ont par exemple adopté un balisage spécifique pour structurer les termes et les expressions de l’index et du glossaire. La structure globale de chaque livre comprend les différents chapitres, mais aussi les outils du livre tels que l’index et le glossaire. À ce stade il importe de pouvoir constater que les artefacts sont bien fabriqués, et donc de les visualiser, et en particulier le site web. Le modèle éditorial évolue d’un livre à l’autre, cette adaptation est possible avec cette chaîne d’édition dont les éléments constitutifs et les gabarits peuvent être modifiés facilement. Contrairement à Stylo qui est une application utilisée par d’autres personnes dans des contextes très divers, et qui nécessite donc un certain degré générique. Nous assistons ici à une conjoncture médiatrice (Vitali-Rosati, 2021) où les pratiques, les outils construits collectivement, et le collectif lui-même sont intriqués. Il ne s’agit plus véritablement d’une chaîne où les opérations et les éléments sont organisés hiérarchiquement, mais d’un atelier d’où la pensée émerge. Avant de présenter l’outillage technologique permettant de générer les artefacts, nous présentons cet environnement de travail. Nous avons précédemment mentionné le fait que Stylo versionne les textes, afin d’identifier les modifications successives et de naviguer dans ces versions. C’est la première chose qui est gérée en dehors de Stylo avec le logiciel de gestion de versions Git et la plateforme GitLab. Git est un système de contrôle de versions (aussi appelé logiciel de gestion de versions) (Chacon & Straub, 2018) destiné à gérer du code informatique. Les logiciels de contrôle ou de gestion de versions sont nombreux, leur histoire est riche, et Git y a pris une place prépondérante pour ne pas dire monopolistique. Le fonctionnement de Git est puissant et facilite les interactions avec le code, à plusieurs, mais la plateforme GitHub a clairement contribué à populariser ce système de versionnement. Git est aussi employé pour versionner du texte dans des activités éditoriales diverses — majoritairement la fabrication de livres. Quel est l’apport de Git pour gérer du texte ? Les mêmes avantages que pour gérer du code — le code étant un texte quelque peu particulier. Le suivi des versions se fait via un système de commits : un commit est un enregistrement d’un état d’un projet, indiquant les modifications et accompagné d’un message plus ou moins long. Un commit dispose d’un identifiant unique, il est horodaté et il est attribué à une personne habituellement identifiée par un nom et une adresse électronique. Git est pensé selon un système de branches : à tout moment il est possible de dupliquer le projet et de travailler sur une version identique sans perturber les ajouts dans la version principale, cet espace parallèle est appelé branche. Les branches sont rebasées ou fusionnées avec la version principale pour intégrer leurs modifications. Git est utilisé sur un ordinateur avec un système d’exploitation, mais les versions et les fichiers peuvent être stockés dans un dépôt distant, cette disponibilité sur un serveur permet à plusieurs personnes d’y accéder ou de déposer leurs modifications. Il existe des surcouches logicielles permettant de faciliter l’utilisation de Git via des interfaces graphiques ou des interfaces web. Enfin Git est asynchrone, décentralisé et pensé pour être utilisé sans connexion internet. Les modifications ne se font pas simultanément entre plusieurs personnes, c’est le commit qui rythme les versions, celui-ci doit être explicitement envoyé (push) au dépôt distant pour qu’une autre personne puisse accéder (fetch ou pull) à ces modifications. Ainsi le commit est créé sur l’ordinateur de la personne utilisatrice de Git, puis poussé vers le dépôt distant. Notons qu’il peut y avoir plusieurs dépôts distants, et que chaque contributeur ou contributrice d’un projet conserve une copie du projet avec tout son historique. Contrairement à d’autres logiciels de gestion de versions populaires avant Git qui nécessitaient une connexion pour travailler, Git n’a besoin d’un accès à Internet que pour récupérer ou envoyer des modifications. Dans la figure ci-dessous nous pouvons voir les interventions successives par des personnes différentes et sur plusieurs branches, avec Git. GitLab est une surcouche logicielle, c’est un espace de stockage basé sur Git et une interface graphique sous forme de site web comportant des fonctionnalités en plus de celles de Git. Comme GitHub, très populaire depuis le début des années 2010, GitLab est communément appelé forge en informatique. GitLab est un logiciel libre disponible sous forme de service (payant) à l’adresse gitlab.com mais aussi sous différentes distributions (avec plusieurs types de licences associées) qui peuvent être installées sur un serveur. Ces installations indépendantes de gitlab.com sont appelées des instances. Les Ateliers, après avoir utilisé l’instance de Framasoft (note : Framasoft est une association française dont l’objet principal est la promotion et la diffusion du logiciel libre, incluant la mise à disposition d’infrastructures utilisant de tels logiciels et respectueuses des données privées.), déposent désormais les versions de ses textes sur celle d’Huma-Num — pour le moment en accès restreints. GitLab, en plus de stocker et d’afficher les versions (et donc les commits), propose des fonctionnalités qui ne sont pas comprises dans Git, fonctionnalités qui se retrouvent sur d’autres plateformes ou logiciels comme GitHub, Forgejo/Gitea, Codeberg, SourceHut ou Bitbucket (pour n’en citer que quelques-uns). Parmi ces fonctionnalités nous pouvons mentionner l’affichage des fichiers et des commits dans un navigateur web, un affichage de l’historique des commits sous forme de graphe, un éditeur de texte (et même parfois un environnement de développement intégré ou IDE en anglais), un gestionnaire de tickets, un gestionnaire de demandes de fusion (merge requests ou pull requests) et un dispositif de déploiement/intégration continu. Les pratiques d’édition des Ateliers se sont structurées autour des fonctionnalités de Git et de GitLab, nous en donnons ici quelques exemples. Tout d’abord les commits sont les traces qui permettent d’identifier les modifications successives du code. Naviguer dans ces états du texte correspond à la possibilité de consulter les évolutions des modifications d’une version à l’autre. Si certains outils d’écriture ou d’édition permettent d’accéder à un historique des versions, Git est bien plus puissant avec son système de branches. Les commits sont utilisés pour déclarer une série de modifications sur un ou plusieurs fichiers, telles que : corrections orthotypographiques, ajout d’identifiants sur des termes, ajout de contenus additionnels, phases de relectures, etc. Dans le commit ci-dessus nous pouvons voir les modifications apportées sur un fichier en particulier — la visibilité des différentes est facilitée par la coloration syntaxique. Ces informations sont enregistrées sur l’ordinateur des personnes qui ont cloné le projet, mais aussi sur la plateforme GitLab. Tous les commits sont la plupart du temps conservés — s’il est possible de supprimer un commit et les informations associées, c’est une opération rarement réalisée —, constituant ainsi une mémoire détaillée et rigoureuse du projet. Les tickets (ou issues en anglais) sont un moyen d’identifier des problèmes, de débuter une discussion ou de signaler des modifications à effectuer. Un ticket est créé par une personne et peut être attribué à une ou plusieurs autres. Chaque ticket comporte une description, il peut être commenté et il est possible de lier des tickets avec des commits ou des branches. Cette banque de tickets permet de discuter de façon fluide et néanmoins asynchrone entre les personnes impliquées dans le projet — l’équipe des Ateliers, rarement les auteurs ou les autrices. Plutôt que d’utiliser une messagerie quelconque, les questionnements et les remarques sont consignées dans cet espace, un ticket pouvant ensuite être fermé ou résolu via un commit. Ces tickets forment eux aussi la mémoire du projet. Dans le ticket (ou issue en anglais) ci-dessus, nous pouvons voir qui l’a créé et à qui il a été attribué. Le ticket est lui-même versionné, avec une date de création et la mention des modifications successives. Le déploiement continu, dernière des fonctionnalités liée à GitLab et utilisée dans ce processus, est une façon de déclencher une action à chaque nouveau commit sur une branche. Dès qu’une modification est effectuée et déclarée, puis envoyée sur la plateforme GitLab, cette dernière est en mesure de faire débuter un certain nombre d’opérations, via des scripts, pour générer les artefacts. Chaque livre des Ateliers est ainsi déployé (Fauchié, 2021) sur différents environnements : une version de développement, en ligne, mais qui n’est pas rendue publique ; une version en production, publique, sur le site des Ateliers. Pour mieux comprendre ce fonctionnement il faut préciser que les modifications peuvent porter sur les sources (les textes) mais aussi sur les scripts ou les gabarits des différents artefacts générés. Il y a une séparation nette entre les sources, les modèles des artefacts et les fichiers générés (qui forment les artefacts). Ces artefacts sont produits avec le Pressoir décrit ci-après.   2.5.5. Le Pressoir Le Pressoir est un outil chargé de convertir, d’organiser, de construire et de publier. Le Pressoir est une série de scripts Python qui permettent la fabrication d’un livre sous forme de site web, ainsi que la préparation des fichiers pour la production des formats PDF et EPUB — nous n’abordons pas la production de ces deux types de fichiers dans cette section. Pour convertir les fichiers sources aux formats Markdown (pour les contenus), YAML (pour les métadonnées et les contenus enrichis) et BibTeX (pour les références bibliographiques structurées), le Pressoir utilise le convertisseur Pandoc. Plusieurs commandes Pandoc sont ainsi préconfigurées via les scripts Python ; ces commandes comportent de nombreux arguments qu’il est préférable d’indiquer dans des scripts plutôt que d’appeler via un terminal comme c’est d’usage avec Pandoc. Il s’agit ensuite d’organiser convenablement les fichiers produits, y compris certains objets complexes comme les index et les glossaires. Une fois organisées, ces pages web constituent une construction, un artefact lisible (ici par un navigateur web) qui peut ainsi être publié. Le Pressoir doit son nom à David Larlet, l’un des designers et développeurs qui a contribué au projet en tant que prestataire depuis 2019. L’implication de David Larlet dans la formalisation d’une chaîne de publication est révélatrice des liens entre code et contenu. Son implication dans le projet dépasse la programmation de fonctions, puisqu’il a travaillé de concert avec l’équipe des Ateliers pour penser un système basé uniquement sur Python et Pandoc. Il faut préciser qu’avant la mise en place du Pressoir Pandoc était déjà utilisé, mais avec une série de commandes Bash et des programmes tels que Sed, BaseX ou Yq. L’objectif de la formalisation opérée avec Python est de réduire les dépendances extérieures, de pouvoir faire évoluer plus facilement la chaîne d’édition au fil des livres, et d’améliorer cet environnement d’expérimentation. Il aurait été possible d’utiliser un autre langage de programmation pour développer le Pressoir, mais Python offre deux avantages dans ce contexte : il est relativement accessible à des personnes qui codent sans que ce ne soit leur métier, et il est très utilisé dans la communauté des humanités numériques dont les Ateliers fait partie. Plutôt que de faire reposer la chaîne sur plusieurs logiciels (ici Git, Bash, Pandoc, Sed, BaseX et Yq), la construction d’une chaîne autour de Python et de bibliothèques de code Python facilite la mise à jour, la portabilité et la duplicabilité d’un tel processus technique. Il est désormais possible d’utiliser la chaîne avec Git (pour versionner les fichiers), Make (pour simplifier les commandes), Pandoc (pour la conversion des sources vers différents formats de sortie), Python (pour l’organisation, la construction et la publication). Il s’agit d’un déplacement des dépendances pour atteindre une soutenabilité, et surtout la construction d’un espace pour expérimenter. Ce travail de formalisation peut être analysé avec les outils du concept d’éditorialisation, et notamment les trois aspects technologique, culturel et pratique définis par Marcello Vitali-Rosati (Vitali-Rosati, 2017). Le premier aspect concerne la pile technologique qui consiste en une série de logiciels, de programmes et de leur configuration et articulation. C’est ce que nous venons de décrire avec la constitution du Pressoir en tant que suite de scripts. L’aspect culturel concerne l’usage de cette pile technique, avec certaines spécificités comme décrites dans l’utilisation de Git ou de la plateforme GitLab. Enfin, l’aspect pratique permet d’envisager de nouvelles pistes de modélisation éditoriale via le recours à cette chaîne d’édition pour différents livres. Dans le cadre des Ateliers les projets successifs avec le Pressoir ont permis par exemple d’imaginer de nouvelles fonctionnalités de lecture, chose impossible avec un dispositif d’édition plus classique. Les principales opérations réalisées par le Pressoir sont les suivantes. La conversion : il s’agit de convertir des fichiers sources balisés (ici avec le langage de balisage léger Markdown) au format HTML. Cette conversion consiste dans le passage d’un balisage léger à un balisage plus verbeux (et standard), mais également dans la prise en charge des citations bibliographiques et des bibliographies. Cette conversion est assurée avec Pandoc, convertisseur puissant très utilisé dans le monde académique (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). L’objectif ici est d’assurer le travail de conversion par un logiciel déjà créé et maintenu, par ailleurs puissant et reposant sur des standards. L’organisation : ce qui est fabriqué ici est un livre, son organisation en différents chapitres — incluant une introduction et une conclusion, ainsi qu’un index et un glossaire — est relativement classique. Le convertisseur Pandoc est d’abord pensé pour convertir un seul document à la fois, les options permettant de transformer une série de fichiers en un seul artefact avec Pandoc sont trop restreintes pour les besoins des Ateliers. Le Pressoir se charge ainsi de convertir plusieurs documents, listés dans un fichier de configuration, et de les placer dans les dossiers correspondants. Les scripts chargés de ces opérations sont séparés afin de distinguer des sous-opérations dans cette organisation, par exemple : la répartition en chapitres, la gestion des notes marginales, le placement des fichiers HTML produits dans les bons répertoires, etc. La construction : il s’agit de structurer les informations en appliquant une série de gabarits (ou templates en anglais). Cette construction concerne autant chaque page web (correspondant par exemple à un chapitre) que les éléments de navigation tels qu’un fil d’Ariane, un menu ou des liens pour passer d’un chapitre à un autre. La construction est aussi une opération d’indexation, avec le repérage de termes balisés et la création d’index, l’indication des occurrences et les liens hypertextes vers celles-ci. La publication : cette dernière opération consiste en la mise à disposition du site web ainsi créé, soit localement soit en ligne sur le Web. Le Pressoir est utilisé comme une interface en ligne de commande, c’est-à-dire que les fonctions sont appelées avec des commandes dans un terminal. Deux fonctions sont essentielles ici : générer l’artefact (donc convertir, organiser et construire) et servir cet objet (donc le publier de façon temporaire sur un ordinateur ou de façon plus large sur le Web). Cette description des opérations réalisées par le Pressoir permet de comprendre quelles sont les étapes ou les phases de cette pratique d’édition. Ce qui avait déjà été entrepris avec le script Bash avant le Pressoir comportait cette intention de structurer l’édition des livres des Ateliers. Il y a ici un effort singulier de formalisation des étapes, en considérant que des scripts doivent permettre de réaliser un certain nombre d’actions sur les textes. Il s’agit d’automatiser ce qui peut l’être sans pour autant perdre la maîtrise des opérations, pour paraphraser Silvio Lorusso (Lorusso, 2021). Et l’enjeu est aussi de pouvoir adapter certains fonctionnements en fonction des projets éditoriaux et de leurs particularités. L’usage du Pressoir se fait dans un contexte où la version numérique — et en l’occurrence un livre web (Fauchié, 2017) — est celle qui prévaut sur les autres. C’est-à-dire que cet artefact est le plus à même de présenter l’ensemble des contenus (additionnels y compris) alors que les autres formats sont des versions en quelque sorte réduites (sans les contenus additionnels et parfois sans index). Ce positionnement qui consiste à penser l’“édition augmentée” avant des formats tels que la version imprimée ou le fichier EPUB, est une expression d’une pratique d’édition contemporaine. Le concept ou la théorie de l’éditorialisation nous permet de faire surgir ce point plus fortement. Prévoir un format qui autorise la diffusion de contenus sur plusieurs plateformes, avec à disposition une licence de réutilisation, correspond à ces “dynamiques” qui “sont le résultat de forces et d’actions différentes qui déterminent après coup l’apparition et l’identification d’objets particuliers (personnes, communautés, algorithmes, plateformes…)” (Vitali-Rosati, 2020). En effet chaque livre web des Ateliers peut être lu en ligne par des humains, grâce à une structuration graphique de l’information et des outils de lecture et de navigation, mais aussi par des programmes informatiques qui parcourent et enregistrent le Web — ici par le biais de l’exposition de nombreuses données structurées et riches. Ces contenus rendus ainsi accessibles, il est possible de les citer, de les lier, voire de les réutiliser. L’édition, et ici plus spécifiquement numérique, n’est pas une duplication de l’imprimé sur le Web, mais bien la création d’artefacts nouveaux avec des processus d’édition singuliers — ce sur quoi nous revenons dans le chapitre suivant (voir 3.2. Le livre numérique ou la pensée homothétique). Avoir la possibilité de modéliser des livres, c’est exercer un effort de formalisation d’une pensée, il s’agit d’un acte éditorial. Le Pressoir évolue à chaque nouveau livre, certaines fonctionnalités sont ajoutées en fonction des besoins propres à chaque nouveau projet éditorial. Le Pressoir est aussi développé dans l’objectif de pouvoir être utilisé dans d’autres contextes d’édition — même si pour le moment le manque de documentation ne permet pas une mise à disposition publique. Le Pressoir nécessite une certaine littératie ou plutôt une littératie certaine, tels que l’usage d’un terminal et de la ligne de commande, la compréhension de langages de balisage tels que Markdown ou HTML, la maîtrise d’un éditeur de texte ou encore la connaissance de Git (via le terminal ou une interface graphique). Des connaissances et des pratiques qui ne sont pas forcément celles entendues lorsque l’on parle de numérique, et qui sont pourtant nécessaires pour envisager un usage et une reproductibilité de ce type de chaîne ou de modèle d’édition. Ces prérequis sont la condition de la création d’un modèle épistémologique propre à cette structure d’édition. Cette littératie en puissance, mal définie lorsque le terme numérique n’est pas précisé, correspond ici à un usage relativement avancé d’un ordinateur par rapport aux pratiques qui sont celles d’un traitement de texte, d’un logiciel de publication assistée par ordinateur ou d’un système de gestion de contenu (CMS). C’est l’objet du chapitre suivant de définir et de critiquer la notion de numérique, à la fois en prenant appui sur les recherches effectuées jusqu’ici — donc sur le livre et l’édition — et dans la perspective de les prolonger vers les notions de format et de fabrique. ========== Chapitre 3 Le numérique et l’avènement de l’édition numérique [4cd7b24] Le livre et l’édition constituent respectivement des artefacts énonciateurs et des processus dispositifs, dont l’étude nous permet de comprendre l’émergence du sens et les conditions de la diffusion de la connaissance. Nous analysons désormais le rôle du numérique en tant modification profonde des mécanismes de modélisation épistémologique. Nous avons déjà consacré plusieurs développements pour définir l’environnement numérique et ses dynamiques, notamment autour de l’éditorialisation (voir 2.4. L’éditorialisation en jeu), il s’agit maintenant de définir le numérique en tant que reconfiguration des processus eux-mêmes. Comment s’établissent des chaînes ou des fabriques d’édition avec le numérique ? Qu’est-ce que signifie éditer en numérique ? C’est grâce au travail de définition et de conceptualisation du livre et de l’édition que nous pouvons désormais présenter, analyser et critiquer le numérique. Nous définissons tout d’abord le numérique et son écosystème, en tant que mode de représentation et de diffusion d’information, en réseau, dont l’usage des protocoles et des standards issus de l’informatique forme des cultures numériques. Dans le domaine de l’édition, le numérique a engendré un nouvel objet, le livre numérique, qui révèle un mode de fonctionnement ou d’adoption bien particulier de duplication du modèle imprimé, que nous qualifions d’homothétisation. Cette disposition représente une phase intermédiaire de compréhension et d’intégration des enjeux numériques. Pour expliquer ce que signifie éditer avec le numérique, tout en préservant une longue histoire typographique et bibliographique, la première étude de cas de ce chapitre est consacrée à Ekdosis, un paquet LaTeX pour l’édition critique. Cette étude de cas nous amène à interroger le lien fondateur entre l’édition et les humanités numériques. Les sciences humaines et sociales ont développé, avec les humanités numériques, une approche et une méthodologie critique fortement ancrées dans des pratiques d’édition et de publication numériques. Enfin nous dédions la seconde étude de cas à un projet qui bénéficie des méthodologies initiées par les digital humanities tout en se situant dans sa marge. Les modes de fabrication qui y sont développés incarnent une définition possible de l’édition numérique, implémentant des méthodes et des principes issus des mouvements critiques des humanités numériques. Cet examen approfondi du numérique, dans le prolongement d’une étude des processus d’édition, nous permet d’interroger la question des formats, ce que nous faisons dans le chapitre suivant. 3.1. Le numérique : culture, politique et ubiquité [07f3e07] Nous établissons un cadre pour appréhender le numérique et pour déterminer son rôle majeur dans le champ de l’édition. Il ne s’agit pas uniquement de constater les changements induits par le numérique dans l’édition, mais également de mettre en relation les questions d’édition avec celles du numérique pour circonscrire ce domaine vaste, et pour disposer d’une définition précise. Définition Numérique Le numérique est une infrastructure technique permettant l’échange de données, il est composé de dispositifs d’affichage et d’interaction. Le numérique permet le développement d’usages à partir de technologies, ces technologies bénéficient en retour de ces pratiques pour évoluer. Le numérique est constitué de l’informatique en tant que modélisation calculatoire sur laquelle des machines diverses traitent des informations à l’aide de programmes, instanciés grâce à des protocoles et des standards. Le numérique est englobant et ubiquitaire, car il se structure avec le métamédia qu’est l’informatique. Des services comme le Web se fondent sur des réseaux de réseaux comme Internet, et font émerger des modalités d’écriture et d’édition, multiples et protéiformes. Les cultures numériques se forment avec les terminaux, les logiciels, les plateformes, les protocoles, les normes et les standards. Pour confirmer cette définition nous débutons notre recherche par une description de l’informatique à partir d’éléments contextuels techniques et historiques. Nous pouvons alors considérer des cultures numériques, qui sont autant la somme des pratiques plurielles que les fondements inhérents à cet assemblage technique et social que constitue le numérique. Enfin nous relevons des dimensions critiques du numérique, à la fois pour montrer l’ambivalence des enjeux et l’hétérogénéité des positions politiques qui constituent justement ces cultures.   3.1.1. L’informatique : de la discrétisation à l’applicatif   La réalité derrière le numérique, derrière les écrans, les interfaces et les services que nous utilisons, c’est l’informatique. (Cardon, 2019, p. 23)   Domaine d’activités vaste, et discipline scientifique, l’informatique est une façon de traiter, de transmettre ou de représenter de l’information (Guilhaumou, 1969, p. 62 et 113), le plus souvent avec un ordinateur — mais aussi avec d’autres dispositifs comme des automates. Dans Culture numérique, Dominique Cardon donne quelques éléments synthétiques qui permettent de comprendre le fonctionnement d’un ordinateur : c’est une machine qui calcule, ces calculs sont basés sur la logique et sur trois fonctions élémentaires que sont la disjonction, la conjonction et la négation. L’ordinateur est une machine à calculer, son objectif premier est de réaliser des opérations impossibles pour des personnes humaines. L’origine de l’informatique et les bases du fonctionnement de l’ordinateur, dans lesquels Alan Turing a joué un rôle déterminant, sont liées au texte. En 1936 Alan Turing conceptualise, dans un article fondateur (Turing, 1937), une machine capable de réaliser n’importe quel type de calcul. Il procède à une expérience de pensée dans laquelle les données et les programmes sont une même chose, concevant ainsi une machine — abstraite — permettant de réaliser n’importe quel calcul. Quelques années après cette publication, Alan Turing est recruté par l’armée britannique pour créer une machine capable de décoder les messages de l’armée allemande pendant la seconde guerre mondiale. Il s’agit de résoudre un problème textuel avec les mathématiques : rendre lisible des messages cryptés. Les développements de l’informatique qui suivent sont surtout consacrés aux calculs balistiques, toutefois cette machine computationnelle universelle est un système qui permet de modéliser du texte et de le traiter comme données. L’un des aspects fondamentaux de l’informatique, directement lié à la dimension de calculabilité, est le concept de discrétisation. Dans un environnement numérique où tout est opérations mathématiques, chaque information est représentée par une série de 0 et de 1 — aussi appelée chiffres en base 2. Ces informations sont discontinues, contrairement à un signal analogique qui est, lui, continu. Une donnée discrète est une donnée calculable, qu’un ordinateur peut lire, modifier, écrire, éditer — notons qu’il s’agit ici de calcul, mais aussi d’écriture et d’édition. Ce signal numérique apporte un avantage inestimable à l’époque de la reproductibilité industrielle : une information peut être copiée sans perte, contrairement à une information analogique qui ne peut conserver l’entièreté de sa qualité initiale lors de la copie d’un support à un autre. Cette avancée technique engendre des tensions représentatives d’un nouveau paradigme, comme le passage de l’analogique au numérique, ou le stockage et la gestion d’importantes quantités de données. L’information continue analogique ne peut être totalement transcrite par une information discontinue numérique, il y a nécessairement une perte au moment de l’échantillonnage, quand bien même le signal numérique comporte beaucoup d’informations. Les systèmes permettant de convertir ces informations sont de plus en plus performants, mais il y a de fait deux modélisations épistémologiques irréconciliables. La deuxième tension concerne la difficulté de stocker et de gérer des informations qui sont toujours plus nombreuses. Même si les capacités de stockage augmentent, l’enjeu est d’être aussi capable de lire, classer ou transmettre ces informations. Ces deux exemples de tensions, parmi d’autres, révèlent le numérique comme “une forme très spécifique de modélisation du monde devant être comprise dans une longue continuité de mathématisation du réel” (Vitali-Rosati, 2021), une forme qui est désormais partout, et qu’il est possible d’appréhender uniquement si nous définissons notre position par rapport au numérique. D’un point de vue pratique, un ordinateur est en mesure de comprendre des instructions et de réaliser les opérations correspondantes, mais ce fonctionnement est déterminé par sa capacité à reconnaître des types d’information pour appliquer le traitement adéquat. Cette dimension d’interopérabilité conditionne fortement le développement du matériel et du logiciel, en effet la compatibilité entre plusieurs composants ou entre plusieurs machines se traduit par la mise en place de standards et de protocoles. Un standard est un ensemble d’éléments de référence qui permettent de s’accorder sur la façon dont des informations doivent être représentées dans un environnement précis. Il s’agit de recommandations qui sont partagées au sein d’une communauté (note : À ne pas confondre avec la norme, qui est un ensemble de règles déterminées et approuvées par un organisme qui dispose d’une reconnaissance sociale, gouvernementale ou souvent économique.). Un standard est créé pour éviter toute ambiguïté, et pour permettre à des humains ou des machines de communiquer entre eux (humains-machines mais aussi machines-machines) sur une base commune. Le protocole a beaucoup de points communs avec le standard, notamment sur la question des conventions partagées, mais il s’agit plus précisément de la circulation ou de l’échange de données entre des entités. En informatique, là où le standard peut avoir une application individuelle — par exemple un format que plusieurs programmes peuvent interpréter —, le protocole concerne plusieurs machines et la façon dont elles peuvent communiquer. L’interopérabilité est le modèle conceptuel à l’origine des standards et des protocoles, dont le Web est probablement une des implémentations les plus emblématiques : une page web peut être lue de façon presque identique quel que soit le matériel ou le système d’exploitation. L’informatique s’est développée rapidement, autant en termes de capacité de calcul que d’invisibilisation de ses processus techniques. Il n’est plus nécessaire de savoir lire en base 2 ou d’utiliser un compilateur pour se servir d’un ordinateur, et cela remet en cause notre capacité à conserver un regard critique sur ces technologies (Kittler, 1995). La dimension applicative de l’informatique, en cela qu’elle est presque toujours proposée derrière une interface, peut être considérée de façon ambivalente. La facilité d’accès engendre un développement des pratiques que nous ne pouvons pas regretter, même si cela se fait au détriment de l’acquisition d’une littératie. Ces pratiques constituent, de façon disparate et multiple, une culture numérique.   3.1.2. Des cultures du numérique Une acception commune consiste à définir le numérique comme l’usage de l’informatique en tant que média capable de simuler tous les autres. Le numérique ne peut pas se réduire pas à ces dispositifs techniques, les usages de ces dispositifs forme une culture constituante. Elle est “la somme des conséquences qu’exerce sur nos sociétés la généralisation des techniques de l’informatique” (Cardon, 2019, p. 18). Avant Dominique Cardon, Milad Doueihi a identifié et analysé la reconfiguration des pratiques culturelles avec le numérique en faisant plusieurs constats, notamment la place importante prise par les questions juridiques et d’ingénierie dans la constitution de cet environnement, ou les effets de duplication d’une culture de l’imprimé (Doueihi, 2008). Ce qui ressort plus particulièrement de La grande conversion, c’est l’importance des formes émergentes et la matérialité des dispositifs, en effet cette culture numérique ne peut se constituer qu’avec des supports et des processus de production d’artefacts. Mais qu’est-ce que la culture ?   […] la « culture » est un ensemble varié et cohérent, on pourrait dire un système, de pratiques et de visions du monde, de valeurs et de savoirs, de méthodes et de comportements, de façons de penser et de communiquer, de protocoles et de normes, d’instruments de la connaissance et les connaissances mêmes qui en découlent. Si ce système, dont la dimension constitutive est sociale, est articulé, agencé et régi par une technologie aussi diffusée et omniprésente que la technologie numérique, alors la culture numérique peut être conçue comme la culture à l’époque du numérique. (Cavallari, 2019)   Peppe Cavallari ajoute, “la culture ne peut pas ne pas être numérique”. L’ouvrage Culture numérique de Dominique Cardon aborde les nombreuses dimensions de cette culture, en revenant plusieurs fois sur les éléments qui en font une exception. Les trois “lignes de force” permettent de prendre la mesure de ces singularités : “augmentation du pouvoir des individus par le numérique”, “apparition de formes collectives nouvelles et originales” et “redistribution du pouvoir et de la valeur” (Cardon, 2019, p. 7-8). Le numérique est quelque chose qui se pratique, quand bien même nous ne maîtrisons pas tous les rouages de cette mécanique complexe, et cette pratique est réflexive. En effet, “si nous fabriquons le numérique, le numérique nous fabrique aussi” (Cardon, 2019, p. 9). Les conditions techniques du numérique ont permis à cette culture de se constituer. Lorsque nous parlons de “numérique”, nous intégrons implicitement à cette notion l’informatique, Internet, le Web, les dispositifs qui permettent de les utiliser et de les détourner, et les nombreuses pratiques induites. Le numérique n’a pu se développer et engendrer des usages aussi répandus que grâce à l’agencement de ces briques techniques, cet agencement n’est possible que grâce à une dimension essentielle : la mise en place de protocoles et de standards. Nous avons distingué plus haut ces deux termes, précisons que leur élaboration dépend de mécanismes d’édition et de publication. Les RFC, ou Request for Comments, sur lesquelles Internet est construit, sont par exemple des spécifications techniques qui reposent sur un système de soumission, de discussion et de validation devant confirmer leur pertinence pour ensuite prévoir leur implémentation. Les standards du Web sont développés au sein du W3C (World Wide Web Consortium) qui est chargé de les documenter, afin qu’ils soient implémentés. Si le numérique dispose de couches techniques dont le fonctionnement dépend d’une adoption commune et d’une certaine homogénéité, en revanche les usages sont particulièrement divers, tout comme les positionnements politiques vis-à-vis de ces technologies, c’est pourquoi nous parlons plutôt des cultures numériques au pluriel.   3.1.3. Des dissidences critiques L’informatique, comme toutes techniques ou technologies, suscite des critiques au moment de son développement et de son avènement. Ce regard critique est une dimension importante lors de l’émergence de nouveaux outils, surtout lorsque ceux-ci amènent des bouleversements sociaux et culturels. Certains mouvements technophiles, et notamment les initiatives numériques et industrielles en provenance de la Silicon Valley, ont tendance à étouffer, à ignorer et à moquer ces modes d’expression, au profit d’un modèle politique et économique libertarien (Alexandre, 2023). À titre d’exemple, nous pouvons remarquer combien le luddisme est aujourd’hui considéré comme un rejet du progrès, alors que son objet et ses raisons sont bien plus complexes (Sale & Izoard). Les critiques exprimées lorsque de nouvelles technologies ou de nouveaux médias apparaissent révèlent aussi l’objet de leur mise en place, en opposition aux discours positivistes qui les précèdent. Les interventions critiques sur la technique sont nombreuses. En sciences humaines nous pouvons signaler — notamment — Jacques Ellul, Ivan Illich, Bernard Stiegler ou Gilbert Simondon, mais d’autres voix singulières et plus discrètes, exprimées et diffusées avec le numérique, exposent des critiques pertinentes sur l’informatique. Parmi elles, “Thèses sur l’informatique” est un texte pamphlétaire publié une première fois en ligne en 2018 puis imprimé en 2020 par Véloce, une “revue et collectif révolutionnaire”. La volonté de diffuser ce texte largement, en mettant en ligne une version facilement accessible, s’ajoute à une démarche de publication qui oscille entre fanzinat (avec l’absence d’ISBN, et la fabrication artisanale et presque amateure qui révèle quelques erreurs de fabrication) et édition limitée (avec la numérotation des exemplaires). Cet objet est influencé autant par une culture du livre que par une culture numérique, ce qui en fait un objet éditorial d’autant plus intrigant.   Le développement de l’informatique a d’abord bouleversé l’infrastructure économique, transformé la façon de produire ; et voilà qu’un demi-siècle plus tard, l’intégralité des conduites et des modes de pensée s’aligne sur les ordinateurs. Leur réseau recouvre l’ensemble de la société. On ne peut expliquer cet essor de l’informatique que par la contradiction des forces productives et des rapports de production. (S.A., 2020, p. 32)   La critique, construite sous forme de courts fragments — des thèses —, aborde l’informatique sous l’angle sociologique avec une forte influence marxiste. L’informatique est considérée comme un outil, ou comme une partie ou le tout d’une démarche globale de production — d’objets ou de valeurs. La question qu’engendre son adoption très large est la perte de maîtrise des outils de production — comme le mouvement luddite l’avait bien exprimé. L’introduction de l’informatique, et par extension du numérique, partout, augmente ce phénomène :   Si le capitalisme vend à chacun son moyen d’accès au réseau, c’est pour ne pas rendre à tous les moyens de produire. (S.A., 2020, p. 33)   C’est ici un point d’achoppement avec des éléments que nous avons déjà abordés concernant la question de la production et de l’édition (voir 1.1. Le livre : fonctions, concept et modes de production), où l’usage généralisé de l’informatique implique de s’interroger sur la nature même des objets qui sont ainsi produits, ainsi que sur la possible dépossession des outils d’édition. Avec ce texte publié par et dans Véloce, nous pouvons observer une démarche d’édition et de publication qui donne à voir un double mouvement de critique et de performativité de cette critique. En ne se limitant pas à une version numérique (une page web), Véloce entend conserver une certaine maîtrise dans la fabrication puis la diffusion d’un artefact éditorial. Et en même temps cette revue affirme, en publiant d’abord en numérique, qu’il est possible de faire autre chose avec le numérique que de nourrir un modèle économique capitaliste. D’autres visions du monde font l’objet d’initiatives qui refusent des outils de contrôle pour favoriser des démarches d’émancipation.   3.1.4. Pour un numérique politique Le numérique est fondé sur des protocoles, des standards et des logiciels, dont leurs conditions d’accès façonnent leur développement et nos usages. Il ne peut y avoir de culture(s) numérique(s) qu’avec une libre circulation de ces modèles épistémologiques. À ce titre, le mouvement dit du “logiciel libre” joue un rôle prépondérant dans la constitution de nos environnements numériques. Le logiciel libre entend porter des valeurs qui dépassent le cadre strict du développement informatique, pour aboutir à une libre utilisation de l’informatique par toutes et tous. Il s’agit d’une forme d’utopie (Broca & Kelty, 2018), tant les ambitions autour de projets comme la FSF (note : La Free Software Foundation est une organisation à but non lucratif basée aux États-Unis dont la mission est la promotion du logiciel libre.) ou le projet GNU (note : GNU est système d’exploitation, ou operating system en anglais, libre.) sont grandes, prônant une forme de liberté via la maîtrise de la technologie. Le logiciel libre est articulé autour de quatre libertés : l’utilisation du programme/logiciel, l’étude et la modification du code, le partage de copies, la distribution du code modifié.   The word “free” in our name does not refer to price; it refers to freedom. First, the freedom to copy a program and redistribute it to your neighbors, so that they can use it as well as you. Second, the freedom to change a program, so that you can control it instead of it controlling you; for this, the source code must be made available to you. (Stallman, 1986)   Ce projet se concrétise par la mise en place de licences appliquées à des programmes ou des logiciels, le but étant ici d’inciter à la modification du code, notamment pour inviter les personnes qui le souhaitent à contribuer. Ces licences sont des descriptions de ce qu’il est possible de faire ou non avec des précisions sur le contexte, les conditions d’application ou encore les questions de profit liées à la mise à disposition du code ou des logiciels. Ces dimensions philosophiques sont en partie gommées dans ce qui est appelé l’open source. Cette transposition industrielle du logiciel libre qu’est le mouvement open source est une volonté d’accélérer les développements économiques liés à l’ouverture du code informatique — quitte à passer sous silence les motivations originelles pourtant déterminantes du logiciel libre. Dans les faits, aujourd’hui, il n’y a pas de différence notable entre une licence libre et une licence open source. Un simple détail permet de prendre la mesure de cette subtile différence d’approche : sur le site web de l’initiative Open Source apparaît un copyright © à côté de “Open Source”, comme si l’initiative d’ouverture du code devait elle-même être limitée dans ses usages. A contrario, le projet GNU est organisé dès son origine en cédant ses droits à la fondation (à but non lucratif) qui le gère, et donc à ses utilisatrices et ses utilisateurs. Le projet politique du logiciel libre s’est répandu au point de concerner également les créations artistiques, avec l’apparition des licences Creative Commons en 2001. Il s’agit de contrats cadrant l’usage d’œuvres, d’abord dans une démarche de mise en ligne, mais aussi pour des contenus diffusés par d’autres moyens que sur les réseaux Internet. L’objectif est de déclarer les types de réutilisation possibles, comme c’est le cas avec le logiciel ou le code sous licence libre ou open source. Le copyright classique ne permet effectivement pas une diffusion et une circulation sur le Web, alors que les licences Creative Commons proposent un dispositif en donnant plusieurs combinaisons basées sur des éléments faciles à comprendre : l’attribution, l’usage non commercial, la limitation dans l’échantillonnage, et le partage à l’identique (avec l’attribution d’une licence équivalente). Les Creative Commons, initiées notamment par le juriste Lawrence Lessig, s’inspirent directement du développement informatique et du logiciel libre, proposant des outils libres, légaux et techniques pour permettre la constitution de cultures avec le numérique. L’engouement autour des Creative Commons est important (Bert-Erboul, 2015), à tel point que certaines plateformes comme Flickr l’adoptent comme fonctionnement par défaut. Cette forme de transposition est également un marqueur de cette impossibilité de séparer totalement les contenus et les outils qui permettent leur manipulation. À cette dimension de propagation il faut ajouter celle d’ubiquité : le numérique s’insère partout. Il faut noter à quel point, en quelques dizaines d’années pour l’informatique puis en quelques années pour Internet puis le Web, le numérique touche à toutes les activités humaines.   L’expression de “numérique ubiquitaire” (ubiquitous computing) a été forgée dès 1988 par Mark Weiser, dans le cadre de son travail à Xerox PARC. Il le concevait comme une troisième phase de développement des systèmes informatiques, après une première phase centrée sur d’énormes ordinateurs collectifs (mainframe) et une deuxième phase caractérisée par la multiplication des ordinateurs personnels (PC). Cette troisième phase se caractérise par le fait que les appareils numériques deviennent invisibles parce qu’ils se répandent partout. (Citton, Lechner & al., 2023, p. 369)   Cette invisibilisation du numérique ne contribue pas à maintenir un regard critique dans notre rapport à la technique. Nous devons permettre un dévoilement continu des rouages de cet environnement qu’est le nôtre, pour mieux l’appréhender et le comprendre, et pour s’émanciper. Si une forme de généralisation du numérique est observable depuis les débuts de l’informatique, les usages ne sont pas homogènes. Internet et le Web, malgré une certaine homogénéisation générée ou entretenue par les jardins fermés tels que les grandes multinationales et plateformes parfois qualifiées de GAFAM (pour Google, Amazon, Facebook, Apple et Microsoft), conservent des modèles épistémologiques très divers, comme nous avons déjà pu le voir avec Abrüpt (voir 1.3. Éditer autrement : le cas de Busy Doing Nothing). Derrière une uniformité de façade, le numérique dispose de nombreux angles morts, pour reprendre le titre de l’ouvrage par Yves Citton, Marie Lechner et Anthony Masure. 3.2. Le livre numérique ou la pensée homothétique [1ac73c3] Le numérique est ubiquitaire en tant qu’il touche à toutes les strates des activités humaines, y compris le livre et l’édition. L’avènement d’une culture numérique passe aussi par la numérisation du livre, par sa transposition dans un environnement où tout doit être calculé, impliquant ainsi un changement (profond) de paradigme qui oblige à repenser cet objet. Dans le cadre de notre étude nous analysons désormais ce qu’est le livre numérique. Il est symptomatique de la constitution d’une certaine culture numérique, surtout avec le développement d’un important catalogue d’objets numériques homothétiques. Cette mise en perspective d’une homothétisation de modèles épistémologiques est réalisée en définissant le livre numérique comme reproduction d’un modèle imprimé dans un écosystème numérique, puis par l’analyse de la transformation de la chaîne du livre induite par l’émergence d’un tel objet. Autrement dit nous questionnons la supposée innovation qu’est le livre numérique, en tant que symptôme d’un rapport problématique avec le numérique — et plus globalement avec la technique.   3.2.1. Quelques définitions du livre numérique   L’expression de « livre numérique » entretient une ambiguïté sur la nature du livre sur le plan de son contenu. Elle recouvre une grande diversité d’objets textuels qui mettent en relation le projet littéraire et artistique avec ses conditions d’existence matérielles et techniques. (Jamet-Pinkiewicz, 2018)   Définir le livre numérique, après le livre, est une tâche complexe qui soulève des interrogations théoriques dans le champ des sciences de l’information et plus particulièrement de l’étude des médias. Comme pour le livre imprimé, le livre numérique porte les conditions de son existence, directement liées à sa structuration en tant qu’artefact numérique.   Livre disponible en version numérique, sous forme de fichier, qui peut être téléchargé, stocké et lu sur tout appareil électronique qui en permet l’affichage et la lecture sur écran. (S.A., 2010)   Cette définition de l’Office québécois de la langue française révèle les ambiguïtés de cette association livre et numérique, et font également apparaître des enjeux et des questionnements en lien avec l’édition. Il s’agit tout d’abord d’une version, laissant supposer qu’un livre numérique est encore un livre, et qu’il peut coexister avec d’autres formes ou formats. Ensuite, la question du fichier sous-entend l’existence d’un environnement constitué par l’informatique, il y a donc une machine qui calcule des informations structurées pour permettre leur affichage et leur lecture. Il s’agit de lire sur un appareil électronique qui se charge de traiter ces données. Enfin, cette lecture est permise par l’intermédiaire d’un écran, le texte est donc mis en forme pour être interprété par des humains, il s’agit d’un travail de rendu graphique spécifique qui diffère de l’imprimé (Cramer, Cubaud& al., 2011).   Le terme de « livre numérique » porte en lui sa définition, le poids de son héritage et les contraintes de son état. En effet, en construisant le nom de ces fichiers numériques sur la base du terme « livre », nous avons lié explicitement l’un à l’autre. (Epron, 2018)   Le livre numérique est ainsi un prolongement du livre, avec des caractéristiques originelles communes et de nouvelles particularités. Les nécessités de conserver un lien filial entre ces deux objets sont autant économiques que culturelles. En effet, il s’agit de pouvoir identifier le livre en tant que rémanence culturelle avec tout son héritage et sa légitimité, tout en lui conférant une valeur marchande qui ne doit pas remettre en cause celle de l’imprimé, mais également en valorisant ses (nouvelles) spécificités liées au support écran. Dans le cas de structures d’édition qui sont amenées à publier conjointement des versions imprimées et numériques, l’enjeu est important.   3.2.2. La possibilité du livre numérique : entre standard, dispositif technique et volonté éditoriale Recommençons. Définir le livre numérique est à la fois simple, car son histoire est récente et documentée, et complexe, car les rares définitions formalisées répondent à des modèles épistémologiques souvent opposés (Fauchié, 2019). Un consensus s’accorde sur le premier livre numérique historique avec la mise à disposition de la Déclaration d’indépendance des États-Unis sour forme de fichier texte par Michael S. Hart en 1971. Loin d’être la première expérience de lecture numérique ou de littérature numérique, cette date révèle déjà un élément analytique déterminant : lorsqu’il s’agit de livre numérique il est important d’associer le contenu, sa diffusion et le dispositif de lecture — le modèle économique vient malgré tout après. L’apport de Michael S. Hart porte autant sur le format choisi que sur le mode de diffusion. Il s’agit d’un (simple) fichier texte, choix guidé par les limites de l’époque ne permettant pas de mise en forme — pas plus que d’encodage en UTF-8, ce qui limite l’utilisation de certains caractères. Le livre est diffusé via le réseau Internet d’alors, c’est-à-dire Arpanet et ses quelques ordinateurs connectés. Même si la diffusion est limitée, plusieurs personnes ont accès à ce fichier et l’objectif sous-jacent est bien une diffusion, quelle qu’en soit l’échelle — il ne s’agit donc pas d’une expérimentation isolée. L’affichage induit par ce format oblige alors à un rendu relativement similaire selon les personnes et les machines — notamment les sauts de lignes gérés dans le format texte, et la non-adaptation du texte à la taille de l’écran. L’objectif premier n’est pas d’expérimenter une nouvelle forme d’écriture ou de lecture, mais plutôt de permettre un accès plus large et plus rapide — et plus facile, dans une certaine mesure — à un contenu textuel. D’autres expérimentations peuvent être considérées comme antérieures à celle-ci, comme l’Index Thomisticus de Roberto Busa, l’Enciclopedia Mecánica d’Ángela Ruiz Robles, ou certaines expérimentations de Douglas Engelbart ou Andries van Dam autour de l’hypertexte. Le fichier texte partagé par Michael Hart est avant tout une preuve de concept, le premier titre d’une longue suite, rapidement rejoint par des classiques de la littérature — d’abord majoritairement en langue anglaise. En effet, cette mise en livre numérique de la Déclaration d’indépendance des États-Unis a donné lieu à une initiative qui a beaucoup influencé le devenir du livre numérique : le projet Gutenberg (Lebert, 2008). Le choix du nom — Gutenberg Project — n’est pas anodin, le numérique étant alors perçu comme un nouveau moyen de diffuser largement la connaissance. C’est un projet humaniste qui rassemble une communauté active autour de la numérisation et de la mise en accès gratuite de livres dans le domaine public. Ces contenus, qui sont libérés de leur propriété économique marchande, peuvent donc circuler librement. La plateforme (note : https://gutenberg.org), mise en place dès les débuts du Web en 1994, propose plusieurs formats, dont le format texte précédemment cité, mais aussi des formats HTML ou PDF. La lecture se fait alors majoritairement sur des écrans d’ordinateurs, seul dispositifs connectés à Internet jusqu’au début des années 2000. Ce projet est autant humaniste que patrimonial, revendiquant un droit d’accès à la culture au-delà des institutions comme l’école ou l’université. Comme le souligne Amaranth Borsuk, les textes sont désormais consultables à n’importe quel moment, indexables par des moteurs de recherche, et archivables par des institutions et des individus (Borsuk, 2018, p. 213-217). Il s’agit d’une des trois dimensions nécessaires à l’émergence et à l’adoption du livre numérique : la constitution d’un catalogue accessible. Plusieurs initiatives s’efforcent de définir un format standard pour ce nouvel objet numérique, répondant à des contraintes propres au livre : une structuration du texte, une déclaration des contenus (organisation en parties, présence de médias) et des métadonnées. Des recherches convergent vers le format EPUB (Marcoux, 2014), dont l’IDPF (note : L’International Digital Publishing Forum est un consortium à visée commerciale.) puis le W3C (note : Le World Wide Web Consortium absorbe l’IDPF en 2017, les deux structures partageant beaucoup de points communs.) est le garant de sa standardisation. Parmi les principes fondateurs de l’EPUB, le plus déterminant est l’interopérabilité, il s’agit d’assurer une compatibilité d’interprétation et de lecture par plusieurs logiciels dédiés à cette tâche. Le fichier EPUB, qui dispose d’une extension du même nom, est un dossier compressé, un ensemble de fichiers rassemblés grâce un manifeste qui précise leur organisation. La technologie XML, et plus spécifiquement le format XHTML, permet de structurer sémantiquement les pages, à laquelle des feuilles de style sont associées pour assurer la mise en forme, enfin des métadonnées descriptives sont formalisées avec Dublin Core. Il s’agit d’un site web encapsulé, le format EPUB s’inspire donc beaucoup du fonctionnement du Web en tant que support de lecture numérique. L’objectif de la mise en place de ce format est double : sa portabilité — ce que permet difficilement un site web — et sa mise en vente. Enfin ce format doit aussi pouvoir être protégé, et ainsi limiter sa copie et son partage pour ne pas perdre le contrôle des rétributions. C’est la deuxième condition du livre numérique : un format interopérable et standard. Diverses recherches autour de dispositifs portables de lecture, inspirés du livre imprimé, aboutissent en 2004 à la première liseuse à encre électronique accessible, la Sony Librie, puis à une commercialisation plus large avec le modèle PRS-500 en 2006. Le prix accessible ainsi que sa mise à disposition relativement large permettent à un nombre suffisamment important de personnes de pouvoir l’acquérir et de voir émerger des situations de lecture numérique. Il y a eu de nombreux précédents, dont la tablette SoftBook en 1996 qui a précédé l’iPad, ou plus tôt encore en 1960 avec le Dynabook, un projet ambitieux mené notamment par Alan Kay que nous abordons plus longuement par la suite (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). L’apport de l’encre électronique est décisif pour pouvoir, enfin, disposer d’un appareil portable et avec une grande autonomie, et proposant un confort de lecture proche du livre imprimé. Avec la technologie de l’encre électronique, l’énergie n’est nécessaire que pour changer l’état de l’écran et donc son affichage, les billes d’encre pouvant conserver leur état (blanc ou noir) pendant très longtemps. L’appareil est particulièrement léger, bien moins lourd que la SoftBook par exemple — 250 grammes contre 1,3 kilogrammes. Un rétroéclairage est bientôt ajouté à tous les modèles — l’encre électronique ne diffuse pas de lumière —, et des écrans intègrent même de la couleur. Au moment de la sortie de la PRS-500, soit plus de trente ans après le lancement du projet Gutenberg, il est possible de lire dans des conditions très similaires à celles du livre imprimé, sans la contrainte d’un dispositif lourd et peu autonome. Cette condition est la troisième et dernière permettant l’apparition du livre numérique et de ses usages. La disponibilité de titres du domaine public crée un engouement autour de la lecture numérique, et incite quelques maisons d’édition pionnières à proposer aussi leurs titres dans ce format. Des structures vont jusqu’à ne publier que des livres numériques, c’est le cas de Publie.net en France, qui pendant ses premières quatre années ne propose pas de versions imprimées (Habrand, 2010). Les catalogues des maisons d’édition sont progressivement numérisés, jusqu’à ce que les titres soient publiés conjointement aux formats imprimé et numérique. La question économique est un enjeu majeur du livre numérique, qui a des répercussions sur toute la chaîne et donc aussi sur le livre imprimé. La question du prix du livre numérique a animé le monde du livre pendant un certain temps. Trop bas, il contribue à une perte de valeur symbolique. Trop haut, il est considéré comme un frein au développement des usages. Plusieurs analyses tendent à envisager la stratégie des grandes maisons d’édition, vis-à-vis de l’établissement de ce prix, et pendant la première décennie du livre numérique, comme une réaction de réticence face à l’inquiétude de perdre la maîtrise des flux économiques. Plusieurs épisodes ont ponctué l’essor du livre numérique, dont en Europe la question de savoir s’il s’agit d’un bien culture ou d’un service, la taxe associée variant de 5 à 20%. Après quelques soubresauts dont différents types de maisons d’édition s’offusquent, le livre numérique partage enfin le même statut que le livre imprimé dans la plupart des pays. Entre l’initiative du Projet Gutenberg et les réactions diverses des maisons d’édition, les bibliothèques de lecture publique ont joué un rôle important dans l’accompagnement de cette stabilisation et de cette reconnaissance. Elles ont été à la fois initiatrices avec le prêt numérique (Dillaerts & Epron, 2017), laboratoires de lecture numérique avec l’acquisition puis le prêt de matériels, et partenaires de certaines initiatives éditoriales en s’abonnant à des offres d’éditeurs. Les bibliothèques ont été promotrices autant que critiques de ce nouvel établissement livresque, en mettant à disposition des titres, des offres, des dispositifs, des espaces d’échange et de découverte. Définition Livre numérique Un livre numérique est la transposition du modèle du livre dans l’écosystème numérique. Cela signifie tout d’abord l’utilisation de l’informatique pour la conversion ou la création des artefacts éditoriaux, puis la mise en réseau des fichiers produits afin de les rendre disponibles, et enfin l’usage de terminaux électroniques pour la lecture des fichiers. Le livre numérique répond à un modèle épistémologique qui met le livre, dans sa forme classique, au centre, reproduisant autant que possible l’objet ainsi que les pratiques d’édition. Ce que nous n’avons pas dit, c’est que l’écrasante majorité des titres numériques, proposés dès 2006 par les maisons d’édition, sont des livres dits homothétiques. Autrement dit une duplication des livres imprimés sur un nouveau support. Cette approche, qui résulte d’une considération particulière du numérique dans la chaîne du livre, mérite d’être explicitée en détail.   3.2.3. La justification du livre homothétique   Livre numérique. Ouvrage édité et diffusé sous forme numérique, destiné à être lu sur un écran. Note : Le livre numérique peut être un ouvrage composé directement sous forme numérique ou numérisé à partir d’imprimés ou de manuscrits. Le livre numérique peut être lu à l’aide de supports électroniques très divers. On trouve aussi le terme « livre électronique », qui n’est pas recommandé en ce sens. (S.A., 2012)   En France il aura fallu plusieurs années avant qu’une définition légale ne soit donnée pour le livre numérique, confirmant son droit d’exister aux côtés du livre imprimé. Cette définition stabilisée, très proche de celle de l’Office québécois de la langue française, cadre l’expression “livre numérique” principalement pour faciliter sa commercialisation et l’avènement d’un modèle marchand bien loin de l’utopie du Projet Gutenberg. Le livre numérique peut désormais cohabiter aux côtés d’autres formats, et principalement le format imprimé. Notons que cette cohabitation de plusieurs formats, formes ou versions est un motif qui se répète. Le livre de poche (voir 1.1. Le livre : fonctions, concept et modes de production) a par exemple été considéré comme une évolution importante du livre, sans que son apparition ne vienne faire disparaître les formats d’alors. Comme le livre de poche, le livre numérique accompagne de nouvelles pratiques de lecture, de consommation, mais aussi de création ou d’édition. Ces pratiques restent pourtant assez limitées, en effet elles n’adoptent pas toutes les potentialités offertes par le numérique. Les livres numériques des sites marchands, ou des bibliothèques ouvertes ou libres (comme le Projet Gutenberg), sont presque uniquement homothétiques. L’homothétie est un concept mathématique, plus précisément une transformation géométrique qui permet de reproduire un objet par le biais d’une projection. L’usage de ce terme s’est répandu pour définir un livre numérique qui a les mêmes propriétés que son homologue papier, propriétés néanmoins projetées dans un environnement numérique. Ainsi, même si une translation est opérée, le livre numérique homothétique ne propose pas de fonctionnalités supplémentaires autres que celles permises par un dispositif numérique. Parmi elles nous pouvons signaler la modification de l’affichage (détails typographiques divers), les liens hypertextes internes (comme une table des matières), des marque-pages multiples, la recherche en plein texte ou encore l’accès à un dictionnaire. S’il s’agit là de modifications notables par rapport à l’équivalent imprimé, il n’en reste pas moins que le contenu, lui, reste le même. Autrement dit les potentialités du numérique sont utilisées uniquement pour permettre la lecture du même texte. Le livre numérique homothétique n’est néanmoins pas un facsimilé. Ce dernier, qui peut être dans un format numérique — souvent le format PDF qui permet un affichage constant quel que soit l’environnement —, reproduit les caractéristiques graphiques du livre imprimé. Le caractère homothétique se définit ici par un contenu identique à un modèle imprimé, tout en s’inscrivant dans un nouvel environnement — numérique.   Si les livres numériques homothétiques reprennent certains aspects du livre imprimé, ils peuvent aussi, tout en préparant les interactions avec le texte en fonction de son horizon d’attente, échapper à ce modèle par des déplacements ou des hybridations. (Jamet-Pinkiewicz, 2018)   Le constat de Florence Jamet-Pinkiewicz donne un éclairage complémentaire à notre propos : sans remettre en cause le contenu du livre lui-même, le livre numérique homothétique propose un environnement de lecture différent qui peut constituer en soi un nouveau modèle épistémologique. Les possibilités de personnalisation de la mise en page du livre font partie de ces glissements, il s’agit aussi d’un pouvoir important sur le texte mis entre les mains des personnes le lisant (Renou-Nativel, 2012). Le livre numérique homothétique s’oppose au livre numérique enrichi, bien moins répandu dans les catalogues commerciaux.   Les livres numériques “enrichis” sont, en revanche, décrits comme des œuvres expérimentales, porteuses d’une tension créatrice liée à l’intégration des potentialités animées et manipulables de l’écriture numérique. (Tréhondart, 2016, p. 16)   Les expérimentations enrichies, comme les décrit Nolwenn Tréhondart dans sa thèse dédiée à ce sujet, sont plus complexes à diffuser et à vendre en raison de ces formes plurielles et parfois imprévisibles. Plusieurs tentatives participent à cette volonté d’embrasser le numérique en tant que nouveau médium, comme les liens hypertextes, la mise en réseau, l’embarquement de médias divers ou encore les fonctionnalités inhérentes aux dispositifs (écran tactile, géolocalisation, positionnement de la tablette, microphone, etc.). Ces expérimentations ont accompagné le développement du livre numérique dans sa globalité, parfois au sein de structures plus proches du jeu vidéo que de l’édition, ou parfois en s’associant à ces démarches multimédia. C’est le cas de Mnémos en France, qui a développé un catalogue de livres numériques homothétiques en parallèle de projets plus audacieux intégrant des enrichissements propres au numérique (Combet, 2015). Le livre numérique enrichi pose problème car il échappe à une commercialisation classique. Ses formats sont divers et souvent non interopérables — par exemple les applications uniquement conçues pour les tablettes iPad de la marque Apple. Les fichiers contiennent des médias imposant en poids (taille des fichiers), voire en puissance de calcul nécessaire à leur lecture (images et vidéos en haute résolution, scripts gourmands en ressources). Par ailleurs certaines fonctionnalités avancées en font des objets rapidement périssables, des mises à jour étant nécessaires pour la compatibilité avec certains matériels ou systèmes d’exploitation. Des contraintes qui, en plus des coûts importants de développement, limitent une diffusion large. La chaîne du livre numérique s’est ainsi essentiellement constituée autour du livre numérique homothétique, considérée comme un segment plus stable permettant un développement économique certain et un déplacement des usages raisonnables. Si de grands espoirs ont été nourris sur l’apport du numérique dans les pratiques éditoriales, dans les faits l’industrie du livre n’a pas modifié ses modèles de production, de diffusion et de distribution, encore largement basés sur ceux de l’imprimé.   Dans un univers où les groupes géants reposent d’abord sur une force de vente remarquablement organisée, de la diffusion à la distribution, l’édition a tendance, on l’a vu à plusieurs reprises, à devenir secondaire, et, même si c’était le cas dès l’origine chez Flammarion, cette tendance s’est renforcée au XXe siècle et accentuée encore au XXIe. (Mollier, 2022, p. 128)   En France et en Europe, les activités de certaines maisons d’édition, dont les plus grandes en taille, se concentrent sur la diffusion et la distribution en raison de leur rentabilité. Cela explique le peu d’engouement pour le livre numérique — y compris homothétique. Les rares expérimentations des grandes maisons, sur le terrain du livre numérique enrichi, sont des preuves de concept — sans passage à l’échelle — ou des opérations de communication pour convaincre d’un secteur ancien qui innove. Voyant un marché en train de se constituer sans eux (Benhamou, 2014), les structures d’édition adoptent tout de même le numérique avec le livre numérique homothétique, considéré surtout comme un canal de commercialisation supplémentaire. La forme homothétique est appliquée au livre, mais aussi à toute la chaîne du livre. Des investissements importants sont effectués pour accueillir ce nouveau format et pour pouvoir le vendre. Le numérique, finalement, est vu comme un moyen d’exploiter le livre (commercialement) plutôt que comme une reconfiguration des modes de création, de production ou de diffusion. Sous couvert d’innovation, le monde de l’édition a ainsi engagé des investissements très limités dans le numérique en tant que façon de faire et beaucoup plus dans l’adaptation des flux de circulation des données, de commercialisation des fichiers et de verrouillage des usages pour maîtriser les modes d’accès. Attention tout de même ici à ne pas considérer ces changements comme minimes, ils imposent déjà une vision particulière du livre, où la commercialisation de la connaissance ou de la littérature se fait au détriment des libertés permises jusqu’ici par un support imprimé. Les critiques du livre numérique sont nombreuses, considérant une certaine dérive du monde du livre vers une dématérialisation de nos vies (Biagini, 2015), entretenant une vision profondément technophobe. Tentant de reproduire le modèle industriel construit autour de l’imprimé, le monde de l’édition — ou plutôt les usages majoritaires — continue de considérer la technique d’abord comme un moyen d’accélérer les modes de production ou de les rentabiliser. L’équilibre économique des structures d’édition, basé sur les activités de diffusion et de distribution du livre imprimé, se voit bouleversé par l’introduction du livre numérique qui ne nécessite plus le même type d’acheminement. La seule option acceptable est l’homothétisation du livre numérique et de la chaîne numérique dans son ensemble. Il ne s’agit donc pas d’utiliser la technologie pour considérer de nouveaux modes de création, d’écriture, d’édition, de fabrication ou de production, mais de dupliquer un fonctionnement établi sans questionner cette nouvelle disposition. Néanmoins d’autres initiatives existent, guidées non pas par une recherche de profit — voire de rentabilité —, mais par une volonté d’explorer d’autres modèles épistémologiques avec le numérique — et non grâce à. Deux modèles épistémologiques cohabitent : un numérique qui duplique et un numérique qui invente.   3.2.4. Vers un désenclavement d’une pensée homothétique avec les technologies du Web Nous observons, dans la constitution de cet écosystème numérique de l’édition, une accélération accompagnée d’une volonté de rentabiliser les moyens de production du livre. Le format EPUB est un exemple de cette plus forte industrialisation, et spécifiquement les modes de protection qui lui sont appliqués. En effet, si ce format permet une portabilité de ses contenus structurés, il est — par défaut — partageable sans restriction. Une des prérogatives de bon nombre des maisons d’édition est donc de pouvoir empêcher cette libre circulation. La longue litanie des DRM (Digital Right Management ou Mesures techniques de protection en français) commence, la seule solution technique adoptée largement est alors celle de l’entreprise Adobe, acteur pourtant éloigné de la chaîne du livre (note : La société Adobe développe tout de même un logiciel comme InDesign, largement utilisé dans le domaine de l’édition pour faire de la publication assistée par ordinateur.). Le marquage des fichiers ne rencontre pas l’unanimité, ce moyen permet pourtant de ne pas dépendre d’un tiers et de ne pas obliger les lecteurs et les lectrices à utiliser des applications de lecture spécifiques, et à se créer un compte sur le service Adobe Digital Editions — qui peut par ce biais recueillir de précieuses données de lecture. L’alternative LCP (Licensed Content Protection), interopérable et sans intermédiaire, est mise en place pour simplifier cette méthode de protection des fichiers. Son adoption ne peut toutefois être que longue, en raison de la mise en place d’une standardisation, et des spécifications techniques qui l’accompagnent et qui doivent être implémentées à une large échelle. À la fin des années 2010 une polarisation est constatée entre d’une part des téléchargements pirates que tentent d’enrayer les grands groupes d’édition, et d’autre part les jardins fermés d’Amazon (note : Amazon va même jusqu’à créer son propre format pour la liseuse Kindle, format propriétaire et donc non-interopérable.) et d’Apple qui excluent les libraires et réduisent les marges des éditeurs. Face au format EPUB, le livre web est un objet qui dénote. Objet marginal, et pourtant cadré dans sa forme, le livre web est une alternative fonctionnelle au livre numérique tel qu’il est répandu actuellement (format EPUB avec ou sans DRM). Présent comme mode de formalisation du livre numérique, mais peu théorisé, il peut être défini comme ceci :   Un livre Web (web book) est un livre consultable dans un navigateur : une collection de documents organisés, structurés en parties (comme des chapitres), avec des outils de navigation (comme une table des matières), lisibles sur le Web et accessibles par des hyperliens. Il existe différentes modalités technologiques : mobile (responsive), consultable hors connexion, Progressive Web Application (PWA), etc. (Fauchié, 2017)   Cet objet est intéressant pour trois raisons : sa dimension formelle expérimentale, la difficulté de le commercialiser, et ses méthodes de fabrication. Le livre web bénéficie en effet de toutes les possibilités offertes par les technologies du Web en termes de mise en forme ou de fonctionnalités, mais limiter l’accès à un site web implique des mécanismes de gestion de comptes complexes. Cela explique son usage pour des livres techniques, des manuels ou des textes académiques, qui peuvent exister selon des modalités économiques autres. C’est ce que signale à juste titre Anthony Masure en faisant le lien entre recherche scientifique et publication ouverte, et entre constitution de la pensée et design des publications (Masure, 2018). Enfin, le livre web dispose des modes de fabrication des technologies du Web. Contrairement à la production d’EPUB centrée majoritairement sur l’usage du logiciel InDesign, ces technologies permettent d’envisager une convergence entre cette forme émergente et la recherche de nouveaux modes de fabrication. Le livre web ne représente pas seulement une originalité formelle, il questionne le fonctionnement même du marché et de l’économie du livre. Dans le cadre d’un écosystème stabilisé — le modèle du livre imprimé —, le livre web remet en cause les figures d’autorité, de légitimité ou de diffusion, et propose un fonctionnement qui déstabilise les acteurs traditionnels et leur pouvoir. Pour expliciter ce point, nous prenons trois exemples de chaînes de publication. Hachette, The Getty et Ed sont trois dispositifs mis en place pour fabriquer ou produire des livres avec les technologies du Web, adoptant des modes d’édition numérique qui diffèrent de l’homothétisation précédemment abordée. Le premier exemple est l’usage des technologies du Web par le groupe d’édition Hachette pour la production des livres imprimés dans le domaine dit trade — des romans ou des essais contenant majoritairement du texte. L’objectif est d’accélérer les modes de production et d’adopter une logique de flux permise par des contenus structurés avec les technologies du Web, plutôt que l’usage de logiciels comme InDesign (Cramer, 2017). Cette méthode — que nous détaillons plus longuement par la suite (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts) — permet d’imprimer ainsi d’imprimer des pages web via l’utilisation d’un logiciel spécifique. The Getty, fondation et musée, a mis en place une chaîne de publication numérique et multimodale nommée Quire qui reprend ce principe (Fauchié, 2020, p. 6-8). L’idée ici est de publier des catalogues d’exposition en plusieurs formats, une version imprimée et plusieurs numériques, à partir d’une même source. La chaîne de publication repose sur un langage de balisage qui structure les contenus, et sur plusieurs composants (interchangeables) qui convertissent et organisent les fichiers. Le troisième exemple est Ed, un outil développé dans le champ des humanités numériques pour produire des livres web avec un minimum de dépendances technologiques (Gil, 2019) : un générateur de site statique basé sur un langage de balisage léger, et des possibilités d’hébergement du site web à moindre coût ou gratuit. Ces trois initiatives révèlent des méthodes et des outils divers, dans trois contextes différents qui ont en commun de s’éloigner de la logique logicielle — un outil générique qui peut tout faire — et de reconfigurer les modes de validation et de diffusion.   3.2.5. Pour une redéfinition du livre L’homothétisation de l’édition n’est pas une fatalité comme le prouve les expérimentations ci-dessus, plusieurs regards théoriques rejoignent ces initiatives et permettent d’envisager une reconfiguration plus enthousiasmante du livre avec le numérique. Hubert Guillaud et Pierre Mounier proposent deux positionnements, respectivement autour des potentialités sociales du livre avec Hubert Guillaud, et dans la dimension de réinscriptibilité du livre numérique avec Pierre Mounier. Les deux auteurs ont en commun leur participation à l’ouvrage Read/Write Book (Dacos, 2009) ainsi que l’engagement dans une pensée critique du numérique en général et du livre numérique en particulier. Pour Hubert Guillaud, le livre numérique marque une évolution plus profonde de notre relation avec l’écrit, guidée par une sociabilisation du livre. Le numérique modifie grandement notre rapport au livre et donc à la connaissance ou à la littérature, que ce soit par la mise en réseau avec le Web, ou par une forme de mémorisation collective et collaborative.   Pourquoi lisons-nous si ce n’est, le plaisir passé, pour partager, pour soi ou avec d’autres, ce que nous lisons, comme le montre chaque jour le web 2.0 des conversations ou les marges de nos livres que nous remplissons d’annotations ? (Guillaud, 2010, p. 60)   Cette vision d’un livre numérique commentable, annotable, connecté, en réseau, rejoint celle de Pierre Mounier sur la dimension mouvante des contenus avec ce nouveau média. Selon Pierre Mounier, un livre numérique ne peut être considéré comme tel qu’à condition de pouvoir être modifié continuellement — et collectivement. Le livre numérique doit être réinscriptible, c’est-à-dire que son contenu doit pouvoir être modifié en tout temps, y compris après sa publication.   Dernières arrivées dans le paysage de l’édition électronique, les initiatives éditoriales nativement en réseau constituent un bouleversement majeur et sont souvent vues comme une menace pour les acteurs de l’édition. […] Le fait technologique majeur qui autorise ces bouleversements est le caractère infiniment réinscriptible du texte électronique. (Dacos & Mounier, 2010, p. 88)   Ainsi Wikipédia serait l’une des formes de livre numérique la plus aboutie, puisque pensée pour être constamment réécrite. Dans ces deux propositions il s’agit de redéfinir le livre et le rapport que nous entretenons avec cette figure culturelle, avec, en creux, l’espoir de voir surgir de nouvelles formes de création et de partage de la connaissance. Le livre numérique, en tant que nouvel objet et en tant que phénomène d’édition, révèle des rapports au numérique ambigus, voir des visions du monde antagonistes. Nous avons analysé l’édition dans le numérique, nous devons désormais étudier comment éditer avec et en numérique, et tout d’abord avec l’étude de cas d’Ekdosis, une chaîne d’édition pour l’édition critique. 3.3. Éditer avec le numérique : le cas d’Ekdosis [07f3e07] La reconfiguration des modes de fabrication et d’édition du livre, induite par le numérique, pose la question de l’héritage du modèle imprimé, et de la façon dont les acquis épistémologiques et typographiques peuvent être réinvestis dans le modèle numérique. L’édition critique est un terrain particulièrement fécond pour étudier ces évolutions et les efforts déployés pour obtenir des artefacts imprimés et numériques avec le numérique. Nous analysons ces questions avec l’étude de cas d’Ekdosis, chaîne d’édition pour l’édition critique imprimée et numérique, et plus spécifiquement une extension de LaTeX — aussi appelée package ou paquet. Il s’agit d’un dispositif technique qui invente plutôt qu’il ne duplique, et dont la modélisation présente plusieurs caractéristiques pertinentes pour notre recherche — qui concerne plus globalement les processus techniques d’édition. Avant de détailler l’origine de ce projet mené par Robert Alessi et le fonctionnement de cet outillage complexe et puissant, nous apportons quelques éléments de contexte sur ce champ particulier qu’est l’édition critique, et nous présentons également le cadre technique et sémantique de LaTeX. Cette étude de cas entend répondre à la question suivante : comment une chaîne d’édition déploie-t-elle un modèle conceptuel qui conjugue modélisations imprimée et numérique ?   3.3.1. L’édition critique : un carrefour scientifique et un défi typographique L’édition critique relève d’une pratique d’édition bien spécifique, dont l’objectif est la reconstitution et la publication de textes classiques permettant leur étude, via la mise en relation de contenus de natures différentes tels que les sources ou des informations sur les choix éditoriaux. L’édition critique implique la mise à disposition d’un texte, qui, sans un travail d’édition, serait soustrait à notre connaissance, et dont la forme livresque constitue une version qui fait autorité dans un champ disciplinaire. L’édition critique est complexe, elle se situe au carrefour — pour reprendre un terme utilisé par Robert Alessi — de différents domaines et approches scientifiques. Elle peut donner lieu à un objet dont le texte original est la raison d’être d’un travail de reconstitution et de dépouillement, ou à un objet dont les apparats savants constituent l’intérêt d’une démarche profondément critique dans la confrontation de nombreuses sources et commentaires. L’enjeu ici est de faire autorité avec la mise à disposition d’un artefact imprimé qui résulte d’un travail d’édition, travail qui repose essentiellement sur des choix concernant les textes, et qui dépend d’un art de la composition de la page.   Faire une édition critique imprimée est de fait le geste qui représente le mieux un rapport scientifique au texte, qui en questionne l’authenticité, le contexte historique, la transmission et finalement le sens. (Alessi & Vitali-Rosati, 2023, p. 8)   Une édition critique imprimée est le résultat de décisions éditoriales complexes qui sont implémentées dans l’espace de la page, la difficulté réside dans l’affichage de ces données textuelles et graphiques, souvent en grand nombre. Ainsi l’apparat critique doit obligatoirement figurer sur la même page que le texte qu’il commente, tout en laissant suffisamment de place pour celui-ci afin qu’il reste visible et lisible. Comme nous l’avons vu avec L’Utopie de Thomas Moore et son analyse par Jean-François Vallée (voir 1.2. La forme du livre et sa matérialité), la page est le lieu de choix éditoriaux, les compromis en termes de production de l’objet imprimé conduisant à des pertes irrémédiables. Les projets d’édition critique présentent des enjeux similaires, il est par exemple parfois nécessaire de disposer, sur un même espace, à la fois des leçons, des variantes, d’un apparat critique et d’un appareil critique (Cerquiglini, 1989). L’édition imprimée est parvenue à résoudre ce défi, faisant l’acquisition d’un savoir-faire en matière de composition typographique, qui s’inscrit dans une plus longue tradition qui débute bien avant les débuts de l’imprimerie à caractères mobiles. L’édition critique imprimée a ainsi développé des codes sémiotiques qui sont partagés et compris, ils sont le résultat de décisions et d’un jeu de conventions où tout ne peut être montré, et où les contraintes techniques sont totalement intégrées dans les opérations éditoriales. Le numérique vient fortement bouleverser ces éléments établis, d’une part avec la disponibilité des textes en ligne, et d’autre part avec les possibilités d’affichage des objets numériques (les sites web en premier lieu), remettant en cause la figure d’autorité d’une édition critique, pourtant acquise avec une édition critique imprimée. Avec une édition numérique, le nombre de données n’est pas limité, il est ainsi possible d’envisager une certaine exhaustivité informationnelle et communicationnelle — pour paraphraser Joana Casenave (Casenave, 2023), qui pointe également la nécessité de déterminer des modes de classement et de hiérarchisation de ces informations, ainsi que la définition de trames narratives et de scénarisations pour circuler dans ces ensembles complexes. L’autorité peut ainsi être reconstituée autour de ces parcours sémiotiques, mais aussi avec la publication des sources de ces objets numériques, dont le versionnement facilite la lecture et la visibilité de ses marqueurs (responsabilités et validations) (Alessi, 2023). Ekdosis, programme ou logiciel de fabrication d’éditions critiques imprimées et numériques, se place dans un double objectif de conserver une tradition paginée — avec le numérique —, tout en permettant d’envisager des usages adaptés au numérique — et donc potentiellement plus exhaustif. Ekdosis est une implémentation de LaTeX pour faire de l’édition critique — plus spécifiquement un paquet LaTeX —, et donc un système de balisage sémantique et de composition typographique, qui produit deux versions : un format PDF paginé et un format XML-TEI. Pour mieux comprendre son fonctionnement il est nécessaire de présenter LaTeX en tant que chaîne d’édition.   3.3.2. Adopter et adapter LaTeX Ekdosis est ainsi une application spécifique de LaTeX, et donc hérite d’un grand nombre de ses fonctionnements. LaTeX est considéré comme un langage de balisage et un système de composition destiné à la mise en forme de documents imprimés, il s’agit de l’une des premières tentatives de séparation du fond et de la forme dans l’histoire des systèmes de publication numérique. LaTeX consiste plus précisément en des commandes, qui correspondent à des fonctions, qui sont traitées par un interpréteur. Si le texte est d’une certaine façon balisé, le fonctionnement de LaTeX ne repose pas sur des conversions mais plutôt sur des calculs. Respectant des normes typographiques strictes tout en étant basé sur des fichiers au format texte et des commandes, LaTeX est un puissant système de programmation éditoriale (Guichard, 2008). L’histoire de LaTeX prend part à celle plus large des technologies de l’édition numérique (Blanc & Haute, 2018). LaTeX a été développé par et pour les scientifiques, en lien avec plusieurs domaines comme l’informatique, les mathématiques ou la physique. LaTeX est d’abord fait de TeX, un système de composition typographique qui repose sur un programme et une série de macros. LaTeX correspond à un ensemble de macros qui facilitent l’usage de TeX, permettant de disposer d’un certain nombre de commandes déjà préformatées pour composer le texte. TeX a été créé par Donald Knuth — un informaticien et mathématicien — afin de pallier des défauts de mise en forme d’un de ses livres, à la fin des années 1970 (Knuth, 1986). Regrettant la pauvreté de la qualité de la composition typographique de la deuxième édition du second volume de son ouvrage The Art of Computer Programming, il se met en tête de créer un système informatique d’édition de documents. Nous sommes à la fin des années 1970, les systèmes de composition et d’impression photographiques remplacent alors les systèmes d’impression mécanique par pression. Ce qui doit prendre quelques mois à Donald Knuth l’occupe plusieurs années — suscitant au passage le beau projet de typographie générative Metafont. Dans les années 1980i, Leslie Lamport crée LaTeX (d’où le “La” de LaTeX) pour faciliter l’utilisation de TeX, par l’implémentation d’un ensemble de macro-commandes (Lamport, 1986). Sans Leslie Lamport l’utilisation de TeX serait bien plus difficile. Dans LaTeX il faut distinguer le langage de balisage, le système de composition et la distribution. Le langage de balisage permet d’appliquer des actions sur un texte, par le biais de commandes qui commencent par une contre-oblique \, des commandes précises voire parfois complexes (sujettes à des conditions, et parfois verbeuses) qui permettent de gérer de nombreux détails typographiques. Le sens du texte est qualifié, par extension nous considérons cela comme des déclarations sémantiques qui ont principalement un objectif de rendu graphique dans un document imprimé, via la production d’un fichier PDF — via un format .dvi. LaTeX se situe à l’intersection de l’imprimé et du numérique, faisant usage de pratiques issues de la programmation informatique (format texte des fichiers, commandes textuelles pour indiquer les traitements d’éléments) pour réaliser des compositions typographiques (disposition du texte, calcul de l’affichage des éléments). Enfin LaTeX requiert une distribution, c’est-à-dire un programme complet constitué de l’interpréteur (aussi appelé compilateur) LaTeX ainsi que des paquets – des modules ou des extensions qui ont une fonction spécifique traduite par des commandes. De nombreuses distributions existent, notamment pour prendre en compte des cas spécifiques comme la gestion linguistique dans des langues d’origine non latine, ou pour permettre une compatibilité face à divers systèmes d’exploitation. LaTeX est utilisé dans plusieurs domaines, surtout académiques, pour la production d’articles, de thèses ou de livres, comme les mathématiques ou l’informatique, et notamment pour sa formidable gestion typographiques des formules mathématiques. Certaines personnes en sciences humaines y ont également recours pour sa grande fiabilité typographique — parfois via le convertisseur Pandoc. La communauté LaTeX, répartie selon les distributions et les applications, est importante, tout comme les diverses ressources mises à disposition (manuels, guides, forums, listes de diffusion, etc.) (note : https://ctan.org). LaTeX nécessite un apprentissage, tant en termes de rédaction avec l’utilisation de commandes textuelles, que pour générer les formats de sortie via un terminal. LaTeX est un système exigeant qui, une fois le temps de prise en main passé et les ressources identifiées, est d’une grande efficacité, par exemple pour des langues non latines, des structurations complexes, ou la génération d’outils du livre comme des index. Malgré son fonctionnement rigide, LaTeX est un système de composition puissant, extensif et évolutif. En pratique l’utilisation de LaTeX suit plusieurs étapes. L’écriture est réalisée dans un fichier au format TeX — avec l’extension .tex — via un éditeur de texte ou de code. Ce fichier qui mêle texte et code (note : Nous nous refusons à ce dualisme, mais nous distinguons ces deux éléments pour les besoins d’une présentation concise.) est ensuite compilé par LaTeX pour produire une sortie au format PDF (moyennant un passage par d’autres formats intermédiaires). Pour modifier le document final (il s’agit la plupart du temps d’un fichier PDF), il faut intervenir à nouveau sur le fichier initial et recompiler LaTeX. Une des critiques formulées à l’égard de LaTeX est le manque de séparation entre fond (ou structure) et forme (ou composition graphique), qui en fait un bon outil de composition et moins un outil d’écriture. Pour réaliser certaines opérations typographiques, des commandes doivent être intégrées dans le fichier, qui sont parfois uniquement des indications pour l’obtention d’un rendu graphique et non des informations sémantiques. LaTeX se situe du côté de l’édition plutôt que de celui de l’écriture :   What I call the ‘LaTeX fetish’ is the conviction that there is something about LaTeX that makes it good for writing in. As we shall see, arguments in favour of writing in LaTeX are unpersuasive on a rational level: LaTeX is in fact quite bad for writing in (although it could be worse, i.e. it could be TeX). This doesn’t mean that people shouldn’t use LaTeX at all, but it does mean that people probably ought to stop recommending it as a writing tool. (Allington, 2016)   Enfin, LaTeX est un logiciel libre, cette caractéristique contribue fortement à sa découverte, son adhésion, et à la constitution d’une communauté active et ouverte. De nombreux projets l’intègrent, tels que des éditeurs de texte, des services d’écriture et d’édition en ligne (tel que le populaire Overleaf (note : https://www.overleaf.com)), ou encore des chaînes d’édition en tant que module permettant de générer un document paginé au format PDF (tels que Zettlr (note : https://zettlr.com), Quarto (note : https://quarto.org), Stylo (note : https://stylo.huma-num.fr), ou d’autres chaînes utilisant le convertisseur Pandoc). LaTeX n’est pas en concurrence vis-à-vis de logiciels de publication assistée par ordinateur comme InDesign, QuarkXPress ou Scribus, il propose en effet une autre modélisation de la composition ou plus globalement de l’édition. Ce détour nous permet de comprendre dans quel cadre s’inscrit Ekdosis, prolongeant une longue tradition typographique, tout en utilisant les potentialités programmatiques du numérique. Nous pouvons mentionner d’autres usages de LaTeX pour l’édition critique, comme le paquet nommé reledmac (Dunning, 2020). Celui-ci ne prévoit toutefois pas la génération d’un format XML-TEI et diffère sur certains choix — notamment l’affichage de différentes versions.   3.3.3. Le fonctionnement d’Ekdosis Le nom du logiciel Ekdosis provient du grec ἔκδοσις, qui signifie “publication d’un livre” (Alessi, 2020), ne laissant aucun doute sur son objet. Il s’agit d’un paquet LaTeX, pour être plus précis Ekdosis utilise LuaLaTeX : même si la majorité des commandes sont les mêmes, LuaLaTeX se distingue notamment par l’utilisation d’Unicode et de scripts Lua, permettant une plus grande souplesse et une plus grande adaptabilité, notamment pour le multilinguisme — Ekdosis est d’ailleurs conçu pour des éditions critiques multilingues.   Ekdosis apparaît comme un outil qui combine deux impératifs : celui de produire une édition imprimée s’inscrivant dans une longue tradition philologique et celui de fournir ce que Donald J. Mastronarde et Richard J. Tarrant ont appelé « actionable texts for use in digital research ». (Debouy, 2021)   Ekdosis est un outil pensé pour produire des éditions critiques — imprimées et numériques — via l’utilisation de LaTeX et de ses commandes. L’usage d’Ekdosis consiste à baliser du texte en indiquant un certain nombre d’informations propres aux éditions critiques, comme les apparats ou les appareils, les collations, les leçons, ou les variants. Les pages sont composées en prenant en compte ces différentes informations, et un fichier est encodé dans un format numérique XML-TEI. Ekdosis rassemble ainsi deux objectifs : produire un document imprimé dans la tradition philologique, et générer un format exploitable par les machines en respectant le schéma XML-TEI. Il s’agit de la rencontre entre deux protocoles établis, à la fois différents et complémentaires.   […] Ekdosis permet de réconcilier les deux approches : fournir des éditions critiques fiables et faisant autorité en tant qu’œuvres d’érudition pouvant être présentées aussi bien en version papier pour l’impression qu’en version électronique pour toutes sortes de requêtes sur les données. (Debouy, 2021)   Ekdosis applique deux modélisations, l’une imprimée et l’autre numérique, à partir d’une source unique. Le fait de pouvoir produire deux formats différents tout en ne travaillant que sur une seule source est un avantage important. Ainsi il n’est pas nécessaire de devoir reporter une correction sur deux fichiers pour obtenir deux artefacts, ici le principe du single source publishing — détaillé par la suite (voir 4.4. Le single source publishing comme acte éditorial sémantique) — facilite l’édition. Le balisage d’Ekdosis comprend des commandes spécifiquement créées pour l’édition critique, nous pouvons en présenter quelques-unes pour comprendre leur fonctionnement. Nous passons outre les déclarations en en-tête nécessaires pour annoncer quelles éditions, témoins ou versions sont utilisées dans l’édition critique, Estelle Debouy les explicite très clairement dans son article. Lors de la saisie de l’édition, il est possible de distinguer la leçon choisie des autres versions du même texte dans d’autres éditions (considérées comme secondaires), en indiquant les références de ces sources. Dans cet exemple nous pouvons voir comment une leçon est balisée avec l’indication du document source, \lem[wit={E, H2, L, W}]{puriter}, ainsi qu’une variante aussi accompagnée de sa source, \rdg[wit={Ba, H1, P}]{furiter}}. \lem (lemma) correspond à la portion de texte concernée, l’empan, et \rdg (reading) à la variante de ce texte. Ces informations balisées sont utiles à la fois pour la production du PDF et la génération du XML-TEI. En effet Ekdosis est en mesure de transformer ce balisage, d’abord en l’interprétant — il correspond à un scénario préalablement défini, les commandes ou les balises étant déterminées dans le logiciel — puis en convertissant ce balisage dans une autre expression — selon un autre scénario. Ainsi les deux formats XML-TEI et PDF sont conjointement mais néanmoins distinctement générés. Certaines données ne sont utilisées que pour l’export XML-TEI, c’est le cas du labelb du code ci-dessus, utile pour insérer une ancre dans le format encodé. Cette ancre permet de lier deux données à l’intérieur d’un document TEI — par exemple la description d’une version et la version elle-même, via l’usage d’un identifiant. Cette chaîne d’édition est un exemple de l’adaptation d’un système de publication dans un contexte bien spécifique, tout en adoptant des principes de calculabilité du texte à des fins d’édition.   3.3.4. Éditer avec le numérique ou en numérique   Yet ekdosis can select a handful of versions out of many and display them properly in print while building a database meant to stand for queries and extraction of data. (Alessi, 2020)   Ekdosis est pensé pour produire des éditions critiques paginées de qualité, tout en générant une version numérique en devenir, en cela il relève d’une pratique d’édition avec le numérique plutôt que en numérique. En effet, si le format de sortie PDF constitue un artefact prêt à être diffusé, qui ne nécessite pas forcément d’être modifié, le format XML-TEI est généré pour une utilisation postérieure qui doit faire l’objet de nouvelles décisions éditoriales quant à l’affichage des informations et à leur disposition — par exemple sur un site web. Ekdosis se situe dans une position intermédiaire entre un modèle hérité de l’imprimé et un modèle numérique qui permet de produire une édition en numérique. Ekdosis se distingue des outils habituels d’édition, ceux-ci reposent sur un empilement des informations sémantiques et de leur possible rendu graphique, empilement qui crée une confusion entre le sens et sa signification dans un espace visuel. Ekdosis, comme LaTeX, consiste en un balisage à la fois procédural et descriptif (voir 4.2. Les conditions de la sémantique : format texte et balisage) qui permet de renseigner la valeur sémantique de chaque portion de texte, valeur qui est ensuite traduite en une composition graphique ou un encodage numérique. Dans le cas d’Ekdosis il est par exemple possible d’indiquer des liens avec des identifiants qui renvoient à des références dans différents endroits du document. Le texte ainsi édité n’est plus une suite d’attributions de styles graphiques mais une série de déclarations auxquelles il est possible de faire correspondre une mise en forme. Le prix de cette clarification est une certaine verbosité dans le balisage du texte comme nous pouvons le voir ci-dessous. Pour permettre à l’éditeur ou à l’éditrice de suivre son texte, Ekdosis propose un mode d’édition et d’écriture via l’éditeur de texte Emacs, offrant la possibilité de replier des portions de texte et ainsi de faciliter la rédaction. Cette fonctionnalité est permise par le balisage d’Ekdosis sans pour autant y être intégrée directement, cette possibilité ouvre une perspective déterminante : la modélisation du texte n’a pas une incidence que sur le processus de fabrication des formats et sur les artefacts produits, mais aussi sur les modes d’écriture et d’édition. Ekdosis, et donc aussi LaTeX, impliquent un certain rapport au texte, celui d’une composabilité sous la forme d’instructions — qui peuvent également être converties en un encodage —, plutôt qu’une série de déclarations sémantiques. Il s’agit là de deux modélisations du texte et de l’édition sur lesquelles nous revenons par la suite (voir 4.2. Les conditions de la sémantique : format texte et balisage). L’étude d’Ekdosis démontre la pertinence de distinguer éditer dans, avec ou en numérique, avec ici l’élaboration d’un modèle épistémologique intermédiaire et original dans un contexte éditorial éminemment complexe. Il s’agit d’un modèle parmi d’autres, ces modèles pouvant être observés notamment dans le champ des humanités numériques où de nombreuses expérimentations sont réalisées. Avant d’aborder une seconde étude de cas, dédiée à une chaîne d’édition numérique, nous analysons l’émergence d’une édition numérique en lien avec l’approche des humanités numériques. 3.4. Fondement de l’édition numérique au prisme des humanités numériques [07f3e07] Les pratiques du numérique dans l’édition sont plurielles, oscillant entre des tentatives de duplication de modèles préexistants et la constitution de nouvelles modalités de fabrication et de production. À ce titre les humanités numériques représentent un héritage épistémologique qu’il est nécessaire d’analyser. En effet, l’approche critique et réflexive des humanités numériques est un apport majeur pour étudier ou concevoir des dispositifs techniques. De quelle manière des paradigmes qui émergent avec le numérique reconfigurent des pratiques d’édition ? L’évolution numérique des sciences humaines, originellement tournées vers le texte et le livre, nous permet de répondre à cette question. Définition Humanités numériques Les humanités numériques constituent une approche multidisciplinaire au sein des sciences humaines et sociales, à la fois comme une évolution des pratiques de recherche et comme une attitude critique face à l’usage des technologies. Il s’agit d’adopter des méthodes avec le numérique, et plus globalement avec l’utilisation de l’informatique, principalement pour calculer les données extraites des textes et exploiter ces calculs. Il s’agit aussi d’un mouvement critique réflexif, interrogeant les outils invoqués et l’effet de leurs usages sur nos modèles épistémologiques. Cette section examine le lien entre la constitution des humanités numériques et celle de l’édition numérique. Loin d’être un mouvement uniforme ou homogène, les humanités numériques sont multiples et imposent des réflexions que nous présentons sous l’angle des questions d’édition ou de publication. Dit autrement, les humanités numériques sont un terrain d’expérimentation de l’édition au contact du numérique, adoptant une approche expérimentale, éditoriale et critique. Nous nous focalisons sur ces trois aspects.   3.4.1. Définir les humanités numériques en cinq dimensions Définir les humanités numériques est complexe, cette approche pluridisciplinaire n’est pas homogène et ne réside pas dans la simple addition des humanités et du numérique, il s’agit bien plutôt d’une conjonction que nous établissons à travers cinq dimensions : calculer, produire, réfléchir, décoder, et publier. Les tentatives habituelles de définition de l’approche des humanités numériques s’appliquent à une exploration historique, les travaux de Roberto Busa ou de Paul Otlet sont à ce titre considérés comme deux points de départ privilégiés d’un mouvement qui s’est intensifié à partir des années 1970 (Mounier, 2018). Plutôt que de nous intéresser à ces figures, par ailleurs déjà très documentées, nous observons des pratiques actuelles qui révèlent une forte diversité en sciences humaines. Cette diversité est valorisée dès la stabilisation de l’expression digital humanities au début des années 2000 avec la publication de l’ouvrage fondateur A Companion to Digital Humanities (Schreibman, Siemens& al., 2004). Nous constatons ainsi les très nombreuses définitions données par les personnes mêmes se réclamant de cette approche :   The use of digital tools, media and corpora in the humanities, thus changing both the objects and practices in the Humanities. [Thomas Lebarbé] using digital tools to explore, analyze, and disseminate humanities scholarship [Sarah Werner] The use of digital media and tools to answer traditional humanities questions, and the study of new questions that are formed by the intersection of modern methods/tools/models and humanitistic sources. [Laurie Allen] I define Digital Humanities as the re-figuring of computing, a historically positivist field, in order to pose and answer the more speculative questions typical of the humanities. Of late I have been considering the difference between Digital Humanities (which seems to centre on humanities inquiry) and humanities computing (which focuses on the intersection of humanities with computer as a material object). [Constance Crompton] The study of digital culture; a collaborative praxis; the intersection of computing with the questions of the humanities; challenging; exciting; fluid. [Katherine McSharry] (Heppler, 2015)   Ce ne sont ici que quelques définitions isolées parmi les 817 réunies sur le site web “What Is Digital Humanities?”. Au-delà d’être une preuve de la richesse de ce domaine, il s’agit aussi de constater une certaine forme de dissonance ou d’éparpillement. Dissonance, car les approches scientifiques classiques nous ont habitués à voir des domaines fortement encadrés, avec des traditions parfois très anciennes. Éparpillement, car les humanités numériques n’ont pas vocation à former un tout homogène ou uni. Pour comprendre comment cette diversité s’est constituée, notons que l’origine des humanités numériques est le calcul. Cette première dimension consiste plus précisément dans le fait de pouvoir atteindre des résultats impossibles sans le recours à l’informatique. C’est ce que décrit Pierre Mounier dans Les humanités numériques : Une histoire critique (Mounier, 2018) avec la présentation du projet d’indexation de Roberto Busa. Compter les mots, les occurrences, les motifs textuels ou littéraires, avec l’aide de petites mains rarement mentionnées (Mellet, 2023), est le point de départ d’une reconfiguration des humanités. Les humanités numériques se diversifient alors rapidement, allant de la linguistique à l’histoire, en passant par la documentation, l’étude des médias, la littérature ou l’étude des réseaux. Le point commun des multiples disciplines qui se croisent ou se rejoignent dans les humanités numériques est le fait de produire quelque chose, il s’agit de leur deuxième dimension.   Building is, for us, a new kind of hermeneutic – one that is quite a bit more radical than taking the traditional methods of humanistic inquiry and applying them to digital objects. (Ramsay, 2016)   Pour Stephen Ramsay il s’agit de la condition préalable des humanités numériques : il n’y a pas de recherche possible sans production. Celle-ci ne consiste pas à produire des textes du type articles ou autre publications académiques classiques, mais à fabriquer des objets numériques très divers. Que ce soit des sites web, des textes encodés, des visualisations, des cartes, des bouts de code, ou des bases de données, adopter l’approche des humanités numériques implique de produire un résultat. Ce résultat n’est pas une fin en soit, il ne s’agit pas forcément d’un artefact ou d’un dispositif immédiatement réutilisable, mais plutôt d’une preuve de concept qui accompagne ou qui structure une démarche scientifique. Stephen Ramsay fait par ailleurs une distinction très intéressante entre ce qu’il considère comme étant produire et programmer. Si l’approche des humanités numériques implique de produire des objets numériques, est-il pour autant nécessaire de faire de la programmation ? Quinn Dombrowski aborde longuement (Dombrowski, 2022) cette question en généralisant cette approche : à quel point est-il utile de décortiquer les boîtes noires présentes dans les processus de nos recherches scientifiques ? Cette volonté de comprendre tout ou partie des rouages des façons de faire de la recherche est une forme de réflexivité, inhérente aux humanités numériques. Calculer, produire, et maintenant réfléchir, voilà trois dimensions qui émergent des humanités numériques, et qui peuvent lui être généralisées. Le recours à l’informatique, ou plus globalement au numérique, n’est pas la seule raison d’être des humanités numériques. Le questionnement de l’usage des technologies est également partie prenante de cette approche et transparaît dans de nombreux projets. Dans Expérimenter les humanités numériques, plusieurs initiatives sont présentées avec un regard critique, accompagnés de “leur lot de remises en question épistémologiques” (Cavalié, Clavert& al., 2018, p. 14). Le choix du logiciel libre, réalisé dans une vaste majorité de projets en humanités numériques, est un exemple de cet usage conscient et critique de la technique. Le logiciel libre est accessible, modifiable et distribuable, il correspond à une démarche scientifique ouverte, vérifiable et durable. Autre preuve de cette réflexivité, l’importante littérature sur la constitution même de ce champ. Les humanités numériques sont, dès sa cristallisation en 2004 (Schreibman, Siemens& al., 2004), un domaine qui se décrit et se critique lui-même. Impossible ici de citer les très nombreuses références (articles, ouvrages, communications, etc.), nous pouvons toutefois signaler les séries d’ouvrages (Companion puis les Debates) ou les revues (Computers and the Humanities, Digital Humanities Now, Digital Humanities Quaterly, Revue Humanités Numériques, Digital Studies / Le champ numérique pour n’en citer que cinq) qui toutes consacrent leurs textes autant à des résultats de recherche que des descriptions de ce que sont les humanités numériques et leur évolution. Les humanités numériques s’écrivent elles-mêmes, autant dans des textes que dans des outils. Après la réflexivité, ou la conscience de sa propre pratique, un autre mouvement double est observable dans les humanités numériques. Lorsqu’il s’agit d’analyse des textes à l’aide de machines à calculer comme des ordinateurs, une opération commune est de les manipuler, par exemple en extrayant certaines occurrences ou en les balisant afin de les sémantiser. Chercher des termes ou enrichir sémantiquement, deux actions différentes qui ont chacune pour but d’analyser ces textes. Ces opérations techniques impliquent aussi de comprendre les démarches et les outils invoqués. Il faut, d’une certaine façon, embrasser le code tout en embrassant le texte. Sans pour autant s’inscrire dans la démarche des Critical Code Studies (ou études critiques du code en français) (note : Les Critical Code Studies se revendiquent d’ailleurs elles-mêmes des humanités numériques, entre autres.), la compréhension globale des outils utilisés est une spécificité des humanités numériques.   […] les humanités numériques sont à considérer comme une démarche qui se propose d’outiller informatiquement la recherche en sciences humaines et sociales et d’en diffuser les résultats en prenant soin, dans un mouvement de distanciation, d’examiner comment les outils mis en place et développés sont susceptibles d’influencer le travail de recherche lui-même. (Buard, 2015, p. 26)   Il s’agit autant de décoder le logiciel, la plateforme ou le programme, que de critiquer l’usage de ces technologies. Calculer, produire, réfléchir, décoder, et publier. Cette cinquième dimension est essentielle pour les humanités numériques, et rejoint la question de la production. L’objet principal des sciences humaines est le texte, et plus précisément le livre ou toute autre forme de publication. L’évolution des différents champs scientifiques s’est faite parallèlement à une modification des pratiques d’édition et de publication. Les humanités numériques n’échappent pas à ce lien entre chercher et publier, il est même constitutif de cette approche. Cela est particulièrement visible avec les deux ouvrages collectifs Read/Write Book, publié en 2009 (Dacos, 2009), et Read/Write Book 2, publié en 2012 (Mounier, 2012). Les deux opus se répondent et se complètent, démontrant combien l’évolution du livre et de l’édition est conjointe de l’émergence des humanités numériques.   3.4.2. Chercher et publier Comment des projets de recherche qui s’inscrivent dans les humanités numériques se développent-ils avec une forte composante éditoriale ? La recherche scientifique est réalisée dans une perspective de publication, cette composante est essentielle pour soumettre, valider puis partager la connaissance ; l’évolution des pratiques scientifiques est mêlée à celle des pratiques de publication. Le modèle épistémologique des humanités numériques est constitué de l’édition numérique. Cinq exemples illustrent ce phénomène, cinq publications qui démontrent combien les humanités numériques sont des dispositifs de production de formes éditoriales expérimentales ou originales. Le premier exemple est la collection “Read/Write Book” et ses deux opus dirigés respectivement par Marin Dacos (Dacos, 2009) puis Pierre Mounier (Mounier, 2012). Il s’agit de deux recueils de textes issus de plusieurs événements et initiatives : des ateliers, des séminaires, des THAT Camp, des billets de blogs, etc. Les deux livres ont été publiés par OpenEdition Press en version imprimée et en ligne en libre accès. Si les contenus n’ont en soi pas de forme originale, deux spécificités sont toutefois remarquables : la préexistence de certains textes publiés d’abord sur d’autres espaces, et la question du libre accès. L’apparition de pratiques de publication personnelles, en dehors des canaux classiques que sont les revues, a permis à des textes d’exister et d’intégrer, parfois, les circuits scientifiques traditionnels. Ainsi la majorité des textes des deux opus sont d’abord des billets de blog, des articles de revues non-académiques ou des transcriptions de conférences. Il ne s’agit pas d’un parcours éditorial classique pour des publications savantes, puisque les contributions de ces ouvrages collectifs avaient déjà fait l’objet d’une préparation et d’une relecture, voire avaient été validés selon des processus divers. Par ailleurs si nous nous replaçons dans le contexte du début des années 2010, il est encore rare de voir des livres directement placés en open access, même en sciences humaines. Cette volonté de donner accès au plus grand nombre et sans restriction est fortement lié aux humanités numériques. C’est d’ailleurs l’un des points qui apparaît dans le manifeste (francophone) des humanités numériques publié dans Read/Write Book 2 :   Nous, acteurs des digital humanities, nous nous constituons en communauté de pratique solidaire, ouverte, accueillante et libre d’accès. (Mounier, 2012, p. 22)   Le deuxième exemple de dispositif éditorial original est le livre Digital_Humanities d’Anne Burdick, Johanna Drucket, Peter Lunenfeld, Todd Presner et Jeffrey Schnapp (Burdick, Drucker& al., 2012), dont la forme présente plusieurs particularités. L’introduction comporte un avertissement à ce sujet, pointant le fait que l’ouvrage ne répond pas aux standards académiques classiques. Digital_Humanities est composé d’analyses théoriques, d’études de cas, et d’un guide pour les humanités numériques — constitué lui-même de questions/réponses et de fiches pratiques. Le livre se définit comme un manuel (note : Ou Guidebook en anglais.) ou un outil pour comprendre et adopter l’approche des humanités numériques. Les autrices et les auteurs ont participé directement à la conception éditoriale de l’objet, concevant ainsi un livre qui reflète la dimension expérimentale et en cours de constitution des humanités numériques — avec par ailleurs une forte coloration en design. Le troisième exemple est Pratiques de l’édition numérique, publié en 2014 et dirigé par Michael Sinatra et Marcello Vitali-Rosati (Sinatra & Vitali-Rosati, 2014), qui rassemble des textes sur l’édition numérique, la culture numérique et les humanités numériques. À la suite de Read/Write Book, ce projet éditorial revendique le lien fort entre édition numérique et humanités numériques. Le livre est publié en différentes versions dont une destinée au grand public — imprimée en petit format avec un appareil critique minimal et un petit prix —, et une version enrichie en ligne — dont les fonctionnalités et la forme sont proches de l’ouvrage Exigeons de meilleures bibliothèques de David R. Lankes déjà présenté (voir 1.5. Les Ateliers de [sens public] : repenser le livre). L’effort est ici mis sur l’accès au livre (libre pour sa version web) et les enrichissements intégrés dans le texte. Pratiques de l’édition numérique est une démarche éditoriale performative, qui vise à prouver les hypothèses et les théories présentées en les appliquant à la publication elle-même. Le quatrième exemple est Design et humanités numériques d’Anthony Masure (Masure, 2017), dont chacun des sept chapitres thématiques répond à une question de recherche et peut être lu indépendamment des autres. Le format poche et le prix accessible en font un manuel à emporter avec soi. Le livre est accompagné d’un “contenu complémentaire” qui comprend autant d’études de cas que de chapitres, en accès libre sur un site web hébergé par l’éditeur B42 (note : http://esthetique-des-donnees.editions-b42.com). La méthodologie adoptée par Anthony Masure rejoint celle des humanités numériques : étudier des objets et des pratiques numériques pour en proposer une analyse synthétique et moléculaire — en s’attachant à détailler des aspects précis selon des critères explicités. Le fait de proposer un “contenu complémentaire” diffusé sur le Web, en parallèle de l’édition imprimée, correspond à des usages en vigueur dans les humanités numériques. Ces quatre exemples héritent fortement des modes de publication classiques, il s’agit de modélisations éditoriales hybrides jouant avec les codes et les contraintes de l’imprimé. Les deux exemples suivants ont dû créer un nouveau paradigme pour accueillir des travaux en humanités numériques : les data papers et la revue Journal of Digital History. Les data papers sont des publications académiques qui décrivent et analysent des jeux de données, notamment grâce à des visualisations graphiques, en incluant parfois le code des scripts des traitements computationnels. L’enjeu d’un data paper est de donner des outils critiques et méthodologiques pour comprendre et analyser des données, notamment via l’utilisation d’un notebook, “un document exécutable qui hybride écriture et automatisation informatisée”, dont les scripts trient, classent ou extraient des informations de ces données.   [L’utilisation de notebooks] facilite la vérification du processus, mais cela offre surtout des pistes de réutilisation de tout ou partie de la méthodologie déployée, des requêtes en langage python effectuées et des bibliothèques mobilisées pour la réalisation de ces data papers. (Kembellec & Le Deuff, 2022)   C’est donc autant l’objet — des jeux de données —, que la forme même des publications qui en parlent, qui changent profondément ici. La revue Journal of Digital History pousse ce principe encore plus loin avec des articles qui comportent trois couches : une couche narrative qui explique le sujet, la démarche et les enjeux ; une couche herméneutique qui consiste en la méthodologie utilisée, y compris les scripts nécessaires au traitement des données ; et une couche de données qui donne accès aux données originales et qui permet une réutilisation de celles-ci lorsque cela est possible (Clavert & Fickers, 2022). Les articles sont diffusés sur une plateforme dédiée, permettant de passer d’une couche à une autre, et proposant des outils de navigation et de prévisualisation des textes. Cette démarche de publication s’inscrit directement dans les humanités numériques en produisant un objet numérique original, en repensant la forme des publications, en permettant un libre accès aux contenus, et en prévoyant une réutilisation des données et des programmes. Ces six exemples — au total — démontrent le lien constitutif entre humanités numériques et édition, et cette nécessité d’expérimenter à travers des objets de publication chaque fois repensés, comme des traces d’une modélisation épistémologique protéiforme.   3.4.3. Publier du texte et éditer du code Certaines des publications ci-dessus présentent deux particularités qui nous permettent de distinguer la publication et l’édition, et d’analyser l’ambiguïté parfois présente entre les deux termes : d’une part en ce qui concerne les espaces de publication non conventionnels et d’autre part les pratiques d’édition du code.   “To publish” is to make something public, to place it within a sphere for broad scrutiny, critical engagement, and community debate. Traditionally, publishing meant finding a journal or press in order to make academic treatises, arguments, and the results of research public— but this “public” was in reality primarily or even exclusively readers initiated in and defined by the discursive conventions of a given field. (Burdick, Drucker & al., 2012, p. 86)   Nous l’avons vu avec le premier opus de Read/Write Book, des démarches de publication peuvent devancer des pratiques d’édition : des billets de blog sont mis en ligne et parfois ensuite réédités dans des recueils qui font l’objet d’une publication académique. Debates in the Digital Humanities, publié en 2012 (Gold, 2012), est un autre exemple d’ouvrage qui accueille des billets de blog (tout de même 18 billets de blog pour 29 textes originaux), pour leur intérêt en termes de contenus mais aussi pour leur importance dans un débat qui se fait désormais sur d’autres espaces que les conférences, les revues ou les livres. S’agit-il simplement d’une forme d’urgence à publier ? L’enjeu est plutôt de soumettre ces contenus là où sont les communautés, et dans des espaces parfois informels que leurs auteurs et leurs autrices contrôlent. Le phénomène est déjà observé dans le développement logiciel, où des pratiques s’affranchissent des conventions pour permettre un accès large à des programmes informatiques — sans dépendre des entreprises, des institutions ou de groupes formalisés où les programmes sont habituellement produits. Les humanités numériques bénéficient clairement de ces pratiques issues du partage du code. Qu’est-ce que disent, dans une perspective éditoriale, les pratiques de partage du code, pratique que nous retrouvons dans les humanités numériques ? Publier du code — le mettre à disposition publiquement — tient autant à une volonté de donner accès à un programme informatique pour l’étudier, l’utiliser ou l’intégrer dans d’autres projets, qu’à une invitation à commenter ou intervenir dans ce code. Si des chercheuses, des chercheurs, des étudiantes et des étudiants publient des textes sur des plateformes de blog, constitue à la fois un engagement dans des conversations qui se font sur le Web, un partage des expériences qui consiste les rendre lisibles et utiles pour d’autres. C’est là le principal point commun entre éditer du code ou publier des textes, il s’agit de faire communauté, d’établir des conversations (Sauret, 2020). Nous observons donc la constitution d’une (note : Nous nuançons cette prétendue unité par la suite, les humanités numériques étant autant une communauté que des communautés.) communauté active des humanités numériques à travers ces formes de publication et d’édition. Dans les humanités numériques des efforts conséquents sont déployés pour produire de la connaissance, donner accès à ce qui devient des outils, en mêlant texte et code. Mettre à disposition est une nécessité, non pas tant, rappelons-le, dans une volonté d’accélérer le temps scientifique, mais plutôt pour confronter, pour confirmer ou pour rendre reproductibles les processus de recherche. Cela requiert un apprentissage des techniques de publication et de contribution : créer puis maintenir un site web pour présenter un projet ou un blog pour partager des expériences, rédiger une page web ou publier un billet de blog, commenter des contenus existants ou contribuer à des sites web collectifs, interagir sur des plateformes de réseau social, etc. Ces enjeux révèlent la question de la soutenabilité de telles pratiques, considérant les actions de formation, de documentation et de soin de ces publications comme constitutives d’une pratique scientifique.   3.4.4. Les apports critiques des humanités numériques Les humanités numériques sont une approche pluridisciplinaire, mais aussi un mouvement scientifique qui se distingue par sa tendance critique sur plusieurs plans, dont la technique ou la technologie est souvent la transversale commune. Cette réflexivité — faire usage des technologies tout en critiquant cet usage — donne lieu à plusieurs mouvements, divers, dont nous pouvons évoquer plusieurs composantes et leurs origines. Ce panorama, non exhaustif, se justifie également comme une opportunité de porter un regard critique sur les domaines de l’édition et de l’édition numérique. Cette dimension critique apparaît dès les débuts des humanités numériques, mais la série de livres Debates a plus fortement formalisé plusieurs de ces mouvements. Le premier titre de la série, Debates in The Digital Humanities, publié en 2012 et dirigé par Matthew K. Gold, rassemble une trentaine de textes originaux ainsi que des billets de blog, sur plus de 500 pages (Gold, 2012). La troisième partie de cet ouvrage est intitulée “Critiquing the Digital Humanities”, avec des contributions qui relèvent de l’intersectionnalité, de l’hacktivisme, de la représentation des femmes dans la recherche scientifique ou encore de l’accessibilité. Il ne s’agit plus seulement d’expliquer comment se constituent de nouvelles méthodologies, de donner à voir des démarches scientifiques en sciences humaines qui utilisent pleinement l’informatique, mais de proposer des regards critiques sur ces pratiques et de constater l’apport de cette posture critique sur les pratiques elles-mêmes. Si A Companion to Digital Humanities est construit autour des enjeux de “principes, applications et dissémination” des humanités numériques, cette perspective théorico-pratique est quelque peu remise en cause dans l’introduction de Debates in the Digital Humanities, marquant une nouvelle étape pour cette approche multidisciplinaire.   This collection is not a celebration of the digital humanities but an interrogation of it. Several essays in the volume level pointed critiques at DH for a variety of ills: a lack of attention to issues of race, class, gender, and sexuality; a preference for research-driven projects over pedagogical ones; an absence of political commitment; an inadequate level of diversity among its practitioners; an inability to address texts under copyright; and an institutional concentration in well-funded research universities. Alongside these critiques are intriguing explorations of digital humanities theories, methods, and practices. (Gold, 2012, p. xii)   La surreprésentation des hommes dans l’usage de technologies numériques en contexte académique favorise l’inégalité, il s’agit d’un biais conséquent dans la construction de nos sociétés où la science a un rôle prépondérant. Data Feminism de Catherine d’Ignazio et Lauren F. Klein, deux chercheuses dans le domaine de la science des données, est à la fois une suite d’exemples prouvant sans aucune ambiguïté ce biais de genre, et un manifeste pour penser d’autres modèles et dépasser ce constat.   This book is intended to provide concrete steps to action for data scientists seeking to learn how feminism can help them work toward justice, and for feminists seeking to learn how their own work can carry over to the growing field of data science. (D’Ignazio & Klein, 2020, p. 19)   Les sept chapitres de ce livre explorent les enjeux de pouvoir dans la collecte, l’analyse ou le traitement des données, et proposent de construire des approches favorisant l’inclusion, la diversité et la critique dans toute pratique. La question de l’intersectionnalité (note : Catherine d’Ignazio et Lauren F. Klein décrivent l’intersectionnalité ainsi : “It also describes the intersecting forces of privilege and oppression at work in a given society.”) est une question qui émerge dans les humanités numériques grâce à un travail de définition et d’analyse, que réalisent ici les autrices en listant les “problèmes structurels” avec précision (D’Ignazio & Klein, 2020, p. 218-219). Dans Feminist in a Software Lab: Difference + Design, Tara McPherson critique les humanités numériques avec des outils issus du féminisme (McPherson, 2018). La chercheuse souligne que la tendance à travailler autour de grands corpus de données avec l’informatique a impliqué une omission des contextes culturels liés à la programmation. Les biais de genre, dus au fait que la majorité des personnes qui programment ou qui dirigent des équipes de développeurs sont des hommes, ont des répercussions sur les objets numériques et leur usage. La démarche de Tara McPherson est proche du courant des Critical Code Studies (Marino, 2020), elle analyse des objets numériques en observant chacun des rouages dans les logiciels et les programmes. La chercheuse propose une perspective nouvelle pour mettre en lumière les limites de l’usage de l’informatique. Si le point de départ de cet ouvrage et de Data Feminism est une critique de la technique et de ses usages, les sujets traités relèvent de questions sociales beaucoup plus larges. Dans une perspective s’ancrant dans une critique similaire de la technologie, les principes du minimal computing se sont construits autour d’une problématique simple : comment permettre un accès aux technologies numériques dans des territoires où les ressources matérielles et humaines manquent ? Cette question a émergé dans le contexte du développement de projets en humanités numériques dans des territoires moins privilégiés que des pays occidentaux riches.   Minimal computing is an approach that, first and foremost, advocates for using only the technologies that are necessary and sufficient for developing digital humanities scholarship in such constrained environments. (Risam & Gil, 2022)   Un des projets emblématiques de cette approche est “Ed”, un système de publication pour produire des éditions numériques déjà évoqué (voir 3.2. Le livre numérique ou la pensée homothétique), dont Alex Gil est une figure importante. Plutôt que de recourir à des logiciels ou à des plateformes en ligne dont les rouages sont trop complexes pour pouvoir être appréhendés ou compris, Ed est construit autour d’un générateur de site statique — Jekyll — qui convertit et organise des documents depuis un langage de balisage léger vers des formats comme HTML.   Even more importantly, use of these tools hides the vectors of control, governance and ownership over our cultural artifacts. (Gil, 2019)   L’idée n’est donc pas uniquement d’utiliser moins de ressources, comme se passer de bases de données relationnelles, réduire les dépendances à de multiples langages de programmation, ou pouvoir héberger l’objet numérique produit sur un serveur qui consomme moins d’énergie. L’objectif est de privilégier la compréhension des enjeux culturels ou politiques liés à l’usage de certaines technologies, dans la perspective d’acquérir des connaissances pour maintenir les outils ou les objets produits dans le cadre de l’approche des humanités numériques. Cette démarche a un coût, elle nécessite en effet de développer des compétences en informatique, de se former et de se tenir à jour des principales évolutions. Les approches critiques évoquées ici sont constitutives de l’approche des humanités numériques, plurielles et en mouvement.   3.4.5. Pour une édition numérique critique et hétérogène L’approche des humanités numériques apparaît comme un impératif dans nos modes de constitution du savoir désormais numériques, et dans les modélisations éditoriales qui sous-tendent ces modélisations épistémologiques. Le concept de numérique ne peut être défini sans y adjoindre l’approche des humanités numériques, en tant qu’apport intellectuel complémentaire. Les dimensions de calculabilité, de production, de réflexivité, de programmabilité et de publication définissent cette approche pluridisciplinaire. Définition Édition numérique L’édition numérique est un processus protéiforme, une fabrique du sens dont le numérique innerve des formes plurielles de cristallisation du savoir. L’édition numérique se distingue de l’édition par ses modélisations techniques diverses, autant dans la formalisation de textes, dans la constitution d’artefacts originaux, dans la définition de modalités de partage que dans la publication conjointe de contenu et de code. Un rapprochement peut être établi entre l’apparition des humanités numériques et l’émergence de l’édition numérique, nous considérons ainsi que celle-ci se fonde au prisme de l’approche pluridisciplinaire des humanités numériques. Les liens forts qui existent entre humanités numériques et édition nous prouvent à quels points l’acte même d’éditer constitue une série de réflexions sur des processus en puissance. Les mouvements critiques, dans ou autour des humanités numériques, constituent un socle théorique permettant d’envisager les humanités numériques non pas comme une discipline, mais comme une méthode, un espace, une communauté et un ensemble d’outils et de pratiques pour penser notre rapport à la technique. Un numérique hétérogène, loin des démarches homothétiques, existe, et est composé aussi de projets marginaux tels que le recueil Novendécaméron qui fait l’objet d’une étude de cas dans la section suivante. 3.5. Le Novendécaméron ou éditer avec et en numérique [07f3e07] Si éditer avec le numérique permet de prendre la mesure de l’usage du numérique dans les lettres, il nous reste à définir ce que signifie éditer en numérique, dans cette dimension expérimentale et réflexive propre aux humanités numériques. Loin de se réduire à un format de sortie, tels que les formats PDF, EPUB ou même HTML, éditer en numérique signifie repenser les flux de production, les espaces d’édition ou encore l’architecture de la modélisation des textes et des artefacts. L’étude de cas d’Ekdosis nous a permis de comprendre qu’est-ce qu’éditer avec le numérique signifie, appliquant certaines potentialités à la fabrication d’un objet complexe comme une édition critique. Cette fois c’est un projet littéraire que nous analysons, un recueil hétérogène de prose, de poésie ou d’essais. Ce projet ne correspond pas à la représentation la plus courante des humanités numériques, plus souvent concentrées sur l’extraction et le traitement de grand corpus, néanmoins il est question ici de méthodes et d’approches qui y ont une grande part. Si le projet revet une certaine forme de marginalité, c’est justement cette manière de faire, originale, qui nous intéresse plus particulièrement, ainsi que son appropriation par les personnes impliquées. Nous décrivons cet objet et la chaîne d’édition qui a permis sa fabrication : l’origine du projet, ses objectifs intrinsèques, mais aussi la pile technique. Enfin nous détaillons les questionnements qui ont surgi durant le processus d’édition et de conception de la chaîne d’édition. L’auteur de cette thèse fait partie des quatre personnes qui ont animé et porté ce projet.   3.5.1. Un feuilleton numérique Le Novendécaméron (Vallée & Ringuet, 2021) (note : Les deux versions du Novendécaméron, web et imprimée, sont distinguées dans les références bibliographiques.) est un feuilleton littéraire en temps de pandémie publié aux éditions Ramures, un projet éditorial collectif qui réunit des textes et les diffuse à l’ère numérique, avec le numérique. Au printemps 2020 Chantal Ringuet et Jean-François Vallée lancent un appel à textes, en plein confinement, au Québec et en France. Quelques mois plus tard c’est une vingtaine de contributions textuelles et autant d’illustrations qui est rassemblée puis éditée. L’objectif est de publier une version numérique (un livre numérique au format web) d’un recueil hétéroclite d’auteurs, d’autrices, de chercheurs, de chercheuses, de traducteurs et de traductrices, et d’artistes francophones d’Europe et du Canada, de façon successive dans le temps, à la manière des feuilletons du dix-huitième siècle. C’est chose faite au printemps 2021, un an après les prémisses de cette aventure éditoriale, les vingt-deux œuvres sont publiées en ligne à raison de deux textes par semaine pendant plus de deux mois. Il s’agit aussi d’une manière de créer des espaces numériques habitables — autre que les visioconférences avec Zoom — en période de pandémie.   Comme l’annonce son titre, ce recueil numérique a été inspiré par le Décaméron et L’Heptaméron, ces œuvres littéraires de la Renaissance qui mettent en scène des personnages en confinement se racontant tour à tour des histoires pendant l’épidémie de peste du 14e siècle en Italie dans le premier cas et des inondations dans le sud de la France au 16e siècle pour le second. […] La fausse — mais opportune — étymologie de ce préfixe nous permet […] d’annoncer un nouvel objet littéraire, créé en contexte pandémique et numérique, dans lequel il est permis d’explorer divers enjeux de cette catastrophe sanitaire qui a menacé nos santés physique et mentale, modifié notre rapport au travail et à nos relations, et peut-être ébranlé les modalités mêmes de notre présence au monde. (Vallée & Ringuet, 2022, pp. 11-12)   Pour pouvoir rendre ces textes et ces illustrations accessibles, des artefacts sont nécessaires et, en amont, des espaces permettant de travailler ces œuvres. Le projet intègre ceux du Groupe de recherche sur les éditions critiques en contexte numérique (note : Aussi appelé GREN, ce groupe de recherche est dirigé par Michael Sinatra.), et c’est à ce titre que Louis-Olivier Brassard et Antoine Fauchié (note : L’auteur de cette thèse.) rejoignent le projet pour accompagner sa mise en forme graphique et sa mise en place technique, en tant qu’étudiants auxiliaires de recherche. Il est nécessaire de mettre en place un espace d’édition des textes, pour in fine les rendre disponibles en ligne, c’est en effet le premier objectif : construire un site web qui accueille ces œuvres. Les compétences techniques de Jean-François Vallée et de Chantal Ringuet sont très différentes de celles des deux étudiants, ces derniers sont en effet en capacité d’interagir avec du texte depuis un terminal, alors que l’éditeur et l’éditrice ont besoin d’une interface graphique — en apparence plus accessible et rapide à prendre en main. L’idée est donc de mettre en place deux espaces d’édition et de publication, deux espaces qui peuvent cohabiter et qui permettent à chacune des personnes d’interagir de façon autonome et efficiente. Ces actions d’édition consistent à modifier les contributions et à valider ces modifications en autonomie et de manière fluide (note : Nous revenons et nous critiquons par la suite ces qualificatifs, et principalement “efficient” ou “fluide”.). La prise en compte des besoins des différentes personnes impliquées a été une condition de faisabilité du projet. L’autre condition forte est la question de la soutenabilité du projet. Commencer un projet en considérant sa fin est une pratique qui tend à se répandre au sein des humanités numériques, l’idée étant d’anticiper la façon dont le projet peut ou non être maintenu dans le temps dès son amorce. Les financements accordés par le GREN pour ce projet éditorial sont limités (note : Entendons par là que le budget est arrêté et qu’il ne peut donc pas être reconduits plusieurs fois.), il faut donc anticiper comment les sources des textes peuvent rester lisibles et exploitables, comment des mises à jour peuvent être faites, ou à quel point certaines dépendances techniques peuvent générer une obsolescence par la suite. Loin d’appliquer tous les principes proposés par “The Endings Project” (Carlin, 2018), il a toutefois été convenu de s’en inspirer pour permettre une durabilité de cette publication. La chaîne d’édition mise en place pour l’occasion est documentée, un journal est mis en place (partagé entre les membres du projet) pour relever les questionnements et les difficultés rencontrés, une évaluation du travail nécessaire au maintien du projet sur les cinq prochaines années est réalisée, et certains choix techniques sont faits pour permettre une durabilité du projet. Par exemple l’usage du générateur de site statique Hugo, composant logiciel chargé de convertir et d’organiser des documents balisés sémantiquement, facilite la gestion sur le long terme. Hugo est en effet installable (ou compilable) depuis un fichier binaire, ce fichier embarquant toutes les dépendances nécessaires. La version de Hugo utilisée pour produire l’artefact à un moment précis est ainsi conservée, dans le cas où les prochaines versions incluraient des ruptures avec les versions précédentes. Pouvoir facilement intervenir dans un environnement précis est une condition de réussite (et un défi) de tout projet informatique. La diffusion, les espaces de travail et la soutenabilité de ce projet éditorial ont été pensés avec le numérique, c’est-à-dire avec les potentialités permises par un tel environnement, et il en est de même pour les versions du recueil ou des textes. Si la question d’une version imprimée — ou imprimable — est soulevée dès les premiers échanges, il s’agit alors de la déclinaison individuelle de chaque texte dans une forme originale — choix graphiques, mise en page, format de papier. Cette option imaginée au début est laissée en suspens au profit d’une version imprimée complète du recueil, en raison d’une partie du budget non utilisée permettant d’imprimer plusieurs exemplaires. Cette publication devient multi-formats : d’un objectif premier de concevoir un site web — une forme de livre web (Fauchié, 2017) — nous envisageons dans un second temps la fabrication d’une version imprimable. Les deux formats sont livrés dans deux temps distincts : une première période de diffusion progressive des œuvres étalée sur plusieurs semaines, et un deuxième moment pour mettre à disposition un livre imprimé rassemblant les multiples contributions — plus un avant-propos conséquent pour contextualiser le projet. Deux formats qui ont nécessité la mise en place d’une même chaîne d’édition qui prend en compte ces spécificités.   3.5.2. La pile technique du Novendécaméron De la structuration des contenus aux versions web et imprimables, en passant par plusieurs espaces d’édition et de publication, comment est constituée la chaîne d’édition du Novendécaméron ? Les rouages techniques révèlent ici les modalités éditoriales, et l’inverse est aussi vrai : des choix techniques ont influencé les façons de penser les artefacts ou les modes de diffusion. Une vue d’ensemble est tout d’abord nécessaire pour comprendre les différentes parties de la chaîne. Cette figure représente les différents composants de la chaîne d’édition mise en place pour éditer le Novendécaméron : le balisage des contenus avec le langage Markdown ; la conversion et l’organisation de ces fichiers source avec le générateur de site statique Hugo ; le versionnement des contenus et du design avec Git ; l’édition avec une interface graphique via le service Forestry.io ; l’hébergement du code source ; le déploiement des artefacts et l’hébergement avec GitLab.com. Le choix du balisage des textes est une première étape dans le processus de fabrication du Novendécaméron, il répond à deux contraintes : penser un objet éditorial en dehors des méthodes classiques (faisant habituellement appel à un traitement de texte), et permettre d’éditer avec et en numérique. La première contrainte consiste principalement à envisager une séparation stricte entre le contenu et sa mise en forme. La seconde contrainte réside dans le fait de pouvoir convertir une source en de multiple formats ou versions. Une même source est éditée — cette précision est décisive — plutôt que de devoir mettre à jour autant de versions initiales que de versions finales. Le langage de balisage léger Markdown a été choisi pour sa simplicité et son extensibilité possible avec certains convertisseurs. Markdown est en effet conçu pour être converti dans un autre langage de balisage HTML — il est plus longuement analysé par la suite (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). Il s’agit donc de passer d’un système de balisage à un autre, le premier étant créé pour être lisible et utilisable par des personnes humaines, mais aussi des programmes, alors que le second est produit pour être interprété par des logiciels — en l’occurrence un navigateur web en premier lieu. Markdown est un langage ambigu, il ne dispose pas d’une standardisation comme HTML, mais cette ambiguïté offre une certaine souplesse dans son usage. Avec le générateur de site statique Hugo, il est possible d’utiliser un balisage plus riche : soit en intégrant directement du HTML dans un fichier Markdown, soit en ayant recours à des shortcodes qui définissent une structure différente pour chaque format de sortie — nous détaillons ce comportement dans le dernier chapitre (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Les raisons du choix d’un générateur de site statique pour produire une édition numérique sont multiples. La première est la légèreté de l’artefact obtenu, en effet le résultat est un ensemble de fichiers (principalement HTML et CSS), sans bases de données relationnelles : cela facilite l’hébergement, la migration et l’archivage d’un objet numérique comme un site web. La deuxième est la maniabilité de la modélisation éditoriale, en effet à chaque page (et donc chaque œuvre du recueil) peut être attribué un gabarit différent, un template. Ici ces gabarits sont élaborés avec l’aide de deux langages, il s’agit de HTML et de la bibliothèque de templating propre au langage de programmation Go sur lequel Hugo est construit. Les templates sont une structuration des différentes données — qui peuvent être autant les textes, les métadonnées que des variables diverses —, et il est possible de programmer avec une grande souplesse l’agencement des informations qui sont affichées sur les fichiers de sortie. Le troisième intérêt d’un générateur de site statique, toujours dans le cas de la création d’une édition numérique, tient dans les qualités de l’environnement technique. L’une de ces qualités est la séparation entre les sources de l’édition — au format Markdown — et la modélisation des formats de sortie — grâce aux templates déjà évoqués. Toute la configuration repose sur des fichiers au format texte — format déjà évoqué dans un chapitre précédent (voir 2.3. Abrüpt et ses antilivres, une expérimentation éditoriale) et présenté ensuite plus longuement (voir 4.2. Les conditions de la sémantique : format texte et balisage) — ce qui permet de travailler dans n’importe quel environnement, et qui ouvre également la possibilité à l’utilisation du versionnement (voir 2.5. Le Pressoir : une chaîne d’éditorialisation). Un générateur de site statique a la particularité de fonctionner de façon asynchrone, en deux étapes principales. Tout d’abord la modification des contenus et la modélisation éditoriale, et ensuite la génération des formats de sortie. Contrairement à un CMS (note : Un CMS, ou Content Management System, est un système de gestion de contenus, habituellement proposé sous la forme d’un logiciel avec une interface graphique.) comme WordPress, un générateur de site statique sépare les étapes de modification des contenus, de production des formats de sortie et de publication (cette publication est hébergement dans le cas d’un site web). Autre particularité importante : par défaut un générateur de site statique ne comporte pas d’interface graphique pour modifier les contenus ou les paramètres, tout passe par les fichiers textes qui sont les sources, et un terminal est nécessaire pour appeler le programme et ainsi générer l’artefact final. Il est toutefois possible de brancher un système sur Hugo pour proposer une interface graphique, il s’agit souvent de service tiers en ligne. Hugo a par ailleurs des spécificités qui en font un bon candidat pour de l’édition numérique. Hugo est un générateur de site statique qui se distingue par sa rapidité pour convertir et organiser des fichiers, par son absence de dépendances externes, et par sa capacité à produire plusieurs formats de sortie à partir d’une même source (Fauchié, 2021). Si cette première spécificité semble peu intéressante pour un projet d’édition numérique, il faut tout de même noter que le fait de pouvoir regénérer le recueil dans son entièreté en quelques millisecondes permet de travailler localement en ayant une mise à jour immédiate à chaque modification — modifications qui concernent les contenus ou les modèles. L’absence de dépendances à des bibliothèques de code externes — entendons par là qui doivent être téléchargées via Internet — est un point important. Hugo peut être installé depuis un seul fichier binaire, ou être compilé depuis son code source (hébergé sur la plateforme GitHub), y compris sur des anciennes versions qui pourraient être pertinentes selon le moment dans lequel le projet a été créé. Le code source de Hugo peut être facilement conservé pour permettre une émulation du projet à un temps t, c’est-à-dire en réinstallant le programme. Ce code source comporte par ailleurs une documentation complète, cette dernière étant elle aussi versionnée, il est ainsi possible de naviguer dans le dépôt du code source pour obtenir une version précise du programme et la documentation correspondante. Enfin, Hugo est pensé pour générer plusieurs formats de sortie à partir d’une même source, ce qui n’est pas le cas de la plupart des générateurs de site statique. Hugo permet, en théorie, de produire des formats comme HTML, JSON, XML ou Markdown, l’intérêt étant surtout de générer plusieurs fichiers HTML pour une même source au format Markdown, via des modèles préconçus. Cette fonctionnalité est très intéressante dans l’optique de produire plusieurs artefacts, en appliquant les principes du single source publishing — abordés plus loin (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). Hugo a plusieurs avantages indéniables pour réaliser des éditions numériques. Les contenus, ainsi que les fichiers permettant de modéliser et de configurer les artefacts, sont versionnés, c’est l’un des intérêts du format texte. Git est le logiciel de gestion de versions utilisé pour ce projet, associé ici à la plateforme GitLab.com. L’usage qui en est fait est très similaire à ce qui a été décrit avec le Pressoir (voir 2.5. Le Pressoir : une chaîne d’éditorialisation). Outre la facilité d’usage dans les phases de développement, Git permet de retrouver tous les états du projet et de pouvoir déceler des éventuelles erreurs d’édition, soit pour les corriger soit pour revenir à un état antérieur du projet. La plateforme GitLab apporte plusieurs fonctionnalités, dont le déploiement continu ou une API sur laquelle des services externes peuvent venir se connecter. C’est le cas de l’interface graphique d’édition qui a été utilisée. Disposer d’espaces d’édition qui correspondent aux capacités des différentes personnes impliquées dans le projet est important. Ces capacités sont toutefois délicates à définir, l’objectif n’étant pas non plus de proposer les mêmes outils — et les mêmes pratiques associées — tels qu’un traitement de texte. Nous pouvons toutefois signaler qu’il s’agit de modifier du texte, avec comme nécessité une compréhension du langage de balisage léger Markdown, et comme condition une interface qui permet de guider le balisage et de gérer les documents — enregistrer ou modifier le statut (brouillon/publier). L’objectif est de faire cohabiter un espace d’édition du texte sans devoir installer de logiciel — avec l’apprentissage qui l’accompagne souvent — avec un espace de développement où le format texte et les interfaces textuelles prédominent. Nous l’avons dit, il est possible de brancher un service tiers qui fait office d’interface graphique. Pendant toute la durée du projet (du printemps 2021 à l’hiver 2023), le service Forestry.io (note : Le service a été supprimé en avril 2023, et remplacé en partie par Tina.io (https://tina.io).) a été utilisé, offrant un accès aux contenus via une interface graphique. Forestry.io est un éditeur de texte en ligne, c’est une application qui permet de gérer des paramètres liés à la gestion d’un générateur de site statique et à la prévisualisation des artefacts. Le fonctionnement de Forestry.io est relativement simple, il dispose d’un éditeur de texte pour créer et modifier les différents fichiers (au format texte) via une interface graphique, rendant par exemple plus lisible la gestion des paramètres dans l’entête des fichiers Markdown des œuvres. Louis-Olivier Brassard et Antoine Fauchié ont principalement eu recours au terminal ou à des éditeurs de texte pour interagir avec les contenus, la configuration ou le design du projet. Ces deux espaces d’édition ont permis aux différentes personnes d’interagir de façon autonome. Ils sont par ailleurs accompagnés d’espaces de publication, créant ainsi des sas intermédiaires avant la mise en ligne finale. Publier ne consiste pas seulement à rendre publique une édition — ici numérique —, mais aussi à produire des formes intermédiaires pour un public restreint, permettant de relire, tester et vérifier un artefact. En partant du versionnement des contenus et de la modélisation du recueil — avec Git —, un système de déploiement continu a été mis en place. Il s’agit de déclencher une action à chaque modification déclarée, en l’occurrence cette action est la génération, avec Hugo, de tout le site web ou de la version imprimable, puis d’héberger les fichiers générés pour les rendre disponibles. Déployer un livre (Fauchié, 2021) est un acte à la fois original et logique. Original, car il s’inspire de pratiques issues du développement logiciel — qui partage avec l’édition des processus de publication —, et logique puisque ce déploiement numérique est une transcription de certaines modalités de l’édition — y compris imprimée. Loin d’être une homothétisation, comme nous l’avons évoqué précédemment (voir 3.2. Le livre numérique ou la pensée homothétique), le processus à l’œuvre profite des possibilités de l’informatique. Pour l’éditrice et l’éditeur, disposer d’un site web de développement pour relire le livre est d’une grande aide, autant au début du projet que lors des ultimes corrections après la mise en ligne publique. Pour les concepteurs, c’est un moyen de contrôler le rendu final avant de le rendre disponible pour toutes et tous. Cette chaîne d’édition, complète et complexe, est l’implémentation de plusieurs principes d’édition numérique, comme le single source publishing, la multimodalité ou encore la modularité. La mise en place de ce processus technique n’est toutefois pas isolée, elle s’est faite en éditant les œuvres, en prenant en compte les particularités de chacune des contributions, et en maintenant une conversation continue avec l’éditrice et l’éditeur.   3.5.3. Des questionnements éditoriaux L’édition — web et imprimée — du Novendécaméron est un processus qui a soulevé plusieurs questionnements, depuis les rôles des personnes impliquées dans le projet jusqu’aux limites de la chaîne d’édition en termes de modélisation éditoriale, en passant par la gestion des erreurs d’édition. Ces interrogations sont bien souvent liées à des obstacles techniques, que ce soit la gestion du texte ou l’application des principes du single source publishing, pour prendre deux exemples différents. Ces questionnements ont été partagés entre les différents membres du projet pendant tout le processus, ils ont été consignés dans le journal évoqué précédemment. Ils ont fait l’objet de discussions qui ont permis d’alimenter une réflexion plus globale sur l’édition, s’inscrivant pleinement dans les activités du GREN, et plus généralement dans les humanités numériques. Cela a été l’occasion de remettre en cause certains des principes de l’édition classique, ainsi que de porter un regard critique sur la mise en place de nouvelles façons de faire. Plusieurs des remarques qui suivent ont fait l’objet d’une communication en 2022 lors du colloque Humanistica à Montréal (Vallée, Brassard& al., 2022). Si des espaces d’édition et de publication sont bien définis, les rôles, dans ce type d’organisation qui se veut horizontale, obligent néanmoins à la question suivante : qui valide quoi ? La direction éditoriale repose sur Chantal Ringuet et Jean-François Vallée, alors que Louis-Olivier Brassard et Antoine Fauchié ont la responsabilité de l’implémentation technique des choix collectifs et de la continuité du fonctionnement du site web. La direction éditoriale ne dispose pas de la possibilité de valider des modifications pour qu’elles soient visibles publiquement, seule la version de développement est automatiquement déployée, les concepteurs doivent intervenir pour déclencher la version de production. Pourquoi ? En cas d’erreur de balisage (dans les textes ou dans certains fichiers de configuration) il y a deux possibilités : soit le déploiement ne peut pas aboutir, et alors c’est la version précédente qui reste en ligne ; soit une partie du site est mal construite et le site dans son ensemble est rendu dysfonctionnel. C’est donc pour prévenir des éventuelles erreurs en production que des vérifications manuelles sont effectuées, erreurs qui par ailleurs requièrent souvent des connaissances approfondies dans le fonctionnement de Hugo — ce qui n’est pas le cas de Chantal et de Jean-François. Des tests auraient pu être intégrés au déploiement, pour ainsi stopper toute mise à jour qui poserait problème, mais leur rédaction et leur implémentation auraient été trop longues. L’édition se limite-t-elle à une intervention sur les œuvres elles-mêmes (textes, enregistrements sonores, photographies et illustrations) ? Dans le premier chapitre dédié au livre (voir 1.2. La forme du livre et sa matérialité) nous avons fait le constat que le travail sur la forme des artefacts éditoriaux fait partie intégrante de l’acte d’édition. Ici le design du livre web et du livre imprimé consiste en des choix graphiques, mais aussi en la modélisation des formats, donc dans l’écriture des modèles ou templates. Créer et adapter ces modèles n’est pas une tâche parallèle au travail d’édition, elle en est constitutive. Dans le template Hugo ci-dessus nous pouvons voir ce qui s’apparente à de la programmation : des fonctions permettent d’extraire des données dans les fichiers source grâce à des variables. Il s’agit d’afficher, sur la première page des œuvres, le titre de l’ouvrage, le nom de l’auteur ou de l’autrice, et éventuellement le nom de la personne qui a traduit le texte. Certaines conditions s’appliquent, et complexifient quelque peu ce modèle, notamment pour vérifier la présence d’un sous-titre ou pour prendre en compte des cas particuliers. Des balises HTML structurent sémantiquement ce bloc de contenu, et des classes CSS sont utilisées pour réaliser une mise en forme graphique, voire pour gérer l’affichage de certains textes — c’est le cas de la classe masquer par exemple. Sans faire une revue de code de ces quelques lignes, nous pouvons noter qu’il s’agit de traduire des instructions structurelles et graphiques via quelques lignes de programmation. Si ces modélisations font partie de l’acte d’édition, il est toutefois difficile pour une personne ne faisant pas de programmation d’intervenir sur ce type de fichier. Plusieurs options peuvent être imaginées pour inclure d’autres profils dans l’écriture de ces modèles, comme une documentation détaillée (pour expliquer chaque fonction, boucle ou variable) et une formation introductive. Comme nous pouvons le voir ci-dessus, un effort important a été réalisé pour modéliser autant que possible la chaîne d’édition, et pour disposer de toutes les informations structurées afin de produire plusieurs artefacts à partir d’une même source. Une information est inscrite une seule fois dans les fichiers de contenu ou dans les fichiers de configuration du recueil. L’objectif est de ne pas avoir à indiquer à plusieurs reprises la même donnée — ce qui peut conduire à des actions répétées et fastidieuses ou à des erreurs dans le cas où cette donnée change. Cela signifie par exemple que les tables des matières — sur les versions web et imprimée — sont générées à partir des titres renseignés dans chaque fichier d’œuvre. Chaque fois qu’un titre est modifié, les tables des matières se mettent à jour automatiquement. Cette modélisation permet aussi de prévoir plusieurs formats de sortie à partir d’une même source, c’est le principe du single source publishing — abordé plus longuement par la suite (voir 4.4. Le single source publishing comme acte éditorial sémantique). Nous avons toutefois rencontré plusieurs limites avec ce fonctionnement, soit dans la capacité à programmer certains modèles — plus par manque de temps — soit dans la possibilité de structurer les informations suffisamment précisément. Avec l’expérience du Novendécaméron, les limites ont été principalement temporelles ; certains compromis pratiques nous ont éloigné de certains principes théoriques, tout en nous permettant de finaliser le projet. L’absence de standardisation du langage de balisage léger Markdown engendre un certain nombre d’obstacles, d’autant plus lorsque plusieurs composants doivent interpréter ou convertir ce format. Les erreurs apparaissent le plus souvent pendant le processus de fabrication des artefacts, leur gestion est grandement facilitée par un système de gestion de versions. Les erreurs sont versionnées. Si un problème survient et empêche la génération des différents formats, il suffit d’identifier le commit à l’origine pour repérer l’erreur et la corriger. Cela a permis notamment de découvrir un problème récurrent de balisage, problème que l’interface Forestry.io introduit lorsqu’il y a des appels de note. Ces appels sont balisés en Markdown de cette façon : du texte avec un appel de note ici[^appel]. Nous l’avons dit, Markdown est un langage non standardisé et permissif, et Forestry.io n’implémente pas Markdown de la même façon que Hugo, ainsi le balisage [^appel] n’est pas interprété et les crochets sont échappés par Forestry.io pour éviter tout autre problème. À chaque enregistrement d’un document qui comporte des appels de notes, Forestry.io transforme le balisage [^appel] en \[^appel\] annulant la signification et son interprétation par Hugo. Quand bien même le versionnement nous permet de trouver ce problème et de le corriger, l’ambiguïté de Markdown est une source de contraintes qui pourraient être levées en maîtrisant mieux chacun des composants — éditeur, convertisseur, déploiement, etc. Pour clore ces questionnements survenus pendant l’édition du Novendécaméron, une réflexion a servi de fil rouge tout au long de la préparation des versions web et imprimée du recueil, partagée avec les quatre membres de cette aventure. À quel point le projet peut-il devenir une base générique pour de futures publications ? Est-ce qu’il est possible, envisageable, ou même souhaitable de modéliser ce livre afin de pouvoir le dupliquer pour de futures publications au sein de la structure Ramures ou par d’autres initiatives extérieures ? Si toute la chaîne d’édition a été pensée pour pouvoir être utilisée dans d’autres projets, plusieurs limites ont été rencontrées. Certains développements ont été envisagés, notamment sur la création de modèles de pages ou de blocs de contenu, mais laissés de côté parce que trop chronophages. Ensuite le livre présente trop de cas particuliers, il est ainsi très difficile d’isoler chacun de ces cas pour les modéliser, les documenter et rendre reproductible ces structurations. Ce recueil est hétérogène de par ses œuvres diverses, qui vont de la prose à l’essai en passant par la poésie, l’illustration ou le journal. Toutefois certains principes, dont la manière dont est construite la chaîne d’édition ou l’architecture des contenus, peuvent être repris pour d’autres projets. Plutôt que de parvenir à modéliser totalement ce projet éditorial, nous avons partagé plusieurs aspects du projet pour permettre à d’autres de les réutiliser, par exemple le fait de fabriquer un fichier PDF à partir des technologies du Web, ou l’usage de l’impression à la demande pour produire les exemplaires imprimés — ici via la plateforme Lulu.com. Le Novendécaméron est un objet éditorial fabriqué avec une chaîne d’édition élaborée au fur et à mesure du processus d’édition. C’est la principale spécificité de cette expérience éditoriale, au-delà de la dimension multimodale du projet ou des questions sous-jacentes qui ont émergé pendant les phases de fabrication. Cette réflexivité est commune aux humanités numériques. Cette chaîne d’édition, la modélisation des œuvres, et la définition de scénarios pour l’édition multimodale constituent des formats qui fondent et organisent le travail éditorial. Nous devons désormais analyser ces questions de format, en tant qu’origine d’une démarche de modélisation du texte. ========== Chapitre 4 Les formats, structuration et modélisation du sens [4efdcf2] Après le livre, l’édition et le numérique, nous plongeons plus profondément dans les rouages des processus d’édition — ou la fabrication d’artefacts éditoriaux — avec la question des formats. Ce chapitre est consacré à la technique éditoriale, considérant que les formats représentent les énonciations, les actes ou les contraintes dont l’édition est l’objet. Comment s’incarne le sens dans une activité d’édition ? Les formats représentent des enjeux épistémologiques qu’il convient d’analyser. Benoît Epron et Marcello Vitali-Rosati pointent à juste titre l’enjeu d’une compréhension et d’une maîtrise des formats dans l’édition :   Les technologies déployées aujourd’hui dans l’édition numérique ont en effet avant tout été développées pour répondre aux besoins de l’informatique d’abord et du Web ensuite. Il s’agit d’un renversement important, puisqu’une part incontournable de l’activité éditoriale devient de fait conditionnée par des choix techniques issus de secteurs d’activité parfois très éloignés de l’édition. Les conséquences de cette situation sont doubles : d’une part, la mise au point et l’adoption des standards techniques du métier ne relèvent plus uniquement d’acteurs du monde de l’édition ; d’autre part, les éditeurs sont contraints de composer avec des formats ou des technologies qui ne correspondent pas nécessairement à leurs enjeux. (Epron & Vitali-Rosati, 2018, p. 35)   Nous avons déjà évoqué la question des formats à plusieurs reprises, mais sans détailler ce que leur origine, leur fonctionnement, leur modélisation ou leur usage impliquent. D’un format à l’autre, l’objectif est de modeler et de convertir des textes pour aboutir à des artefacts. Dans une perspective des études des médias, les formats représentent des enjeux trop importants pour être ignorés, comme le soulignent Axel Volmar, Marek Jancovic et Alexandra Schneider dans l’introduction du recueil Format Matters: Standards, Practices, and Politics in Media Cultures (Jancovic, Volmar& al., 2019, p. 7-22). Nous n’analysons pas en détail les formats classiques de l’édition, nous nous concentrons plutôt sur les enjeux sémantiques des formats dans une perspective numérique. Nous définissons tout d’abord ce qu’est un format, autour de sa dimension technique et des notions d’instructions, de formalisation ou de circulation de l’information. Dans un environnement numérique les formats sont la condition d’une interopérabilité via l’établissement de standards. Dans le domaine de l’édition, les formats ont aussi la charge de définir les modalités sémantiques nécessaires à l’édition numérique. Dans un deuxième temps nous décrivons un type de format, le format texte, grâce auquel un balisage sémantique peut être implémenté. Nous dédions une étude de cas à un langage de balisage léger particulier, Markdown, pour comprendre l’essor de pratiques d’édition spécifiques autour des principes du single source publishing. Ces principes sont décrits dans une quatrième section, articulée autour d’une analyse, d’une critique et de perspectives de conceptualisation. Enfin, une étude de cas sur le module d’export de l’éditeur de texte sémantique Stylo vient expliciter la question de l’application des principes du balisage et de la publication multimodale à partir d’une source unique, et plus spécifiquement dans le domaine de l’édition scientifique. 4.1. Les formats dans l’édition : pour une sémantique omniprésente [07f3e07] Un format est la condition de circulation d’une information, et plus précisément une série d’instructions déterminées pour qu’une action soit réalisée par un agent. Pourquoi donc s’intéresser aux formats ? Littérature, textes, livres imprimés, fichiers de travail, dimensions des cartons de livres à expédier, livre numérique, conférences de presse, quantité de papier pour l’imprimeur, dans l’édition tout est question de format, la polysémie de ce terme est décidément partout. Formats de fichiers informatiques, mais aussi formats littéraires ou formats de papier, ils peuplent les pratiques d’édition, voire les régissent. Nous l’avons vu en creux dans le chapitre précédent (voir 3.5. Le Novendécaméron ou éditer avec et en numérique), les formats sont une expression de la modélisation des textes. Ce terme polysémique nécessite un panorama de ce qu’il est entendu par format, avant de définir spécifiquement comment nous qualifions cette notion dans notre étude des processus d’édition (numérique). Parmi toutes les définitions possibles du terme, plusieurs questions sous-jacentes reviennent régulièrement, dont le fait de contrôler, de maîtriser ou de conditionner des pratiques ou des comportements. Les enjeux relatifs aux formes des artefacts ou aux études des médias sont exposés et analysés par la suite. Notre définition exploratoire ne peut exhaustive, tant l’étude des formats devient un champ en soit — le volume Format Matters Standards, Practices, and Politics in Media Cultures publié en 2019 et rassemblant douze contributions le prouve (Jancovic, Volmar& al., 2019). Nous nous concentrons plus particulièrement sur les formats informatiques et sur la question de la compatibilité entre différents outils utilisés dans les pratiques d’édition. Enfin, au-delà de cette problématique de communication entre logiciels et données, il s’agit d’exprimer au mieux les textes autant pour les humains que pour les machines. Une dimension sémantique est nécessaire à toute pratique d’édition, mais encore faut-il déterminer comment elle se structure et comment elle s’exprime. Si, dans l’édition, tout est format, nous établissons ici que tout est également sémantique.   4.1.1. Le format : entre formes littéraires, supports matériels et instructions numériques G. Thomas Tanselle donne quelques exemples de la pluralité des usages linguistiques du terme format, autant dans le monde en général que pour celles et ceux qui étudient les livres, les bibliographes (Tanselle, 2000, p. 68). Notons en préambule que format vient du latin formatus, ce qui signifie formé. Le Dictionnaire de la langue française d’Étienne Littré mentionne même une origine latine tournée vers le livre, liber formatus, “livre de telle ou telle forme” (Littré, 1873, p. 1731). Le terme est ainsi largement utilisé pour sa dimension technique depuis les débuts de l’imprimerie, pour qualifier les dimensions du papier ou des livres. Format et édition ont donc beaucoup de points communs, ou tout du moins format et média. Du format littéraire au format informatique, nous explicitons brièvement quelques-unes des acceptions de ce terme en lien avec l’édition et la littérature. Enfin, nous conservons pour le moment un flou entre format de travail ou format d’entrée — input en anglais —, et format de sortie ou résultat — output en anglais —, parce qu’un grand nombre de caractéristiques sont partagées. Si le terme format est un terme technique, il ne s’agit pas que d’informatique, la technique littéraire est également concernée. Que ce soit des structures définies, des jeux linguistiques ou le soin apporté aux formulations, lorsque nous parlons de formats en littérature nous évoquons la forme des textes. Cette dimension de format peut dériver vers les genres littéraires, dont la classification et le nombre varient selon les époques et les contextes (note : Le même exercice pourrait être effectué pour la musique, où les formats et les genres se croisent aussi.). Poésie, polar, essai, roman ou pamphlet sont des genres mais peuvent aussi être considérés comme des formats dont la structure dépend des contenus. Formes des phrases, découpage en chapitres, longueur totale du texte, matériel critique, autant d’éléments qui modifient aussi la dimension ou l’aspect visuel de l’artefact imprimé — ou numérique. Les formats littéraires — au sens large — coincident parfois ou souvent avec les formats des artefacts, l’objectif étant qu’ils puissent être identifiés facilement par leur forme et leurs dimensions, et de lever ainsi toute ambiguïté sur le contenu d’un objet imprimé. Un livre de poésie peut donc se démarquer d’un pamphlet uniquement par son format, et notamment par la taille ou par la qualité du papier, comme l’explique Meredith L. McGill :   No twenty-first-century reader would have trouble distinguishing a book of poetry from a textbook or a dictionary from a distance of twenty feet. (McGill, 2018, pp. 675-676)   Un format est une suite d’instructions, et dans le cas d’un support physique comme le livre imprimé cela se traduit principalement par le format de papier. C’est ce que nous avons évoqué plus tôt, l’usage du terme dans un contexte technique débute dès l’émergence de l’imprimerie jusqu’au dix-neuvième siècle où l’usage des presses à imprimer est encore en vigueur. Il s’agit de déterminer quelle est la dimension d’une page d’un livre, celle-ci résultant du pliage puis du découpage d’une plus grande feuille de papier (Genette, 2002, p. 22-23). Les formats de papier dépendent alors du nombre de pliages : in-folio pour un seul pliage, soit un feuillet ou quatre pages ; in-quarto pour deux pliages, soit deux feuillets ou huit pages ; in-octavo pour trois pliages, soit quatre feuillets ou seize pages ; etc. C’est ainsi que les bibliographes définissent la notion de format, ce qui pose problème lorsque la zone d’impression ne coincide plus avec la dimension de la page, ou lors de l’apparition du rouleau de papier qui ne nécessite plus de pliage, ou encore lorsque les dimensions de la feuille avant pliage ne sont pas précisées.   The obvious trouble with linking these two examples of “format” [“quarto” and “octavo”] to the basic definition is that a knowledge of paper-folding tells one nothing specific about shape and size unless one knows the shape and size of the paper to start with. (Tanselle, 2000, p. 70)   Quoi qu’il en soit ces choix de formats ont plusieurs origines ainsi que de multiples implications. Aux dix-septième et dix-huitième siècles, l’enjeu est d’abord financier, en effet plus une feuille est pliée et moins le budget papier est important. Les dimensions de l’objet imprimé obtenu dépendent en effet du nombre de pliages, et a priori le prix de vente diminue à mesure que le nombre de pliages augmente. Le choix d’un format, toujours pour cette période, n’est pas anodin, comme le résume très bien Meredith L. McGill :   From a publisher’s perspective, format is where economic and technological limitations meet cultural expectations. (McGill, 2018, p. 674)   Le format concerne donc autant la conception, la production, la diffusion, la circulation ou la réception d’un artefact éditorial. Aujourd’hui, pour l’impression de grands tirages comme c’est le cas avec la technique de l’offset, la question du nombre de pages qui peuvent être disposées sur une feuille se pose encore. Ceci explique par exemple le format “48CC” en usage dans le domaine de la bande dessinée en Europe depuis le milieu du vingtième siècle (Menu, 2005), qui correspond à un album de 48 pages (en couleur et avec une couverture cartonnée). Ce format est pensé pour rentabiliser la production de livres à grand tirage dans le secteur de la bande dessinée (Deyzieux, 2008, p. 62), chaque objet nécessite trois feuilles au format A1, chacune d’elles formant un feuillet de 16 pages — 16 fois 3 étant égal à 48. Par ailleurs chaque page comporte huit cases, ce qui permet de construire un récit cohérent de 48 fois 8 cases. Le format du support est ici dicté par un désir de bénéfice maximal en imposant une structure de récit. Toujours dans le domaine de l’impression, mais cette fois avec des machines plus accessibles — les imprimantes dites de bureau —, la question se pose aussi de savoir si tous les formats de papier peuvent être pris en compte. Tout d’abord concernant des tailles très variables, en effet une norme ISO distingue plusieurs dimensions au niveau mondial (Kinross, 2009), les plus communs A4 et A3 pouvant être pris en charge sur une grande variété d’imprimantes grand public comme professionnelles. Ensuite concernant la compatibilité, notamment avec le cas de l’Amérique du Nord qui n’a pas adopté la norme ISO. L’US Letter est l’équivalent du A4 tout en étant différent (21,6 × 27,9 cm contre 21 × 29,7 cm pour l’A4). Les imprimantes sont capables de prendre en compte ces deux formats. Ce qui semble évident lorsque nous imprimons un document ou que nous feuilletons un livre — donc lorsque nous produisons une information ou lorsque nous y accédons — requiert tout un système dont nous ne prenons pas toujours conscience. Cette circulation de l’information se déroule aussi entre un dispositif informatique et une imprimante, elle ne concerne donc pas que des artefacts imprimés mais aussi des informations numériques, c’est le cas des données permettant à l’imprimante d’inscrire des lettres sur du papier avec de l’encre. Pour communiquer avec l’imprimante il faut un ordinateur compatible. Après les formats littéraires et les formats d’impression, qu’en est-il des formats informatiques ou numériques qui permettent d’éditer aujourd’hui ? Un format est une suite d’instructions, de “règles”, un format informatique structure des informations pour pouvoir être lues et interprétées par une machine et un programme, il s’agit de spécifications techniques. Le format est à distinguer du protocole : le format définit la façon dont les informations sont décrites et stockées, alors que le protocole se réfère à la manière dont une communication est permise entre des formats.   Le numérique, c’est la question des formats. (Bachimont, 2007, p. 237)     Un format de document numérique est constitué d’un ensemble de contraintes (ou règles) morphologiques (de forme) et de règles d’interprétation applicables au contenu du fichier (unique) ou des fichiers (multiples) composant un document numérique. (Ebsi, 2018)   En informatique, donc, un format est la condition d’“interprétation”, donc de calculabilité, d’un ensemble de données, ainsi que la garantie d’une communication entre plusieurs dispositifs ou programmes. Pour reprendre le cas de l’impression de bureau, pour qu’un fichier stocké sur un ordinateur puisse être imprimé par une imprimante, encore faut-il que les deux appareils puissent communiquer, et plus précisément que l’imprimante comprenne les instructions données par un logiciel qui est opéré sur l’ordinateur. Un aparté est nécessaire ici : l’origine du logiciel libre vient justement de cette difficulté à transmettre une information depuis un ordinateur vers une imprimante, lors de l’apparition des premiers programmes propriétaires, développés alors par Xerox (Williams, Masutti& al., 2013, p. 2-16). Nous retrouvons ici les contraintes économiques déjà aperçues avec l’arrivée de l’imprimerie à caractères mobiles : le format est aussi un enjeu de pouvoir. Celle ou celui qui définit les spécifications d’un format maîtrise la circulation de l’information. Dévoiler le fonctionnement d’un format engage donc vers une plus grande connaissance des enjeux liés au numérique, et donc au monde qui nous entoure aujourd’hui. Il nous faut désormais nous attarder sur ces questions de transmission de données dans le domaine numérique.   4.1.2. Formats, logiciels et compatibilités Si le processus de l’édition imprimée peut être en partie dévoilé grâce à l’examen des formats (originels ou produits), que nous dit une analyse des formats en informatique ou dans le numérique ? La relation entre formats et logiciels révèle la façon dont ces objets numériques sont construits, mais aussi la manière de les utiliser et les possibilités de leur diffusion ou de leur évolution. Pour expliciter cela nous prenons l’exemple de plusieurs logiciels et de leur format concordant, avant d’aborder la question des standards. Premier avertissement nécessaire ici, en informatique le format ne doit pas être confondu avec la version, même si une certaine proximité lexicale existe. La distinction est délicate puisque que dans d’autres domaines les deux sont parfois interchangeables : dans l’édition notamment, où un format de livre peut correspondre à une version particulière, le support signifiant ainsi le contenu — comme nous l’avons déjà vu. Mais une version peut aussi correspondre à un changement de format sans pour autant avoir une incidence sur le texte lui-même. En informatique un format définit des spécifications techniques, principalement pour que des données puissent être lisibles par un programme ou bien un logiciel. Une version permet d’identifier l’état d’une donnée, d’un fichier ou d’un programme. Du point de vue des outils que nous utilisons en environnement numérique — donc les programmes, les logiciels ou les applications — un format est un ensemble de données structurées qui peuvent être traitées. En informatique tout est une suite de bits — des zéros et des uns en base deux —, mais cette suite peut avoir des sens différents qui sont interprétés grâce au format. Une image ou un texte sont tous les deux une série de bits, mais l’une est interprétable comme une image, et l’autre comme du texte. Des algorithmes sont appliqués à ces données via un logiciel, ce dernier doit donc connaître le format pour pouvoir réaliser ces calculs. C’est ainsi que, bien souvent, un format est attribué à un logiciel, ou un logiciel et son format sont conjointement développés. Dans le champ de l’édition — pris au sens large —, cela est particulièrement visible avec des logiciels de traitement de texte ou de publication assistée par ordinateur. Le cas de Microsoft Word est éclairant, tant le format DOC (avec la même extension .doc) est lié à ce logiciel, et inversement. Microsoft Word est un traitement de texte, il est conçu pour interpréter et éditer — dans le sens de modifier — le format DOC, sans pour autant laisser d’autres logiciels comprendre ce format. À l’inverse, le format DOC est développé pour pouvoir conserver (et transmettre) des informations avec le logiciel Microsoft Word. D’un côté ce logiciel est capable d’enregistrer des données dans d’autres formats (comme le format RTF pour Rich Text Format), mais en perdant un certain niveau de précision (pour ne pas dire fonctionnalités). D’un autre côté, pendant longtemps il était difficile voire impossible d’enregistrer des données au format DOC avec un autre logiciel. Cette absence de compatibilité — un format lisible par différents logiciels — s’explique pour plusieurs raisons. La première révèle une logique fonctionnaliste. Pour s’assurer du meilleur fonctionnement possible du logiciel, la maîtrise du format est nécessaire. Dans le cas de Word et DOC, ce principe est poussé à son paroxysme puisque leur développement est réalisé par Microsoft dans le plus grand secret. Si le format DOC a une spécification technique, elle n’est pas accessible, il n’est donc pas possible de connaître les instructions permettant de structurer les données. Pire, il est interdit de regarder le code source de ce format. Celui-ci étant un format exécutable et non un format texte facilement lisible, un logiciel est forcément nécessaire pour décoder ce qu’il contient. C’est la seconde raison de l’absence de compatibilité, le format et le logiciel sont propriétaires, leur accès n’est permis qu’à certaines conditions très limitées. Tout d’abord leur utilisation nécessite un échange financier, et ensuite pour empêcher une distribution non contrôlée le logiciel est placé sous une licence propriétaire — reconnue légalement. Jusqu’au développement par Microsoft du format normalisé Office Open XML, le format DOC n’était que très difficilement accessible en dehors de l’environnement de Word. D’autres logiciels sont parvenus à créer une compatibilité limitée, comme OpenOffice Writer, LibreOffice Writer ou Apple Pages, en tentant de comprendre le fonctionnement de DOC. Pendant plusieurs années, ce format a été développé sans en révéler ses spécifications, limitant aussi son utilisation en dehors des systèmes d’exploitation compatibles avec Microsoft Word. Impossible donc d’utiliser Word sur Linux par exemple. Par ailleurs, il s’agit d’un format binaire, donc une série de bits, contrairement au format .docx, textuel, qui permet une certaine lisibilité. Cette dépendance développée et entretenue par une entreprise privée n’est pas pour autant inéluctable, des efforts de standardisation ouverte de formats comme ceux utilisés par les traitements de texte sont réalisés pour des raisons idéologiques ou politiques, par exemple permettre à toute personne de pouvoir ouvrir un fichier quel que soit son environnement informatique ; ou pour des raisons économiques, par exemple Microsoft a fait le choix de standardiser son format (via des normes ISO) pour permettre une meilleure compatibilité de lecture et conserver ainsi une forme de monopole — à l’origine basé sur le format, rappelons-le. La réalisation d’un format standard de traitement de texte compatible entre plusieurs systèmes d’exploitation ou logiciels est une initiative qui a permis d’envisager un monde sans Word, ou tout du moins un monde où Word ne serait plus le seul outil plébiscité, à défaut de se passer de ce type d’outil d’écriture — nous y revenons par la suite (voir 5.1. Les chaînes d’édition : composer avec les logiciels). Le format OpenDocument a été développé conjointement avec la suite de logiciels LibreOffice (note : L’histoire de ce logiciel n’est pas développée ici, quoi qu’elle représente un intérêt pour comprendre les jeux de pouvoir entre logiciels open source et libres.), proposant notamment un traitement de texte avec LibreOffice Writer. Si certains organismes, comme des administrations en Europe, ont choisi le libre pour des questions d’autonomie et de pérennité (Berne, 2014), Microsoft Word est encore un logiciel qui domine les usages. Le développement d’un standard ouvert ne suffit donc pas à modifier totalement les pratiques, mais ce n’est pas là l’objet de notre étude. Précisons désormais de quoi il s’agit lorsque nous parlons de standard.   4.1.3. Standards et interopérabilité Un standard est un ensemble de descriptions techniques formalisées, documentées et partagées, comme nous l’avons vu précédemment (voir 3.1. Le numérique : culture, politique et ubiquité). L’établissement d’un standard résulte d’une volonté de rendre compréhensible une structuration de données, dans un environnement donné. Cette dernière précision est importante, car le degré d’ouverture d’un standard peut varier. D’une certaine façon, le format DOC est un standard au sein de l’environnement fermé de Microsoft, mais ses spécifications ne sont pas partagées. La normalisation est un autre moyen pour s’accorder sur la détermination d’un format, mais il s’agit alors d’une forme de labellisation donnée par un organisme agréé, qui entraîne souvent des coûts pour qui souhaite connaître les spécifications, participer à l’entreprise de description, ou faire reconnaître une norme. C’est le choix adopté par Microsoft avec le format Office Open XML en 2006. L’enjeu des standards ouverts est de permettre une compatibilité dans différents contextes via la publication d’une documentation et de recommandations, pour enclencher ensuite une potentielle implémentation de cette compatibilité. Cette entreprise de standardisation d’un format révèle les processus politiques de légitimation sous-jacents comme le soulignent Axel Volmar, Marek Jancovic et Alexandra­Schneider (Volmar, Jancovic& al., 2019, p. 16). Le développement d’un standard ouvert se fait via une communauté en partant des besoins de celle-ci, et c’est là un point déterminant :   Real standards do not suddenly appear. They emerge from one of two processes, informal or formal, during which a proposed standard is recognized as reflecting real needs. (Goldfarb & Rubinsky, 1990, p. ix)   Dans l’environnement numérique que constituent Internet et le Web, l’exemple des Requets for Comments (note : https://www.rfc-editor.org) illustre ces dimensions de clarification, d’énonciation et de publication déployées pour constituer des standards — en précisant toutefois que les RFCs ne sont pas toutes des standards (Crocker, Huitema& al., 1995). Dans un champ connexe — le livre numérique — la standardisation du format EPUB révèle des objectifs divers, tant sur des questions d’accessibilité que sur les enjeux économiques comme nous l’avons exposé dans le chapitre précédent (voir 3.2. Le livre numérique ou la pensée homothétique). Dans un autre domaine, l’encodage de documents dans le champ académique, l’exemple de la TEI (Text Encoding Initiative) offre un aperçu de ce que cela implique. Sans en faire une étude de cas, nous présentons quelques éléments de la constitution du format XML-TEI pour comprendre les motivations nécessaires et le travail fourni permettant d’aboutir à un standard ouvert. La Text Encoding Initiative est un format de structuration de données mais également une communauté au sein des humanités numériques, dont l’objectif est l’encodage de textes. Le format TEI est plus spécifiquement un schéma XML, créé en 1987 par et pour la communauté scientifique afin de pallier à un manque de ressources pour décrire et publier des ressources textuelles.   Si vous accordez plus d’importance aux mots de votre texte et à leur sens qu’à la façon dont ils sont disposés sur la page, vous rencontrerez bien vite des limites frustrantes en utilisant un traitement de texte classique. (Burnard, 2015)   Les besoins des scientifiques qui travaillent sur du texte sont multiples, comme l’identification de la structure d’un document (titres, sous-titres, citations ou numéro de page de l’édition imprimée originale), l’identification de divers éléments comme les personnes, les dates ou les lieux, ou l’intégration de métadonnées riches et structurées. Un outil classique comme un traitement de texte ne peut clairement pas remplir cette mission. La TEI comporte un langage de balisage pour réaliser un travail sémantique dans l’objectif de conserver ces informations ou de pouvoir obtenir un artefact lisible — typiquement un site web avec l’accès à la richesse sémantique du document, ou une édition imprimée pour une transcription graphique. À ce jour la TEI est le seul moyen d’encoder un document de façon sémantique et interopérable. Cette interopérabilité est permise par un important travail de définition du format, qui représente plus de deux mille pages dans sa version imprimable au printemps 2023 (TEI Consortium, 2023). Il s’agit de détailler le fonctionnement du schéma — ce que nous ne faisons pas ici — afin de permettre une compréhension autant par des humains que par des programmes. Ces derniers peuvent être développés pour éditer ce format, l’afficher ou le publier. Le parcours de la standardisation est relativement long et fastidieux dans le cas de la TEI, il requiert une structure particulière pour recevoir, traiter voir implémenter des demandes. L’apport d’un tel standard ouvert est considérable, et concerne principalement les pratiques d’encodage, la formalisation via une méthode de balisage permet en effet à une communauté scientifique de partager des façons de faire. En plus d’être un dispositif de formalisation de pratiques, le développement du standard permet aussi à d’autres acteurs ou structures de développer des applications ou des programmes pour lire et éditer le format XML-TEI (comme oXygen ou LEAF-VRE), pour produire des éditions numériques (avec TEI Publisher) ou pour effectuer des conversions vers d’autres formats de balisage (via XSLT, ou via le convertisseur Pandoc pour la version simplifiée de la TEI) (note : Ce ne sont là que quelques exemples de projets développés à partir du format TEI.). Un dernier point concerne la nécessité de maintenir un standard, en effet cela demande des mises à jour régulières et donc des ressources humaines parfois importantes. La TEI est un ensemble de bonnes pratiques, constituées d’un format qui inclut lui-même un langage sémantique, ce qui signifie que le sens des différents éléments d’un texte peuvent être annotés afin d’être traités. Le cas de la TEI nous permet d’introduire cette nouvelle notion, en plus de la standardisation, de la compatibilité et de l’interopérabilité, il s’agit donc de décrire le sens avec la sémantique, et d’exprimer cela à travers un format.   4.1.4. Pour une sémantique du texte Un format décrit des données pour qu’elles puissent être traitées, cette formalisation est porteuse de sens. C’est ce que nous qualifions ici de sémantique, l’usage de ce terme concerne ici le texte en tant qu’objet (ou source) éditorial ou comme ensemble de données — étant donné la signification distincte de sémantique dans les domaines de la sémiologie ou de la linguistique notamment. Le traitement sémantique d’un texte consiste en l’identification de ses différents éléments, partant du fait qu’un texte n’est pas qu’une suite de mots, de phrases, de paragraphes ou de parties ayant tous la même valeur. Si nous prenons un exemple trivial comme un document qui comporte un titre, un paragraphe et une citation longue, ces trois éléments représentent déjà plusieurs niveaux d’information : un titre est un moyen de nommer un document, voire de le résumer ; un paragraphe est un bloc de texte qui se distingue d’autres blocs de texte ; une citation longue est un bloc de texte particulier qui est rattaché à un auteur ou à une autrice, et qui peut être lié à une référence. Nous distinguons habituellement ces niveaux par un moyen graphique, que ce soit un artefact imprimé ou numérique, par exemple en attribuant une taille de texte plus grande pour le titre ou un alignement sur la page plus important pour la citation. Ainsi nous pouvons repérer visuellement que le premier élément est plus important que le second, et que le troisième est d’une nature distincte. Un format sémantique sépare les données purement textuelles de l’identification que porte chacun des éléments du texte. Sur une page imprimée, un titre, un paragraphe et une citation sont identifiés de façon “superficielle et provisoire plutôt qu’essentielle” comme l’explique les auteurs de “What is Text, Really?” :   The essential parts of any document form what we call “content objects,” and are of many types, such as paragraphs, quotations, emphatic phrases, and attributions. Each type of content object usually has its own appearance when a document is printed or displayed, but that appearance is superficial and transient rather than essential — it is the content elements themselves, along with their content, which form the essence of a document. (DeRose, Durand & al., 1990, p. 3)   Jusqu’ici nous avons utilisé le terme de “texte” pour définir la matière du travail d’édition, et le terme d’artefact pour qualifier le résultat de ce travail. Nous devons désormais utiliser la notion de “document” pour clarifier l’espace où le texte se déploie d’un point de vue sémantique. Un document numérique est l’addition de données et de leur structuration (Pédauque & Melot, 2006), le format (informatique) est un moyen de contenir les données et d’exprimer cette structure. Plutôt que d’interroger l’intérêt de sémantiser un texte, et donc de recourir à un format sémantique, il s’agit plutôt de considérer que tout texte a forcément une dimension sémantique (note : Telle que nous définissons la sémantique.). Même un texte en prose de plusieurs pages dispose d’une structure sémantique, qui peut consister à un seul paragraphe, ou au repérage de chaque phrase, ou à une structuration plus précise comme l’identification d’éléments tels que des personnes, des concepts ou tous les noms communs. Il s’agit ici d’ailleurs d’exemples qui dépassent ce qui est habituellement identifiable avec des moyens graphiques. Faut-il alors tout identifier dans un texte ? La question de la limite de la sémantisation d’un texte doit prendre en compte les objectifs inhérents au projet. En effet, une fois les principaux éléments d’un document identifiés — tels que les titres et sous-titres, ou les paragraphes —, le niveau de précision peut grandement varier. C’est toute la question que pose une opération d’encodage de manuscrits, faut-il aller jusqu’à désigner chaque saut de ligne ? Est-il pertinent de faire correspondre chaque pronom personnel à une personne physique ? Tout dépend du but final qui peut être de plusieurs natures. Un document sémantique facilite la composition d’un texte en qualifiant les informations qui seront distinguées visuellement dans l’artefact final, et sans ambiguïté pour faciliter un travail collectif. Cela permet également de dissocier la valeur de ces informations de leur mise en forme graphique, en utilisant une feuille de styles appliquée à la structure. Enfin le texte peut être transformé en une base de données, les différents éléments pouvant être extraits et stocker indépendamment les uns des autres, pour ensuite être manipulés dans d’autres contextes d’utilisation. Ces possibilités sont décrites plus précisément dans l’article de Steven J. DeRose, David G. Durand, Elli Mylonas et Allen H. Renear, publié en 1990 (DeRose, Durand& al., 1990), et qui propose une modélisation générique, ouverte et structurante. Dernier point qui vient s’ajouter à cette liste : la conservation sur le long terme des informations sémantiques d’un texte, qu’il soit issu d’une transcription d’un document manuscrit ou imprimé, ou qu’il soit nativement numérique. Quelle que soit la façon dont est exprimée cette sémantique, s’il y a un standard alors il sera toujours possible de décrypter les informations pour une réutilisation. Un texte peut prendre de multiples dimensions, encore faut-il être en mesure de concevoir un format qui stocke et code ces nombreux paramètres. Le traitement sémantique du texte a une histoire longue à l’échelle de celle de l’informatique, nous nous attardons sur plusieurs formats et leur logiciel pour expliquer l’émergence de cette sémantisation du texte pour l’édition. WordStar, l’un des premiers logiciels de traitement de texte développé pour des environnements DOS en 1978 (donc bien avant les systèmes d’exploitation de Windows ou Apple), comprend un système pour signifier certains détails sémantiques comme l’emphase, qui se traduit par de l’italique ou du gras (Kirschenbaum, 2016, p. 1-9). Une combinaison de touches permet d’identifier des caractéristiques sémantiques d’éléments du texte, tout cela étant stocké dans un fichier texte — sur lequel nous revenons plus tard (voir 4.2. Les conditions de la sémantique : format texte et balisage)) —, l’interface de WordStar se rapprochant plus d’un terminal que d’un environnement graphique comme les logiciels développés à partir de la fin des années 1980. Autre exemple de tentative de sémantisation, la même année, avec le format TeX que nous avons déjà présenté (voir 3.3. Éditer avec le numérique : le cas d’Ekdosis). Un système de commandes identifie des portions de texte ou des éléments de structure, d’abord dans une finalité de composition graphique, mais cette dernière traduit malgré tout une volonté de donner du sens au texte. Comme nous l’avons vu, les choses se compliquent avec le format DOC, fermé, mais qui pose un autre problème : les informations sémantiques sont mêlées avec celles concernant la mise en forme. L’objectif principal du logiciel Microsoft Word est de rédiger des documents pour les imprimer, voir pour les conserver au format DOC ou éventuellement au format PDF — ce dernier figeant la mise en forme mais empêchant toute édition. Word applique le modèle de la page imprimée, à tel point que l’interface n’invite pas à réfléchir à la structure d’un document autrement que par son rendu graphique final. GML survient dans ce contexte d’édition de documents destinés à être imprimés, et repose sur une logique de balises — qui donnera naissance à XML puis HTML. Le format devient SGML pour séparer strictement sens du texte et mise en forme, et introduit ainsi la question du marquage des documents. Étudier la notion de “format” nous invite à questionner les enjeux de compatibilité, d’interopérabilité ou de standard, voici comment nous le conceptualisons : Définition Format Un format définit la façon dont des informations sont décrites et stockées, il s’agit d’une série d’instructions formalisées afin qu’une action soit réalisée par un agent. L’établissement d’un format est la condition de circulation d’une information, son choix révèle donc une intention mais aussi un acte. Dans l’édition, le format définit les caractéristiques techniques de la modélisation du texte, de sa structure et de la façon dont ses artefacts peuvent être produits. Il peut faire l’objet d’un standard afin d’être partagé et de permettre une interopérabilité voire une modularité. Définir un format n’est pas une action neutre, et participe à l’acte éditorial dans son ensemble. Ces dimensions nous permettent d’aborder des formats spécifiques qui sont une façon d’appliquer la sémantique, les formats de balisage. 4.2. Les conditions de la sémantique : format texte et balisage [8053125] Le format est une notion qui invoque nombre d’enjeux épistémologiques dans le domaine de l’édition, dont certains ont été abordés avec la description de ce terme dans la section précédente (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente) — en lien avec les questions de logiciel et de standard —, il est désormais temps d’analyser la condition de l’implémentation d’une dimension sémantique dans le texte. Faire de la sémantique dans un texte, en vue de produire des artefacts éditoriaux divers, est possible à condition de déterminer un format spécifique qui répond à plusieurs contraintes. Ces dernières sont d’ordres théoriques et pratiques, et notamment sur les questions de prise en compte des besoins et du contexte, de l’inscription de la démarche dans une approche précise, et des résultats attendus. La direction prise vers des formats texte de balisage, décrits dans cette section, répond à la nécessité de comprendre et de maîtriser les processus d’édition, et de rendre la chaîne d’édition interopérable voire modulaire. Un autre impératif est à prendre en compte : la conservation des sources des documents pour un traitement ultérieur et notamment avec des outils et des processus différents que ceux initiaux. Ici nous n’abordons pas d’autres formats en usage dans le champ de l’édition, dont ceux utilisés par des logiciels de traitement de texte ou de publication assistée par ordinateur, propriétaires ou libres, tout simplement parce qu’ils ne permettent pas d’envisager la constitution d’une chaîne d’édition numérique — comme nous l’avons présenté dans le chapitre précédent (voir 3.2. Le livre numérique ou la pensée homothétique). Nous considérons que le format texte et les langages de balisage permettent d’utiliser le numérique en envisageant de nouvelles modalités éditoriales, plutôt qu’en dupliquant le schème de l’imprimé. La constitution d’une sémantique compréhensible, lisible et néanmoins puissante permet la maîtrise de la composition du sens, inhérente à toute activité d’édition. Choisir, délimiter ou créer un format sémantique est aussi une étape dans la construction de chaînes d’édition. Il s’agit ainsi d’adapter ou de développer des protocoles plutôt que d’adopter des dictats. Notre argumentaire sur les conditions de la sémantique, qui s’inscrit pleinement dans l’étude des formats dans l’édition, se divise en quatre temps. Tout d’abord la description du type de format qui permet d’accueillir des balisages divers, le format texte. Il s’agit ensuite de comprendre comment intégrer, dans le format texte, des possibilités de sémantisation des textes, en définissant précisément le terme balisage. Nous établissons une typologie du ou des balisages, afin de relever les enjeux épistémologiques profonds de tels formats. Enfin, si nous avons déjà donné quelques éléments concernant les formats de balisage en abordant l’histoire des formats sémantiques, nous décrivons plusieurs moments clés du développement de langages de balisage majeurs comme SGML, TEI, HTML ou XML.   4.2.1. Définition du format texte Le format texte est un format de fichier informatique qui ne comporte que des caractères textuels. Le format texte est lisible par des logiciels qui affichent uniquement ces caractères ou qui les interprètent pour exécuter des actions. Comme nous pouvons le voir dans cet extrait, le format texte ne contient rien d’autres que des caractères typographiques, seules les majuscules permettent d’identifier un fragment différent du document, en l’occurrence un titre. Le format texte peut révéler ses éléments de structuration, voire sa sémantique, autant pour les humains que pour les machines, par le biais d’un langage, ce langage pouvant être interprété par un logiciel. Le format texte est un format qui comporte des instructions univoques.   Plain text identifies a file format and a frame of mind. (Tenen, 2017, p. 3)   L’introduction de Plain Text de Dennis Tenen apporte une double dimension technique et épistémologique, indiquant que le choix de ce type de format n’est pas qu’un besoin technologique, il s’agit aussi d’adopter un certain rapport au numérique et au texte. Comme nous le voyons par la suite, utiliser le format texte peut requérir quelques compétences qui sont liées au format lui-même — et en particulier au langage sémantique — et non au logiciel habituellement associé. Cette littératie est également une perspective enthousiasmante, puisqu’elle donne plus de maîtrise et de liberté aux personnes qui l’acquièrent. D’un point de vue plus pratique, voici une définition du format texte extraite du manuel de présentation et de documentation d’Unicode :   Plain text is a pure sequence of character codes; plain Unicode-encoded text is a sequence of Unicode character codes. In contrast, fancy text, also known as rich text, is any text representation consisting of plain text plus added information such as language identifier, font size, color, hypertext links, and so on. For example, the text of this book, a multifont text as formatted by a desktop publishing system, is fancy text. (The Unicode Consortium, 2000, pp. 2-5 - 2-6)   Pourquoi s’arrêter sur cette définition qui distingue un format simple ou brut et un format riche ? Tout d’abord parce que The Unicode Consortium est un groupement chargé de définir comment chaque signe est encodé pour que chaque système numérique puisse l’afficher. Cette initiative est destinée à rendre tout texte compatible, quelle que soit sa langue, afin d’afficher sur n’importe quel dispositif informatique des symboles ou des glyphes tels que les caractères de l’alphabet latin (en prenant en compte la casse ou les diacritiques), les marques de ponctuation en usage dans certaines langues, les kanji japonais, ou encore l’alphabet arabe — pour ne prendre que quelques exemples. The Unicode Consortium est donc bien placé pour définir ce qu’est le format texte. Ensuite, cette définition apporte une distinction importante entre deux formats : le premier, le plain text, est une suite de caractères sans mise en forme, il s’agit du contenu ; le second, le fancy text ou rich text, est l’addition du plain text et d’informations complémentaires indiquant notamment le format, la mise en forme, des liens hypertextes, etc. Nous retenons cette distinction seulement pour marquer la différence entre un format qui contient les contenus (ou le texte et sa structuration sémantique) et un format qui contient également des éléments de mise en forme (ou le rendu graphique selon le type d’artefact qui est produit). Nous rejoignons cette définition qui indique en creux que le format texte ne contiendrait que le texte, au sens du texte définit dans “What is Text, Really?” (DeRose, Durand& al., 1990), donc des contenus et leur qualification sémantique mais sans l’attribution d’une équivalence graphique. Nous critiquons toutefois l’emploi du terme “pur”, notre position rejoignant celle d’Arthur Perret (Perret, 2022, p. 154), ce terme apportant de la confusion sur la possible simplicité d’un tel format, et cela implique un jugement par rapport au type de données, notamment la différence avec certains formats qui doivent être interprétés voire exécutés pour être lus ou édités. Le format texte est lisible et exécutable, c’est ici l’un des points d’achoppement que nous souhaitons souligner. Ce format peut être à la fois affiché tel quel, ou exécuté par une machine qui déclenche des actions en fonction des caractères qui y sont inscrits. Cette double compréhension, par les humains et les machines, ouvre plusieurs perspectives, comme l’interopérabilité et le choix des modes d’édition. En étant par défaut ouvert, et révélant autant ses contenus que ses instructions, le format texte peut offrir plus facilement des possibilités d’interopérabilité. En effet, tout fichier au format texte peut être modifié avec n’importe quel éditeur de texte, le format étant décorrélé du logiciel. Cela signifie aussi que le fichier peut potentiellement rester lisible dans un temps très long. Ce format ne doit pas nécessairement être édité avec un éditeur de texte, d’autres logiciels permettent d’afficher ses contenus voir d’interpréter sa syntaxe (s’il y en a une) afin de faciliter sa compréhension. C’est le cas du format XML-TEI par exemple, qui peut être lu avec éditeur de texte simple qui n’affiche que les caractères, ou un éditeur de texte plus avancé qui interprète le balisage et affiche une coloration syntaxique pour distinguer les différentes balises, ou encore un logiciel qui accompagne l’écriture (comme l’enchaînement autorisé des balises). Ces différents modes d’édition interviennent à différents moments d’un travail d’édition ou dépendent du profil des personnes qui réalisent ce travail. Arthur Perret signale d’autres apports conséquents de ce format comme la stabilité, la fiabilité, le stoïcisme ou la textualité :   Et alors, considérez la question suivante : pour tous ces gestes qui passent par le texte, est-ce qu’il vous serait utile de connaître une technique universelle simple, légère, performante, portable, gratuite, pérenne, pouvant rendre toutes sortes de services ? Une sorte de lingua franca, de plus petit dénominateur commun de la textualité version numérique ? Songez à la versatilité du couple papier-crayon pour toutes les tâches d’écriture ; transposez-la à l’informatique : vous obtenez le format texte. (Perret, 2022)   Ces bénéfices conduisent à un autre argument de poids qui explique son adhésion dans le domaine informatique : les états d’un fichier au format texte peuvent être gérés avec des systèmes de gestion de versions tels que Git. Ce versionnement, difficile avec des encodages riches, est possible avec ce type de format. En effet, les différences entre deux états d’un fichier au format texte peuvent être visualisées très facilement : un caractère a par exemple été supprimé à telle ligne du fichier, et trois autres ont été ajoutées à une autre ligne. Le format texte est ainsi un format qui représente des avantages certains dans un contexte numérique, tout en nécessitant des phases de conversion ou de transformation pour aboutir à un artefact — c’est ce que nous détaillons par la suite (voir 4.4. Le single source publishing comme acte éditorial sémantique). Avant d’expliciter comment il est possible d’appliquer une sémantique avec ou dans le format texte, nous explorons ses origines.   4.2.2. Origines et distinctions du format texte D’où vient le format texte ? Il s’agit d’un des formats les plus utilisés, puisqu’il est très largement employé dans l’informatique comme la source privilégiée des programmes ou des logiciels. Chaque programme étant ainsi composé d’un certain nombre de fichiers au format texte, et plus spécifiquement dans des langages de programmation eux-mêmes représentés par une série de caractères. Le format texte est donc partout (note : De nombreux langages de programmation ne sont toutefois pas basés sur le format texte, Smalltalk est un exemple parmi beaucoup d’autres.), et ce depuis les débuts de l’informatique. Comme nous l’avons dit précédemment, son usage s’explique en raison de sa grande simplicité et de son interopérabilité inhérente. C’est donc un moyen efficace, durable et compatible de stocker des informations, sans parler du fait que les fichiers dans ce format sont — potentiellement — très légers. Pour comprendre tout cela, il est possible d’aller ouvrir les fichiers source d’un programme ou d’un logiciel avec un éditeur de texte, la plupart du temps ils consistent en une série de lettres, de chiffres et de symboles typographiques compréhensibles — principalement dans des langues occidentales. Dans la grande majorité des cas ces fichiers sont donc au format texte, et lisibles directement dans un éditeur de texte. Plusieurs contextes nécessitent de recourir à des formats exécutables qui ne sont lisibles que dans des environnements très spécifiques. Le stockage de données relationnelles, par exemple, est facilement réalisé dans des formats qui ne sont pas qu’une suite de caractères. C’est le cas du format de base de données SQL (note : Pour Structured Query Language ou Langage de requête structurée en français.) où l’information est organisée dans des tableaux, à deux dimensions, liés entre eux. Nous pouvons observer un constat similaire dans le développement de certains programmes qui sont enregistrés dans un format image, notamment pour des raisons de performance. Ces cas révèlent des besoins en termes d’environnement de travail, il s’agit d’accéder à des données complexes directement depuis un fichier plutôt que par le biais de multiples fichiers au format texte avec des syntaxes diverses. Un fichier exécutable par un système d’exploitation est, selon les objectifs visés, parfois plus pertinent qu’un format texte. Un exemple parmi d’autres est la façon dont l’éditeur de texte Vim gère les données : le fichier texte est enregistré à chaque fois que la commande enregistrer est appelée, mais dès qu’une lettre est tapée Vim stocke temporairement ces données dans le buffer, qui n’est pas un fichier au format texte. C’est le format SWP (pour swap ou échange en français) qui est utilisé pour cet usage. Son encodage n’est pas au format texte, son ouverture avec un éditeur de texte révèle ainsi une suite de caractères incompréhensibles, que seul logiciel Vim peut interpréter. Si des formats de base de données ont toutefois adoptés le format texte, et si Vim enregistre les données finales dans un fichier au format texte, il est intéressant de noter pourquoi ce n’est pas le type de format qui pourrait remplacer tous les autres. Il y a toutefois une tendance, depuis quelques années, à se tourner vers des formats texte pour l’écriture ou l’édition, et pour expliquer ce phénomène nous pouvons reprendre l’exemple des traitements de texte en général et du format DOC et de Microsoft Word en particulier. Word, et son format DOC, a dominé les usages dans le champ des traitements de texte pendant plusieurs années. Nous l’avons déjà signalé (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente), le format DOC est dit binaire ou exécutable, il ne comporte donc pas qu’une série de caractères typographiques — en l’occurrence il s’agit de scripts, d’informations de mise en forme, etc. Impossible de lire un fichier .doc avec autre chose que Word (note : D’autres logiciels étaient et sont capables de lire ce format, parfois avec des pertes d’information.), comme un éditeur de texte. Le choix d’adopter un standard ouvert et normalisé, Office Open XML, permet une certaine compatibilité. Le format DOCX est une implémentation de ce standard, qui encapsule un certain nombre de fichiers texte — à la façon du format EPUB —, permettant en théorie à plusieurs programmes d’y accéder. L’ouverture logicielle ne suffit pas, tant il est compliqué de comprendre l’encodage verbeux du schéma XML utilisé. Pour des opérations simples tel qu’un texte structuré de façon très sommaire, ce format implique une forte opacité comme nous pouvons le voir ci-dessous. Dans les quelques lignes de XML ci-dessus nous découvrons le mot “Bonjour”, perdu dans un ensemble de données qui définissent autant le format que la façon dont ces sept lettres doivent être disposées sur la page — les informations concernant le rendu graphique sont stockées dans un autre fichier. L’hégémonie des formats DOC ou DOCX est pourtant remise en cause avec l’apparition de logiciels plus simples, dédiés à l’écriture et moins aux tâches bureaucratiques, comme le signale Matthew Kirschenbaum dans Track Changes, son enquête sur les traitements de texte (Kirschenbaum, 2016, p. 235-247). L’usage d’applications en ligne telles que Google Docs vient notamment remettre en cause ce monopole. Aussi, des solutions alternatives apparaissent au début des années 2010, loin des logiciels monopolistiques ou des applications de géants du numérique, avec cette volonté, dans certains domaines, de prendre soin du texte et des personnes qui interviennent dessus (Maxwell, 2022). C’est le cas du logiciel iA Writer au début des années 2010, uniquement dédié à l’écriture plutôt qu’à la création de documents bureautiques. iA Writer utilise justement un format texte — en l’occurrence Markdown, que nous présentons longuement dans l’étude de cas qui suit (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis) —, format qui peut être utilisé avec de nombreux autres logiciels. Il s’agit d’une forme de retour au format texte, avec l’apparition d’un nouveau type d’application qui permet de l’éditer, sans pour autant enfermer des utilisateurs dans des formats propriétaires ou limités à certains logiciels. Dans le cas de Markdown et du logiciel iA Writer, le format et le texte lui-même ne font plus qu’un, pour reprendre les mots d’Oliver Reichenstein (l’un des créateurs de iA) :   In Plain Text the text is the source. With Rich Text we see a simulation. What we see may please us, but below the surface our word processor secretly builds a more complex text in code. (Reichenstein, 2016)   iA Writer est un exemple intéressant, parce qu’il est entièrement conçu autour d’un format texte, pour en développer des fonctionnalités indépendantes. Dit autrement, ici le logiciel n’influence pas les spécifications du format, mais il est construit autour de lui. Le concept de developer experience, entendu comme un ensemble de processus et d’outils simples et efficients basés sur des standards plutôt que sur des interfaces et des fonctionnalités complexes (Fagerholm & Münch, 2012), a surement influencé le développement de iA Writer. Notons que de nombreux logiciels d’écriture basés sur le format texte Markdown existent aux côtés d’iA Writer, et qu’il s’agit là d’usages difficiles à quantifier, mais toujours minoritaires par rapport aux traitements de texte classiques — et plus précisément Microsoft Word. Le format texte, dans le cas de l’édition — prise au sens très large —, implique une transformation pour obtenir divers artefacts, des formats dits de sortie. Les traitements de texte sont des machines à tout faire, et intègrent des fonctions d’export — notamment en PDF — quand leur format ne devient pas une finalité en soi. Le format texte implique ainsi de découpler les étapes d’édition, le format texte concernant d’abord l’écriture — l’inscription et la fixation de données. Nous avons donné quelques clés de compréhension concernant les origines du format texte et son usage dans les domaines de l’informatique ou de l’édition. Ce que nous n’avons pas encore dit, c’est la manière dont les informations contenues dans un format texte peuvent être inscrites, ou comment faire de la sémantique dans un environnement où tout est (d)écrit avec des caractères.   4.2.3. Du format texte à la sémantique Le format texte amène à considérer une épistémologie de la connaissance tournée vers l’autonomie et l’ouverture. Encore faut-il disposer d’un moyen pour y exprimer des niveaux de sémantique, sans quoi l’intérêt de ce type de format est très limité. Une des étymologies grecques du terme “sémantique” est notamment σῆμα, soit “signe, marque”. Dans notre cas la question de sémantiser un texte revient à y apposer des marques, afin d’identifier différents niveaux d’information ou de valeurs textuelles. Ces marques doivent être compréhensibles par des personnes humaines, mais aussi par des programmes informatiques qui les interprètent. Le premier enjeu ici est donc de déterminer une syntaxe pour réaliser ce double objectif, la difficulté résidant dans les contraintes du format texte — une suite de caractères — et dans les éventuelles ambiguïtés ainsi générées — il s’agit en effet de définir des éléments textuels qui ne sont pas des mots, qui sont des paratextes. Les symboles typographiques utilisés pour marquer le texte, que ce soit des lettres, des marques de ponctuation ou tous autres signes disponibles dans la grande variété des glyphes, doivent être lisibles par des humains ou des machines. L’objectif est donc d’abord de signifier des valeurs plutôt que d’attribuer un rendu graphique pour les différents éléments d’un texte ; car tout texte est marqué, révélant des choix typographiques ou un agencement graphique particulier du texte sur la page ou sur l’écran.   All text is marked text, as you may see by reflecting on the very text you are now reading. As you follow this conceptual exposition, watch the physical embodiments that shape the ideas and the process of thought. Do you see the typeface, do you recognize it? Does it mean anything to you, and if not, why not? (McGann, 2004, pp. 198-199)   Comme le dit Jerome McGann ci-dessus, les incarnations physiques qui nous permettent de comprendre le sens sont en soi implicites, mais toujours présentes et sous différentes formes. Toutefois des considérations uniquement visuelles ne prennent pas en compte une attribution déclarative du sens qui dépasse un environnement graphique, environnement dans lequel l’interprétation ne peut être calculée de façon univoque. C’est une pratique courante des traitements de texte avec le mode WYSIWYG. Ce mode What You See Is What You Get — ce que vous voyez est ce que vous obtenez, en français — consiste à appliquer une mise en forme pour distinguer par exemple un titre (dans une police de plus grande taille) du texte principal (dans une police de plus petite taille), ou d’autres éléments comme un texte en emphase (par exemple en italique) ou une liste non ordonnée (par exemple avec un retrait et un tiret devant chaque entrée de cette liste) ; mais cette mise en forme n’a pas toujours une valeur sémantique. L’héritage de l’imprimé, avec ce rendu visuel omniprésent et la logique de la page, est remis en cause dans un environnement où tout peut être calculé. Nous l’avons vu précédemment (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente), des moyens ont été mis en œuvre dès les années 1960 pour déclarer une sémantique calculable et sans ambiguïté, via le format texte ; que ce soit avec GML en 1969, puis TeX en 1978 et SGML en 1986 (Blanc & Haute, 2018). C’est la fonction du balisage que de donner du sens au texte dans le format texte, pour pouvoir être traité dans un environnement numérique. Le balisage est ainsi le compagnon du format texte. Qu’est-ce que le balisage ? Une balise est un point de repère, un élément qui peut être facilement identifié pour fixer une limite. En dehors du champ du livre il s’agit de placer une signalisation en bois sur la route, sur la mer ou autour de rails, afin de circuler. Pour le texte l’enjeu est très similaire, c’est notre regard qui doit être guidé pour comprendre quelle valeur est attribuée à des portions de lettres, de mots ou de phrases, comme nous pouvons le voir avec l’exemple ci-dessous balisé dans le format AsciiDoc : L’usage de ce terme pour des noms d’initiatives scientifiques va dans ce sens : la revue française Balisages se situe “ainsi à l’intersection des sciences de l’information et de la communication, de l’histoire du livre et des bibliothèques, et de l’anthropologie des savoirs” ; ou la conférence annuelle du même nom (au singulier), “Balisage”, qui se définit comme “where serious markup practitioners and theoreticians meet every summer”. L’équivalent de “balisage” en langue anglaise est markup, contraction de mark et up, et est issu non pas d’objets en bois, mais d’une pratique d’annotation des manuscrits pour faciliter le travail des imprimeurs. Baliser ou marquer est alors une pratique qui consiste à ajouter des indications pour que la composition typographique soit au plus proche des intentions de l’éditeur, il s’agit d’une formalisation destinée à donner une autre dimension au texte. À ce titre ce travail d’annotation est probablement plus constitutif de l’acte d’édition que les intentions parfois ambigües d’un éditeur. Cette origine étymologique nous permet de noter le saut effectué entre un modèle imprimé, où les informations ont d’abord une valeur pour la composition graphique, vers un modèle numérique, où l’importance devient le sens qui se traduit ensuite en une forme par un calcul ou une computation. Nous passons d’instructions pour un rendu graphique à l’adoption de règles de traitement pour attribuer du sens. Du WYSIWYG nous allons vers le WYSIWYM — pour What You See Is What You Mean ce que vous voyez est ce que vous signifiez, en français.   All texts are marked texts, i.e., algorithms—coded sets of reading instructions. (McGann, 2014, p. 169)   Pour reprendre Jerome McGann, tout texte comporte des instructions de lecture, encore faut-il que ces instructions soient univoques, et autant pour des personnes qui vont voir ou déchiffrer ces informations, ou pour des machines qui vont les interpréter caractère par caractère. Ainsi si nous établissons une distinction stricte entre des informations de composition et l’application d’une sémantique, tout texte demeure un texte balisé. La principale différence réside dans les valeurs qui sont données à des fragments de texte et à la manière de les attribuer dans le format texte, de façon lisible et sans ambiguïté. Le format texte est le candidat idéal pour exprimer une sémantique de manière intelligible, manifeste et transparente. Définition Format de balisage Un format de balisage est une série d’instructions pour modéliser une information et plus particulièrement un texte. Ces instructions doivent être univoques, afin d’être compréhensibles par des personnes qui les lisent ou les machines qui les traitent. Tout fragment de texte peut ainsi être balisé pour déclarer le sens qu’il porte, marquant une distinction entre des données textuelles telles qu’une citation, un paragraphe ou même une date. Les balises sont des points de repères, permettant de naviguer dans un texte et de construire des modélisations épistémologiques. En même temps qu’explorer certaines des façons de faire qui sont adoptées pour appliquer une sémantique dans cet environnement contraint, il est nécessaire d’établir une typologie des balisages, puis d’analyser quelques-unes de leurs limites.   4.2.4. Histoire et typologie Comme nous l’avons exprimé en creux précédemment, il y a plusieurs façons de baliser un texte qui ne sont pas tant des implémentations techniques que le reflet d’un positionnement par rapport au texte pour des applications déterminées — encodage, composition, production simultanée de plusieurs artefacts, archivage, etc. Il peut s’agir par exemple de composer un texte pour obtenir un rendu graphique, ou conserver toutes les informations liées à la structuration sémantique du document pour un archivage. Adopter un type de balisage résulte d’une approche heuristique, qui consiste à définir une manière de signifier. Pour comprendre les enjeux liés au balisage nous devons d’abord comprendre son émergence dans des buts différents, révélant ainsi une typologie riche, puis explorer les types de choix techniques existants. Tout d’abord, que faut-il baliser ? Il faut prendre en compte plusieurs niveaux dans un texte, quel que soit le balisage. Nous établissons ici un rapide panorama qui ne se veut pas exhaustif, et principalement axé autour de documents de type livre, dans le champ des lettres. Une distinction entre deux niveaux du texte est nécessaire ici. Chaque mot ou suite de mots peut être identifié, c’est le cas de l’attribution de l’emphase à un ou plusieurs termes pour marquer leur importance, et qui peut se traduire par une mise en forme en italique. Cette suite de caractères, souvent définie comme un élément en ligne — inline-level content en anglais —, ou élément de texte, dans les descriptions de balisages comme SGML ou HTML, peut s’étendre d’un caractère à plusieurs phrases. Cette délimitation ne dépasse pas la ligne comme son nom l’indique, la limite étant le paragraphe. Ce dernier est le second niveau, défini comme un élément de bloc ou bloc de texte — block-level content en anglais. Cette unité peut concerner des données comme une suite de mots qui forment un ensemble distinct sémantiquement et graphiquement d’une autre série de mots, une zone qui dépasse la ligne, comme un paragraphe, une figure et sa légende, ou encore un titre — la diversité des éléments de bloc est grande. Enfin, il s’agit de décrire le document lui-même, et c’est là une distinction plus délicate avec la notion de métadonnées. Voilà une des limites du balisage, puisque dans certains cas cette description méta d’un document est déléguée à un autre type de format, le format de sérialisation de données — nous décrivons plus longuement cette distinction dans l’étude de cas qui suit (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). L’histoire du balisage est longue à l’échelle de l’informatique, et est principalement liée à des besoins industriels de production et de gestion de documents, ou à des contraintes de diffusion scientifique. Ainsi les cas d’expérimentation, notamment dans des domaines non marchands, artistiques ou littéraires, sont minoritaires. La typologie qui suit est basée sur les travaux de James H. Coombs, Allen H. Renear et Steven J. DeRose (Coombs, Renear& al., 1987) qui restent pertinents sur plusieurs aspects même après plus de trente ans. Si nous considérons une typologie progressive partant d’une syntaxe avec peu de paramètres et allant vers une plus grande précision sémantique, le format texte est d’abord utilisé sans balisage. C’est le cas avec le premier livre numérique diffusé par Michael Hart et qui donne lieu au projet Gutenberg, comme nous l’avons vu précédemment (voir 3.2. Le livre numérique ou la pensée homothétique). Il s’agit, d’une certaine façon, d’un texte sans distinction apparente — autre que des sauts de ligne et l’usage éventuel des majuscules. Nous considérons qu’il s’agit ici soit d’une absence totale de balisage, soit d’un balisage dit présentationnel dans le cas de l’usage d’une composition typographique quelle qu’elle soit. D’une certaine façon, les traitements de texte utilisent une forme de balisage présentationnel, en faisant un usage massif d’un rendu graphique y compris pour le texte en cours d’écriture. Le terme de markup en anglais — que nous traduisons par balisage et vice versa — provient d’une pratique d’annotation pour la préparation de documents à imprimer. Il s’agit d’un balisage procédural qui consiste à décrire le comportement du texte dans une perspective de rendu graphique, et donc à décomposer l’écriture de l’édition. Cette pratique, largement répandue pendant toute une période, ne porte pas d’informations sémantiques, à moins de faire une correspondance par exemple entre un retrait d’un bloc de texte et le fait qu’il s’agisse d’une citation longue. La seule manière d’exprimer une information sémantique sur un support imprimé est l’utilisation d’un langage graphique : une taille de police plus grande pour un titre, et beaucoup plus petite pour une note. Par ailleurs, le balisage procédural considère le texte comme un flux, et non comme un ensemble de données, ce qui engendre des instructions qui ne valent que dans une lecture linéaire du document. GML (Generalized Markup Language) est le point d’articulation entre un balisage procédural et un balisage descriptif, et plus spécifiquement une tentative de formaliser des instructions autant pour les humains que pour les machines. GML — ou plus exactement IBM GML puisqu’il s’agit d’une initiative de l’entreprise informatique IBM (note : Notons que IBM est également impliquée dans ce qui peut souvent être considérée comme la naissance des humanités numériques avec le projet Index Thomesticus de Roberto Busa.) — est créé en 1969 pour remplacer le système de composition PostScript. Le but de GML est la composition de documents en vue de les imprimer, en séparant le contenu de son format.   The Generalized Markup Language (GML) is a language for document description. It can be used to describe the structure and text elements (parts) of a document without regard to the processing that may be required to format them. (IBM, 1985, p. iii)   Le principe de distinction entre les informations qui concernent le contenu d’un document, sa dimension sémantique et son équivalence graphique, est à l’origine de GML et des langages de balisage qui suivront. Dit autrement, il s’agit de séparer le contenu de sa présentation, ou encore de rendre le contenu indépendant de son format, comme le décrit Charles F. Goldfarb, l’un des créateurs de GML puis de SGML :   Many credit the start of the generic coding movement to a presentation made by William Tunnicliffe, chairman of the Graphic Communications Association (GCA) Composition Committee, during a meeting at the Canadian Government Printing Office in September 1967: his topic – the separation of information content of documents from their format. (Goldfarb, 1999)   Avec GML le rendu graphique est toujours l’objectif final, via son implémentation dans le système DCF (Document Composition Facility) d’IBM. Les indications se font beaucoup plus précises pour lever toute ambiguïté grâce à l’utilisation de macros, héritées de pratiques de programmation — une macro est une suite de caractères indiquant une fonction comprise par un programme ou un logiciel. Notons qu’au même moment Brian Reid crée le langage de balisage Scribe (accompagné d’un compilateur),qui comporte une séparation stricte entre le contenu et sa présentation (Reid, 1980). À la suite de GML émerge un second balisage en 1986, descriptif cette fois, avec SGML (Standard Generalized Markup Language) (Goldfarb & Rubinsky, 1990). SGML considère un document comme un ensemble de données, chacune pouvant être identifiée via l’utilisation de balises englobantes. Chaque portion — en bloc ou en ligne — qui nécessite des indications sémantiques est encadrée par des balises ouvrantes et fermantes indiquées avec des chevrons, comme <quote>ceci</quote>. Entre la création de GML puis de SGML, d’autres tentatives sont développées pour baliser du texte, comme le format TeX puis le système de composition qui l’accompagne LaTeX (voir 3.3. Éditer avec le numérique : le cas d’Ekdosis). Donald Knuth crée TeX afin d’obtenir des documents mis en forme avec une forte exigence typographique. Il s’agit ici d’un balisage à la fois procédural et descriptif, des macros permettant autant d’indiquer ponctuellement des actions nécessaires pour la composition de document ou attribuant une valeur en englobant des portions de texte. En 1987 émerge un autre format de balisage descriptif, TEI, destiné à encoder et non à composer des documents. Nous avons déjà présenté ce format (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente), pensé comme un moyen de définir en premier lieu le sens d’un texte, et plus spécifiquement dans une activité d’encodage de documents initialement imprimés. Notons que la TEI est créée quelques années avant des formats plus populaires comme XML ou HTML. La TEI est d’abord une application de SGML, avant de devenir un schéma XML. Le format HTML est développé à partir de 1990, également comme une application de SGML, Tim Berners-Lee s’inspire de ces principes en créant une série de balises utiles à l’affichage de documents dans un navigateur web, mais dont le rendu graphique n’est pas la seule finalité. Dès les débuts du Web, l’objectif est d’en permettre un usage très large, y compris à des personnes en situation de handicap. Le sens donné au texte est donc autant destiné à être interprété puis affiché par un navigateur web, qu’à être transcrit dans diverses formes pour des personnes ne pouvant voir le rendu graphique. La distinction forte entre HTML et XML peut être explicitée avec les formats XHTML et HTML5 : le premier est un schéma XML, dont l’usage ne peut qu’être rigoureux, qui est censé permettre l’utilisation de puissants outils liés à XML dans des environnements web ; le second est une évolution du langage HTML avec la dimension permissive qui le définit. La déconnexion entre XML et HTML intervient à un moment où la communauté qui travaille avec ces formats est plus tournée vers les outils du Web et moins vers des usages académiques. Cette déconnexion révèle aussi des limites intrinsèques à tout balisage, et le type de modélisation épistémologique qui vient avec. Nous analysons quelques-uns des rapports avec le sens qui jalonnent la création de syntaxes.   4.2.5. Les limites du balisage Les différentes initiatives de balisage du texte, qui débutent avec ce principe fort d’une séparation de la structure d’un document et de sa représentation graphique, sont sujettes à des limites qu’il faut mentionner. Elles ne représentent pas un barrage en soi, mais constituent un certain nombre de contraintes inhérentes à toute implémentation technique de principes théoriques. Plus encore, ces limites révèlent des questionnements épistémologiques précieux pour notre recherche, que nous étudions sous trois angles. Il s’agit tout d’abord de la question des types de balisage, chacun hérité de divers domaines comme l’informatique, manifestant un rapport au texte et aux artefacts qui peuvent en être produits. Le deuxième angle concerne des enjeux sémantiques complexes quand il s’agit de baliser des éléments qui se chevauchent, problème largement abordé notamment par la communauté TEI. Enfin, la troisième approche concerne le degré d’adoption des balisages et les tentatives de détournement de certains d’entre eux. L’intérêt ici est d’explorer des limites théoriques et pratiques qui remettent en perspective cette recherche d’une précision sémantique détachée des impératifs du modèle imprimé. Toute la difficulté réside ici dans la perspective d’une mise en calcul du texte, en appliquant des algorithmes à des marques typographiques. Il n’y a pas un mais des balisages, de GML jusqu’à XML en passant par TeX ou HTML, et sans mentionner des balisages dits légers qui sont abordés dans l’étude de cas qui suit (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis). Si jusqu’ici nous n’avons principalement parlé que de balisage, il est plus juste d’utiliser le terme de langage pour qualifier l’usage de caractères typographiques pour marquer la sémantique des documents au format texte. Ces langages de balisage font appel à différents types de mécanismes pour identifier des portions de textes et leur attribuer une valeur — sémantique. Pour expliciter cela nous montrons la différence entre les macros de TeX et les balises de HTML, pour signifier sémantiquement la même chose, et dans l’objectif de produire un artefact avec rendu graphique, comme dans l’exemple ci-dessous — rendu graphique, balisage au format TeX, et balisage au format HTML : Un texte balisé avec LaTeX fait appel à des macros ou à des commandes, permettant de déclarer les caractéristiques d’une portion de texte ou d’exécuter une action. Si une macro comme \emph{ceci est un texte en emphase} est très similaire à une balise comme <em>ceci est un texte en emphase</em> — le texte concerné est balisé avant et après, et la balise dispose d’un identifiant clair —, en revanche la commande \maketitle est un fonctionnement inconnu pour le langage HTML qui ne dispose pas d’un système de publication intégré — puisque c’est le navigateur qui se charge d’interpréter les informations. En revanche la dimension sémantique de HTML est plus forte que TeX, l’élément <title> permettant de spécifier le titre du document et l’élément <h1> permettant de déclarer le titre principal de la page — quand bien même cette page ne correspond plus à son équivalent syntaxique imprimé. Dans les deux cas il manque une modélisation du texte, nécessaire au-delà du balisage pour prévoir justement où va se situer le titre du document et comment l’exprimer — graphiquement ou sémantiquement —, et c’est précisément ce que nous nous proposons d’explorer par la suite (voir 4.4. Le single source publishing comme acte éditorial sémantique) avec le concept d’acte éditorial sémantique. Les choix de balisage portent donc des modélisations et des manières de faire. Autre limite liée au balisage, le problème récurrent et très documenté qui concerne une question liée aux principes de SGML, et ses applications comme HTML ou XML : le chevauchement. En effet les balises ne peuvent pas se chevaucher, en HTML il est par exemple impossible d’écrire <em>mot <strong>très</em> important</strong>. Une solution possible serait <em>mot <strong>très</strong></em> <strong>important</strong>, soit une façon plus verbeuse d’exprimer une structure similaire. Des cas sont bien plus complexes, lorsqu’il s’agit notamment de baliser des citations qui passent d’un paragraphe à un autre, comme le signale de façon détaillée Steven DeRose (DeRose, 2004). En SGML une solution a été trouvée, CONCUR, pourtant impossible à transposer dans des langages comme XML ou HTML, pour des raisons d’interprétation : Un langage a même été développé pour répondre à ce type de besoin, TAGML (pour Text as Graph Markup Language) (Bleeker, Buitendijk& al., 2020), basé sur un système de balises et de suffixes : [s|L1>Ceci est un [del|L2>exemple<del] illustratif.<s]. Des expérimentations ont aussi été menées pour transposer ce type de marquage dans XML ou XML-TEI. TeX, en tant que langage de balisage, accompagné de LaTeX et d’un paquet spécifique, combinant également ces différentes approches comme nous pouvons le voir dans cet exemple où le balisage de portions de texte destinées à la création d’un index chevauche celui des paragraphes : Ces questions de chevauchement semblent anecdotiques, elles révèlent pourtant la complexité d’une formalisation claire et sans ambiguïté, et les multiples tentatives de réduire ces problèmes dans des environnements variés — SGML ou TEI pour le balisage sémantique et TeX/LaTeX qui est plus spécifiquement tourné vers la composition graphique. Une autre limite aperçue précédemment est le degré de compréhension des langages de balisage, qui conduit à la création d’autres manières de marquer le texte. HTML, LaTeX ou TEI sont des langages complexes, même sans la question de la gestion délicate du chevauchement. Ils requièrent une connaissance des éléments, balises ou macros et de leur fonctionnement entre eux. Ce sont aussi des systèmes de balisage verbeux, les éléments qui les composent pouvant être nombreux — parfois augmentés par des attributs —, ce qui implique beaucoup de bruit autour du texte initial (note : Si tant est qu’il y ait un texte initial.). Cette complexité est parfois réduite grâce à des logiciels spécialisés — typiquement oXygen pour XML ou XML-TEI —, facilitant la saisie des éléments ou proposant une vue sans les balises afin d’accéder à un rendu graphique. Il est ainsi possible de dissimuler des éléments syntaxiques pour faciliter leur saisie via un mode “auteur”. Ce type de solution pose plusieurs questions, et notamment celle de la maîtrise du langage sémantique. En disparaissant, les moyens mis en œuvre pour marquer le texte deviennent confus, et c’est la capacité même d’écrire le texte quel qu’il soit qui est remise en cause. Si nous pouvons nous accorder sur le fait que la connaissance des centaines de balises de la TEI est impossible, il est en revanche envisageable de considérer des étapes de balisage préalables plus simples, plus légères. Et donc d’adopter d’autres langages pour traiter des sources, sans pour autant délaisser la richesse des langages issus notamment de SGML. Ces initiatives, qui relèvent d’une forme de détournement, sont les langages de balisage dits légers que nous analysons dans l’étude de cas qui suit. Ils présentent un fort intérêt pour l’usage du balisage sémantique dans l’édition, remettant en cause les modèles puissants mais néanmoins contraignants tels que TeX, TEI ou même HTML. L’idée ici est de disposer d’instructions claires et univoques, mais aussi plus restreintes et utilisables dans des environnements très divers. L’enjeu est également de réduire les moyens nécessaires à une pratique d’écriture ou d’édition sémantique. 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis [07f3e07] Cette étude de cas a pour objectif d’illustrer le concept de format dans le contexte de l’édition, et ainsi d’analyser comment les enjeux sémantiques se manifestent dans un format spécifique. Nous avons souligné l’intérêt de l’analyse des formats dans la perspective d’une étude de l’édition (numérique) ; le format est une suite d’instructions permettant une modélisation du sens. Pour concevoir cette modélisation, la syntaxe sémantique ne doit pas être occultée, elle doit être visible et compréhensible : le mode WYSIWYG des outils d’écriture et d’édition empêche d’avoir accès à la dimension sémantique d’un document ; et masquer la syntaxe dans un mode auteur, dans le cas de langages de balisage complexes, ne permet pas non plus une maîtrise de cette modélisation. Comment exprimer une sémantique dans un environnement textuel modélisable et compréhensible ? L’analyse du format Markdown, langage de balisage léger largement adopté dans de multiples domaines d’édition ou de gestion de documents, permet d’envisager des pratiques d’édition numérique où les processus sont conçus conjointement aux opérations sur les textes. Les projets éditoriaux qui adoptent le langage de balisage léger Markdown sont nombreux, ses usages et ses implémentations dans des chaînes d’édition sont divers et reflètent des actes éditoriaux multiples. Que révèle le format Markdown dans les pratiques d’édition avec le format texte, et dans la constitution de fabriques d’édition ? Nous nous plaçons toujours dans une perspective d’ouverture des techniques d’édition, et nous débutons cette étude de cas par un panorama historique, en explicitant l’apparition de ce type de langage de balisage et sa filiation avec des systèmes sémiotiques antérieurs. Les influences qui ont conduit à la création du format Markdown puis à son adhésion sont nombreuses. Son succès s’explique en partie par la simplicité de sa syntaxe, décrite dans un deuxième temps. Cette description est néanmoins une tâche complexe, tant les versions ou saveurs de Markdown sont nombreuses, créées notamment pour augmenter la sémantique originelle ; elles reflètent des choix techniques et épistémologiques. C’est ce que nous présentons dans un troisième temps en explicitant pourquoi Markdown ne dispose pas d’un standard. Enfin il s’agit d’aborder l’enjeu de la conversion, ou comment transformer ce format de travail vers des formats de sortie qui donneront lieu à des artefacts. Le convertisseur Pandoc, l’un des plus plébiscités pour ces opérations de conversion, est historiquement et structurellement très fortement lié à Markdown. Dans ce contexte de format texte, Pandoc explicite le principe de modélisation éditoriale dans l’acte d’édition par l’articulation entre des actions comme parser et écrire, via une représentation abstraite de cette modélisation. Pandoc formalise nombre d’enjeux techniques autour de cette idée qui paraît pourtant simple : comment faire de la sémantique à partir de quelques signes typographiques ? Si le format texte peut se révéler une solution universelle pour l’édition, un travail important est nécessaire pour l’élaboration de processus qui l’intègrent.   4.3.1. Aux origines des langages de balisage léger Qu’est-ce qui a présidé à l’émergence des langages de balisage léger dans un contexte d’édition ou de publication numérique ? Avant de détailler l’histoire et le fonctionnement de Markdown, ainsi que ses implications épistémologiques, nous explorons le contexte d’apparition des langages de balisage léger et les besoins initiaux qui ont contribué à leur création. Les différentes initiatives convergent vers une volonté de rendre visible l’acte sémantique. Ainsi, s’intéresser aux langages de balisage léger revient à “être attentif au milieu de l’écriture” comme l’expriment Serge Bouchardon et Isabelle Cailleau :   Être attentif au milieu de l’écriture, c’est comprendre qu’il n’y a pas de milieu technique qui ne soit aussi un milieu social (une communauté de savoirs et de pouvoirs). Dans cette perspective, il y a un fort enjeu à tenter de rendre « visible » et « lisible » notre milieu numérique dans ses différents aspects : théoriques (propriétés spécifiques du numérique), techniques (fonctions qui les matérialisent dans des outils d’écriture et de lecture) et sémiotiques (pratiques sociales incarnées). (Bouchardon & Cailleau, 2018, p. 121)   Les langages de balisage léger participent ainsi à une entreprise de dévoilement des initiatives de sémantisation. Ils répondent à un double objectif : permettre de réaliser des opérations d’écriture sémantique — numérique — conviviales (Illich, 2014), et générer des instructions afin de permettre aux machines de calculer la structure du texte. Setext, créé en 1992, est une réponse pratique à ce double enjeu. Il s’agit d’un des premiers langages de balisage léger pour écrire et diffuser des documents via Internet. L’idée est relativement simple : utiliser des caractères ASCII (note : L’American Standard Code for Information Interchange, ou Code américain normalisé pour l’échange d’information, est une norme de codage de caractères désormais remplacée par Unicode.) pour donner toutes les indications relatives à la structuration d’un texte, tout en étant lisible facilement — c’est-à-dire sans besoin d’effectuer la tâche complexe d’analyser la structure sémantique de cette source, comme c’est le cas avec les langages de balisage hérités de SGML comme HTML. Setext est un format lisible et interopérable : des programmes peuvent lire ce format et en donner une représentation graphique ; néanmoins si aucun programme n’est capable d’interpréter ce langage, il est compréhensible par des personnes humaines. Setext signifie “structure-enhanced text” (Engst, 1992) : un format texte qui dispose d’une structuration. Comme nous pouvons le voir dans l’exemple ci-dessus, il s’agit d’une sémiotique qui sert la sémantique. Les éléments signifiant consistent en un ou plusieurs caractères typographiques accessibles via tout clavier — occidental — des années 1990. À la place des balises présentées précédemment (voir 4.2. Les conditions de la sémantique : format texte et balisage), du type <em>englobante</em>, qui ne sont pas créées pour être lues et qui sont ainsi jugées verbeuses pour qui les parcourt, ce ne sont que quelques signes qui indiquent la valeur sémantique de tel ou tel fragment de texte. Le changement de paradigme est fort, puisque d’un langage pour les machines — typiquement SGML et ses applications — nous passons à un langage pour les humains et pour les programmes informatiques. À la suite de cette initiative, plusieurs langages sont créés pour des besoins divers, se plaçant chacun dans des contextes spécifiques. Nous observons alors un phénomène d’éclatement, puisque plusieurs d’entre eux réalisent des opérations parfois très similaires. La filiation avec Setext n’est par ailleurs pas toujours avouée, pourtant les grammaires se ressemblent beaucoup. Nous pouvons noter l’omniprésence de l’astérisque, dont l’héritage vient des comics américains comme le signale Matthew Gay (Guay, 2020) commenté par Arthur Perret (Perret, 2020). D’autres caractères typographiques reviennent fréquemment, inspirés par la programmation ou parce qu’il s’agit des caractères disponibles facilement, et qui n’introduisent pas d’ambiguïté dans la lecture. Que ce soit atx — créé par Aaron Swartz en 2002 pour écrire des courriels — ou Textile — créé par Dean Allen aussi en 2002 pour faciliter l’écriture dans le CMS Textpattern — les similitudes sont nombreuses et oscillent entre un format trop simple avec le premier, et un balisage déjà complexe avec le second. Textile propose en effet de nombreux marqueurs pour indiquer des informations sémantiques avancées mais aussi des instructions de composition — comme l’alignement du texte. Textile se positionne comme le moyen d’écrire du balisage HTML sans écrire de code HTML. Le CMS Textpattern se charge de la conversion depuis Textile vers HTML, mais ce format est aussi utilisé dans d’autres environnements, et ainsi d’autres parseurs sont développés. Ces derniers appliquent une série de règles établies en fonction des spécifications du format, les règles peuvent toutefois varier d’un programme à l’autre et générer des ambiguïtés. Markdown apparaît dans ce contexte où un balisage sémantique simple est recherché, pour écrire puis publier des documents dans un environnement numérique. Textile répond à cet objectif, mais avec des options trop nombreuses. C’est pourquoi John Gruber conçoit le langage de balisage Markdown en s’inspirant de Textile et de atx, cherchant ainsi un compromis pour la publication de pages web. Il crée le format — donc ses spécifications — et un programme pour convertir des fichiers Markdown vers le format HTML, avec l’aide d’Aaron Swartz (note : Aaron Swartz était un militant et informaticien qui a notamment contribué à la mise en place d’un certain nombre de standards et à différents combats autour du droit d’auteur ou de l’accès à l’information.). John Gruber explique de façon très explicite son intention :   A Markdown-formatted document should be publishable as-is, as plain text, without looking like it’s been marked up with tags or formatting instructions. While Markdown’s syntax has been influenced by several existing text-to-HTML filters — including Setext, atx, Textile, reStructuredText, Grutatext, and EtText — the single biggest source of inspiration for Markdown’s syntax is the format of plain text email. To this end, Markdown’s syntax is comprised entirely of punctuation characters, which punctuation characters have been carefully chosen so as to look like what they mean. (Gruber, 2004)   Il s’agit d’écrire des pages HTML sans devoir en utiliser les balises, ainsi que d’étendre cette pratique numérique à une écriture lisible en toute situation, qu’il y ait conversion du format ou non. Si l’influence de la conception de ce langage est en partie celle de la programmation, et donc des syntaxes qui y sont habituellement employées, Markdown se détache du système de balises héritées de SGML. À partir de quelques marqueurs signifiés avec des caractères typographiques simples et non ambigus, en l’occurrence uniquement des signes de ponctuation, ce langage permet d’écrire facilement des documents structurés en HTML — jusqu’à une certaine limite, nous y reviendrons. Comme l’explique Robin de Mourat, l’enjeu est en partie esthétique :   Le format Markdown implique un rapport paradoxal à la forme et à la « présentation » des textes, puisqu’il dénote un souci esthétique important pour la pratique de l’écriture – il est voulu élégant à lire et facile à écrire – tout en déléguant à d’autres dispositifs techniques les questions de mise en forme pour la lecture des écrits par le public. (Mourat, 2018, p. 41)   Rappelons-le avec force, le but premier de cette syntaxe est d’être convertie, mais sa lecture est aussi possible sans opération(s) intermédiaire(s). C’est l’une des trois clés du succès comme l’exprime également Sean Leonard :   Since its introduction in 2004, Markdown has enjoyed remarkable success. Markdown works for users for three key reasons. First, the markup instructions (in text) look similar to the markup that they represent; therefore, the cognitive burden to learn the syntax is low. (Leonard, 2016)   L’apprentissage et la maîtrise de ce langage de balisage léger sont en effet rapides, les différentes balises nécessaires pour structurer un document sont faciles à mémoriser. Les deux autres raisons exprimées par Sean Leonard sont d’ordre technique et d’usage. Tout d’abord, les éléments syntaxiques sont déterminés par l’outil de conversion du format Markdown vers un autre format, ce point est prolongé à la fin de cette étude de cas. Ensuite, une importante communauté hétérogène s’est saisie du format, en adaptant, modifiant et étendant ce langage. Le fonctionnement de Markdown mérite que nous nous attardions plus longuement sur ses mécanismes sémantiques.   4.3.2. Les principes de la syntaxe Markdown Markdown place le sens au centre de l’écriture, dans un environnement que nous pouvons qualifier de convivial pour reprendre un terme de Ivan Illich (Illich, 2014). Cela se traduit par une simplicité et une certaine élégance dans l’opération de sémantisation, mais aussi une appropriation du format dans ses multiples saveurs avec les convertisseurs qui les accompagnent. La syntaxe du langage de balisage léger Markdown est une série de spécifications techniques, cette syntaxe repose sur une série de signes typographiques et sur une opération de conversion pour obtenir une page HTML. Cette syntaxe constitue aussi un nouveau rapport au texte, à la fois l’implémentation d’un moyen simple d’appliquer une sémantique, et la promesse d’obtenir un format diffusable et interopérable.   When you write and read text that’s marked-up with HTML tags, it’s forcing you to concentrate on the think of it. It’s the feel of it that I want Markdown-formatted text to convey. (Gruber, 2004)   La notion de sensation est relativement floue ici. Nous l’interprétons comme l’implémentation spécifique d’une écriture avec le format texte, où la maîtrise de la grammaire sémantique est suffisamment simple pour permettre une certaine fluidité de la rédaction. Nous détaillons cela en analysant la syntaxe nécessaire à la rédaction d’un texte simple, en présentant les trois versions successives d’un même contenu : la source au format Markdown, le même contenu converti au format HTML, et le rendu graphique correspondant — dans ce dernier cas la feuille de styles qui est appliquée est celle par défaut du navigateur web Firefox. Avant de détailler les exemples ci-dessus nous devons rappeler une distinction fondamentale entre deux niveaux sémantiques d’un texte : les éléments de bloc et les éléments de texte, tels que présentés dans la section précédente (voir 4.2. Les conditions de la sémantique : format texte et balisage), et ce pour chacune des syntaxes qui suivent. Les signes typographiques utilisés pour baliser le texte sont donc les suivants : le saut de paragraphe (saut de ligne suivi d’un second saut de ligne) pour indiquer le début puis la fin d’un paragraphe (élément de bloc) ; des croisillons (ou carrés), #, autant que nécessaire et suivi d’un espace pour indiquer les niveaux de titre croissants jusqu’à six (élément de bloc) ; un ou deux astérisques englobant une suite caractères, *, sans espace le suivant et le précédant, pour signifier un texte en emphase (un astérisque) ou qualifié de fort (deux astérisques) (élément de texte dans les deux cas) ; un chevron (fermant), >, suivi d’un espace pour signaler une citation longue (élément de bloc) ; une suite de tirets, -, suivi d’un espace pour représenter une liste non ordonnée (élément de bloc) ; des crochets, [], englobant une suite de caractères sans espace après et avant, suivi de parenthèses, (), englobant une seconde suite de caractères, et qualifiant respectivement un texte considéré comme un lien hypertexte et la cible du lien en question (élément de texte) ; etc. La documentation initiale complète ces quelques éléments, auxquels il faut ajouter la liste ordonnée, l’insertion d’une image, le saut de ligne, le code, ainsi que des variantes ou des fonctionnements spécifiques pour tous ces types de balisage (Gruber, 2004). La simplicité du langage — il s’agissait initialement de pouvoir baliser dix éléments sémantiques distincts — a contribué à son adoption rapide. Comme nous l’avons dit, ce langage a été fortement influencé par d’autres initiatives antérieures qui utilisent certains de ces signes — # est emprunté à atx et > à un usage plus informel dans les courriels, par exemple —, ce qui explique l’adhésion de personnes déjà habituées à écrire au format texte. Cette adhésion s’est traduite d’une part par une intégration dans différents outils d’écriture — CMS, plateformes d’échange ou de forums, etc. —, et d’autre part par la création d’extensions de ce langage. Textile avait déjà démontré l’intérêt d’un langage de balisage léger intégré à des systèmes de publication existants, Markdown a confirmé cette tendance d’utiliser des alternatives au mode WYSIWYG. Les éditeurs de texte enrichis intégrés à des logiciels comme DreamWeaver ou à des CMS comme WordPress ont longtemps été critiqués pour leur manque de respect du standard HTML ou pour leur balisage excessif, Markdown s’est imposé comme une forme de standard de fait. L’objet de Markdown est le texte numérique, ce qui induit quelques lacunes pour qui voudrait structurer des notes de bas de page, des tableaux, voir des citations bibliographiques. C’est ce qui explique la création de saveurs alternatives à celle originelle de John Gruber, elles s’inscrivent dans des pratiques bien particulières, ou répondent à des contraintes techniques tierces que nous analysons par la suite.   4.3.3. Les saveurs de Markdown L’essor du langage de balisage léger Markdown est accompagné par différentes initiatives qui visent à l’étendre ou à l’adapter à des usages particuliers. Ce phénomène peut s’expliquer pour deux raisons principales : augmenter le champ des possibles sémantiques, permettre une intégration dans des outils d’écriture déjà existants. John Gruber spécifie immédiatement que l’objectif de Markdown, tel que prévu initialement, n’est pas de donner une équivalence à la majorité des éléments (balises) HTML. Pourtant, certaines opérations sémantiques, volontairement écartées par le créateur de Markdown, deviennent des prérogatives pour d’autres personnes ou d’autres démarches. Trois exemples d’éléments sémantiques permettent de comprendre les enjeux autour des velléités d’extension de Markdown : la note de bas de page, le tableau et les métadonnées. La note de bas de page peut être transposée dans le langage HTML par un système simple de liens internes : l’appel de note est un lien hypertexte qui renvoie vers une autre partie du document grâce à une ancre placée dans la note, et un second lien permet de retrouver l’appel associé à la note. Cette transposition est verbeuse et peu agréable à écrire avec des balises HTML, c’est pourquoi les saveurs MultiMarkdown ou Markdown Extra (note : Nous ne faisons pas la liste de toutes les saveurs existantes de Markdown.) prévoient un balisage spécifique — toujours basé sur des caractères de ponctuation. Markdown peut ainsi être utilisé pour rédiger des textes avec une richesse sémantique plus importante, et ouvre la perspective d’usages dans le domaine des lettres où la note est une nécessité. Le deuxième exemple est le tableau, particulièrement verbeux en HTML en raison de la complexité de cet objet, et dont une transposition plus simple — au détriment de toutes les options existantes en HTML — est faite avec Markdown Extra ou GitHub Flavored Markdown. Cet usage des tableaux, fondateur des premières initiatives de mise en forme avancée du début du Web, est principalement présentationnel. Du point de vue du sens il s’agit de faire correspondre mais aussi de croiser toute une série d’informations. Enfin les métadonnées représentent un pan important des recherches liées à la mise en sémantique des textes avec l’informatique. Décrire des métadonnées avec Markdown prend deux orientations, la première étant d’intégrer ces métadonnées au document initial, et la seconde consistant à laisser le choix entre une intégration ou une séparation. La saveur MultiMarkdown fait le premier choix, en établissant un format de sérialisation de données à l’intérieur de Markdown via l’usage d’un entête sous la forme de balises déterminées. La deuxième option est implémentée via divers formats de balisage, et notamment YAML — pour YAML Ain’t Markup Language — un langage de sérialisation de données qui, couplé à certains convertisseurs comme Pandoc, permet de renseigner des métadonnées qui peuvent ensuite être transcrites en HTML dans les éléments metadata placés dans l’entête. Il s’agit d’une volonté d’enrichissement des documents au-delà de leur structuration de contenu, ainsi que d’une tentative de tout faire dans un même format. Qu’est-ce qui explique ces saveurs multiples ? Un premier élément de réponse est de considérer chacune d’elles comme répondant à des usages particuliers dans des contextes différents, soulignant ainsi que tout format ne peut se réduire à une seule implémentation d’une série de principes théoriques. Une réponse moins consensuelle consiste à accepter que la spécification originale engendre de nombreuses ambiguïtés, listées en détail via le projet Babelmark (note : https://babelmark.github.io/faq/) — initialement lancé par John MacFarlane —, et que certaines saveurs entendent résoudre. Notons que ces pratiques foisonnantes autour de Markdown reflètent également des intégrations dans des environnements de programmation différents, comme Markdown Extra dont le convertisseur est écrit en PHP comparé à Pandoc qui est écrit en Haskell. Le langage se développe en même temps que des chaînes d’édition sont constituées autour ou avec lui — ces chaînes étant elles-mêmes en lien avec des projets éditoriaux variés. Cette situation illustre en partie la difficulté d’atteindre un standard, c’est-à-dire l’établissement d’une suite de règles univoques sous la forme de spécifications précises, censées permettre le développement d’applications autour de Markdown. Cette absence de standardisation fait elle-même l’objet d’une tentative de standardisation, ou tout du moins d’une publication à titre d’information sous la forme d’une RFC qui recense et documente certaines des saveurs de Markdown (Leonard, 2016). Une initiative communautaire émerge toutefois, tentant de résoudre les principaux problèmes de Markdown tout en étendant cette syntaxe : CommonMark.   4.3.4. L’impossibilité d’une standardisation Si le format Markdown s’impose comme une norme de fait (Fauchié, 2018), tant les usages sont nombreux, nous devons comprendre les raisons d’une absence de standardisation. Aucune spécification commune n’existe, sur laquelle une communauté suffisamment large peut s’accorder, et ce qui permettrait de disposer d’une saveur de référence de Markdown. Le succès de Markdown — en termes d’adoption dans les pratiques d’écriture numérique et d’intégration dans diverses applications — est lié à ses spécifications ouvertes, qui engendrent toutefois des obstacles pour son interprétation. L’enjeu ici concerne la conversion du format, principalement vers HTML, opération rendue complexe si des ambiguïtés persistent dans le balisage. Par exemple le texte suivant bold in ital peut être traduit en HTML de diverses manières, c’est ce que démontre l’initiative Babelmark déjà évoquée. Le fait qu’un même texte balisé avec Markdown puisse être interprété de différentes manières selon les outils ou les environnements est un problème, une lacune en termes d’interopérabilité. Un standard permet diverses implémentations, à la fois respectueuses du format et interopérables. Établir un standard est une tâche longue et complexe, l’objectif est de donner toutes les informations utiles à sa compréhension pour des humains qui l’écrivent et pour les machines qui le traitent. SGML ou HTML ont par exemple nécessité plusieurs années d’un travail collectif pour déterminer tous les éléments syntaxiques, que ce soient leur définition, leur signification, le rendu escompté ou leur imbrication. Dans le cas de HTML, c’est d’ailleurs un exercice continu dont le W3C a la charge. Une initiative collective de standardisation pour un autre langage de balisage léger, AsciiDoc, est en cours depuis 2020 (note : https://groups.google.com/g/asciidoc/c/EKx-Hfx-nMM), et démontre une volonté de disposer d’une base commune pour construire des outils de sémantisation. Plus qu’un simple travail de définition, un certain nombre de choix et de compromis sont réalisés, nécessitant un arbitrage par rapport au dessein initial comme les exemples ci-dessus le démontrent. Précisons enfin que ces efforts de standardisation sont toujours accompagnés du développement de programmes ou d’outils qui sont capables d’analyser, de convertir ou d’écrire ces formats. C’est le cas de HTML qui est interprété puis transformé en un rendu graphique via des navigateurs web. Markdown, en tant que langage de balisage, a été conçu avec un parser écrit en Perl, c’est également le cas avec AsciiDoc et le développement d’Asciidoctor (note : https://asciidoctor.org). Une tentative majeure de standardisation de Markdown a commencé en 2012 — soit 8 ans après la création originelle de John Gruber — sous le nom de CommonMark (note : https://commonmark.org). Ce projet rassemble plusieurs acteurs industriels ou académiques, et vise à établir le fonctionnement précis de cette syntaxe, et ainsi lever toute ambiguïté. Il s’agit de définir de façon univoque le balisage sémantique, et donc le choix des caractères de ponctuation et leur comportement pour marquer le sens du texte. CommonMark a une histoire complexe, faite de nombreux échanges entre les instigateurs de ce projet — John MacFarlane, David Greenspan, Vicent Marti, Neil Williams, Benjamin Dumke-von der Ehe, et Jeff Atwood —, mais aussi avec le créateur de Markdown, John Gruber. Les frictions, probablement nécessaires pour parvenir à un consensus, ne peuvent être détaillées précisément ici, mais concernent justement le degré d’ouverture que peut conserver ou non ce langage de balisage léger.   Le langage créé par John Gruber change de fonction et de statut au fur et à mesure de son évolution : en tant que code, il est le lieu même du dialogue humain-machine, passant d’idiolecte à standard, perdant en souplesse ce qu’il gagne en interopérabilité, en individuation ce qu’il gagne en cohérence. (Mpondo-Dicka, 2020)   Il est ainsi compréhensible que John Gruber n’ait pas souhaité participer à ce travail de fixation de son beau mais néanmoins utopique projet. Markdown s’est à ce point répandu dans les usages qu’il est même devenu une action plus qu’un format, tant il est synonyme d’une écriture qui se veut simple, compréhensible et sémantique. Entre 2014 et 2021 ce sont trente versions des spécifications de CommonMark qui sont publiées successivement, proposant de nombreuses solutions pour une implémentation complète de ce langage, clarifications après clarifications. La longue liste des changements entre ces différentes versions (MacFarlane, 2021) révèle un travail titanesque (note : Toutefois incomparable par rapport aux standard TEI ou HTML.) pour un langage pourtant qualifié de léger. Tous ces efforts convergent pour permettre aux différents convertisseurs, logiciels ou applications en ligne d’interpréter convenablement Markdown. Depuis 2021 ces spécifications se sont pourtant arrêtées. Il paraît en effet impossible de résoudre les ambiguïtés liées aux choix de balises de départ, c’est ce que relève John MacFarlane dans un essai où il liste les six fonctionnalités de Markdown qui présentent le plus de difficultés (MacFarlane, 2018). À la suite de ce texte important pour le format Markdown et la communauté investie dans cette recherche de standardisation, John MacFarlane crée un nouveau format, Djot (note : https://djot.net). Largement inspiré de la saveur CommonMark, Djot résout les ambiguïtés inhérentes à Markdown en repensant un certain nombre d’éléments de balisage, et intègre également plusieurs nouvelles fonctionnalités en plus des tableaux ou des notes de bas de page. Au-delà de la conception remarquable et de la consistance du format lui-même, il faut observer à quel point il bénéficie du travail conjoint de développement du convertisseur Pandoc. Nous pouvons observer qu’il y a une tension entre un format ouvert aux spécifications imprécises et un besoin de disposer d’un standard commun et partagé. Le format Djot créé par John MacFarlane ne suscite pas une adhésion large, malgré un succès d’estime. Le format Markdown trouve son intérêt dans ce que nous considérons un interstice sémantique, il s’agit d’un flou qui peut être exploité dans des actes éditoriaux. Il est par exemple possible d’inventer une balise, et d’ajouter un morceau de programme à un convertisseur pour prendre en compte ce nouvel élément syntaxique. Avec des formats standardisés comme XML-TEI, cela est possible mais au prix d’un effort beaucoup plus important. Markdown permet de construire des fabriques d’édition, où l’expérimentation a une grande place. Avant de détailler le fonctionnement de Pandoc, notons que ce désir de disposer de langages de balisage léger ne s’arrête pas à Markdown. Nous pouvons citer la création de Gemini en 2019 (Bortzmeyer, 2020), il s’agit à la fois d’un protocole de communication et d’un langage de balisage. En tant que format sémantique, Gemini est une adaptation minimale de Markdown, qui délègue totalement la représentation ou la conversion de sa syntaxe — constituée de sept éléments sémantiques. La création de ce format est donc liée à des outils qui permettent de le manipuler et de le visualiser — le caractère minimal des spécifications du format étant ici censé faciliter son implémentation dans différents environnements. Un format, quelles que soient ses spécifications, est toujours développé avec une modélisation qui permet de le représenter.   4.3.5. Un format à convertir Comme tout langage de balisage léger, Markdown est fait pour être converti. C’est pourquoi John Gruber a publié conjointement les spécifications du format et le programme qui transforme chaque élément sémantique en balise HTML correspondante — programme écrit en Perl. Un langage de balisage ne se suffit pas à lui-même, ses spécifications dépendent donc du fonctionnement d’un ensemble d’éléments : un analyseur (parser en anglais), une modélisation abstraite, un convertisseur et un module d’écriture. Dit autrement par Sean Leonard ci-dessous, c’est cet ensemble qui détermine précisément le fonctionnement de la syntaxe :   Second, the primary arbiter of the syntax’s success is running code. The tool that converts the Markdown to a presentable format, and not a series of formal pronouncements by a standards body, is the basis for whether syntactic elements matter. (Leonard, 2016)   Un analyseur syntaxique, ou parser, est un programme qui est capable de construire, à partir de données, une structure syntaxique qui se traduit par une modélisation abstraite, permettant ensuite des manipulations de ces données — dont des conversions. L’objectif, dans le cas de Markdown, est donc de reconnaître chaque balise pour représenter le texte selon un arbre syntaxique abstrait. Le DOM — pour Document Object Model — est un moyen programmatique, syntaxique et sémantique de représenter cet arbre syntaxique abstrait. Prenons un exemple : un document qui contient un titre, un paragraphe et une citation longue peut être représenté ainsi : un document qui est composé de deux éléments que sont un entête et un corps, le corps étant lui-même composé de deux sous-ensembles que sont un paragraphe et une citation longue, etc. La modélisation abstraite permet de définir les besoins sémantiques, et le DOM permet de le représenter pour manipuler les données et les convertir dans d’autres formats. La conversion d’un fichier au format Markdown vers HTML passe donc d’abord par ces étapes d’identification syntaxique, de représentation abstraite et de manipulation de données. Les variantes de Markdown sont accompagnées de (presque) autant de façons de le convertir vers d’autres formats (note : Le projet Babelmark répertorie une trentaine de parsers différents : https://github.com/babelmark/babelmark-registry/blob/master/registry.json), et en premier lieu HTML. Parmi ces convertisseurs, Pandoc fait figure d’exception en raison des multiples formats d’export disponibles — comme c’est indiqué sur la page d’accueil du site web dédié (note : https://pandoc.org), “pandoc is your swiss-army knife” —, et de la volonté d’en faire un outil orienté vers les standards. C’est ce qui explique que son créateur et principal mainteneur, John MacFarlane, professeur de philosophie à l’Université de Californie, s’est fortement impliqué dans la tentative de standardisation de Markdown avec CommonMark. Un aparté est ici nécessaire à propos de cette séparation entre format source et rendu final, qui est aussi une distinction entre le format d’écriture — celui qui est utilisé au moment où le texte est tapé —, et le format qui circule — a priori le format converti. Les langages de balisage, qu’ils soient légers ou non, ont cette particularité d’être à la fois des “formats d’échange” et des “formats de travail” pour reprendre les expressions utilisées par Bruno Bachimont :   Les formats de travail sont internes à l’application et ne prétendent à aucune universalité. C’est une solution locale formulée à travers un format déclaratif. Le format d’échange prétend à une certaine universalité, dans la mesure où l’on doit pouvoir tout dire et se faire lire par tout le monde. Comme ces deux objectifs sont contradictoires, il faut bien transiger, et chaque format se définit par le type de compromis qu’il a adopté. Par conséquent, vouloir choisir le format d’échange pour mener les traitements internes de l’application est souvent un choix maladroit et introduit des contraintes et difficultés inutiles à l’élaboration du projet, alors qu’il suffit d’avoir un moyen de traduire les structures du format interne dans le format d’échange pour exploiter de manière large les informations manipulées et produites par l’application. (Bachimont, 2007, pp. 237-238)   Avec Markdown l’universalité (pour reprendre le terme de Bruno Bachimont) est aussi du côté de l’outil. C’est d’ailleurs le mot qu’utilise Pandoc pour se définir (note : L’expression exacte est “convertisseur de documents universel” (universal document converter).), “universel”. Mis en place dès 2006 — soit deux ans après la création de Markdown — Pandoc réalise une série d’opérations pour passer d’un format de balisage à un autre, et plus spécifiquement d’un langage de balisage à plusieurs formats de sortie.   Pandoc shows its real utility, in my opinion, when what is needed is to obtain several output formats from a single source, as in the case of a document distributed online (HTML), in print form (PDF via LATEX) and for viewing on tablets or ebook readers (EPUB). In such cases one may find that writing the document in a rich format (e.g. LATEX) and converting later to other markup languages often poses significant problems because of the different ‘philosophies’ that underlie each language. (Dominici, 2014, p. 44)   Ce qui semble simple, typiquement remplacer **ce texte** par <strong>ce texte</strong>, peut se révéler bien plus complexe dans certains cas, et plus encore lorsqu’il s’agit de conjuguer des résultats comme un format sémantique (comme HTML) et un format de composition (comme LaTeX). Pandoc consiste en une suite d’opérations pour permettre une forme de correspondance entre deux formats de balisage. Il s’agit donc de réaliser une analyse syntaxique du format d’entrée pour disposer d’une représentation du document, le DOM, qui est ensuite manipulé pour créer un nouveau fichier dans un autre langage de balisage. Pandoc adopte une organisation modulaire et transforme ainsi tout texte en un arbre de données manipulables. Le format JSON est une manifestation du DOM, parmi d’autres, qui permet de prendre la mesure de la richesse de cette modélisation abstraite, sans pour autant en être une représentation complète. La simple phrase au format Markdown Des *fabriques d'édition*. peut avoir comme manifestation le document suivant au format JSON : À partir de ces opérations — analyse syntaxique, représentation abstraite, manipulation des données —, Pandoc est capable de produire plus de cinquante formats. Il peut s’agir de formats de balisage léger (Markdown, Textile), des formats HTML ou XML (selon plusieurs schémas), de formats utilisés dans des systèmes de wiki, ou encore des formats de données comme CSV. Il est même possible de créer son propre outil d’analyse et de manipulation de données, via le langage de programmation Lua. Le rôle éminemment épistémologique de Pandoc est de considérer chaque format comme une expression syntaxique et sémantique qui peut être représentée de diverses manières, avec ou sans perte d’informations. Le point de départ privilégié est Markdown, probablement pour ses caractéristiques légères et extensibles par rapport à d’autres formats (Dominici, 2014, p. 50). Une des particularités de Pandoc est son utilisation via un terminal, il ne s’agit pas d’un logiciel avec une interface graphique. Cela a probablement été une des raisons de son adoption d’abord par une communauté de techniciens et de techniciennes, notamment dans les domaines du développement informatique ou de certains champs académiques (mathématiques et physique par exemple). Comme tout programme en ligne de commande, Pandoc prend plusieurs paramètres en compte, voici deux exemples de commande commentées : Dans la dernière commande de l’exemple ci-dessus, Pandoc applique un modèle (template en anglais) vers une disposition de données exprimée via un langage particulier — et basée sur des conditions et des boucles. Cela en fait un puissant outil de conversion où la structure d’un document peut être rédigée distinctement du contenu et de sa mise en forme. Un programme, des options et des arguments, le fonctionnement de Pandoc est au premier abord assez classique, en informatique il s’agit d’un tube (pipe en anglais) qui traite une information en entrée et donne un résultat en sortie. Mais une autre de ses particularités est de pouvoir être étendu, via le recours à des filtres, qui sont des scripts qui appliquent des transformations contextuelles. Ces filtres sont une condition de l’appropriabilité de Pandoc, puisqu’il est relativement simple de créer de nouvelles règles de conversion, sans pour autant devoir modifier le code de Pandoc. Un exemple parmi d’autres est un filtre chargé de gérer les spécificités typographiques du français, comme les espaces insécables avant certains signes de ponctuation. Le filtre pandoc-filter-fr-nbsp (note : https://inseefrlab.github.io/pandoc-filter-fr-nbsp/) prend par exemple en charge la gestion microtypographique pour les spécificités de la langue française (espaces insécables avant certains signes de ponctuation notamment). Le point de départ de Pandoc est la transformation du langage de balisage léger Markdown vers des formats de sortie comme HTML ou LaTeX (pour ensuite viser le format PDF), mais par son mode de fonctionnement ce convertisseur est un double apport : la multimodalité et l’acte éditorial sémantique. Pandoc est capable d’exporter un même format dans plusieurs formats de sortie, autrement dit il peut convertir une même source en différentes formes éditoriales. Il permet d’appliquer les principes du single source publishing, ou publication multimodale à partir d’une source unique, explicitée dans la section qui suit. Plus qu’une simple prouesse technique, il s’agit d’une nouvelle dimension qui complète le concept de format tel que définit dans le contexte de l’édition. L’acte éditorial sémantique est l’introduction de pratiques de sémantisation dans le processus même d’édition, et plus uniquement dans la structuration d’un texte et d’un fichier. 4.4. Le single source publishing comme acte éditorial sémantique [1ac73c3] La question des formats dans l’édition permet de prendre la mesure des enjeux techniques inhérents à toute activité éditoriale, et s’inscrit plus largement dans l’étude de processus de transformations de sources sémantiques pour aboutir à un artefact ; ces mêmes processus de transformations que nous présentons et analysons désormais comme pratiques d’édition. Il s’agit en effet de considérer l’édition comme une pratique sémantique, reposant ainsi sur la structuration des contenus permise par des formats, mais aussi sur un principe de fabrication des artefacts éditoriaux. Ce que nous qualifions d’“acte éditorial sémantique” correspond à l’application des principes de séparation des contenus et de leur représentation afin de produire de multiples artefacts, ces principes reposant sur un balisage sémantique auquel des procédés de conversion sont appliqués. Cet ensemble de pratiques est qualifié de single source publishing en anglais (note : Par la suite nous utilisons indistinctement les expressions single source publishing, et édition multi-formats ou multimodale à partir d’une source unique, préférant la première expression pour des raisons de clarté et de concision.). Nous répondons à la question suivante : que signifie intégrer les principes du format texte et des langages de balisage léger aux pratiques d’édition ? Nous explorons tout d’abord l’édition multimodale, et ce que nous qualifions de processus interopérables, ce qui nous mène aux principes du single source publishing. Nous définissons ensuite ces principes en les déclinant en plusieurs éléments distincts autour de la question de la modélisation. Nous décomposons ainsi le processus permettant d’obtenir plusieurs versions d’artefacts en utilisant des langages de balisage. Nous établissons une critique sur plusieurs plans — légitimation de contenus, pratiques d’édition et fabrication d’outils adéquats —, avant d’aborder les implications théoriques sous-jacentes autour des concepts d’hybridité, d’hybridation et d’éditorialisation. Dans cette perspective d’une sémantisation de l’édition elle-même, les implications sont nombreuses et les références à nos travaux précédents s’avèrent précieux. La majorité des études sur ce sujet concerne les domaines de l’édition scientifique ou de la documentation technique — comme le prouve par exemple notre article publié à l’automne 2023 et intitulé “The Importance of Single Source Publishing in Scientific Publishing” (Fauchié & Audin, 2023) — nous élargissons toutefois le spectre aux lettres. Précisons que nous n’abordons pas le sujet de l’“édition sémantique”, il s’agit là de questions de représentation des textes et des données dans des espaces communicationnelles — de la “circulation médiatique des productions scientifiques” (Kembellec, 2020) — néanmoins liées à nos préoccupations. Des formats sémantiques à un acte éditorial sémantique, nous prolongeons notre plongée dans les replis des processus.   4.4.1. Édition multimodale et processus interopérable Nous l’avons vu précédemment (voir 2.1. Évolution de l’édition), l’évolution de l’édition imprimée puis numérique a engendré de nouvelles formes de publication et a modifié les processus d’édition, introduisant le besoin de générer plusieurs formes pour un même contenu. C’est que nous appelons l’édition multi-formats ou multimodale, ou le fait de produire plusieurs formes ou versions dans une même démarche d’édition. Nous relevons trois niveaux dans ce type de démarche. Si le terme multi-formats définit plusieurs formes pour un même contenu, le terme multimodal est plus ambigu : il correspond à plusieurs modalités de diffusion d’un même contenu par la fabrication de plusieurs artefacts distincts. C’est donc d’abord en fonction de la réception — et donc plus spécifiquement des contextes de lecture — que plusieurs objets éditoriaux sont conçus puis générés. Nous n’utilisons pas ici l’expression édition multi-support, qui se situe à un niveau précédent de la multimodalité, comme l’explique Pierre-Yves Buard :   Il s’agit en effet le plus souvent d’une édition multisupport enrichie de modalités d’accès aux textes variées et qui ne se contente donc pas de proposer des solutions de lecture immersive. Dans cette optique le support peut être considéré comme une simple modalité : le texte se lit soit sur le papier, soit en ligne, soit sur un livre numérique par exemple. (Buard, 2015, p. 122)   Le cas du livre numérique au format EPUB illustre parfaitement l’objectif de diffusion de plusieurs livres d’un même texte. C’est l’objet de l’édition numérique homothétique sur laquelle portait l’une de nos précédentes critiques (voir 3.2. Le livre numérique ou la pensée homothétique) — ne pas questionner les façons de faire mais utiliser le numérique pour diffuser un même contenu sur plusieurs supports, souvent avec une forme très similaire. Dupliquer. Reproduire. La co-existence de plusieurs formats pose des questions de diffusion, de réception et de modes de lecture que nous n’analysons pas ici. Quoi qu’il en soit, la notion de multi-formats consiste donc d’abord en l’édition d’un même contenu en plusieurs formats, leur forme étant identique ou très similaire, les processus permettant leur production respective sont par ailleurs souvent distincts. L’édition multimodale consiste à générer, toujours dans une même démarche éditoriale, plusieurs versions d’un même contenu. Il ne s’agit plus uniquement de générer des formats divers mais de considérer des formes qui engendrent une autre perception des contenus, des modélisations. Par forme nous entendons ici le rendu graphique, soit la présentation des contenus, mais aussi les caractéristiques de l’objet imprimé ou numérique. Par modélisation nous entendons la disposition des éléments qui constituent un texte ou un livre. Il s’agit du design :   Transduction entre le fond et la forme, au sens où il y a coavènement ou coconstitution entre la forme comme idée perçue et fond matériel sous-jacent, ou encore entre la forme manifestée et l’arrière-plan conceptuel sous-jacent, le design est toujours l’émergence d’une singularité nouvelle mais évidente […]. (Bachimont, 2020, p. 205)   Des versions se distinguent donc par leur singularité. Pour donner un premier exemple de ce type d’édition multimodale, nous pouvons rappeler la première étude de cas de notre recherche (voir 1.3. Éditer autrement : le cas de Busy Doing Nothing), le livre Busy Doing Nothing du collectif Hundred Rabbits. Une première version consiste en un journal de bord sous la forme d’une (longue) page web disponible librement en ligne, une autre version paginée est commercialisée au format imprimé ou numérique (format PDF). Les versions existent simultanément. Il faut préciser ici que la démarche éditoriale est la même, en revanche les sources — permettant la production de ces deux artefacts — sont bien distinctes. Cette distinction s’explique par deux manières différentes d’éditer les contenus : le langage HTML convertit en page/site web par un programme écrit en C dans le premier cas ; un fichier au format Markdown transformé en PDF via Pandoc et LaTeX dans le second cas. La décorrélation entre ces deux sources s’explique notamment par une modélisation hétérogène (un tableau dans le premier cas et une structuration textuelle linéaire dans le second), même si un moyen pourrait être trouvé pour les rassembler et appliquer des scénarios contextuels — sur lesquels nous revenons dans le prochain chapitre (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Pour prendre un second exemple d’édition multimodale, nous pouvons évoquer le travail de recherche et d’édition de Tara McPherson avec la revue Vectors, revue dont la multimodalité est une nécessité, les formats numériques existants ne permettant pas d’accueillir des formes d’écriture originales. Robin de Mourat explique longuement le fonctionnement et l’intérêt de la dimension multimodale de ce projet éditorial (Mourat, 2020, p. 259-276), en axant sa recherche sur l’écriture multimodale. L’usage de langages de balisage — léger ou non — ouvre la possibilité d’une interopérabilité dans le processus d’édition. Les formats peuvent cohabiter ensemble, et se répondre et se compléter par des jeux de conversion ou de transformation. Cela nous permet d’envisager un troisième niveau d’édition, la génération de plusieurs versions d’artefacts éditoriaux dans une même démarche et à partir d’une unique source. Il s’agit des principes du single source publishing que nous détaillons désormais.   4.4.2. Pour une définition des principes de single source publishing Le single source publishing, ou l’édition multi-formats ou multimodale à partir d’une source unique, consiste principalement à produire plusieurs formats de sortie à partir d’une source unique. Cette source peut regrouper plusieurs fichiers, l’idée étant qu’une modification sur un seul fichier (par exemple une correction orthographique ou l’ajout d’une image) se répercute sur plusieurs formats de sortie. Nous pratiquons tous et toutes une forme de single source publishing en éditant un document avec un traitement de texte, et en le transmettant dans son format original et au format PDF — deux artefacts éditoriaux sont générés depuis une seule source. L’objectif initial de la publication multisupport, multi-formats ou multimodale depuis une source unique est de réduire le temps d’intervention sur de multiples sources identiques — en termes de contenu —, et de limiter les erreurs induites par le maintien de plusieurs fichiers qui sont amenées à diverger. Une seule source unique signifie un seul point d’attention, en revanche cela complexifie le processus nécessaire pour produire des artefacts. C’est là qu’intervient la modélisation dans une chaîne d’édition : la définition de la structure finale est en partie ou totalement séparée de celle des contenus, cette modélisation faisant toutefois partie intégrante de l’acte d’édition. Les provenances historiques du single source publishing sont diverses, nous en retenons deux principales : la séparation de la forme et du contenu, comme nous l’avons déjà vu (voir 4.2. Les conditions de la sémantique : format texte et balisage), afin de produire plusieurs formes d’un même contenu ; des principes issus de la programmation également utilisés dans la définition de schémas en XML. Ainsi une première mention de cette double action de séparation d’un contenu et de sa présentation, et de production de plusieurs formats à partir d’une source unique, est faite dans la formalisation du langage de balisage GML comme le signalent Mary Kalantzi et Bill Cope :   Using GML, tags would be inserted into the digital text specifying paragraphs, sections, headings, tables, lists, and the like. These tags did not indicate how these meaning functions were to look, or the form they were to take when rendered. Instead, there were to be separate “stylesheets” which rendered text in different ways depending on the end device, whether, for instance, that was a paper printer or a screen. So, re-manufacture was not reproduction. The redesign was not a replicant of the design. Or, to use terminology of this grammar, the tags indicate meaning functions; the stylesheets determine the particularities of meaning form as realized in variable media. (Kalantzis & Cope, 2020, p. 171)   Il s’agit donc de décomposer l’édition d’un document en un contenu, sa structure et sa mise en forme. Rappelons que GML est développé à partir de 1969, bien avant l’apparition des premiers traitements de texte ou des logiciels de composition. Une autre influence peut être trouvée du côté de la programmation informatique avec le concept de programmation lettrée (literate programming en anglais) développé par Donald Knuth dans les années 1980 (Knuth, 1984). Le concept consiste en l’insertion d’éléments de programmation au sein d’un document faisant office de documentation, et non l’inverse. Le principe de One Document Does it all (ou ODD) en TEI est lui-même un langage de programmation lettrée, il est utilisé pour la description de schémas XML : l’objet de ce format est d’abord de documenter un schéma et ensuite d’intégrer au fil du texte lettré des éléments de programmation à la fois pour les humains et pour les machines. Cette double dimension permet de produire autant une documentation textuelle qu’une suite d’instructions pour vérifier que des fichiers XML respectent bien le schéma défini dans ce document. Deux en un, si nous nous permettons ce constat trivial. Si ces modélisations éditoriales semblent éloignées du single source publishing, elles méritent néanmoins d’être citées en raison de leur point commun avec l’édition : lever toute ambiguïté dans une activité d’édition (de code) et de publication (d’une documentation). À partir de ces différents éléments, nous établissons une définition des principes du single source publishing : Définition Single source publishing ou édition multi-formats depuis une source unique L’édition multi-formats ou multimodale à partir d’une source unique est une méthode et un processus visant à produire plusieurs formats ou versions depuis une seule et unique source, en appliquant des conversions ou des transformations. Il s’agit de générer des formes variées, en répétant plusieurs opérations distinctes et néanmoins liées par une modélisation éditoriale commune, tout en restreignant les données en entrée à une seule origine. Le single source publishing est un ensemble de principes nécessitant une dimension interopérable. La source, et les éléments qui la composent, doit répondre à des standards pour que les programmes invoqués dans le processus soient capables d’appréhender la structure, afin de transposer une expression sémantique dans plusieurs formats de sortie — des manifestations. Les principes de l’édition multi-formats ou multimodale à partir d’une source unique sont d’ordre technique, mais, comme tout principe technique, ils sous-tendent des enjeux théoriques et épistémologiques, principalement autour de la modélisation éditoriale et donc de la construction du sens à partir de modèles de données. Le principe d’édition multi-formats ou multimodale à partir d’une source unique est largement adopté dans des environnements qui font appel à XML, l’application de feuilles de transformations (note : L’appellation répandue pour qualifier XSLT est “feuille de styles”, nous préférons toutefois “feuille de transformations” qui lève l’ambiguïté avec les feuilles de styles en cascade (CSS) utilisées pour le Web.) XSLT permettant de produire différents formats ou versions de documents dans divers domaines (édition scientifique, documentation, système de gestion et de publication de documents administratifs, base de connaissance, etc.). Il s’agit d’appliquer des règles de transformation sur un balisage sémantique en XML pour aboutir à des artefacts dans des formats divers comme des pages web (HTML), des fichiers imprimables (PDF), des documents éditables dans des traitements de texte (DOCX) ou encore des formats XML qui font appel à d’autres schémas XML. Les cas d’usage sont variés, comme l’illustre Dave Clark dans le contexte de l’édition d’un texte légal qui accompagne le manuel d’un grille-pain :   Using tools that can check the XML against rule sets and then use style sheets to output the XML in a variety of genres and formats, this legal content can be automatically presented whenever it is relevant to the particular materials being examined. The same content module could appear on every page of a website and in the small print of the manual. Should the legal department require a wording change, the content would only need to be changed once, in the content management system, to update all the documents that use it. (Clark, 2007, p. 49)   L’usage de la TEI répond également à ce type de besoin : en partant d’un ou plusieurs fichiers balisés, il est possible de générer de multiples formats, ainsi que plusieurs versions pour chacun d’eux, grâce à une modélisation préalablement établie. Cet enjeu de définir un modèle abstrait de document est particulièrement bien présenté dans une étude de Klaus Thoden dans le cas d’une démarche de publication numérique en libre accès (Thoden, 2019). Enfin nous pouvons signaler un usage massif de XML sous différents formats, dont JATS en Amérique du Nord et XML-TEI en Europe, permettant également de produire plusieurs formats (S.A., 2017, p. 60-63). Si les principes du single source publishing sont adoptés dans des usages et des domaines divers et présentent plusieurs avantages, il s’agit désormais d’y porter un regard critique.   4.4.3. Pour un regard critique sur le principe de single source publishing Les principes du single source publishing invoquent deux conceptualisations que nous distinguons, et qui sont liées aux opérations de conversion que nous avons déjà évoquées avec Pandoc : la transposition d’un format à un autre, et le développement d’un modèle abstrait — pivot — qui permet d’envisager de multiples manifestations. La première conceptualisation consiste en une traduction entre deux formats, via la correspondance d’expressions sémantiques. La seconde conceptualisation est une modélisation idéale, abstraite des représentations dans des formats, et qui, de fait, est plus riche que la première. Dans ce deuxième cas il s’agit, techniquement, d’une série de fonctions définies à travers des analyseurs syntaxiques, un arbre syntaxique abstrait ou des modules d’écriture pour manipuler les données. Pandoc a par exemple été d’abord un convertisseur qui transpose des règles syntaxiques d’un format à un autre avant d’intégrer cette dimension d’arbre syntaxique abstrait — ou AST pour Abstract Syntaxic Tree en anglais. Si les principes de single source publishing représentent un intérêt certain dans des pratiques d’édition, leur origine est néanmoins plus bureaucratique que lettrée, répondant à des besoins de productivité plus que d’expérimentations éditoriales — voir littéraires. Ces principes ont, par ailleurs, un certain nombre de limites. Les enjeux que nous explorons sont ceux de la légitimation de contenu, de l’évolution des pratiques de publication, ou encore de la création et de l’adoption d’outils adaptés. Nous nous concentrons ici sur le domaine de l’édition scientifique sans pour autant que ces trois critiques ne puissent être portées sur d’autres champs. Nous abordons la question de l’implémentation technique en situation réelle dans l’étude de cas qui suit (voir 4.5. Stylo et son module d’export : fabriquer des livres). Une chaîne d’édition multimodale à partir d’une source unique peut être considérée comme horizontale, puisqu’en théorie les différentes personnes impliquées dans l’acte d’édition peuvent modifier la source unique à tout moment — y compris à la toute fin du processus. En effet la légitimation ne consiste plus à savoir modifier la bonne source pour en engendrer les artefacts finaux. L’éditeur ou l’éditrice, initialement dépositaire de cette légitimation via l’intervention sur l’une des multiples sources, doit désormais considérer le travail de modélisation comme central dans leur activité — justifiant par là même leur rôle. Ce glissement peut être vu comme une opportunité de reconsidérer le flux d’édition dans son ensemble, et ainsi d’imaginer de nouveaux formats sans craindre des sources supplémentaires à gérer en parallèle. Cela nécessite néanmoins une évolution des pratiques d’édition et de publication. Est-il possible de pratiquer le single source publishing avec des traitements de texte ? La question que nous posons ici n’est pas tant celle de l’outil que celle des pratiques, c’est-à-dire l’usage qui est fait du logiciel d’écriture et d’édition le plus utilisé. Si nous prenons le cas de l’édition scientifique, un logiciel comme Microsoft Word peut s’inscrire dans une démarche d’édition multi-formats ou multimodale à partir d’une source unique, à condition de l’utiliser convenablement (via l’utilisation de feuilles de styles) et de disposer d’outils complémentaires (permettant un export XML acceptable). L’initiative Métopes (note : Métopes, pour Méthodes et outils pour l’édition structurée, est une chaîne d’édition multisupport, créée, maintenue et promue par le pôle Document numérique de la Maison de la Recherche en Sciences Humaines de Caen.) répond a ce double enjeu en proposant un module complémentaire dans Word afin d’appliquer une sémantique, et via des scripts pour un export XML compatible avec les plateformes de diffusion scientifiques (Vincent, 2020) — en l’occurrence en France, un projet étant lancé également au Québec et visant le Canada. Il est donc ici question d’adapter des pratiques et des outils existants sans pour autant remettre en cause les processus à l’œuvre. Cela est toutefois aussi une possibilité que de reconsidérer les processus dans leur ensemble. Depuis les années 1980 la communauté des sciences humaines utilise un paradigme unique pour l’écriture et l’édition, le mode WYSIWYG — dont les traitements de texte sont l’expression même, qu’il s’agisse du plus répandu et néanmoins propriétaire (Microsoft Word), de sa version libre (LibreOffice Writer) ou en ligne (Google Docs). Ce mode d’écriture ou d’édition maintient une confusion entre la structure du contenu et son rendu graphique — comme nous l’avons déjà souligné (voir 4.2. Les conditions de la sémantique : format texte et balisage) —, alors que les formats numériques requièrent d’abord un encodage sémantique, ensuite transposé dans de multiples formes et formats. C’est ce que nous démontrons dans l’étude de cas qui suit (voir 4.5. Stylo et son module d’export : fabriquer des livres), où l’éditeur de texte sémantique Stylo et ses options d’export permettent d’implémenter un mode WYSIWYM — pour What You See Is What You Mean, déjà abordé (voir 4.2. Les conditions de la sémantique : format texte et balisage) — soit la réalisation d’un acte éditorial sémantique. Plusieurs communautés scientifiques ou savantes ont adopté ce mode, conduisant à des outils ou plateformes comme Métopes, Manifold (note : https://manifoldapp.org), PubPub (note : https://www.pubpub.org), Ketida (note : https://ketida.community) ou Quire (note : https://quire.getty.edu) — que nous ne détaillons pas ici. Cet investissement dans la mise en place de solutions techniques ou dans l’acquisition d’une littératie plus forte est loin d’être un détail, tant cela représente un temps et un coût importants. L’exposition de ces trois limites — légitimation, pratiques et outils — doivent désormais être mise en regard de trois concepts qui permettent de donner une profondeur épistémologique au principe d’édition multi-formats ou multimodale à partir d’une source unique, afin de conceptualiser l’acte éditorial sémantique lui-même.   4.4.4. Hybridité, hybridation et éditorialisation Les principes du single source publishing ne se limitent pas qu’à des questions d’implémentation technique ou à des remises en cause des fonctionnements au sein des structures éditoriales. Plusieurs considérations épistémologiques émergent, et plus spécifiquement dans le champ des médias ou de l’écriture numérique. Les concepts d’hybridité, d’hybridation ou d’éditorialisation apportent une dimension théorique à la fois profonde et nouvelle dans l’étude de l’édition. Nous formulons un avertissement en préambule : tout hylémorphisme doit être évité à travers cette triple conceptualisation, et nous devons ainsi considérer sur un même plan les différents éléments textuels constitutifs d’une chaîne d’édition, pour permettre une séparation entre ce que nous pouvons considérer comme les contenus et leur représentation. Ainsi les fichiers sources qui accueillent les textes, mais aussi les fichiers de modélisation, ou encore les scripts nécessaires aux conversions et aux transformations, constituent ensemble l’acte d’édition. Il est ainsi difficile de séparer totalement un fichier balisé avec un langage de balisage ou son convertisseur. Cette précision étant faite, considérons justement l’effet de la prise en compte de multiples artefacts finaux sur la source elle-même.   L’hybridation ou la rencontre de deux média est un moment de vérité et de découverte qui engendre des formes nouvelles. Le parallèle entre deux média, en effet, nous retient à une frontière de formes et nous arrache à la narcose narcissique. L’instant de leur rencontre nous libère et nous délivre de la torpeur et de la transe dans lesquelles ils tiennent habituellement nos sens plongés. (McLuhan, 1968, p. 55)   Marshall McLuhan développe le concept d’hybridité ou d’hybridation comme la production d’un nouveau média lorsqu’il y a un croisement de plusieurs médias (McLuhan, 1968, p. 69-77). Pour lui, l’intérêt doit être porté sur l’effet des médias entre eux plutôt que sur nous, ainsi les initiatives artistiques qui mêlent plusieurs médias profitent de cette influence née de l’hybridité. En partant de cette conceptualisation, nous pouvons interroger l’influence que peuvent avoir les formes ou les formats des multiples artefacts sur les sources elles-mêmes, dans un contexte littéraire — au sens large — où ces artefacts sont produits par une chaîne d’édition qui adopte les principes du single source publishing. Dans le cas d’un acte éditorial sémantique, comment une syntaxe doit-elle être utilisée ou adaptée pour permettre la production simultanée de plusieurs objets éditoriaux, comme une version imprimée et une version numérique enrichie ? Si nous avons en partie répondu à cette question dans deux études de cas (voir 2.5. Le Pressoir : une chaîne d’éditorialisation) précédentes (voir 3.5. Le Novendécaméron ou éditer avec et en numérique), nous qualifions ce phénomène comme une hybridité des éléments, et plus spécifiquement comme une modélisation. Le rôle des modèles — ou templates en anglais — est de traduire une construction sémantique en un motif éditorial, en déterminant comment distribuer les différentes données par le biais d’instructions spécifiques et univoques. Ainsi, dans notre cas, l’hybridité est possible grâce au travail effectué sur les gabarits, il s’agit de façonner ou de fabriquer les artefacts via cette modélisation. Ce concept d’hybridité que ne formule pas directement Marshall McLuhan — malgré le titre du cinquième chapitre de Pour comprendre les médias, “L’énergie hybride” dans la version française — est lié à celui d’hybridation, concept qui prend un sens particulier à l’ère de l’impression post-numérique comme le théorise Alessandro Ludovico.   En d’autres termes, ce livre [Written Images de Martin Fuchs et Peter Bichsel] offre un exemple très complet de ce que pourrait être l’impression postnumérique : l’imprimé considéré comme un objet en édition limitée ; le financement participatif en réseau ; le traitement de l’information par ordinateur ; l’hybridation de l’imprimé et du numérique — le tout réunit en seul médium, un livre traditionnel. (Ludovico & Cramer, 2016, p. 156)   Dans Post-Digital Print Alessandro Ludovico analyse des initiatives de publication hybride, où plusieurs artefacts produits à partir d’une même source se complètent entre eux. Les versions électroniques de livres, de revues, de magazines ou d’articles viennent compléter des formes déjà existantes : les artefacts imprimés et numériques deviennent hybrides. Même si la source est unique, il est possible d’établir plusieurs scénarios en fonction du format de sortie. Par exemple un bloc de texte spécifique peut être affiché différemment en fonction de l’artefact final (choix typographiques, disposition), ou de même qu’un bloc de texte peut être étendu sur une version plutôt que sur une autre. Des structures d’édition expérimentent déjà différentes versions d’un livre imprimé avec le même contenu : du livre de poche bon marché à l’édition imprimée à tirage limité avec couverture rigide luxueuse et gaufrée. Certaines versions numériques au format EPUB sont dépourvues de contenus dont le rendu ne serait pas optimal sur un écran à encre électronique ; à l’inverse, des images en haute qualité avec option de zoom sont intégrées à des versions numériques au format web, une haute définition qui est plus coûteuse sur une version imprimée. Le single source publishing met en œuvre le concept d’hybridation d’Alessandro Ludovico : plutôt que d’éditer plusieurs sources pour autant d’artefacts distincts, des modèles variés sont appliqués à une source unique afin de générer différentes formes. L’hybridation est plus cohérente et plus puissante lorsque tout le contenu d’un projet se trouve au même endroit, réunissant les énergies éditoriales autour d’une même origine, modelée par des gabarits. Il reste alors la question de la circulation de ces formes produites.   L’éditorialisation désigne l’ensemble des dynamiques qui produisent et structurent l’espace numérique. Ces dynamiques sont les interactions des actions individuelles et collectives avec un environnement numérique particulier. (Vitali-Rosati, 2016, p. 8)   Nous l’avons déjà dit (voir 2.4. L’éditorialisation en jeu), l’éditorialisation est une évolution du concept d’édition dans un environnement numérique, et exprime l’idée selon laquelle l’écriture ou la lecture sont façonnées par les outils et supports que nous utilisons. L’implémentation de l’acte éditorial sémantique dans des chaînes d’édition est une façon de comprendre et de construire cet espace. Le single source publishing est une manifestation de l’éditorialisation, où toutes les forces convergent en une structure horizontale afin de produire des artefacts textuels. La modélisation de notre espace dépend de la manière dont nous concevons et construisons ces processus : méthodes, outils, logiciels libres, approches techniques, etc. L’édition multimodale à partir d’une source unique implique un maniement du texte via différents scénarios, il s’agit d’une action qui correspond au façonnage d’espaces numériques et réels. Ces trois concepts : l’hybridité des sources d’un projet sous l’effet des multiples formes artefactuelles d’un projet éditorial, l’hybridation des divers artefacts à travers une modélisation éditoriale, ou encore l’éditorialisation, ont en commun la gestion du texte à travers un acte éditorial sémantique. Il est désormais temps de réaliser une étude de cas d’une implémentation spécifique dans le champ de l’édition scientifique, avec l’éditeur de texte sémantique Stylo et ses fonctionnalités d’export. 4.5. Stylo et son module d’export : fabriquer des livres [07f3e07] Quelles sont les modalités d’application des principes du single source publishing en situation réelle telle que l’édition scientifique ? Comment mettre en place un processus d’édition respectant ces principes et quels en sont les agencements le cas échéant ? Cette étude de cas répond à ces deux questions en analysant les fonctionnalités d’export de l’éditeur de texte sémantique Stylo. Comme toutes les études de cas qui ponctuent chacun des chapitres de cette thèse, celle-ci révèle l’implication de l’auteur dans un projet de recherche. Ce dernier est ambitieux et, d’une certaine façon, radical. La coordination des développements de Stylo a structuré le doctorat pendant quatre années, poursuivant un travail engagé puis poursuivi par d’autres. La dimension collective est ici primordiale, tant les idées, les décisions et les réalisations ont fait l’objet d’échanges avec les personnes qui ont contribué au projet — étudiants et étudiantes, chercheurs et chercheuses, éditeurs et éditrices de revues, et ingénieurs. En plus d’expliciter l’usage du format Markdown dans une chaîne d’édition complexe relevant du domaine académique, et de détailler l’implémentation d’un acte d’édition sémantique, cette étude de cas répond à un troisième objectif : montrer comment l’édition et la modélisation d’un processus éditorial sont liées et se répondent. Nous faisons un pas de côté en analysant une fabrique d’articles plutôt que de livres, toutefois l’usage de cet éditeur de texte s’étend aussi à d’autres objets éditoriaux comme nous l’évoquons dans cette analyse. Plusieurs projets s’inspirent ou intègrent les principes du single source publishing, dans des contextes éditoriaux variés. L’implémentation de ces principes comporte des choix qui sont aussi parfois des compromis, notre objectif ici est donc aussi de nuancer ce qui semble être un horizon presque utopique, tout en proposant des voies alternatives aux initiatives le plus souvent orientées vers XML. Pour analyser le fonctionnement de ce que nous nommons le module d’export de Stylo, il faut tout d’abord préciser le contexte de la publication scientifique et ses particularités, puis présenter l’éditeur de texte sémantique Stylo et ses origines théoriques et pratiques. Le module d’export de Stylo est analysé en tant que brique logicielle basée sur le convertisseur Pandoc, nous mentionnons ici également ce qui a présidé à son développement initial et ce qui anime ses futures évolutions. Enfin, nous abordons les enjeux techniques et théoriques liés à la production d’articles scientifiques et de livres, nous concentrant sur la modélisation de ces artefacts.   4.5.1. Le contexte de l’édition savante L’édition scientifique, ou plus globalement l’éditions savante, est un domaine avec de nombreuses particularités, qui se distingue ainsi fortement de l’édition généraliste — littératures, romans, essais, livres pratiques, etc. Cette distinction se fait sur plusieurs plans, et notamment les types de contenus, leur circulation dans le processus d’édition, les types de formats, ou encore les enjeux de diffusion. La richesse des contenus des objets éditoriaux savants, d’un point de vue sémantique, rejoint la diversité des formats. En effet, le texte et son matériel critique sont représentés dans des artefacts divers comme des articles, des chapitres, des ouvrages ou des textes d’actes de conférences, répondant à un ensemble d’exigences variées. Les notes de bas de page, les références bibliographiques, les bibliographies, les citations longues, les figures, les index, etc., constituent une diversité et une abondance structurelles que l’imprimé a su intégrer à la page — à un niveau de complexité granulaire encore plus élevé avec les éditions critiques comme nous l’avons vu précédemment (voir 3.3. Éditer avec le numérique : le cas d’Ekdosis). La transposition en environnement numérique oblige à une modélisation qui se révèle complexe, et qui a donné lieu à des schémas XML dont l’objectif est d’identifier avec justesse les types de fragments qui composent le texte scientifique. Il s’agit là de pouvoir répondre aux nouvelles contraintes de diffusion, où chaque document doit être rendu disponible sur diverses plateformes en ligne, en flux et en version paginée, et parfois aussi au format imprimé. Le numérique vient ainsi bouleverser les modalités de diffusion de la connaissance, et notamment via les questions de stabilité et de citabilité — comment citer un passage précis d’un article disponible sous forme de page web plutôt qu’imprimée ? (Bleier, 2021) —, sous l’influence des besoins de diffusion en contexte numérique. Pourtant, c’est bien le modèle de l’imprimé qui guide encore les modes de production, dont la page semble être un canon difficilement contournable (Grafton, Allain& al., 2012). Les outils d’écriture les plus utilisés appuient ce paradigme, les traitements de texte ne permettant pas d’aboutir à un modèle alternatif, notamment basé sur des documents richement structurés et dont la mise en forme est de fait dans les mains de l’éditeur. Même des auteurs et des autrices qui travaillent avec une matière bien moins structurée que celle de l’édition savante le remarquent dès les débuts de l’hégémonie de Microsoft Word (Kirschenbaum, 2016), et c’est également la critique adressée par Edward Tufte au logiciel Microsoft Powerpoint (Tufte, 2006, p. 156-185), qui partage le même modèle que Word. Il y a une nécessité à repenser les modalités d’écriture et d’édition, pour inclure les possibilités offertes par le numérique en termes de structuration sémantique, de travail collectif, ou de conversation scientifique (Sauret, 2018). Parmi d’autres questions, le projet Revue2.0 (note : https://revue20.org) a répondu à celle-ci : “comment embrasser le numérique pour augmenter la qualité des artefacts éditoriaux et faciliter leur circulation en contexte scientifique ? Autrement dit, comment adapter les chaînes d’édition ?” Ce projet, mené par la Chaire de recherche du Canada sur les écritures numériques de 2018 à 2021 (note : L’auteur a participé au projet d’abord en tant que coordinateur d’expérimentations et de prototypes de 2019 à 2020, puis comme coordinateur du projet de 2020 à 2021. Revue2.0 a été financé par le Conseil de recherches en sciences humaines du Canada.), a permis de mettre en place différentes méthodes et outils suite à une série d’entretiens, d’ateliers et d’expérimentations — un chapitre de la thèse de Nicolas Sauret est consacré à ce projet (Sauret, 2020, p. 147-240). Si la mission de fond était celle d’un accompagnement à la transition numérique, il s’agissait aussi d’expliquer sur un double plan théorique et pratique ce que les structures éditrices de revues savantes pouvaient ou devaient faire du numérique. Le projet Revue2.0 n’est pas le seul à avoir amorcé cette réflexion, nous pouvons notamment citer le rapport Mind the Gap dirigé par John Maxwell, où est réalisée une analyse panoramique des outils et des plateformes de publication open source (Maxwell, 2019). Cette recherche rejoint celle de la Chaire de recherche du Canada sur les écritures numériques, et partage la position : toute démarche scientifique doit être basée sur des outils ouverts — voire libres —, et sur des standards. Nous ne citons pas ici d’autres initiatives académiques proche de ces démarches, elles sont néanmoins nombreuses, et s’inscrivent parfois dans le courant des humanités numériques. L’éditeur de texte sémantique Stylo prend une place centrale au sein du projet de recherche Revue2.0, permettant d’expérimenter la rédaction sémantique, l’évaluation (ouverte, semi-ouverte ou fermée), l’indexation par mots-clés contrôlés, ou encore une chaîne de publication multimodale à partir d’une source unique. Présentons désormais cet éditeur de texte qui fait figure d’exception dans le paysage académique global, d’autant qu’il s’inscrit comme une alternative parmi d’autres démarches de niche — pour ne pas dire marginales.   4.5.2. Stylo : un éditeur de texte sémantique Stylo est un éditeur de texte sémantique pour l’édition scientifique en sciences humaines et sociales, conçu par et pour la communauté scientifique. Cet outil d’écriture et d’édition a pour objectif de transformer le flux de travail numérique des revues savantes, notamment en adoptant un mode WYSIWYM et en privilégiant ainsi d’abord le sens du texte avant son rendu graphique. Ses fonctionnalités sont centrées autour du texte et de la dimension sémantique qu’il peut (doit) revêtir dans une perspective de publication académique.   Stylo est un éditeur de texte en ligne conçu spécifiquement pour les sciences humaines et sociales. Il doit permettre de rédiger tout type de textes scientifiques (articles, monographies, thèses, mémoires, ouvrages collectifs, et théoriquement éditions critiques). Visant à combiner les bonnes pratiques de l’édition scientifique et celles de l’édition web […]. Le projet Stylo est né de la volonté de donner aux auteurs la maîtrise de leurs données scientifiques et de l’ensemble de la chaîne éditoriale. (Debouy, 2022)   Malgré les efforts de stabilisation de cet outil permise par la très grande infrastructure de recherche Huma-Num, Stylo est un projet de recherche et a vocation à le rester, ce qui signifie qu’il doit être un moyen d’expérimenter des théories et non devenir un produit au service d’une communauté — en tout cas tant qu’il est mené et coordonné par un laboratoire de recherche. Ce positionnement est loin d’être simple, mais il s’inscrit ainsi dans une perspective scientifique revendiquée par l’équipe qui coordonne ce projet (Vitali-Rosati, Sauret& al., 2020) — dont l’auteur de cette thèse fait partie. Stylo est une application en ligne, soit un site web disponible avec une connexion internet et permettant un mode interactif à la façon d’autres éditeurs en ligne. L’avantage est qu’aucune installation de logiciel n’est requise — si ce n’est un navigateur web —, en revanche une connexion internet fiable est nécessaire. Les utilisatrices et les utilisateurs ne sont toutefois pas enfermés avec cet éditeur puisqu’il est possible d’extraire les fichiers sources de l’application, ces fichiers étant des formats standards lisibles et modifiables par d’autres logiciels. L’unité documentaire adoptée est l’article, soit un document comprenant un texte, un matériel critique et des métadonnées descriptives, ce qui n’empêche pas de publier aussi des monographies. En plus d’une interface d’écriture qui n’affiche que le balisage sémantique — choix fort qui correspond à un autre paradigme que celui des traitements de texte —, Stylo permet de prévisualiser une version web du document. Le fonctionnement de Stylo peut être décrit selon une approche sémantique et plus précisément en explicitant le rôle et les formats (standards et ouverts) des sources nécessaires à l’écriture et à l’édition : Markdown, YAML, BibTeX. La première source est le texte, son format est le langage de balisage léger Markdown — saveur CommonMark/Pandoc, pour faire écho à l’étude de cas précédente (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis) —, utilisé ici comme écriture sémantique. Les niveaux de titres, notes, citations, emphases, tableaux et autres listes sont donc exprimés avec les signes typographiques propres à Markdown. Les références bibliographiques sont quant à elles indiquées via une syntaxe propre au convertisseur Pandoc — ce fonctionnement est détaillé par la suite. Pour structurer les métadonnées propres à l’article, Stylo utilise le langage de sérialisation de données YAML, format répandu et souvent utilisé en complément de Markdown. Ici les métadonnées sont stockées dans un fichier distinct du texte, c’est la deuxième source utilisée par l’éditeur. La troisième et dernière source est la bibliographie structurée, au format BibTeX. Chaque référence est décrite dans ce format de sérialisation de données, assez proche de YAML dans l’esprit. Le texte, ses métadonnées et des références bibliographiques structurées, voilà sur quoi se base Stylo. Dit autrement, Stylo n’est qu’une couche interfacielle facilitant l’interaction avec ces fichiers, et proposant par ailleurs des fonctionnalités d’export permises par Pandoc et que nous explorons par la suite. En tant que projet collectif et scientifique, Stylo est coordonné par un groupe de chercheurs, de chercheuses, d’étudiants et d’étudiantes, en partenariat avec le diffuseur canadien Érudit, la très grande infrastructure de recherche française Huma-Num, la chaîne de publication Métopes à Caen, et des revues partenaires au Canada et en Europe. Il ne s’agit pas tant de financer les développements — majoritairement réalisés par des prestataires —, que de susciter un dialogue autour des pratiques d’écriture et d’édition, autant pour les auteurs et les autrices, les structures d’édition, les diffuseurs ainsi que les organismes de soutien à la recherche. Avant de présenter et d’analyser le module d’export de Stylo, nous devons préciser que cet éditeur de texte sémantique n’est pas le seul à se baser sur ce trio de formats et sur Pandoc. Une communauté académique assez substantielle utilise ce mode d’écriture pour des productions académiques, nécessitant une littératie numérique relativement importante — utilisation d’un éditeur de texte, d’un terminal et d’un outil capable de générer le format BibTeX. Le logiciel Zettlr a justement été développé comme une surcouche logicielle pour faciliter ces pratiques, proposant des fonctionnalités identiques ou très similaires à celles de Stylo, tout en se démarquant notamment sur le plan de la solution logicielle — plutôt que comme un projet de recherche. L’argumentaire présent sur le site web de Zettlr (note : https://zettlr.com) adopte les codes des logiciels d’écriture disponibles sur le marché, malgré le fait qu’il soit d’abord un outil pensé par et pour la communauté scientifique, et qu’il soit un logiciel libre (sous licence GNU General Public License v3.0). Zettlr met en avant des arguments pour se positionner face aux traitements de texte ou autres applications d’écriture, constituant ainsi une alternative plus qu’un changement de paradigme profond. Contrairement à Stylo, Zettlr n’a pas encore vocation à intégrer d’autres services développés par la communauté scientifique, pas plus que de se brancher à des flux de diffusion. Il n’en demeure pas moins que Zettlr est une réussite logicielle, et une réponse qui était attendue et qui est désormais adoptée par une large communauté. Un des éléments que Zettlr ne propose qu’en partie, c’est un ensemble de fonctionnalités d’export adaptées à la diffusion scientifique, que nous abordons désormais.   4.5.3. Les formats du module d’export Une des spécificités de Stylo est de proposer des modélisations éditoriales répondant aux exigences académiques et permettant ainsi un vaste choix de formats d’export. Si, d’une certaine façon, cet éditeur de texte sémantique n’est qu’une application du format Markdown et du convertisseur Pandoc, cette modélisation constitue une originalité ainsi qu’une plus-value manifeste pour les personnes qui l’utilisent. Ce que nous appelons module d’export est une partie intégrante et néanmoins distincte de l’application d’écriture à proprement parler, comme nous pouvons le voir dans le schéma ci-dessous. Nous décrivons ici les principes sur lesquels se fonde ce module d’export, ainsi que son fonctionnement (incluant l’usage de Pandoc) en mentionnant son historique ainsi que son développement. Loin d’être un service en plus de l’éditeur de texte, ce module d’export participe à la formalisation de l’acte d’édition sémantique possible avec Stylo. Avant de lister les formats d’export possibles, il faut préciser que Stylo stocke chacune des données dans une base de données, et expose ces informations via une API (Application Programming Interface pour interface de programmation d’application en français) GraphQL. Cette API permet d’accéder aux données sans passer par l’interface graphique de Stylo, et c’est ce que fait précisément le module d’export ; cette API est aussi conçue pour permettre l’accès aux données à d’autres applications, comme un CMS par exemple. Chaque demande d’export déclenche un processus qui consiste à aller chercher les données dans les champs correspondants de cette base de données, pour ensuite les traiter. Les formats d’export proposés reflètent les besoins divers en édition scientifique, et notamment la nécessité de disposer d’artefacts structurés, ou prenant en compte les contraintes liées à l’édition sémantique désormais incontournables (Kembellec, 2020). Le premier format est le format HTML, utile d’abord pour obtenir un rendu graphique et sémantique dans le même environnement que Stylo, le Web, mais aussi pour une intégration manuelle dans des CMS. Le format PDF offre une version paginée, avec un accès au format LaTeX pour des modifications avec le système de composition du même nom. Les formats DOCX et ODT permettent un retour au traitement de texte, en sachant que les exports dans ces formats contiennent une feuille de style par défaut qui facilite l’édition alors en partie structurée dans ces environnements WYSIWYG. Pour une intégration dans un logiciel de publication assistée par ordinateur (comme le logiciel InDesign), l’export au format ICML est proposé. Pour une interopérabilité avec les diffuseurs numériques chargés de rendre disponibles les documents aux communautés scientifiques, plusieurs formats XML sont générés avec trois schémas : TEI (light), Érudit, et TEI Commons Publishing (partagé par Métopes et OpenEdition). Enfin, les fichiers sources eux-mêmes (Markdown, YAML, BibTeX) peuvent être téléchargés. Chaque format prend en compte une série de spécifications qui proviennent des besoins des revues et des diffuseurs, et qui se traduisent par une modélisation que nous détaillons désormais.   4.4.4. La modélisation dans le processus d’export Construire une modélisation éditoriale consiste à définir un gabarit pour baliser convenablement les données (texte, informations sémantiques sur le texte, métadonnées, données bibliographiques, style bibliographique, et paramètres indiqués au moment de l’export) pour constituer un format qui répond à des standards précis. Un gabarit est établi pour chaque format d’export. Pandoc — présenté précédemment (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis) — est chargé de convertir les fichiers sources selon un modèle, en fonction du format demandé, et selon des paramètres indiqués au moment de l’export — par exemple : faut-il afficher la table des matières ? Pandoc propose son propre langage de template, voici un extrait du gabarit pour l’export au format HTML : Dans les quelques lignes de code ci-dessus nous pouvons voir que Pandoc utilise un système de variables, ici authors et forename par exemple, qui correspondent aux clés des champs dans le fichier de métadonnées. Pandoc a recours à des fonctions issues de la programmation, comme ici une condition avec if (si une condition est remplie alors la partie du template qui suit est activée, jusqu’au endif), ou une boucle avec for (qui permet de récupérer une série de données et d’y appliquer une règle jusqu’à endfor). Pour le dire autrement, si le document YAML contenant les métadonnées ne comporte aucune information en face de la clé authors alors la ligne qui suit n’est pas appliquée. Si une donnée est renseignée en face de authors, alors Pandoc applique la suite du template autant de fois qu’il y a de données dans les sous-champs forename et surname. Si Pandoc propose des modèles par défaut, il est possible de définir entièrement un gabarit, ce qui est le cas pour Stylo. Les exports XML nécessitent une étape supplémentaire qui consiste à appliquer une feuille de transformations XSL/XSLT sur un contenu structuré en XML ou en HTML. Nous ne détaillons pas plus ces modèles, ils sont par ailleurs développés sous licence libre et disponible en ligne (ecrinum, 2023). Pour appliquer ces différents modèles, Pandoc a été apéifié. Ce néologisme indique qu’une couche supplémentaire permet de séparer strictement les différentes commandes nécessaires à Pandoc en créant une liste de paramètres que l’API peut prendre en compte. Ainsi cette API traite une information en entrée, afin de composer en sortie les commandes qui sont ensuite appliquées avec Pandoc. Stylo est donc constitué de trois éléments : l’éditeur de texte (stylo), le module d’export (stylo-export), et la Pandoc API (pandoc-api). L’éditeur de texte propose des options d’export aux utilisateurs et aux utilisatrices qui sélectionnent le format et les options souhaitées, ces informations sont transmises au module d’export qui construit les commandes nécessaires à la conversion, grâce à la Pandoc API, sur les sources via l’API GraphQL. Une fois les commandes de conversion appliquées, les formats produits par le module d’export (toujours avec l’aide de la Pandoc API) sont transmis aux utilisateurs et utilisatrices via l’éditeur de texte — l’interface principale. Cette décomposition en trois éléments distincts offre un fonctionnement structuré séparant ce qui dépend de l’écriture et de l’édition, et permettant d’adopter un développement dit modulaire qui facilite les évolutions générales et spécifiques. Cette description technique est essentielle pour comprendre les enjeux théoriques derrière ces programmes. Distinguer les modèles des règles de conversion apporte une meilleure compréhension des mécanismes techniques auxquels les auteurs, les autrices, les éditeurs et les éditrices peuvent contribuer. Avant d’aborder ce point nous devons expliciter l’usage et le rôle du programme Pandoc.   4.5.5. Pandoc : la raison d’une singularité hégémonique Quel rôle joue Pandoc dans le développement de ce module d’export et donc dans la modélisation des contenus ? Si Pandoc se définit lui-même comme un outil “universel”, il convient d’interroger les contraintes qu’il impose et la raison d’une forme d’hégémonie de ce convertisseur de formats texte. Nous ne détaillons pas à nouveau le fonctionnement de Pandoc, chose déjà faite dans la section précédente (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis), nous pouvons toutefois rappeler trois caractéristiques de ce logiciel. Tout d’abord Pandoc convertit des fichiers d’un format de balisage à un autre via un mécanisme complexe reposant sur un analyseur syntaxique, un arbre syntaxique abstrait et des modules d’écriture pour manipuler les données. Pour simplifier, il applique des règles de conversion permettant de passer d’une expression sémantique balisée à une autre. Ensuite Pandoc fonctionne en ligne de commandes, dans un terminal, ce qui signifie qu’il ne dispose pas d’interface graphique et qu’il peut être difficile d’accès pour certaines personnes. Enfin Pandoc adopte un fonctionnement commun à d’autres programmes en ligne de commandes, consistant en des options et des arguments. La commande pandoc -f markdown -t html fichier-source.md -o fichier-converti.md correspond donc à la conversion du fichier fichier-source.md en un fichier HTML fichier-converti.html. Pandoc est devenu incontournable dans l’environnement des langages de balisage, la prise en charge de nombreux formats en entrée et en sortie en fait un “couteau suisse” de l’édition. D’autres parseurs existent, souvent limités à un format en entrée et un format en sortie, comme Markdown et HTML — comme nous l’avons vu précédemment avec l’initiative Babelmark (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis) qui liste les multiples convertisseurs Markdown et leur saveur associée. Les très nombreuses règles et conditions permettant le passage d’un format à un autre nécessitent des développements longs pour prendre en compte des cas d’usage parfois complexes. Ceci explique pourquoi d’autres initiatives similaires n’ont pas vu le jour, tant les efforts investis dans Pandoc ont déjà été importants. John MacFarlane note lui-même que l’engouement autour de sa création a été rapide, d’abord chez des personnes dans le domaine académique, puis pour plusieurs types d’applications faisant usage de langages de balisage. Notons également que ce convertisseur, aussi utilisé soit-il, est créé, développé et maintenu par un professeur de philosophie — avec quelques personnes qui contribuent désormais également au projet. L’universalité affichée sur le site web de Pandoc est-elle compatible avec son statut hégémonique ? Un rapide coup d’œil au dépôt du code de Pandoc (note : https://github.com/jgm/pandoc) permet de comprendre que les développements et les adaptations se font dans un souci d’interopérabilité, et non pour servir les intérêts d’une entreprise ou d’une personne en particulier. Le développement de Pandoc est clairement tourné vers la communauté, prenant en compte les différents usages liés aux standards dans le domaine de la publication. Toutefois, si le travail collaboratif est permis, le choix du langage de développement de Pandoc limite les contributions directes sur le code. Pandoc est écrit en Haskell, un langage peu répandu avec un haut niveau d’abstraction. Il est en effet basé sur le principe de programmation purement fonctionnelle, dont les opérations reposent uniquement sur l’évaluation de fonctions mathématiques — pour résumer ce principe grossièrement. Ce choix s’explique par l’intérêt du philosophe pour les mathématiques et la logique, Pandoc a d’ailleurs d’abord été un bac à sable pour l’apprentissage de ce langage par John MacFarlane. Le prix de l’implémentation d’un convertisseur d’une telle ampleur — en termes de nombre de langages de balisage pris en charge — est donc désormais une connaissance approfondie de Haskell, ainsi qu’une compréhension de la complexité de la structure actuelle du code. Enfin, la priorité mise sur Markdown, HTML et LaTeX a des effets de bord sur d’autres formats d’export tels que XML-TEI. À titre d’exemple, les données riches des bibliographies ne sont actuellement pas conservées dans l’export au format XML-TEI, comme indiqué dans un ticket (note : https://github.com/jgm/pandoc/issues/8790) lié au développement du module de Stylo. Il est nécessaire de préciser ces détails pour comprendre l’origine de cet outil de conversion ainsi que son développement continu depuis dix-sept ans, ce qui en fait par ailleurs un exemple de longévité dans le domaine du logiciel libre. Pour terminer sur cette présentation technique du module d’export de Stylo, soulignons que tous les efforts se concentrent désormais sur une implémentation aussi agnostique que possible de Pandoc. Cela signifie d’une part que le module pandoc-api est conçu comme une surcouche de Pandoc, des commandes entièrement compatibles avec le convertisseur sont ainsi élaborées, sans traitement supplémentaire ; d’autre part l’usage de templates et de filtres facilite la séparation entre les possibilités du programme et la modélisation elle-même. Ce choix de développement, réalisé par David Larlet avec la Chaire de recherche du Canada sur les écritures numériques, participe directement à cette modélisation éditoriale, plusieurs des implications épistémologiques induites sont explicitées par la suite.   4.5.6. Implications épistémologiques de la modélisation Le module d’export de Stylo est ainsi composé de plusieurs éléments, cette organisation reflète une modélisation éditoriale nécessaire pour les revues et les diffuseurs. La première version du module d’export a été l’occasion d’un prototypage expérimental sous la forme d’un script Bash (note : Bash est un interpréteur en ligne de commande, il peut être écrit sous la forme d’un fichier, ce script peut ensuite être exécuté par une console.) complexe, cette version démontre l’intérêt mais aussi les limites du bricolage dans le cas de Stylo. Rappelons un moment de l’histoire de cet éditeur de texte sémantique : en 2018 lors de la mise en ligne du prototype développé par Marcello Vitali-Rosati, Servanne Monjour, Nicolas Sauret et Arthur Juchereau (note : Notons également les contributions d’Emmanuel Château-Dutier et de Michael Sinatra.), l’export n’est pas encore possible en ligne. Pour pallier le fait que les utilisateurs et les utilisatrices devaient télécharger les sources puis appliquer localement des conversions avec Pandoc (auquel il fallait ajouter l’installation d’une distribution de LaTeX pour la génération des PDF), Marcello Vitali-Rosati écrit rapidement un script Bash (note : Voir en ligne : https://framagit.org/stylo-editeur/process/-/blob/book/cgi-bin/exportArticle/exec.cgi) destiné à déléguer cette tâche à un serveur. Ce bricolage va pourtant rester la seule manière d’exporter des articles pendant plus de trois ans, avec de nombreuses améliorations apportées au script original. L’usage d’une version précise de Pandoc, ainsi que la lourde installation de LaTeX, obligent à gérer ce module d’export dans un conteneur isolé avec le logiciel Docker. Les contraintes du script Bash et le manque de structure des modèles (templates) ont conduit à une refonte complète de cette partie de Stylo en 2021. Le module d’export se devait d’être modularisé pour répondre aux exigences épistémologiques de départ, soit le fait de s’extraire d’une confusion entre structure et mise en forme, de transcrire sémantiquement le sens, et enfin de façonner nos propres outils d’écriture et d’édition en tant que communauté scientifique. La phase de prototypage décrite ci-dessus a permis de modéliser ces fonctionnalités d’export avant de trouver et d’implémenter une solution plus cohérente et plus stable. Cette étape de recherche a également accompagné des revues dans leur usage, l’écriture du code étant conjointe à celle des articles. Insistons sur le fait que les développements de Stylo sont continus, et que les phases de création de nouvelles fonctionnalités, d’amélioration ou de résolution de problèmes sont imbriquées dans les étapes d’accompagnement des revues, de formation ou de discussions régulières avec les partenaires. Stylo et son module d’export impliquent deux modularisations intrinsèquement liées : d’une part les conditions d’application des principes du single source publishing, et d’autre part la constitution d’une chaîne d’édition modulaire. Il s’agit tout d’abord de distinguer les strates d’écriture dans Stylo en quatre couches, nécessaires pour la réalisation d’une publication multimodale à partir d’une source unique : les sources (au nombre de trois) ; les modèles pour les différents types et formats d’export ; les feuilles de styles pour la mise en forme des artefacts, très fortement liées aux modèles ; les programmes, scripts et filtres pour la réalisation des exports. Puisque nous avons déjà détaillé ces programmes ou scripts (éditeur de texte, module d’export et API Pandoc), nous pouvons préciser que Pandoc permet également d’utiliser des filtres pour ajouter des règles de conversion au moment du traitement des données. Cette double modularisation est une volonté de disposer d’une double dimension interopérable : au niveau des contenus et au niveau des opérations de productions des artefacts. Il s’agit de l’intégration d’une sémantique non plus seulement aux textes mais à l’édition elle-même. Ces développements se traduisent néanmoins par des choix et des arbitrages qui relèvent parfois du compromis. Cette modélisation est le résultat de la prise en compte de plusieurs paramètres : les contraintes de l’édition scientifique telles que présentées plus haut, des besoins propres aux revues académiques en fonction de leur domaine, et de certaines prérogatives des diffuseurs numériques. Les revues ont des spécificités qui dépendent de leur champ, par exemple l’usage récurrent de figures, une mise en page particulière pour les versions numérique et imprimée, ou l’insertion d’extraits de code. Pour que les articles des revues puissent être disponibles sur plusieurs plateformes académiques, les diffuseurs imposent des schémas XML. Les besoins sont globalement similaires d’un diffuseur à un autre, mais leur formalisation diffère, et ainsi plusieurs schémas co-existent : JATS en Amérique du Nord, Érudit au Canada, et TEI Commons Publishing en Europe. Trois exemples de schémas XML permettent la diffusion numérique d’articles scientifiques. Le module d’export intègre le schéma d’Érudit depuis ses débuts, et l’implémentation du schéma TEI Commons Publishing a été mise en production en 2023. Notons que pour permettre une automatisation complète afin de générer les formats pour une diffusion numérique — soit le fait de convertir les sources dans les formats XML idoines sans intervention sur les formats de sortie XML —, des ajustements sont nécessaires : dans la modélisation des données (textes et métadonnées) et dans les pratiques de balisages des personnes écrivant ou éditant avec Stylo. Cela signifie qu’un accompagnement facilite l’utilisation de Stylo, l’éditeur de texte bénéficiant par là même de retours utiles à son amélioration. Nous n’avons pas abordé la fonctionnalité d’export de livres, mais elle répond aux mêmes exigences académiques, et il s’agit d’une modélisation proche de celle exposée jusqu’ici. Les articles constituent les chapitres ou les parties d’une monographie. La description de cet objet éditorial est néanmoins déléguée dans un espace additionnel — sous la forme d’un fichier YAML supplémentaire —, afin de lever toute ambiguïté sur les niveaux de granularité (chapitres vs livre). Comment un format s’incarne-t-il dans des pratiques d’édition ? Cette étude de cas, après les développements théoriques qui l’ont précédée, répond à cette question. Les enjeux de la modélisation éditoriale, et plus spécifiquement dans le contexte de la publication scientifique, nous amènent à observer avec une attention accrue l’interconnexion entre des initiatives d’édition et la constitution de chaînes d’édition. Ce que nous analysons ici dans le champ de l’édition académique, notamment en raison de sa position pionnière, est transposable à d’autres domaines des lettres. À quel moment la fabrication de processus d’édition dépend-elle d’actes éditoriaux, et inversement ? Quelles sont les conditions d’émergence des fabriques d’édition ? C’est l’objet du prochain et dernier chapitre. ========== Chapitre 5 Éditer avec les fabriques [209ee7c] Après le livre, l’édition, le numérique et le format, il s’agit désormais d’appréhender les processus d’édition classiques en tant qu’ils sont un assemblage de logiciels et de programmes, de pratiques incarnées par des personnes, et de méthodes et de protocoles, afin de prolonger l’analyse de processus d’édition non conventionnels en tant qu’ils peuvent être une imbrication du façonnage de processus et de textes. Ce que nous nommons fabrique et que nous développons en tant que concept est ce double mouvement entremêlé de travail sur des textes et de constitution de processus techniques. Une fabrique d’édition est un processus technique et dispositif qui comprend autant l’édition de textes que la mise en place ou l’agencement d’outils permettant ce travail d’édition. Fabriquer des éditions, éditer des fabriques, nous avons déjà observé ce phénomène dans plusieurs initiatives telles qu’exposées dans les précédents chapitres. Le concept de fabrique rassemble plusieurs principes que nous détaillons ici, nous explicitons comment ils s’incarnent dans les concepts et projets qui suivent. En plus du double mouvement d’édition de textes et de construction de chaînes, il s’agit aussi de dévoiler et de révéler les rouages des processus et de comprendre l’architecture technique et épistémologique de ces composants ou micro-programmes. Dans le champ de l’édition, comprenant dans ce chapitre les métiers du design graphique, nous observons le développement de méthodes et d’outils qui ne reposent pas sur les logiciels. Les acteurs et les actrices de pratiques d’édition qui adoptent des démarches logiciellement décentrées — et donc qualifiées de non conventionnelles — remettent régulièrement en cause les outils majoritairement utilisés ainsi que ceux qu’elles ont elles-mêmes créés, le choix est fait d’une plus grande malléabilité et découvrabilité. Ce phénomène comprend aussi une dimension réflexive et critique, les pratiques sont en effet interrogées dans leurs dispositions techniques au moment de leur mise en place. Il ne s’agit pas seulement d’avoir recours à des logiciels alternatifs, mais de sortir de la rhétorique des solutions techniques. Quelle est l’origine de cet entremêlement des actes d’édition et de la création de chaînes d’édition ? À quel point un acte d’édition peut-il également être une opération de construction d’un processus ? Pour répondre à ces questions nous définissons d’abord ce qu’est le logiciel, en tant qu’objet qui s’est constitué avec l’informatique puis le numérique, en analysant le changement de paradigme induit. Le logiciel, tel que nous le connaissons aujourd’hui, est, d’une certaine façon, l’anti-fabrique. Il y a toujours eu des pratiques d’écriture et d’édition — au sens large — sans logiciel, mais quelles sont-elles ? Pour les expliciter nous observons deux moments de l’histoire de l’informatique et du numérique, d’un côté les débuts des interfaces graphiques dite utilisateur, et de l’autre l’émergence du mouvement dit du CSS print. Pourquoi vouloir se débarrasser du logiciel qui semble pourtant faciliter le travail éditorial ? C’est l’objet de l’étude de cas sur C&F Éditions, où des livres sont fabriqués sans logiciels. Nous définissons enfin le concept de fabrique et le phénomène de fabrique d’édition, en analysant les approches théoriques de Tim Ingold et de Vilèm Flusser, et en puisant dans les précédents chapitres. Pour expliquer ce double mouvement où des processus d’édition sont créés en même temps que des textes sont édités, nous réalisons une double étude de cas autour d’une fabrique d’édition multi-formats et d’une autre multimodale, les deux étant des expérimentations réalisées dans le cadre de cette thèse. 5.1. Les chaînes d’édition : composer avec les logiciels [07f3e07] Quels modèles sont adoptés dans le domaine de l’édition, et comment peuvent-ils être critiqués en tant que chaîne d’édition ? Cette section se focalise sur le rôle du logiciel comme engendrant un certain enfermement et une forme d’uniformatisation des pratiques d’édition. Avant de déterminer des cadres de modélisation qui échappent au carcan du logiciel, il faut définir à quoi il correspond. Autrement dit, il s’agit ici d’analyser à quel point le logiciel et son usage empêchent la réalisation du concept de fabrique, sur les plans suivants : fabrication du sens via l’utilisation du numérique ou de l’informatique, construction d’une chaîne d’édition qui répond à des contraintes diverses, malléabilité des composants de cette chaîne. Dans un premier temps nous établissons donc de quoi le logiciel est-il le nom, en le définissant en soi tout en raccrochant son histoire à celle de l’édition, celle-ci ayant été aux premières loges de l’informatisation de nos sociétés. Cette nécessité de tout transformer en rendu graphique se traduit par un désir de tout interfacer, c’est ce que nous analysons dans la deuxième section. À ce stade il faut noter à quel point les logiciels créent de fait une opacité, à la fois en termes de création de sens mais aussi dans leurs rouages — les deux étant liés. Enfin, un mouvement conduit à une plus forte opacité encore, avec le développement d’applications en ligne. Cette section a comme objectif de relever les limites éditoriales imposées par le logiciel, et ainsi de pouvoir envisager des actes éditoriaux sémantiques comme moteurs des processus.   5.1.1. De quoi le logiciel est-il le nom ? Le logiciel est communément considéré comme un outil numérique permettant de réaliser des opérations ou des actions grâce à une machine informatique (ordinateur et autres dispositifs numériques), dont les domaines d’utilisation sont divers, et dont la création ou la compréhension est réservée à des spécialistes — son fonctionnement étant jugé à la fois complexe et puissant, voire opaque. Si le logiciel mérite une définition plus précise, notons que ces considérations donnent déjà une représentation utile de cet objet numérique.   Ensemble des programmes, procédés et règles, et éventuellement de la documentation, relatifs au fonctionnement d’un ensemble de traitement de données. (Journal Officiel, 1982)   La raison d’être du logiciel est donc de traiter des informations, pour cela un logiciel regroupe des programmes qui agissent sur des données, ces programmes étant eux-mêmes une série d’algorithmes. Nous reprenons ici la distinction opérée par Anthony Masure entre l’algorithme, le programme informatique, le logiciel et l’application (Masure, 2014, p. 167-169). Un algorithme est une suite d’opérations, une recette appliquée sur des données. Le programme est l’implémentation d’un ou plusieurs algorithmes dans un langage de programmation. Le programme est exécuté par un ordinateur à travers une série de fonctions, alors que l’algorithme est un calcul abstrait. Le logiciel est un ensemble de programmes, rassemblés sous une même entité, comprenant une documentation.   Les logiciels sont la colle invisible qui assure la cohésion de l’ensemble. (Manovich, 2017)   Un logiciel est censé répondre à des objectifs précis, il est ainsi conçu pour satisfaire à un ou plusieurs besoins déterminés, et s’inscrit le plus souvent dans une logique économique que nous qualifions de solutionnisme technologique (Morozov, 2014). Il faut distinguer plusieurs types de logiciels, et notamment ceux qui réalisent des opérations directement sur un matériel et ceux qui traitent de l’information. Dans le premier cas il s’agit des outils permettant de faire fonctionner un ordinateur, dans le second cas ce sont des logiciels comme des traitements de texte, des logiciels de dessin ou encore de composition typographique — pour prendre des exemples dans le domaine de l’édition. Ils sont tous exécutés sur un ordinateur. L’apparition de nouveaux dispositifs en dehors du champ des machines informatiques de bureau ou personnelles (plus ou moins portables), comme les téléphones (intelligents) et les tablettes, a introduit une nouvelle notion : l’application. Cette précision est importante, tant l’application est un logiciel auquel un certain nombre de contraintes (économiques, techniques, légales, etc.) est appliqué. Avec la notion d’application vient la question de l’accès et de la diffusion d’outils informatiques, puisqu’en effet une application est rendue accessible par un tiers qui impose des règles spécifiques, réduisant les possibilités du développement de logiciels. Le logiciel et l’application sont donc deux objets numériques qui résultent d’une volonté de résoudre des problèmes, et de le faire dans des environnements contraints ou contraignants, ils influencent donc nos vies.   [Les logiciels portent en eux] un ensemble de pratiques et de conventions sociales et économiques. Il en résulte une nouvelle forme de contrôle, non coercitive mais néanmoins puissante. (Manovich, Beauvais & al., 2010, p. 256)   La place que prend le logiciel dans nos sociétés entraîne un intérêt certain et devient ainsi un nouvel objet d’étude pour les sciences humaines et sociales. Il fait même l’objet d’un champ d’études avec la naissance des software studies (ou études logicielles en français), dont les initiateurs sont Friedrich Kittler (Kittler, 1995), Lev Manovich (Manovich, Beauvais& al., 2010) ou Matthew Fuller (Fuller, 2003). Le positionnement de ce champ d’études nous apporte des informations précieuses pour qualifier le logiciel : il s’agit d’étudier le logiciel en tant qu’artefact et en tant qu’il a des effets culturels et sociaux. Avant les software studies d’autres domaines ont étudié et étudient le logiciel, mais pas en tant qu’objet singulier. À la suite des études logicielles un autre domaine émerge : les critical code studies (ou études critiques du logiciel) (Marino, 2020), focalisées cette fois sur les implications politiques du code lui-même. Cette délimitation nous permet de comprendre que le logiciel est un objet numérique qui comprend des langages et des structures logiques. L’omniprésence du logiciel dans nos sociétés en fait un objet qui structure notre monde. Son ubiquité et ses implications politiques justifient de l’étudier en profondeur.   Software studies is, or can be, the work of fashioning documentary methods for recognizing and recovering digital histories, and the cultivation of the critical discipline to parse those histories against the material matrix of the present. Software studies is understanding that digital objects are sometimes lost, yes, but mostly, and more often, just forgotten. Software studies is about adding more memory. (Kirschenbaum, 2012)   Les liens sont forts entre le développement du logiciel et le domaine de l’édition, les premiers logiciels ayant été des outils de gestion du texte ou de l’image, dans une perspective de publication. Avant d’aborder cette question, il convient d’étudier une condition importante de cet usage massif de cette forme d’objet numérique, l’interface graphique.   5.1.2. Naissance des interfaces graphiques Lorsque le terme de logiciel est évoqué, il est majoritairement question d’interface, ou comment permettre une interaction avec les composants d’un ordinateur, et plus précisément permettre aux humains d’interagir avec des programmes, ces derniers exécutant des algorithmes pour traiter des données. L’interface semble donc incontournable pour utiliser un ordinateur, afin de ne pas devoir apprendre à taper des 0 et des 1 pour exprimer des instructions — pour caricaturer. Les interfaces informatiques prennent des formes diverses, Florian Cramer et Matthew Fuller établissent une typologie (Cramer & Fuller, 2008, p. 149) dont nous retenons la distinction entre des interfaces qui permettent une circulation de l’information dans la machine (entre les composants) ou entre des machines, et des interfaces utilisateur. Nous nous concentrons sur ces interfaces utilisateur, afin de déterminer quels sont leur rôle et leurs implications. Les interfaces utilisateur sont la condition d’utilisation de l’ordinateur, et donc du numérique. Étant des éléments de langage, elles introduisent une assymétrie qui conduit à un décalage entre les fonctions d’un logiciel et les façons de les appeler et de les utiliser.   Similar to both its meaning in chemistry and to the meaning of “language,” “interfaces” are the point of juncture between different bodies, hardware, software, users, and what they connect to or are part of. Interfaces describe, hide, and condition the asymmetry between the elements conjoined. (Cramer & Fuller, 2008, p. 150)   Les interfaces utilisateur prennent elles-mêmes plusieurs formes, notamment textuelles avec les interfaces en ligne de commande via un terminal — comme évoqué précédemment pour l’utilisation de Pandoc (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis) —, ou graphiques avec la symbolisation visuelle omniprésente dans nos utilisations communes des terminaux numériques. Les interfaces textuelles prennent donc la forme d’une série d’instructions exprimées par des mots, et sont censées être moins ambigües qu’une série de menus, de boutons ou de diverses fonctions figurées par des éléments graphiques. L’interface graphique — ou interface graphique utilisateur, GUI en anglais — a donc autant un rôle déterminant pour l’usage de programmes informatiques que des effets conséquents sur la relation de fait biaisée entre la machine et la personne qui l’utilise. D’un côté elle traduit les possibilités programmatiques du logiciel dans un langage censé être accessible et rapidement compréhensible, de l’autre elle produit un fort décalage entre les fonctions réelles du logiciel et leur identification ou leur prise en main par la personne qui en a besoin — ou dont le besoin est suscité. En tant qu’artifice elle entraîne l’utilisateur et l’utilisatrice dans un parcours spécifique. Pour reprendre le cas du traitement de texte déjà amplement abordé (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente), les fonctions de mise en forme graphique sont par exemple par défaut beaucoup plus mises en avant que les possibilités de structuration sémantique. Ainsi il semble logique que les personnes qui utilisent un traitement de texte soient amenées à envisager le rendu graphique de leur texte avant son agencement logique. Les interfaces graphiques ne sont pas mauvaises en soi, nous ne tombons pas ici dans l’écueil du rejet de tout interfaçage graphique — même si les interfaces textuelles apportent néanmoins une double dimension d’univocité et de maîtrise. Elles font d’ailleurs l’objet de métiers désormais bien identifiés, tels que les designers d’interfaces utilisateur (designers UI) ou les designers d’expérience utilisateur (designers UX), consacrés à la définition, l’élaboration et la production d’interfaces (majoritairement graphiques) permettant l’utilisation de logiciels au sens large. L’enjeu de ces métiers est de négocier au mieux le décalage entre les fonctions et leur usage comme dit plus haut, mais aussi parfois d’influencer le cheminement parmi ces fonctions. D’un côté la notion de “dictature de la commodité” (Citton, Lechner& al., 2023, p. 130-131) renvoie au fait de privilégier des interfaces plus commodes, tout en rognant sur des principes de maîtrise ou d’émancipation, dépassant largement le cas du logiciel avec les plateformes. De l’autre ce sont les interfaces truquées — ou dark pattern en anglais —, qui forcent l’utilisation des fonctionnalités plutôt que d’autres via des mécanismes graphiques. Qu’elles soient trompeuses ou non, les interfaces graphiques restent des enjeux de pouvoir sur les utilisateurs et les utilisatrices, le plus souvent guidés par des motivations économiques ou financières. Les mises à jour des logiciels sont l’occasion de proposer de nouvelles fonctionnalités mais aussi d’en faire disparaître d’autres, souvent tout simplement en les rendant moins accessibles. Si un bouton très visible et bien placé vous invite à imprimer un document depuis un traitement de texte, plutôt qu’à le convertir au format PDF, cela aura de fait une conséquence sur la consommation de papier. L’enjeu des interfaces est particulièrement important pour les outils d’édition, ou justement le choix des formats n’est pas anodin comme nous l’avons vu précédemment (voir 4. Les formats, structuration et modélisation du sens). L’édition a par ailleurs été un des premiers secteurs à voir arriver des solutions logicielles à interfaces graphiques.   5.1.3. Logiciel et édition Le développement de l’informatique ou du numérique est lié à l’évolution de l’édition, de la même façon que la technique et le livre ont une histoire commune comme nous l’avons déjà signalé (voir 3.2. Le livre numérique ou la pensée homothétique). La création de logiciels destinés à écrire et éditer se fait dans un contexte précis d’automatisation de certaines tâches dans toutes les strates de la société. Pour l’édition, il s’agit autant de faciliter et d’accélérer les opérations de saisie ou de composition, que de disposer d’outils plus puissants pour inscrire, structurer et agencer du texte. L’édition utilise donc très tôt — à l’échelle de l’histoire de l’informatique — des logiciels de toute sorte. Nous ne faisons pas ici une histoire des logiciels dans l’édition, nous signalons toutefois quelques moments clés avec l’apparition d’outils qui ont considérablement modifié ses processus et ses métiers. Pour cela nous nous appuyons sur le panorama établi par Julie Blanc et Lucile Haute (Blanc & Haute, 2018). Plusieurs années d’expérimentation au Xerox PARC ont donné lieu à un certain nombre de prototypes ou de logiciels pour la production de documents imprimés. Ainsi entre 1969 et 1983, parmi les nombreuses inventions issues de ce lieu emblématique, mentionnons l’interface graphique qui y a été conceptualisée puis développée — Alan Kay a activement participé à ces travaux, nous revenons par la suite sur cette figure (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts) —, ou le premier éditeur de texte WYSIWYG Bravo. D’autres structures ou entreprises proposent par la suite des logiciels inspirés directement ou indirectement de ces expérimentations pionnières. Suivent les premiers traitements de texte, comme WordPerfect en 1979, ou plus tard Microsoft Word en 1983, pour la gestion du texte. La composition est également informatisée avec les logiciels de publication assistés par ordinateur comme QuarkXPress en 1987, qui conserve une place hégémonique jusqu’à la fin des années 1990 avec l’arrivée de InDesign développé par Adobe. Ces initiatives ont en commun d’être entrepreunariales, il s’agit de créer puis de vendre des solutions informatiques pour la préparation de documents imprimés, ce qui comprend notamment l’édition. C’est donc toute une économie qui se met en place autour du logiciel et de l’édition, facilitant les différents processus, et introduisant de nouveaux paradigmes. Parmi ceux-ci, la gestion des calques a été une petite révolution comme le souligne Lev Manovich :   [The layers feature] redefines both how images are created and what an “image” actually means. What used to be an indivisible whole becomes a composite of separate parts. This is both a theoretical point, and the reality of professional design and image editing in our software society. […] Layers change how a designer or an illustrator thinks about images. (Manovich, 2011)   Ce n’est donc pas qu’une recherche de confort, ni une question de faciliter des opérations fastidieuses en milieu analogique, non plus une perspective d’une plus forte rentabilité, il s’agit aussi de nouvelles manières de créer. L’apport de ces logiciels implique aussi quelques contraintes. En effet les différentes options créées dans le logiciel sont autant d’occasions de diriger les comportements. Ce déplacement va donc plus loin, comme le décrit Anthony Masure dans sa thèse et plus particulièrement dans une partie dédiée :   PowerPoint, Word ou Photoshop sont paradigmatiques de l’emprise qu’exercent désormais les logiciels sur nos comportements. En se situant du côté du service et de l’usage, ils n’incitent pas à s’écarter d’une route tracée d’avance. Le logiciel conduit l’usager d’un point à un autre, sans détours et sans arrêts. (Masure, 2014, pp. 208-209)   Les choix de fonctionnalités et d’interfaces inhérents à tout logiciel, résulte immanquablement à un certain degré d’opacité dans le fonctionnement ou dans la conception de tout logiciel.   5.1.4. L’opacité induite par les logiciels Une tension existe donc entre l’omniprésence de l’ordinateur comme outil d’écriture et d’édition via les logiciels d’une part, et les limitations de maîtrise de la machine du fait même de la nature du logiciel d’autre part. Dit autrement, sous couvert de rendre facilement utilisables les fonctions des programmes, voire d’assurer la sécurité de l’ensemble, les logiciels brident la connaissance et la maîtrise de l’informatique. Cette critique est fortement inscrite dans le mouvement dit du logiciel libre, où l’ouverture du code est une condition non négociable pour s’émanciper en tant qu’individu dans la société contemporaine, et avec le numérique. Cette tension est exprimée aussi en prenant en considération ce qu’est le logiciel en soi et au regard du développement de l’informatique, comme le fait Friedrich Kittler en 1995 dans son texte “There is No Software” (Kittler, 1995) (traduit en français vingt ans plus tard (Kittler & Vargoz, 2015)). Friedrich Kittler part du constat que des entreprises font tout leur possible pour “dissimuler” le matériel, le hardware, derrière le logiciel. Les raisons de cette dissimulation, malgré un discours qui vante l’efficacité ou la rapidité, sont fondamentalement commerciales. Parmi plusieurs de ses argumentations radicales, Friedrich Kittler souligne qu’alors que l’interaction avec la machine était possible en formulant des instructions via de “simples” lignes de commandes, les interfaces graphiques viennent donner un accès dit “direct” aux fonctions des programmes tout en rendant impossible toute autre forme d’“acte d’écriture”. Cela se traduit également concrètement par des limitations apposées sur les processeurs, avec le “mode protégé” qui empêche d’atteindre les fonctions du matériel, les grandes entreprises de l’informatique clamant ici des raisons sécuritaires — le risque évoqué étant que si aucune limitation n’est imposée les instructions peuvent endommager le matériel lui-même.   Pour Friedrich Kittler, le logiciel n’existe pas du point de vue des machines, c’est-à-dire de la théorie de l’information et du hardware, pour laquelle la seule réalité est l’inscription du réel en code binaire. Et puisqu’il n’existe pas, il n’y a, en conséquence, aucune raison pour qu’il soit brevetable. […] Le logiciel ne peut alors se vendre qu’en s’inféodant les machines, qu’en les recouvrant d’un nuage symbolique et culturel qui dissimule sa réalité. Le logiciel appartient non pas au réel mais au symbolique. Il n’existe que dans un système d’inscription donné, dont la réductibilité binaire lui interdit d’accéder au statut de texte. (Guez & Vargoz, 2015, pp. 23-24)   Ce qui nous amène à considérer le programme plutôt que le logiciel comme outil permettant d’effectuer des calculs et donc des tâches sur une machine informatique tout en conservant une certaine part de contrôle. Parmi d’autres médias, l’informatique, avec le logiciel, contribue à conserver la “dichotomie fondamentale entre usage et maîtrise” (Guez & Vargoz, 2015, p. 17). Il ne s’agit pas ici de considérer l’assembleur comme premier accès à la machine informatique comme le prône Friedrich Kittler (note : Une telle pratique nous permettrait toutefois d’acquérir une meilleure compréhension de nos environnements numériques.), pas plus que d’envisager le terminal et ses lignes de commande comme seul mode d’accès au numérique, mais de remettre en cause le logiciel comme unique approche d’écriture ou d’édition informatique possible. En résonance de ces considérations dans le champ de la théorie des médias, nous pouvons analyser deux autres dimensions à l’origine de l’opacité inhérente de tout logiciel : la fermeture du code ou son niveau de complexité. Nous l’avons déjà mentionné (voir 3.1. Le numérique : culture, politique et ubiquité), l’utilisation des logiciels ou des programmes est légalement encadrée par l’attribution d’une licence. Celle-ci peut autoriser ou interdire la lecture du code informatique de ces objets numériques. Dans le cas du logiciel propriétaire qui empêche de voir comment le programme ou le logiciel a été conçu et donc fonctionne, une quelconque appropriation est évidemment impossible. Pour les entreprises qui commercialisent des logiciels, l’enjeu est de cacher les détails de fonctionnement pour garantir leur monopole. Attention toutefois à ne pas conclure que la simple ouverture du code permettrait aux utilisateurs et aux utilisatrices d’acquérir automatiquement une maîtrise de ces outils. Le logiciel libre ne résout pas tout, si les licences ouvertes ou libres autorisent la consultation des sources, encore faut-il que celles-ci soient suffisamment lisibles ou accessibles. Un haut niveau de complexité des logiciels empêche également leur compréhension. Si un logiciel comprend des centaines de composants — des micrologiciels ou des bibliothèques de code développées par ailleurs —, et que chacun d’entre eux est constitué de milliers de lignes d’algorithmes, une éventuelle entreprise d’appropriation se révèle impossible en temps — mais peut-être aussi en compétences. Ajoutons à cela le fait que l’interface graphique est le seul moyen d’interagir avec ce type d’outil, et il devient impossible de connaître les fonctions disponibles. Le domaine de l’édition s’est très tôt posé les questions d’indépendance et de liberté, l’objectif étant de disposer de formats de travail interopérables pour pouvoir changer d’outil lorsque cela est nécessaire, mais aussi de construire des logiciels libres que tout le monde peut utiliser ou adapter, sans condition (ou presque). De nombreux logiciels ont ainsi été développés dans cette optique, d’abord par des communautés non nécessairement liées à l’édition avec par exemple la suite LibreOffice, puis par des professionnels du domaine comme dans le cas du logiciel Scribus. Scribus, comme Gimp destiné à la retouche d’images, illustre cette volonté de construire des alternatives. Scribus s’est donc constitué comme une solution libre (et gratuite) à Adobe InDesign (et avant à QuarkXPress), reproduisant la majorité des fonctionnalités du logiciel propriétaire. Si cette initiative est un succès — considérant que les communautés d’utilisateurs et d’utilisatrices de ces deux logiciels n’ont rien de comparables, tant Adobe InDesign reste l’outil très majoritairement utilisé —, il se heurte aux mêmes problèmes que tout logiciel : c’est un logiciel (qui plus est à interface graphique). Scribus n’apporte pas de changement de paradigme — à part la licence du logiciel —, du fait de cette duplication assumée, mais aussi parce que l’équipe qui est chargée du développement et de l’évolution de ce logiciel est très réduite comparée à Adobe InDesign. Alors que des tentatives émergent pour détacher les métiers de l’édition de la situation de monopole et d’enfermement d’Adobe, une tendance apparaît au début des années 2010 avec une évolution du logiciel vers une logique de service et d’abonnement. Le logiciel devient désormais une interface accessible via Internet, et via un navigateur web, l’idée étant de ne plus avoir à installer en local sur un poste informatique un ensemble de programmes qu’il faudra de toute façon mettre à jour. Il s’agit finalement de l’aboutissement de ce pour quoi le logiciel a d’abord été conçu, simplifier l’accès à une puissance de calcul, sans rien savoir de son fonctionnement ; les constats faits par Friedrich Kittler quinze ans plus tôt semblent alors d’autant plus tristement justes (Kittler, 1995).   5.1.5. Des logiciels aux applications et aux services Le logiciel n’est plus seulement l’accès privilégié aux capacités de calcul d’un ordinateur, il se reconfigure également sous la forme d’applications voire de services au contact d’Internet et du Web, masquant un peu plus son fonctionnement à ses utilisateurs et à ses utilisatrices. Le terme de logiciel fait référence à trois dimensions déjà évoquées que nous rappelons ici : il est composé d’un ensemble de programmes ; il dispose d’une interface utilisateur (le plus souvent graphique) pour déclencher des fonctions ; un environnement informatique spécifique est nécessaire pour son fonctionnement. Aux débuts de l’ère des logiciels, l’envoi d’un support physique pour l’installation voire la mise à jour d’un logiciel était une pratique courante. Si Internet a facilité l’accès aux fichiers nécessaires à leur installation, ce mode de connexion a incité les entreprises commerciales à délocaliser de plus en plus l’usage même du logiciel, par la nécessité d’être connecté pour disposer des mises à jour, pour contrôler l’achat d’une licence, ou par un passage à des applications entièrement en ligne — aussi appelées applications web. Précisons d’abord ce qui est entendu par “application” : Anthony Masure détaille ce terme comme provenant des logiciels mis à disposition pour les premiers téléphones iPhone d’Apple. Ainsi une application est un logiciel dédié à une ou plusieurs tâches, conçu pour un environnement précis — ou système d’exploitation —, et distribué via un canal contraint (Masure, 2014, p. 168-170). Nous retenons le caractère limité de l’application en fonctionnalités ou en accès, ainsi que sa connexion à des services en ligne. L’application est ainsi un logiciel dont l’opacité, en termes de mode de diffusion et de connaissance de son fonctionnement, est encore plus importante. Prenons un exemple pour illustrer cela. Dans le cas d’Adobe InDesign, une première étape a été la mise à jour via Internet, comme bon nombre de logiciels. La seconde a été d’imposer une connexion pour activer et se servir du logiciel, pratique également répandue à bien d’autres logiciels ou systèmes d’exploitation. Ainsi le modèle économique d’Adobe a basculé de la vente d’un produit à l’abonnement à un service. Pour utiliser Adobe InDesign il n’est donc plus possible d’acheter une fois le logiciel, pour ensuite en faire usage sur une durée relativement longue (note : Cette durée correspond en fait à la période où la version du logiciel est compatible avec le système d’exploitation.), mais de payer chaque mois un accès à ce logiciel. Les fichiers nécessaires au fonctionnement du logiciel restent sur l’ordinateur de l’utilisateur ou de l’utilisatrice, mais il est connecté aux serveurs d’Adobe, l’entreprise vérifiant par là même la présence d’une clé de licence autorisant la personne à se servir du logiciel. Les arguments d’Adobe dans cette situation relativement inédite, sont la garantie de mises à jour fréquentes, et l’ajout de services en ligne comme un espace de stockage et de sauvegarde sur les serveurs de l’entreprise. Espace dont l’accès est automatiquement coupé en cas d’arrêt de l’abonnement. Des choix plus radicaux ont été réalisés dans le cas des applications web, considérées comme des Software as a Service (SaaS), déléguant totalement leur fonctionnement à une connexion internet et à un navigateur web. Plus besoin d’installer un logiciel sur un ordinateur, l’application web est en fait disponible sur un serveur via le navigateur web qui sert alors d’interface. En plus de l’opacité engendrée par le fait qu’aucun composant (ou presque) du logiciel n’est installé sur la machine de la personne qui l’utilise, les données elles-mêmes restent elles aussi sur ledit serveur. Sans parler des mises à jour sur lesquelles l’utilisateur ou l’utilisatrice n’ont plus leur mot à dire, des modifications des interfaces pouvant être imposées à tout moment. Il n’est plus question de logiciel propriétaire VS logiciel libre, certaines entreprises mettant même à disposition le code source de ces applications. C’est l’usage de l’instance sur leur serveur qui représente des coûts ou plutôt qui devient un produit. Il ne s’agit plus de payer directement des efforts pour créer et maintenir un logiciel, mais de financer le service correspondant — ou de le rendre suffisamment rentable. Le fait de pouvoir se départir de toute nécessité d’installation engendre une relative ouverture, ainsi les communautés du logiciel libre ont construit des applications comme alternatives à la fois aux logiciels propriétaires et aux applications des grandes entreprises du numérique qui retiennent captives les utilisateurs et les utilisatrices et leurs données. L’enjeu est donc désormais de savoir où sont hébergées les données, et si les formats sont interopérables pour pouvoir changer d’outil un jour. Nous constatons donc autant le déplacement d’une économie du logiciel — pourtant jusqu’ici bien portante — vers des applications ou des services en ligne sous forme d’abonnement, mais aussi la construction d’espaces ouverts et libres. Quoi qu’il en soit, il y a selon nous une nécessité de se départir du logiciel ou de l’application. Les logiciels sont majoritairement pourvus d’interfaces graphiques utilisateur encombrantes qui sont souvent l’objet de dissimulations volontaires ou contingentes. En effet, l’opacité induite par ce qu’est le logiciel même nous rend tributaires de choix fonctionnels dont nous ne pouvons pas avoir connaissance. Les capacités de la machine sont cachées, toute volonté de comprendre comment elle fonctionne est annihilée. La délocalisation du logiciel sous la forme d’application en ligne supprime par ailleurs de façon absolue toute possibilité de modification du comportement du logiciel, celle-ci étant de la décision d’un tiers — qu’il soit commercial ou à but non lucratif. Faisant ces constats, des individus, des collectifs ou des structures ont mis en place des moyens de s’extraire de cette situation pour envisager d’autres modalités de faire. Avant de les analyser dans une prochaine section, faisant fi du logiciel, arrêtons-nous sur une définition stable dans le cadre de notre recherche : Définition Logiciel Le logiciel est compris ici comme un objet numérique permettant de réaliser des opérations de calcul grâce à un ordinateur. Le logiciel est l’interface — par ailleurs souvent graphique — entre un utilisateur ou une utilisatrice et des programmes, ces derniers étant eux-mêmes une suite d’algorithmes. Le logiciel est ubiquitaire, il a totalement façonné nos sociétés contemporaines. Le logiciel est une invention commerciale qui porte des valeurs marchandes plus qu’émancipatrices, cachant l’interaction avec la machine sous couvert de rapidité et de facilité. Son opacité nous conduit à le considérer comme une boîte noire dont le traitement des informations n’est pas toujours révélé, en raison de son code propriétaire ou de sa complexité inhérente. La documentation qui accompagne le logiciel n’est pas écrite pour comprendre ses modalités intrinsèques, mais uniquement pour aboutir à un fonctionnement, fonctionnement qui est rarement compatible avec une appropriation ou à un apprentissage. Par extension, un logiciel peut aussi être une application — dans le cas d’environnements encore plus fermés —, ou un service en ligne — pour une délocalisation totale. Le logiciel est ici distingué du programme, ce dernier étant une partie d’un logiciel, et pensé comme un composant pouvant être arrimé à d’autres programmes. 5.2. Contre le logiciel : pour des processus décomposés et ouverts [0b550b1] Le logiciel pose plusieurs problèmes épistémologiques, son influence sur nos interactions numériques en général et sur les pratiques d’édition en particulier est importante, et nous mène à considérer la mise en place de processus qui ne font tout simplement pas appel au logiciel — tel que défini dans la section précédente. Plutôt que de poser la question d’une possibilité de travailler sans le logiciel, nous interrogeons les conditions et les implications de ces choix, qui sont des choix techniques, politiques mais aussi éditoriaux. Il s’agit donc d’une remise en cause du logiciel comme devant être central dans les pratiques d’édition. Comment ont émergé des processus qui ne sont plus centrés sur les logiciels et leurs interfaces ? Qu’est-ce qu’implique de ne plus recourir à des logiciels — propriétaires ou libres — dans des pratiques d’édition ? De telles initiatives existent, nous identifions leur intervention à deux moments principaux de l’histoire de l’informatique, deux moments que nous souhaitons confronter pour comprendre les changements de paradigmes induits. D’une part au moment de l’émergence de l’informatique personnelle et le rôle que les interfaces ont pu y jouer. D’autre part dans des pratiques de design graphique (touchant à l’édition) qui se sont réinventées en délaissant volontairement le logiciel, après un passage par le logiciel libre. Nous intégrons ici un domaine lié à l’édition mais dont le champ est plus large : le design graphique. C’est un terrain pertinent pour observer des usages métiers dans l’édition, du fait de sa place décisive dans la chaîne de fabrication et de production, comme nous l’avons vu sur les questions de forme du livre (voir 1.2. La forme du livre et sa matérialité), et parce que la technique y est régulièrement interrogée. Notre réflexion nourrit l’idée selon laquelle une fabrique d’édition est le lieu de recherches et d’expérimentations, et que cette double dimension est difficilement compatible avec le carcan imposé par les logiciels. L’adaptation ou la modification des logiciels connaît une certaine limite, tant les compétences en développement doivent être importantes, alors que la mise en place de scripts ou de programmes est une voie plus atteignable dans certains langages de programmation comme JavaScript, PHP ou Python. C’est donc contre le logiciel que des pratiques se développent, contre dans le sens d’une opposition, mais aussi d’un appui, le désir de prolonger des expérimentations au-delà du logiciel et du logiciel libre découle d’une forme de déconstruction. Il s’agit de décomposer et d’ouvrir. Conduire des instructions éditoriales en privilégiant le texte plutôt que des interactions via des interfaces graphiques — autrement dit des boutons —, peut par ailleurs être considéré comme un troisième niveau après le balisage sémantique et l’acte éditorial sémantique. Il s’agit alors de construire un outil qui traduit lui-même un sens dans sa conception et son fonctionnement, en lien avec le balisage sémantique du texte et la modélisation de l’édition.   5.2.1. Une histoire des pratiques (presque) sans logiciel Le logiciel, tel que décrit dans la section précédente (voir 5.1. Les chaînes d’édition : composer avec les logiciels), est issu d’une évolution de l’informatique que nous devons approfondir en faisant un retour historique sur les premières initiatives autour de l’informatique personnelle, et en particulier sur l’expérience du dispositif Dynabook et du langage de programmation Smalltalk qui ont amené cette double idée d’une interface révélatrice des options offertes et d’un environnement programmable. Cet exercice exploratoire est utile pour comprendre comment les logiciels et leurs interfaces ont pris un virage spécifique, tronquant des principes ouverts pourtant présents dès les années 1960 et limitant ainsi une maîtrise de l’informatique. C’est l’objet des recherches du fameux centre de recherche de Xerox à Palo Alto (ou PARC pour Palo Alto Research Center) (Rheingold, 2000), et plus spécifiquement du projet du Learning Research Group dirigé par Alan Kay, figure pionnière de l’informatique. Alan Kay, Adele Goldberg, et leur équipe, ont travaillé plusieurs années sur le développement d’un dispositif informatique permettant de gérer de l’information au sens large, et plus spécifiquement de créer des outils de création de contenu variés (texte, image, animation et son). De 1967 à 1969, un dispositif matériel est imaginé, et un langage de programmation est développé, pour appliquer l’idée selon laquelle l’informatique pourrait être un méta-médium de création par le biais de la simulation d’autres médiums. Il s’agit donc d’une expérience épistémologique qu’un groupe de chercheurs et de chercheuses développe afin d’appliquer le principe de “métamédias” :   La plupart des appareils numériques que nous utilisons quotidiennement fonctionnent comme des media, en ce sens qu’ils permettent de transmettre, d’enregistrer et/ou traiter de l’information. Il paraît toutefois plus judicieux de les identifier au sein d’une classe particulière d’appareils de médialité qu’Adele Goldberg et Alan Kay ont proposé d’appeler “métamédias”. Ils caractérisaient de cette façon les media numériques par leur capacité à simuler tous les autres types de média préexistants. Ce sont des métamédias en ce sens que ce sont des media qui incluent en eux les autres medias et les re-médient de multiples façons. (Citton, Lechner & al., 2023, p. 276)   Il faut replacer cette expérimentation dans son contexte. La fin des années 1960 est le moment d’une forte émulation intellectuelle autour des médias, et du développement de l’informatique. Cette période est particulièrement bien décrite par Fred Turner dans Aux sources de l’utopie numérique (Turner, Vannini& al., 2021), où plusieurs initiatives se croisent, se rencontrent ou s’entrechoquent. Les réflexions de Marshall McLuhan ou Buckminster Fuller sur les médias influencent nombre de communautés, dont les recherches des informaticiens et des informaticiennes du centre de Palo Alto :   I named the notebook-sized computer idea the Dynabook to capture McLuhan’s metaphor in the silicon to come. (Kay, 1990, p. 193)   Dans Personal Dynamic Media (Kay & Goldberg, 1977), Adele Goldberg et Alan Kay décrivent une expérience menée auprès d’enfants avec le Dynabook, un dispositif informatique portable, et avec Smalltalk, un langage de programmation orienté objet. Leur idée centrale est de créer un environnement, basé sur l’informatique, suffisamment ouvert pour permettre tout type de pratiques médiatiques ou artistiques, comprenant la création des outils par les utilisateurs et les utilisatrices elles-mêmes :   The burden of system design and specification is transferred to the user. This approach will only work if we do a very careful and comprehensive job of providing a general medium of communication which will allow ordinary users to casually and easily describe their desires for a specific tool. (Kay & Goldberg, 1977, p. 41)   Ce qui est développé à cette période rassemble tous les principes de l’informatique personnelle, telle que nous la connaissons encore aujourd’hui : interface graphique, souris avec un pointeur, supports de stockage, etc. Toutefois les logiciels tels que pensés ici divergent de la définition que nous avons donnée précédemment, il s’agit d’une période intermédiaire où les premières interfaces sont développées tout en conservant des modes d’interaction via des commandes textuelles.   All of the systems [writing, editing, drawing, doing animation or music, programming] are equally controllable by hand or by program. Thus, drawing and painting can be done using a pointing device or in conjunction with programs which draw curves, fill in areas with tone, show perspectives of three-dimensional models […], and so on. (Kay & Goldberg, 1977, p. 35)   Les modalités d’interaction ne se limitent donc pas à une interface graphique qui, comme nous l’avons vu (voir 5.1. Les chaînes d’édition : composer avec les logiciels), est opaque par défaut. L’environnement logiciel du Dynabook, permis par Smalltalk, est pensé à la fois comme une facilitation des habituels modes d’interaction par la programmation, mais aussi comme un contrôle de la machine “par la main” — pour reprendre les mots d’Alan Kay et Adele Goldberg. Certaines actions peuvent ainsi être à la fois réalisées par le biais du pointeur en sélectionnant des éléments (tirer un trait pour dessiner par exemple) et des fonctions (via un menu déroulant), ou en écrivant quelques lignes d’instructions dans le langage Smalltalk. Le fonctionnement de l’ordinateur, ou tout du moins une partie, reste accessible aux personnes qui souhaitent y recourir.   One young girl, who had never programmed before, decided that a pointing device ought to let her draw on the screen. She then built a sketching tool without ever seeing ours […]. She constantly embellished it with new features including a menu for brushes selected by pointing. She later wrote a program for building tangram designs. (Kay & Goldberg, 1977, p. 37)   Il ne s’agit pas que de laisser la possibilité d’interagir avec les logiciels disponibles via les modalités de programmation, mais de programmer aussi de nouveaux outils, ou de programmer des pratiques. L’exemple donné ci-dessus par Adele Goldberg et Alan Kay est d’autant plus intéressant que cette jeune fille ne cherche même pas à voir quel outil existe pour dessiner avec un pointeur, elle en crée un elle-même. Si cela requiert des compétences en programmation qui peuvent sembler difficiles d’accès, Alan Kay et Adele Goldberg précisent bien que les jeunes utilisateurs et utilisatrices qui utilisent Dynabook — ou plus précisément interim Dynabook —, ont les capacités et l’envie de programmer, notamment du fait que cette expérience leur procure un “énorme sentiment d’accomplissement”. Cela fait partie des usages inattendus de cette expérience. Si l’expérimentation présentée ici ne relève pas directement de pratiques d’édition, elle n’en demeure pas moins une initiative dans le champ de la gestion de l’information et de la création de contenus. Le duo Dynabook et Smalltalk présente donc un intérêt substantiel qui vient confirmer l’idée selon laquelle le logiciel ne doit pas forcément être le mode d’interaction unique pour créer. Mais que s’est-il ensuite passé pour que les principes de ce projet quelque peu utopique mais néanmoins concret n’aient pas perduré par la suite ? Le développement des interfaces utilisateurs (graphiques) a pris un tournant que le même Alan Kay critique plus de dix plus tard, et c’est ce que nous analysons désormais.   5.2.2. Au centre l’interface Si nous abordons la question des interfaces — champ d’études lié au logiciel —, c’est pour constater une évolution entre les débuts de l’informatique et la nécessité d’alors de programmer pour interagir avec la machine, et une omniprésence plus récente des logiciels et de leurs interfaces comme accès unique au numérique. Notre argumentation ne porte pas sur un retour à la programmation pour n’importe quelle (inter)action numérique, mais sur un dévoilement des rouages informatiques et d’une possibilité de reconfiguration du médium informatique afin de disposer d’une maîtrise permettant l’émergence de nouveaux modèles épistémologiques via des pratiques éditoriales. Dans ce cadre les logiciels et leurs interfaces utilisateur sont des éléments déterminants. Avant d’explorer plusieurs initiatives éditoriales qui s’opposent au logiciel, et des pratiques créatives basées sur le code, nous exposons les critiques d’un des pionniers de l’ordinateur personnel et des interfaces, Alan Kay. Plus de dix ans après son article co-écrit avec Adele Goldberg, Alan Kay propose un texte pour un ouvrage collectif sur les interfaces (Laurel & Mountford, 1990). Cet article (Kay, 1990) est l’occasion pour lui de revenir sur les travaux qu’il a menés avec son équipe au Xerox PARC de Palo Alto autour du Dynabook, et les motivations sous-jacentes. Il est ici question de considérer l’informatique — et l’ordinateur — non pas comme un outil ou un véhicule mais comme un médium. La notion d’agent est essentielle dans cette conception empreinte de la pensée de Marshall McLuhan. La réflexion d’Alan Kay est aussi nourrie par des lectures en psychologie, prenant en compte des capacités d’apprentissage dans la définition des éléments d’interaction constituant des interfaces. L’enjeu est délicat dans un contexte où la programmation pure a encore une place importante, comme nous avons pu le voir avec des systèmes programmatiques de composition comme (La)TeX.   The challenge would be to produce a language in which the act of programming produces within it an understandable explanation. (Kay, 1990, p. 203)   Le concept d’agent intervient justement pour faire le lien entre la machine et les personnes qui y ont recours. À travers cette conceptualisation Alan Kay critique en creux d’autres démarches (note : Au moment où Alan Kay rédige ce texte il travaille pour Apple, cela explique probablement une certaine retenue dans ses formulations que nous pouvons deviner comme très critiques.) devenues à la fois complexes dans leurs finalités, et opaques dans leur adaptabilité. Pour expliciter cela Silvio Lorusso paraphrase ainsi Alan Kay :   […] les choses simples ne sont pas restées simples et les choses compliquées sont devenues moins possibles. (Lorusso, 2021, p. 28)   Sans faire ici un compte-rendu exhaustif sur ce texte foisonnant d’Alan Kay, nous retenons l’idée selon laquelle l’environnement ou le dispositif doit être appropriable, et cette appropriation passe d’une certaine façon par un acte de programmation dont il fait mention à plusieurs reprises :   While designing the FLEX machine I had believed that end users needed to be able to program before the computer could become truly theirs […]. (Kay, 1990, p. 193)   Le positionnement d’Alan Kay est en cela proche de celui de Friedrich Kittler, la différence se faisant sur l’application de ce principe d’écriture utilisé par ce dernier. Alan Kay articule des éléments d’interfaçage avec une pratique de la programmation, il s’agit de commencer par le concret pour ensuite passer à l’abstrait, ou de faire usage de moyens iconiques (icônes, fenêtres) pour permettre un passage au symbolique (langage de programmation orienté objet), aboutissant au slogan : “Doing with Images makes Symbols” (Kay, 1990, p. 196). Smalltalk est pensé justement comme un langage de programmation suffisamment accessible et modulaire pour permettre à des enfants de le maîtriser pour toute sorte d’applications. Ce lien entre interface utilisateur et programmation se retrouve dans d’autres travaux de recherche et dans des expérimentations, comme le travail particulièrement novateur de Muriel Cooper au MIT sur les interfaces graphiques (Maudet, 2017). Comme l’a souligné Silvio Lorusso dans son article “Liquider l’utilisateur” (Lorusso, 2021), les concepts développés par Alan Kay et son équipe sont loin d’avoir été appliqués dans les logiciels tels que nous les utilisons majoritairement aujourd’hui. Pourtant d’autres pratiques, fortement liées à l’édition, émergent en réaction à cette hégémonie du logiciel et à une forme d’uniformisation des pratiques qui en est induite. Après avoir exploré comment les logiciels et leurs interfaces sont apparus, et critiqués leur usage massif, nous questionnons la façon dont il est possible d’éditer et de composer sans logiciel.   5.2.3. Éditer et composer sans logiciel L’édition est un domaine avec des pratiques logicielles globalement uniformes, pour la structuration et la composition. Pourtant, le design graphique est plus spécifiquement un domaine où des pratiques sans logiciel se développent. C’est ce que nous analysons ici avec la question de l’appropriation du code par des designers (et non des éditeurs) pour développer des pratiques (nouvelles ?) de création et de production (dont de l’édition). Le numéro de la revue Graphisme en France de 2012 est un panorama de pratiques de designers que nous pouvons qualifier de non conventionnelles, en raison du choix ou de la constitution des outils de ces designers en dehors des pratiques majoritaires. Dans l’article “Code = design”, Kévin Donnot arrive au même constat que le nôtre, une majorité de praticiens et de praticiennes utilisent les mêmes logiciels, et ceux-ci ont une influence sur leur démarche de création et sur les artefacts produits. Pourtant les pratiques artistiques sont historiquement habituées à ce que l’outil ait une place importante dans l’œuvre qui en résulte.   Pourquoi ne pas assumer cette influence et choisir un outil en fonction de son empreinte ? Ne faudrait-il pas s’interroger sur l’outil qu’il serait juste d’employer avant de se tourner machinalement vers son logiciel habituel ? (Donnot, 2012, p. 7)   C’est encore une fois la question de la relation avec la technique qui intervient ici, le fait de modeler ses propres outils ou au moins de remettre en cause ceux qui sont imposés.   On peut alors envisager le design logiciel non plus comme une technique au sens réducteur du terme, mais comme partie intégrante du processus de design graphique. (Donnot, 2012, p. 10)   Si les exemples donnés dans ce numéro de Graphisme en France relèvent majoritairement du design graphique et de la visualisation de données — notamment avec les possibilités du design génératif —, les questionnements soulevés par Kévin Donnot mais aussi par Annick Lantenois concernent plus globalement les modes de création et de production d’artefacts tels que le livre.   […] ces textes de programmation sont de la pensée qui dicte – impose – les formes, les syntaxes, les structures et, globalement, l’environnement sensible de lecture et d’écriture. […] De la maîtrise de ce qui s’écrit dans ces programmes dépend donc la liberté de ceux (les designers graphiques) qui utilisent les logiciels, de ceux (les lecteurs, les utilisateurs) à qui sont destinés les « objets », les dispositifs conçus avec ces logiciels, et de tous ceux qui suivront après nous. Les logiciels propriétaires d’écriture, de lecture, de mise en pages, de traitement d’images et de sons, traduisent, par conséquent, la pensée des firmes éditrices. (Lantenois, 2012, p. 19)   Les logiciels propriétaires, et les logiciels tout court, peuvent être oubliés au profit de démarches plus ouvertes, considérant la programmation comme partie intégrante d’une démarche de design. C’est ce que confirment Julie Blanc et Nolwenn Maudet dix ans plus tard dans la même revue, avec une analyse des pratiques de programmation en design graphique. Il s’agit plus spécifiquement de recherches et de travaux autour de la composition de pages, et de l’influence d’une culture du Web sur la production d’artefacts imprimés. Ce Web est une occasion incroyable de repenser les modes de création et de production en design graphique.   Ainsi les designers graphiques codent-ils pour être au plus près des supports de lecture et de communication avec lesquels ils travaillent. […] Ces pratiques du code contribuent en même temps à dépasser les approches issues des logiciels à interfaces graphiques qui avaient poussé les designers graphiques à adopter l’informatique comme principal outil au début des années 1990. (Blanc & Maudet, 2022, p. 30)   Le collectif Open Source Publishing (OSP) (note : http://osp.kitchen), cité à plusieurs reprises dans les deux textes, illustre cette démarche. OSP développe d’abord des pratiques autour du logiciel libre, puis crée ses propres outils via la programmation. Ce collectif a une place pionnière dans le mouvement dit du CSS print, qui émerge notamment en Belgique (Visscher, 2019) et qui consiste à imprimer une page web pour produire des artefacts tels que des livres (note : Plusieurs expressions définissent cette pratique, nous préférons CSS print à web to print (trop ambigüe) ou HTML to print (pas assez précise), puisqu’il s’agit d’utiliser le langage de mise en forme CSS pour concevoir et produire des documents paginés et des fichiers imprimables.). Autrement dit à utiliser les technologies du Web — HTML, CSS et JavaScript — pour mettre en forme des artefacts imprimés et générer les fichiers pour l’imprimeur. Les différentes personnes qui composent le collectif OSP créent des outils et mettent en place plusieurs processus de publication, utilisant certaines fonctionnalités bien précises du langage CSS et des navigateurs web (note : Il s’agit plus spécifiquement des modules CSS “CSS Paged Media Module Level 3” et “CSS Generated Content for Paged Media Module”, standards développés depuis 1999 : https://www.w3.org/TR/css-page-3/ et https://www.w3.org/TR/css-gcpm-3/.) pour produire des documents paginés (posters, brochures, livres, etc.). Il s’agit autant d’une démarche d’émancipation des logiciels en général et des logiciels dits propriétaires en particulier, qu’une volonté de construire leurs propres outils et de les rendre disponibles à tous. Nous retenons trois éléments primordiaux dans ce dialogue entre ces deux textes et ses pratiques, qui s’étalent sur plus de dix ans dans le champ du design graphique : la marque de l’outil dans les créations, la démarche adaptative, et la perspective positive de ces initiatives. Ces façons de faire non conventionnelles donnent tout d’abord un souffle nouveau aux identités graphiques elles-mêmes. En plus d’être une occasion de créer des outils sur mesure, les artefacts générés peuvent conserver une empreinte graphique et visible de procédés génératifs, de programmes ou de polices typographiques non finalisées, ou de filtres inédits. Ensuite ces démarches sont nécessairement adaptatives, il ne s’agit pas de créer de nouveaux instruments de zéro, mais de trouver des moyens d’adapter certains logiciels ou composants existants pour la pratique du design graphique — et notamment la composition de pages. C’est également ce que décrit Nolwenn Maudet lorsqu’elle constate une “inadéquation” entre des designers et leurs outils, et qu’une piste de résolution pertinente est la programmation (Maudet, 2018). Enfin, les différents entretiens ou témoignages de designers programmeurs et programmeuses ont en commun de révéler un rapport positif avec la technique dans la création ou l’adaptation d’outils. Il s’agit d’une disposition constructive intégrée à la pratique du design graphique en général.   […] for me it’s more like a collection of practices and the tools that support these practices. [Alexandre Leray] (Berends, Heij & al., 2023)   À l’injonction productiviste qui vient s’infiltrer jusque dans des pratiques liées à la fois à l’édition et au logiciel libre, se manifestant par la production d’outils prêts à servir, il y a une forme de désolidarisation des personnes qui pratiquent. Nous prolongeons l’analyse de l’usage des technologies du Web pour imprimer initié notamment par le collectif OSP.   5.2.4. Imprimer dans le navigateur, les expérimentations pionnières d’Open Source Publishing Parmi les expériences d’adaptation ou de création d’outils, celles d’Open Source Publishing (note : Précisons ici que l’auteur de cette thèse a eu l’occasion de travailler avec une membre d’OSP, Amélie Dumont, sur un projet éditorial commandité par l’Université Lyon 3, de septembre 2022 à octobre 2023.) touchent plus spécifiquement à l’édition avec la mise en page de documents de type livre — ou paginés —, proposant des modalités éditoriales qui dépassent le design graphique, et qui révèlent un besoin et une envie de créer des outils et des environnements. À travers le mouvement dit du CSS print, et plus globalement du creative coding, nous analysons à quel point des pratiques d’édition se mêlent à la création d’outils non conventionnels. Dit autrement, comment des pratiques de design s’accompagnent-elles d’une démarche conjointe de développement d’outils ? Sans faire ici une étude de cas élaborée, nous relevons plusieurs éléments remarquables dans quelques projets et outils d’OSP. Les expérimentations d’OSP autour de l’impression via un navigateur web commencent avec la production de livrets pour le Théâtre de la Balsamine en 2011. La collaboration entre ce commanditaire et OSP prend la forme d’une recherche d’identité graphique, de la production de documents paginés — un programme — et l’expérimentation d’outils non conventionnels d’édition et de publication. Dès les débuts de ce projet, qui se répète annuellement jusqu’en 2022, l’idée n’est pas que de proposer une nouvelle grammaire graphique pour la communication d’une structure culturelle, mais de repenser la façon d’éditer un document bien particulier qu’est un programme de théâtre. Les outils alors utilisés varient, passant du logiciel de PAO libre Scribus à des expérimentations avec les navigateurs web. À partir de 2013 OSP travaille avec les spécifications CSS Regions pour pouvoir mettre en pages des contenus d’habitude sous forme de flux, c’est le début du mouvement dit CSS print et la mise en place d’un workflow nommé “HTML2print”. L’idée est d’utiliser le langage HTML en tant que structuration sémantique, et le format CSS comme instructions de mise en forme, sans recourir à des logiciels autres que le navigateur pour aboutir à un document au format PDF. Si la collaboration avec le Théâtre de la Balsamine est l’occasion de tester de multiples approches, cette chaîne de traitement graphique et de production de documents paginés et imprimables “HTML2print” est ensuite par exemple systématiquement utilisée pour le magazine Médor à partir de 2015 (note : https://medor.coop). OSP s’implique ensuite dans plusieurs projets éditoriaux, dont un livre co-signé avec Catherine Lenoble aux éditions HYX, Anna K. Stéphanie Vilayphiou et Alexandre Leray, membres d’OSP, construisent avec Catherine Lenoble deux objets éditoriaux : un site web et un livre imprimé. L’implication des deux graphistes dans cette aventure éditoriale dépasse la composition ou la production d’un artefact, il s’agit aussi de produire des formes narratives graphiques faites de lignes de code ou de graphes, ce qui explique que le livre soit signé Catherine Lenoble et OSP. Tout est réalisé avec les technologies du Web, le logiciel est ici relégué au second plan, la majeure partie du travail éditorial passant par la modification du code — HTML, CSS et Python pour certaines manipulations. Cet ouvrage est un exemple typique de publication multimodale telle que nous l’avons déjà évoquée (voir 4.4. Le single source publishing comme acte éditorial sémantique), les deux objets étant néanmoins distincts pour leur production. Ce projet éditorial est également une occasion pour OSP d’affiner les outils développés pour produire des objets éditoriaux divers, ici l’usage de la spécification CSS Regions déjà évoquée. Point important, tous les projets d’OSP sont accompagnés d’une documentation, dans l’optique de pouvoir réutiliser les outils au sein du collectif mais aussi plus largement — les licences qui accompagnent ces bouts de code sont très permissifs. Aussi, un blog documente d’un point de vue plus général les expérimentations diverses (note : http://blog.osp.kitchen/). Le collectif PrePostPrint (note : https://prepostprint.org) se constitue en 2017 à l’initiative de Raphaël Bastide et Sarah Garcin, faisant suite aux pratiques initiées par OSP. En effet, ces pratiques se répandent dans la communauté composite du design graphique, dans les studios et les écoles (principalement en Europe), comme une revendication forte d’adopter d’autres moyens que cette vision unique du logiciel telles que le décrivent Julie Blanc et Nolwenn Maudet dans leur article déjà cité (Blanc & Maudet, 2022). Durant l’automne 2021 plusieurs présentations autour de l’usage des technologies du Web pour concevoir et produire des documents paginés et imprimés ont lieu dans le cadre de l’événement “Open Publishing Fest” organisé par Adam Hyde et Julien Taquet et soutenu par la Collaborative Knowledge Fondation (Coko) (note : https://openpublishingfest.org). La “bibliothèque web to print”, coordonné par Lucile Haute avec Quentin Juhel et Antoine Lefebvre (note : http://2print.org) s’inscrit également dans ce mouvement, recensant les multiples productions éditoriales paginées qui reposent sur les technologies du Web et une pratique du code. Un trait commun transparaît à travers ces initiatives : l’assemblage ou la création d’outils qui reposent sur le logiciel libre afin de prendre en compte des besoins formulés par celles et ceux qui pratiquent le design graphique, et non des contraintes imposées par des entreprises privées. Une dernière question doit être posée ici : s’agit-il vraiment de créer des outils réutilisables ? Les efforts d’OSP, que ce soit pour les projets évoqués ci-dessus ou pour d’autres, se concentrent surtout sur les artefacts. Il arrive ainsi que certaines documentations soient incomplètes, ou que l’organisation des dépôts de code ne facilite pas la réutilisation de certains programmes ou micrologiciels. Comme l’a dit plus haut Alexandre Leray, il s’agit de documenter les pratiques et les outils qui les accompagnent, plus que de proposer des logiciels prêts à l’emploi. Cette démarche reflète une inscription dans la culture hacker, fondamentalement anticapitaliste, qui préfère ainsi mettre à disposition des productions sous des conditions qui permettent leur réutilisation, leur adaptation et souvent aussi leur finalisation, plutôt que formater des instruments éditoriaux. Cet usage créatif de la programmation, tournée vers la pratique plus que vers des solutions ou des produits, fait l’objet du développement qui suit.   5.2.5. Se passer de logiciel, entre bricolage et pratiques collectives et collaboratives La place de la programmation dans les pratiques de design graphique est un terrain particulièrement stimulant pour nos recherches, tant les corps de métier et les personnes qui les incarnent les font évoluer et révèlent de nouvelles modalités d’édition, des perspectives d’émancipation avec le numérique ou l’informatique. Après les deux numéros de Graphisme en France en 2012 et 2022, l’ouvrage Graphic Design in the Post-Digital Age: A Survey of Practices Fueled by Creative Coding (Conrad, Leijsen& al., 2021) questionne la relation du design graphique avec des pratiques de programmation. Ce travail de recherche, initié par la Haute école d’art et de design de Genève, regroupe deux essais et une série d’entretiens avec des designers dans le domaine du graphisme — le livre a été édité une première fois par Onomatopee en 2021 puis réédité par Set Margins’ en 2023 (Conrad, Leijsen& al., 2023). Si l’édition n’est pas au centre de cet ouvrage, c’est un sujet qui revient pourtant régulièrement, le livre ayant encore une place importante dans les pratiques du design graphique. L’objet de Graphic Design in the Post_Digital Age est de récolter des témoignages de pratiques de programmation créative — ou creative coding — et d’apporter un regard critique sur ces initiatives. Si le graphisme était originellement artisanal et artistique, est-ce que la programmation pourrait devenir l’outil d’un nouveau type d’artisanat ? C’est la question que pose Demian Conrad dans l’introduction (Conrad, 2021). L’ère du logiciel, désormais en grande partie dominée par les produits d’Adobe dans le champ du design graphique, pourrait ainsi voir advenir une communauté hétérogène qui construit elle-même ses outils. Demian Conrad précise plusieurs postulats nécessaires pour comprendre une situation contemporaine, et notamment l’arrivée d’outils permettant de générer des formes graphiques comme Processing, ou encore la période post-digital comme point de départ d’hybridations entre imprimé et numérique. Dans l’essai qui suit cette introduction, Silvio Lorusso apporte un regard critique bienvenu, distinguant deux postures antagonistes : apprendre à programmer ou programmer pour apprendre. Il y a une certaine pression économique, les compétences en programmation étant attendues par une société qui a besoin d’ouvriers du code plutôt que de bricoleurs créatifs. Silvio Lorusso insiste à juste titre sur la tension entre la programmation vue comme un gain de temps pour des opérations d’habitude longues, et la programmation comme processus d’apprentissage nécessairement lent :   This is the paradox of creative coding: the coding part is supposed to make things faster, the creative part requires that things go slowly. (Lorusso, 2021, p. 32)   La programmation, dans le cas du design graphique, est donc une pratique qui permet de repenser l’usage de l’informatique plutôt que d’automatiser toute sorte de tâches. Nous retrouvons là un motif déjà abordé avec l’approche des humanités numériques (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques). Construire un environnement sans logiciels, ou en tout cas sans les outils dont la profession est assujettie, demande du temps. Ce cheminement est valorisé par des studios ou des collectifs qui, en plus d’apporter une identité graphique spécifique comme nous l’avons mentionné plus haut, amène aussi un nouveau cadre épistémologique à leurs commanditaires. C’est notamment ce qui ressort des entretiens qui suivent ces deux textes. Nous notons plusieurs éléments récurrents dans les témoignages des vingt-deux designers ou collectifs, marquant à la fois les possibilités mais aussi les limites des outils ainsi créés. Le premier apport de la programmation, dans le design graphique en général, tient dans des outils créés sur mesure, et cela pendant la création. Dans le cas de l’édition il s’agit surtout d’avoir recours au CSS print, pour construire de nouvelles interfaces de travail : le navigateur web est à la fois le logiciel qui produit une version imprimée d’un site web — certes bien spécifique —, mais aussi le moyen de prévisualiser ce travail. Aussi, certaines des personnes interrogées signalent que les outils développés le sont également pour les commanditaires, toutefois ces derniers n’utilisent pas toujours ces instruments qui sortent quelque peu de l’ordinaire par rapport aux logiciels traditionnels, comme le rapporte notamment le collectif Luuse (Conrad, Leijsen& al., 2021, p. 291). La question ici pourrait être de savoir si, dans ce cas, les personnes qui éditent ne doivent pas adopter la même démarche pour être en mesure d’utiliser elles-mêmes les outils ainsi créés. Enfin, parmi les multiples réflexions dont témoignent ces pratiques hétérogènes, une distinction est faite entre différents types de codes. De la même façon que Silvio Lorusso pointait la différence entre une profession (développeur) et une main-d’œuvre (codeur), Marianne Plano signale que le soin apporté au code diffère selon l’artefact créé. Dans le cas d’un artefact imprimé, le code pour parvenir à ce résultat peut rester incomplet, ce qui ne peut pas être possible pour un artefact qui est lui-même numérique.   If you use programming to create a poster and your code is a bit messy, it does not matter as long as the outcome is compelling, but if you are creating a website, the code has to work properly. [Marianne Plano, collectif Luuse] (Conrad, Leijsen & al., 2021, p. 294)   Programmer sans être développeur ou développeuse de métier est possible pour constituer de nouveaux modèles éditoriaux et épistémologiques. Les outils créés ne sont ni vendus ni mis à disposition pour être réutilisés sans un effort de compréhension et d’adaptation, ce qui explique aussi que les éditeurs de logiciels commerciaux ne s’inquiètent probablement pas pour le moment de telles initiatives. Cet effort de décomposition et d’ouverture, initié pour fabriquer des processus hétérogènes, aboutit à des pratiques sans le logiciel. Dans le cas de l’édition, et plus spécifiquement du mouvement dit du CSS print, une bibliothèque de code est régulièrement citée dans les entretiens, il s’agit de Paged.js (note : https://pagedjs.org/). Les origines et le fonctionnement de Paged.js, décrits dans la section suivante (voir 5.3. L’édition libre de C&F) à travers l’étude de cas de C&F Éditions, révèlent une intention collective pour permettre l’émergence d’un nouveau paradigme pour la composition et la mise en page de documents paginés autour de standards. Le développement de cette bibliothèque de code marque la nécessité de réunir des efforts divers autour du CSS print, de permettre de bricoler mais aussi de penser des environnements stables et durables, de rassembler les énergies dans le prolongement du logiciel libre. Loin d’être une uniformisation des pratiques comme nous avons pu l’observer avec certains logiciels dans l’édition, Paged.js est une occasion de réunir des initiatives plurielles, de faire converger les différentes expérimentations présentées dans cette section tout en laissant le champ des possibles — graphiques et processuels — ouverts. Il convient désormais d’interroger la cristallisation de ces pratiques dans le domaine de l’édition, et plus spécifiquement du côté d’une structure d’édition. Au-delà de la commande en design graphique, comment une maison d’édition est-elle en mesure de faire des livres sans logiciels ? C’est l’objet de la prochaine section sous la forme d’une étude de cas de C&F Éditions. 5.3. L’édition libre de C&F [63dfd2e] Comment une structure d’édition intègre-t-elle des pratiques d’édition sans logiciels ? Pour répondre à cette question nous analysons une chaîne d’édition mise en place et utilisée par la maison d’édition C&F Éditions (note : L’auteur de cette thèse a réalisé plusieurs prestations de production de livres numériques au format EPUB en 2017 et 2018 pour C&F Éditions, sans pour autant participer aux projets présentés dans cette étude de cas. Antoine Fauchié a également été membre du comité des Rencontres internationales de Lure aux côtés de Nicolas Taffin en 2014 et 2015.). Cette étude de cas aborde une situation concrète de production éditoriale qui se passe de logiciel, qui s’en libère — ou tout du moins qui décompose un processus d’habitude entièrement dépendant d’un logiciel — avec toutes les implications que cela peut avoir : maîtrise du flux de composition éditoriale, indépendance vis-à-vis de logiciels propriétaires, création d’outils typographiques sur mesure, temps nécessaire à l’adaptation ou au développement de bibliothèques de code, nouvelles modélisations éditoriales, gestion de dettes techniques, etc. Nous présentons tout d’abord la démarche globale de C&F Éditions (note : Dans la suite de l’étude de cas nous utilisons indistinctement les formulations “C&F” et “C&F Éditions”.), tant en termes de catalogue (titres, collections, thématiques) que de vision de l’édition (notamment sur le droit d’auteur), passage indispensable pour comprendre les choix opérés depuis 2003. La collection “interventions” est le point de départ de l’application des principes du CSS print, ou le fait d’imprimer un livre depuis le navigateur. Il s’agit de comprendre comment la chaîne d’édition a été adaptée dans ce cas précis, puis d’étudier la myriade d’ajustements et d’outils développés autour de Paged.js. Enfin nous apportons un regard critique à cette démarche, en la reliant à d’autres initiatives éditoriales du même type. À travers cette étude de cas, nous interrogeons le lien entre la création des outils d’édition et l’édition elle-même. Autrement dit : à quel point C&F Éditions constituent une fabrique d’édition ?   5.3.1. C&F, une maison d’édition pas comme les autres C&F est une maison d’édition qui publie depuis 2003 des textes sur la culture numérique, avec des intérêts forts sur les communs et l’éducation, et un positionnement critique qui se retrouve dans le catalogue ainsi que (notamment) dans le choix des outils d’édition. Nicolas Taffin et Hervé Le Crosnier ont fondé cette structure d’édition, combinant plusieurs métiers et compétences : design graphique, typographie et design web pour le premier ; bibliothéconomie et sciences de l’information et de la communication pour le second. Pour qui dispose d’un intérêt en lettres en général, et en sciences de l’information en particulier, il faut également noter que Hervé Le Crosnier est le créateur de la liste de diffusion Biblio-fr (note : Il s’agit d’une initiative commune avec Michel Melot, Sara Aubry a modéré la liste pendant plusieurs années.), et que ses recherches portent sur les questions d’accès à l’information — notamment l’édition ou la question des communs. Nicolas Taffin est d’abord designer, ses implications dans des projets commandités, éditoriaux ou institutionnels sont diverses ; il a également été président des Rencontres internationales de Lure (note : https://delure.org), rendez-vous annuel autour de la culture graphique (typographie, calligraphie, illustration, design graphique, édition, métiers du livre, littérature, photographie, etc.). Il a enseigné dans plusieurs cursus universitaires, notamment à l’Université de Caen-Normandie en France en lien avec le projet Métopes — que nous avons déjà abordé (voir 4.4. Le single source publishing comme acte éditorial sémantique). La complémentarité de ces deux profils, tant par leurs compétences, leur curiosité et leur réseau, permet à cette structure d’édition de savoir où elle se situe et comment opérer dans la chaîne du livre. Le catalogue de C&F Éditions suit une thématique principale, la culture numérique, comme le confirment certains des titres qui jalonnent les vingt ans d’activité : Le Document à la lumière du numérique du collectif Roger T. Pédauque (2006), Aux sources de l’utopie numérique de Fred Turner (2012, réédité en 2021), Grandir connectés d’Anne Cordier (2015), La tête dans la toile de Xavier de la Porte (2016), Twitter & les gaz lacrymogènes de Zeynep Tufekci (2019) ou encore La pensée selon la tech d’Adrian Daub (2022). La maison d’édition se place dans les débats sociaux ou sociétaux contemporains, le numérique étant une occasion de poser des questions de fond comme l’accès à la connaissance, ce qui fait société, l’éthique dans la technologie, ou plus globalement la place de la technique. Plusieurs ouvrages publiés par C&F font référence — le livre de Fred Turner en est un bon exemple, salué par des universitaires français —, y compris dans le domaine académique, et révèlent également une exigence intellectuelle partagée avec d’autres maisons d’édition en France (Éditions du commun, Éditions Divergences, Éditions B42, Éditions Dehors, etc.). Une bonne part des autrices et des auteurs de C&F sont d’ailleurs des universitaires. Cette exigence se retrouve dans la qualité éditoriale de chaque titre, le soin apporté aux textes mais aussi aux artefacts eux-mêmes — imprimés et numériques. La maison d’édition questionne par là même le format livre. C&F est une petite maison d’édition — elle fait partie des franges de l’oligopole, déjà abordée précédemment (voir 2.1. Évolution de l’édition) —, petite en raison du nombre de titres publiés par an qui ne lui permettent pas de disposer d’une distribution ou d’une diffusion dite professionnelle — entendons par là externalisée. Petite aussi en raison du nombre d’exemplaires de chaque titre, que nous pouvons deviner relativement limités par rapport aux grandes maisons d’édition francophones, justement en raison de la distribution/diffusion internalisée. Cette dimension apporte une grande liberté à la structure, qui peut par exemple élaborer son propre rythme de publications, ou ajuster le tirage pour chacun des titres. C&F Éditions se démarquent d’autres structures d’édition par la remise en cause de plusieurs principes établis, en l’occurrence le droit d’auteur et le contrat passé avec le lecteur ou la lectrice, ainsi que les outils habituellement utilisés dans l’édition. En 2011 C&F Éditions établit une licence “Édition Équitable”, dont le but est de promouvoir une relation équitable entre la structure d’édition, l’auteur ou l’autrice, et la lectrice ou le lecteur.   La lecture n’est pas réductible à une consommation. C’est une activité productive et sociale, et non passive et solitaire. La licence Édition Équitable vise à promouvoir les droits des lecteurs et lectrices. Elle présente également le rôle de l’éditeur, proposant entre lecteur et éditeur un contrat équitable et durable. (C&F Éditions, 2011)   Cette volonté de reconsidérer la relation entre la structure qui édite des contenus et les personnes qui les lisent se traduit également par le fait de mettre en ligne un certain nombre de textes en accès libre, ou dans le choix de ne pas apposer des mesures techniques de protection sur les livres numériques au format EPUB. Plutôt que d’entraver l’usage d’un livre ou d’obliger l’utilisation de logiciels spécifiques — comme Adobe Digital Edition —, les livres numériques sont simplement marqués du nom de leur acheteur. Autre caractéristique notable par rapport à d’autres maisons d’édition, C&F Éditions crée des outils pour son activité d’édition. Avant de prolonger cette question avec l’analyse d’une chaîne d’édition originale, nous pouvons citer le projet Polifile, une plateforme en ligne facilitant la création de livres numériques au format EPUB. En 2011 Hervé Le Crosnier et Nicolas Taffin mettent en ligne (note : https://web.archive.org/web/20110701121529/http://polifile.fr/) une version beta, proposant un service payant de conversion depuis des formats de traitement de texte, pour aboutir à un fichier EPUB respectant les standards. Cet outil, d’abord développé pour les besoins de la maison d’édition comme le signale Nicolas Taffin lui-même (Taffin, 2011), accompagne le lancement de la licence citée plus haut. Cette volonté de construire leurs propres outils se prolonge avec la constitution d’une chaîne d’édition mise en place autour du principe de CSS print.   5.3.2. La collection “interventions” comme point de départ La création d’une nouvelle collection est l’occasion pour C&F de mettre en place les principes du CSS print évoqués précédemment (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts), et ainsi de tester directement au sein d’une maison d’édition des expérimentations réalisées jusque-là du côté de designers. Si dans la section précédente il s’agissait du développement d’outils nécessaires à la réalisation d’un travail de commande, nous passons désormais à l’intégration de principes techniques dans la chaîne d’une maison d’édition. La collection “interventions”, et d’autres livres de C&F Éditions qui suivent, sont une formidable occasion d’observer ce déplacement des pratiques, mais aussi leur formalisation, leur appropriation et leur évolution — le livre le plus récent produit par C&F avec le CSS print a été publié à l’hiver 2023. Ainsi en 2019 est publié Addictions sur ordonnance, un texte de Patrick Radden Keefe sur la “crise des opioïdes” aux États-Unis accompagné de trois articles de journalistes ou d’éditeur. Il s’agit du premier livre imprimé en offset à avoir été réalisé avec Paged.js. Notons également que cette étude de cas bénéficie du travail de documentation et de transmission réalisé par Nicolas Taffin (Taffin, 2019). Débutons tout d’abord en précisant que Nicolas Taffin s’intéresse aux chaînes d’édition basées sur les technologies du Web depuis plusieurs années, sa participation à différents événements organisés par PrePostPrint en atteste notamment, tout comme son implication dans les Rencontres internationales de Lure, qui accueillent ce type d’expérimentations. Nicolas Taffin porte un regard critique sur les outils massivement utilisés par l’édition, dont Adobe InDesign. Des billets de blog et son livre Typothérapie (Taffin & Melot, 2023) révèlent un positionnement qui conjugue une prise en compte des conditions de travail réelles des éditeurs — souvent peu compatibles avec une dimension expérimentale — et la recherche de processus non conventionnels. Dans ce contexte la collection “interventions” apparaît comme un bac à sable idéal pour tester des principes comme imprimer un livre avec un navigateur web. Cette collection a des spécificités particulières qui facilitent l’implémentation du CSS print : textes courts ou peu structurés, peu d’illustrations et matériel critique réduit. Ce premier livre de la collection comporte 102 pages, réparties dans quatre textes au total, une longueur adéquate pour négocier les nombreux détails de composition typographique. La structuration est peu complexe, avec quelques niveaux de titre, et des distinctions de blocs d’éléments limités — titres, corps de texte, cartouche introductif ou notes de fin de section. Enfin les ouvrages contiennent peu de matériel critique, typiquement ici les notes sont en fin de section, il y a peu ou pas de références bibliographiques, et la seule table est celle des matières. Nous pouvons donc considérer que cette collection est un format approprié pour expérimenter une nouvelle façon de composer — tous les livres de cette collection partagent ces spécificités. Les autres réalisations en CSS print en dehors de cette collection, notamment Typothérapie qui implique une gestion plus avancée des détails typographiques, se distinguent par une structure plus complexe. Notons également que Nicolas Taffin a récemment mis en place une chaîne d’édition pour les éditions du Louvre avec Julien Taquet, et qu’il a ainsi contribué à composer les versions web et imprimée de Antoon Van Dyck : catalogue raisonné des tableaux du musée du Louvre (Ducos, 2023) — avec également Agathe Baëz —, un ouvrage très complexe. Le CSS print consiste à utiliser la fonction imprimer des navigateurs web pour obtenir un document paginé depuis une page web, et plus spécifiquement un fichier au format PDF pour l’impression. Le choix des formats dans les différentes étapes de ce processus est donc un enjeu en soi. Utiliser CSS pour composer un livre consiste à paginer un contenu habituellement disposé en flux, ce qui implique de gérer la façon dont le texte coule d’une page à l’autre, alors qu’une page web l’affiche comme un rouleau infini. C’est ce que décrit Julie Blanc dans sa thèse de doctorat (Blanc, 2023, p. 126-133) ainsi que dans un article qui étudie justement la relation entre flux et pagination, et notamment les propriétés du langage CSS qui permettent d’allier un certain degré d’autonomisation et des choix pour limiter la composition dans la page engendrée par ce flux :   […] les technologies du Web rejouent techniquement des notions fondamentales de mise en page déjà présentes dans l’histoire du design graphique. Toutefois, elles redistribuent certaines de ces notions dans une série de concepts programmatiques basés sur des logiques d’arborescence, d’hérédité, de variables, de calculs mathématiques, de flux, d’ancrage. En cela elles montrent aussi certaines ruptures et autorisent un renouvellement des pratiques et des logiques créatives des designers graphique. (Blanc, 2022)   Composer avec HTML et CSS est donc aussi une manière de renouer avec des principes fondateurs de mise en page, tout en exploitant de nouvelles possibilités. Il s’agit de “penser avec le code”. Est-il pertinent de travailler avec le format HTML, particulièrement verbeux — d’autant plus avec l’attribution de classes multiples sur les différents éléments de texte, nécessaire pour la mise en page d’un livre ? Le format de travail choisi par C&F, pour les textes et leur structuration, est ici le format AsciiDoc, un langage de balisage léger plus riche que Markdown, et facilement convertible au format HTML — via le convertisseur Asciidoctor et une extension pour obtenir un format HTML sémantique. AsciiDoc est utilisé comme un format intermédiaire, dont le balisage peut être presque aussi riche que HTML sans devoir afficher toutes ses balises. La page HTML finale, qui correspond au livre complet ou à une partie du livre, fait appel au script Paged.js, ce dernier forçant le navigateur à structurer le flux en page. L’usage de Paged.js ne tient pas du détail, c’est une nécessité puisque les navigateurs ne prennent pas suffisamment en compte les médias paginés — alors que les spécifications existent (note : https://www.w3.org/TR/css-page-3/ et https://www.w3.org/TR/css-gcpm-3/). Paged.js est un programme écrit en JavaScript, aussi appelé “bibliothèque de code”, et sa fonction est double : il s’agit autant de disposer d’un environnement de travail basé sur les outils du Web, que d’utiliser ces technologies pour produire un format paginé. Autrement dit, Paged.js permet d’abord d’afficher une prévisualisation d’un contenu paginé dans un navigateur, ce qui offre la possibilité d’utiliser les outils du développement et du design web comme l’inspection du code pour des ajustements à la volée. Ensuite Paged.js implémente les spécifications prévues par le W3C pour les médias paginés, ce qui permet de produire un format PDF via une mise en forme CSS. Il s’agit d’afficher et d’opérer. Paged.js est donc un polyfill, une “prothèse d’émulation”, qui permet ainsi de pallier à l’absence de prise en charge de certaines fonctions CSS — pourtant standardisées. Le navigateur est chargé d’afficher une page web, il est en quelque sorte forcé à paginer cette structure. Notons au passage que c’est exactement le procédé utilisé pour la version imprimée du Novendécaméron étudié précédemment (voir 3.5. Le Novendécaméron ou éditer avec et en numérique). Paged.js peut être utilisé à plusieurs étapes, tout d’abord lors de la création avec la possibilité de prévisualiser facilement dans le navigateur web le résultat final, tout en utilisant les outils d’inspection pour tester des ajustements, c’est ce que Julie Blanc nomme “Coder pour voir, voir pour coder” (Blanc, 2023, p. 192). Cette possibilité de travailler dans le navigateur distingue Paged.js d’autres outils basés sur le principe du CSS print, comme Prince (abordé par la suite) ou WeasyPrint (note : https://weasyprint.org), ce qui explique son adoption par des designers graphiques. Cette étape qui consiste à composer et à mettre en forme une structure sémantique est suivie par la production du fichier au format PDF via la fonction “imprimer” du navigateur. Cette fonction peut être appelée dans le navigateur ou via une interface en ligne de commande pour automatiser la production, ainsi Paged.js peut être intégré à d’autres processus. L’usage du CSS print se fait donc avec un fichier HTML mis en forme avec une feuille de styles CSS et les spécifications des médias paginés émulées par le script Paged.js. Nous ne développons pas ici le fonctionnement de Paged.js, sa documentation suffisant à comprendre ses différentes fonctionnalités (note : https://pagedjs.org/documentation/). Nicolas Taffin détaille lui-même les pratiques d’édition impliquées par un tel processus, et notamment le travail éditorial sur le texte et la composition typographique (Taffin, 2021). Il parle de “quatre temps actifs de publication”, qui consistent à la rédaction, la maquette, la relecture/correction et la retouche finale de composition. Les trois premiers, la rédaction, la maquette et la relecture/correction, peuvent se superposer. Il est effet possible pour les auteurs, les autrices, les traducteurs ou les traductrices, d’écrire, de structurer et de corriger pendant que le ou la designer prépare la maquette. Cela s’explique aussi parce que ces temps correspondent à des fichiers différents, isolants d’une certaine façon les types d’interventions : un document au format AsciiDoc pour la rédaction et la correction, des feuilles de styles pour la maquette et la composition. Le dernier temps, celui de la composition finale, est réalisé sans possibilité de modifier le texte par une autre personne que celle qui compose, certains ajustements typographiques pouvant être remis en cause à la moindre modification dans le texte. La composition peut être complexe, par exemple pour le comportement de certains blocs de texte spécifiques. Nicolas Taffin explique ainsi, dans le cas d’un manuel à la structuration plus élaborée que les titres de la collection “interventions”, que certains encadrés ne doivent pas être à cheval sur deux pages. Plutôt que de forcer manuellement le saut de cet encadré en intervenant sur la source, donc sur le fichier AsciiDoc en déplaçant les quelques lignes concernées, il s’agit d’appliquer une règle de comportement qui pousse l’encadré sur la page suivante au moment du calcul de la page. Cela est possible via l’utilisation d’un script additionnel, un micro-programme ou un composant supplémentaire, qui intervient sur la génération paginée du document en plus des autres règles d’agencement et de mise en forme. Sans détailler précisément ce comportement, notons que ce fonctionnement modulaire sépare le processus global de pagination permis par Paged.js et des règles complémentaires. En adoptant ce type de fonctionnement, il s’agit clairement de composer les outils de composition eux-mêmes, ici pour des besoins très spécifiques et parfois ponctuellement liés à un projet éditorial. Imprimer des pages web n’est plus seulement une pratique qui se passe de logiciel, mais une autre manière de considérer l’édition et le travail de composition et de mise en page.   5.3.3. Composer les outils d’édition Le Web est d’abord un espace de publication de documents numériques, ici il est utilisé comme outil via les formats HTML et CSS et leurs standards, l’usage d’un navigateur web, et le recours à des scripts. Le CSS print ou HTML to print est un changement de paradigme : d’un environnement de lecture spécifique le Web devient un ensemble d’outils. Dit autrement, l’usage des technologies du Web n’est plus seulement un moyen de publier des artefacts éditoriaux, mais d’opérer ces artefacts. Il est désormais possible d’opérer avec le Web. Avant d’analyser les implications de ce changement profond dans les pratiques éditoriales, il faut rappeler que si l’idée d’imprimer des pages web débute avec le Web lui-même, le mouvement dit du CSS print est relativement récent. Ainsi, imprimer des pages web est possible depuis longtemps, même si les options de mises en forme et de paramétrage sont très limitées. Parmi plusieurs solutions existantes (note : L’initiative print-css.rocks répertorie plusieurs des logiciels ou programmes permettant de convertir un document HTML en document paginé : https://print-css.rocks.), nous devons mentionner le logiciel Prince (aussi appelé Prince XML). Il existe depuis le début des années 2000 et permet de transformer une page HTML en document PDF via l’utilisation d’une feuille de styles CSS. Prince est un logiciel pensé pour faciliter la production de documents imprimés, dans une perspective industrielle plus qu’artisanale. S’il applique le même principe que Paged.js, c’est-à-dire implémenter les spécifications du W3C les plus avancées pour les médias paginées, plusieurs points importants le démarquent du mouvement dit du CSS print. Il s’agit d’abord d’un logiciel propriétaire et payant, qui s’adresse à des entreprises qui ont un besoin conséquent (en termes de nombre de documents et de rythme de publication). L’exemple de l’utilisation de Prince par Hachette pour la production de romans ou d’essais illustre bien cette situation (Cramer, 2017), des entreprises ont recours à des méthodes et des outils non conventionnels dans la perspective d’un gain de temps conséquent et donc d’un plus grand profit. Prince n’est pas pensé pour composer ses outils d’édition, il s’agit d’une solution logicielle qui invite à reconsidérer les logiciels habituellement utilisés et non à reconsidérer l’acte d’édition lui-même. Paged.js n’est pas développé comme alternative à des solutions propriétaires ou répandues. Si l’utilisation de Paged.js est relativement simple — embarquer le script sur une page HTML et faire appel à des fonctions CSS spécifiques —, elle oblige cependant, comme le démontre Nicolas Taffin, à repenser les méthodes d’édition et la constitution d’une chaîne d’édition. D’une part il faut d’abord s’approprier l’outil, ce qui nécessite une certaine maîtrise des technologies du Web, et d’autre part il est ensuite possible de développer des extensions — cela est facilité par la licence libre associée à Paged.js et l’environnement JavaScript. Ce double mouvement d’apprentissage et de création fait partie intégrante du concept de fabrique que nous développons par la suite (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Cela est également tangible dans les multiples initiatives qui explorent les possibilités de Paged.js, et notamment autour de PrePostPrint ou de la “bibliothèque web to print” précédemment citées (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). Des communautés de pratique se créent. Pour revenir à C&F, qui s’inscrit dans ces explorations de Paged.js, il faut noter que d’autres outils sont développés pour accompagner l’édition ou la composition. Le simple script “Pagedjs reload-in-place” (Taffin, 2020) développé par Nicolas Taffin permet par exemple de rester situé sur un emplacement précis, sans avoir à se repositionner à chaque rafraîchissement de la page web lors du travail de composition ou d’édition. Cela nous amène à une double critique : les compétences requises pour de tels développements, et la place importante que prend le navigateur web dans le travail d’édition. S’il est en théorie possible de créer de multiples extensions pour constituer ou améliorer une chaîne d’édition, encore faut-il en avoir les compétences. Être capable de coder en JavaScript ne semble pas accessible à n’importe quelle personne au sein d’une maison d’édition. Ensuite cette expérience d’édition de C&F est particulièrement dépendante d’un logiciel : le navigateur web. Ce méta-logiciel, désormais d’une complexité immense, se place au centre de ces pratiques. Paged.js et les personnes qui y recourent sont dépendantes de l’adaptation de certains standards et de l’évolution des navigateurs. La liberté acquise avec le CSS print est fortement relativisée par l’ingénierie incroyablement complexe des navigateurs et le monopole exercé par certaines entreprises qui les développent. Chrome et Chromium sont par exemple les seuls navigateurs qui implémentent certaines fonctionnalités très utiles pour composer des pages, comme la gestion fine des orphelines, il est toutefois possible d’utiliser d’autres navigateurs web comme Firefox en prenant en considération certaines limites. Il y a un déplacement — et non une translation — dans ces types de pratiques qui se développent. Le logiciel conserve une place importante dans ces processus d’édition, mais il n’est plus la condition de fabrication des artefacts, le champ des possibles reste bien plus ouvert. Enfin notons qu’en adoptant ces méthodes et ces outils, C&F Éditions dispose d’un même environnement de travail pour le travail sur le texte et la composition graphique, ou pour les livres imprimés et numériques, ce qui facilite les échanges plutôt que de réduire les coûts de production. Nicolas Taffin s’en explique lui-même dans un texte intitulé “Les illusions de la source unique” (Taffin & Melot, 2023, p. 158-173). Les principes du single source publishing ne peuvent être adoptés pour des raisons de gains financiers ou de temps, mais pour l’horizontalité ainsi créée, qui favorise la circulation de l’information et le croisement des interventions par différents corps de métier. Sans constituer un modèle duplicable ou une solution logicielle, la chaîne d’édition mise en place pour C&F se passe de logiciel pour disposer d’un environnement maîtrisé qui (re)met les compétences éditoriales au cœur de l’acte d’édition. Ainsi l’expérience de C&F nous amène à considérer plus fortement le concept de fabrique comme un phénomène d’édition, que nous devons désormais définir précisément. 5.4. La fabrique : éditer des fabriques et fabriquer des éditions [209ee7c] Certaines pratiques d’édition révèlent un double mouvement où le processus d’édition est constitué en même temps que l’acte d’édition est réalisé, les deux étant intrinsèquement liés. Partant de ce constat, que les précédents chapitres ont tenté d’expliciter à travers plusieurs mises en perspective théoriques ainsi que des études de cas, nous devons définir ce méta-processus, ce lieu de la construction d’un processus de production d’artefacts et de l’acte éditorial lui-même. Plutôt que de distinguer une chaîne d’édition et un acte éditorial, nous utilisons l’expression de fabrique d’édition pour considérer l’édition comme un processus technique qui produit des artefacts autant qu’il génère le dispositif de production. Notre recherche se concentre désormais sur la notion de fabrique, que nous établissons ici tel un concept. À la première de nos interrogations, “comment fabrique-t-on des livres ?”, nous réagissons avec notre principale question : comment définir le processus d’édition quand la fabrication de l’édition est attachée à l’édition de la fabrique et inversement ? Avant d’analyser la dimension inhérente d’imbrication du terme fabrique, nous devons expliquer pourquoi d’autres concepts ne conviennent pas ici, tels que chaîne, système ou forge. Cette exploration lexicale et conceptuelle nous permet de comprendre le cadre épistémologique dans lequel s’enferment des approches dites conventionnelles basées sur le logiciel, mais aussi de déterminer plusieurs facteurs contextuels qui expliquent la nécessité d’une nouvelle proposition. Une première introduction du concept de fabrique passe par l’analyse du concept de faire développé par l’anthropologue Tim Ingold. Il s’agit ici d’observer d’autres situations où l’acte ou le geste est lié à la dimension de conception de toute pratique humaine, la fabrication. Ensuite nous présentons une nouvelle conceptualisation de la fabrique proposée par le théoricien des médias et du design Vilèm Flusser. Cela constitue une reconfiguration des modalités de fabrication dans un environnement numérique, il s’agit de concentrer une analyse sur des dispositifs plutôt que des artefacts, l’édition étant une activité humaine tout aussi concernée par le cadre proposé par Vilèm Flusser. Nous établissons ainsi ce que nous considérons comme une fabrique d’édition, détaillant les différents principes de ce concept. Enfin, pour illustrer — et en partie épuiser — de façon générique son application, nous prenons un cas d’étude technique, avant l’étude de cas plus spécifique qui suit dans la prochaine section. La fabrique constitue un autre modèle épistémologique pour l’édition, un modèle théorique et pratique.   5.4.1. Chaîne, système, forge et fabrique Les trois termes “chaine”, “système” et “forge” conviennent pour définir des situations éditoriales spécifiques, mettant en jeu des notions d’actes d’édition, de publication ou encore de constitution technique. Ils ne répondent toutefois pas à nos nécessités de définition conceptuelle, où les interventions sur le texte sont imbriquées dans la constitution de processus techniques — et inversement. Quelle est la nécessité ici de recourir à un quatrième terme, fabrique, pour élaborer une définition de l’édition ? Dans l’édition, les processus techniques de fabrication ou de production sont majoritairement nommés “chaînes” dès qu’il s’agit de sortir du paradigme bureautique. En plus de ce que nous avons déjà établi (voir 2.5. Le Pressoir : une chaîne d’éditorialisation), nous pouvons convenir que le terme “chaîne” implique une déconstruction des étapes, permettant d’envisager des processus complexes pour des traitements éditoriaux avancés. Il est souvent question de sémantique, qu’il s’agisse d’édition numérique multi-formats ou d’édition critique numérique, l’implémentation se faisant par le biais de schémas XML, orchestrés à travers différents scénarios de conversion. Ainsi l’expression “chaîne d’édition” correspond majoritairement à l’utilisation d’un encodage au format XML auquel est appliquée une série de transformations pour aboutir à plusieurs formats de sortie. Une source unique est utilisée tout au long du processus, le terme “chaîne” peut exprimer une certaine linéarité dans les étapes éditoriales — rédaction, édition (correction, composition, etc.), et diffusion — appliquées à cette source, et dont la modélisation est exprimée dans des gabarits aux formats divers. Le projet Métopes, dans l’édition scientifique, illustre avec beaucoup de justesse ce principe : un modèle éditorial, résultat d’un important travail de structuration et de négociation (technique et institutionnelle), est appliqué sans pouvoir être remis en cause durant l’édition. Cela permet de disposer d’un processus stable, les ajustements se faisant uniquement sur la forme de certains artefacts, les pratiques sont en partie imposées même si Métopes demeure une chaîne d’édition ouverte et adaptable. D’autres implémentations de chaînes d’édition ou de chaînes éditoriales peuvent être évoquées, comme Scenari. Stéphane Crozat, dans un ouvrage destiné à la compréhension de cette chaîne, décrit d’ailleurs ainsi une “chaîne éditoriale” :   Une chaîne éditoriale est un procédé technologique et méthodologique consistant à réaliser un modèle de document, à assister les tâches de création du contenu et à automatiser la mise en forme. Son atout premier est de réduire les coûts de production et de maintenance des contenus, et de mieux contrôler leur qualité. (Crozat, 2007, p. 2)   “Chaîne d’édition” est utile pour disposer d’une dénomination commune, comme référence linguistique partagée et partageable — même si dans les faits l’expression n’est pas toujours définie avec précision. Nous utilisons nous-même abondamment cette tournure depuis le début de cette thèse pour qualifier une série de méthodes et d’outils permettant l’acte éditorial. “Chaîne d’édition” est toutefois problématique, pour trois raisons principales : la linéarité du processus qui ne permet pas d’envisager un élément de la chaîne pris isolément, la dimension fonctionnaliste qui ne remet pas en cause l’activité d’édition elle-même, et le domaine d’application qui limite d’autres champs des lettres en dehors de l’édition scientifique. Ces points sont par ailleurs décrits dans le mémoire de Master qui a préfiguré ce travail de recherche (Fauchié, 2018), mémoire qui utilise aussi le terme de “système” dont nous exposons désormais les limites. Il faut noter que la notion de “système” est parfois aussi inclue dans plusieurs définitions des chaînes d’édition ou des chaînes éditoriales, comme c’est le cas dans celle de Stéphane Crozat cité juste avant. “Système” est un terme intéressant en ce qu’il convoque une dimension complexe faite d’organisation, d’interactions et de fonctions, il implique un certain nombre de composants formant un tout.   Un système n’est autre chose que la disposition des différentes parties d’un art ou d’une science dans un ordre où elles se soutiennent toutes mutuellement, et où les dernières s’expliquent par les premières. (Condillac, 1749)   Le principal défaut de “système” ici tient dans le caractère fermé de ce tout. “Système” est pratique car il induit une certaine classification des éléments qui le composent, leur organisation interne pouvant être définie de façon assez libre mais révélant une forme de cohérence. La connaissance moderne s’est constituée autour de cette notion de système, qui peut même être considérée comme un genre (Siskin, 2016, p. 1-2). La recherche de cohérence partout conduit à concevoir, construire et maintenir des systèmes. Dans Vers un système modulaire de publication, nous avions fait appel à ce terme pour caractériser des modules dont l’articulation des fonctions produit une synergie (Fauchié, 2018). Si nous avions considéré ces modules — les éléments du système de publication — comme pouvant être interchangeables, nous avions aussi imposé une modélisation éditoriale bien spécifique, reflet de fonctions pré-établies. Le terme de “système” amène à une certaine forme d’essentialisation, quand bien même son fonctionnement interne est modulable. “Système” ne permet pas de définir des pratiques avec suffisamment d’acuité. Si ce terme est nécessaire pour définir des processus constitués de fonctions, il est cependant défaillant pour englober plus largement des pratiques éditoriales imbriquées. Un dernier terme mérite d’être analysé, il s’agit de “forge”, qui comporte deux dimensions en lien avec notre réflexion : le lieu et la malléabilité. Chaîne et système sont deux qualificatifs abstraits, qui n’indiquent pas dans quelles conditions opèrent ces processus. Une forge est un atelier où sont travaillés des métaux, c’est le lieu où une matière est transformée en artefact. Dans le domaine informatique, une forge est un système de gestion du développement de logiciels où se croisent les collaborations multiples selon des protocoles établis. Appliquée à l’édition, la forge serait le lieu du façonnage de textes, l’ensemble des pratiques permettant de former un artefact éditorial. Ou encore le rassemblement de différentes initiatives techniques pour l’édition, tel que l’avait formulé Chloé Girard en 2011 dans la perspective d’une convergence des moyens de production (libres) de l’édition numérique (Kauffmann, 2011). Le terme de forge s’applique ainsi autant à la constitution des éléments du processus qu’à la production de l’objet éditorial final. Cette dualité est aussi une ambiguïté, qui tient moins de la réflexivité d’un processus que d’une superposition des activités du travail du texte et de la constitution des outils permettant d’y parvenir. Nous avons besoin d’un terme qui va au-delà de ces considérations qui révèlent l’imbrication et la superposition, nous permettant de disposer d’un poste d’observation. Si les termes de chaîne, système ou forge ne conviennent pas (note : Pas plus que outil, instrument, dispositif, machine, manufacture, technologie, technique ou méthode.), le terme “fabrique” semble plus ouvert à une construction conceptuelle riche, oscillant entre un dispositif artisanal — fabrique est synonyme d’atelier — et une structure industrielle. Dans une perspective inéluctablement numérique, la fabrique se situe par exemple entre le creative coding et l’industrialisation informatique, comme abordé dans une section précédente (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). D’un choix par défaut cette notion devient un élément pertinent pour caractériser ce lieu de la fabrication, et nécessite d’être revisité pour révéler ce qui s’y joue en creux.   5.4.2. Le faire de Tim Ingold Pour comprendre le double jeu dont cette thèse est l’objet, soit l’imbrication de l’édition d’un texte et de l’établissement d’un processus permettant cette édition, nous devons faire un détour par la question du faire, en tant que l’entremêlement de la pratique et de la production d’un artefact. Dans “Faire un biface” (Ingold, Gosselin& al., 2017, p. 83-109), l’anthropologue Tim Ingold apporte un éclairage déterminant sur l’acte de fabrication qui définit l’être humain : faire n’est pas le résultat d’une pré-conception qui s’accomplit dans un geste. Faire : anthropologie, archéologie, art et architecture est une recherche anthropologique qui s’articule autour des conditions de création de différents artefacts. Le titre original, Making: Anthropology, archaeology, art and architecture (Ingold, 2013), permet de prendre en compte la richesse du terme making qui, en français, peut également être compris comme fabrication. C’est autour de ce que Tim Ingold appelle les “quatre A” — pour anthropologie, archéologie, art et architecture — qu’une pensée audacieuse et intelligente se déploie, avec, toujours, une dimension pratique et pédagogique, notamment via des travaux de recherche menés avec des groupes d’étudiant·e·s. Parmi les neuf chapitres, “Faire un biface” relate ce qu’est un silex et comment il a pu être fabriqué avec autant de précision et de régularité. Si le lien entre cet artefact coupant et l’édition semble éloigné, il y a pourtant matière à comparaison. Ce texte permet tout simplement de reconsidérer toute acte de fabrication quel qu’il soit, mais aussi de mieux appréhender les processus techniques en tant que tels. Surtout, les argumentations de Tim Ingold nous permettent de cheminer vers le concept de fabrique, comme une dimension plus contemporaine du faire de ces âges lointains. L’origine du biface acheuléen est une énigme archéologique et anthropologique. Comment un tel objet a-t-il pu être fabriqué avec une régularité manifeste pendant plusieurs dizaines de milliers d’années dans des lieux très éloignés les uns des autres ? Les recherches archéologiques convergent vers une conception hylémorphique, faisant usage du biface comme d’une preuve de l’intelligence humaine, et concluant que les êtres humains (ou tout du moins les êtres du Paléolithique inférieur) sont capables d’établir une image mentale d’un objet et de réaliser cet artefact.   La culture fournirait les formes, et la nature les matériaux ; en surimposant les unes aux autres, les hommes créeraient des artefacts, lesquels les entourent toujours davantage. (Ingold, Gosselin & al., 2017, p. 93)   Tim Ingold remet en cause cette conception en explorant plusieurs hypothèses formulées par des archéologues ou des anthropologues, il s’agit d’un travail de recueil et de mise en perspective passionnant. André Leroi-Gourhan envisage une rencontre entre instinct et intelligence, le biface serait à la fois le résultat d’une démarche instinctive et d’une fabrication dont le concept précéderait l’artefact final. Le biface serait alors produit comme le nid d’un oiseau, ce qui remet en cause l’exclusivité humaine de l’intelligence nécessaire pour établir un plan, un design. Et si le fabricant du biface n’avait jamais eu l’intention de produire ce que nous nommons ainsi ? C’est l’hypothèse émise par des archéologues, qui conduit à considérer deux “formes finales”, celle de l’artefact et celle conceptualisée qui le précède. Tim Ingold remet alors fortement en cause le modèle hylémorphique.   Nous ne pouvons pas supposer que les formes des blocs récupérés étaient celles que leurs artisans avaient d’abord à l’esprit pour ensuite chercher à l’imposer à la matière, ni même que quelque chose d’équivalent à ces “modèles mentaux” ou ces “intentions géométriques” dont parle Pelegrin aient jamais existé dans leur esprit. (Ingold, Gosselin & al., 2017, p. 98)   S’ensuit une réflexion sur l’achèvement de l’objet étudié, pour certains archéologues et anthropologues il y a un point de départ et un point d’arrivée, et un processus “hiérarchiquement organisé”. À l’idée selon laquelle une “activité hautement spécialisée” est forcément déterminée par un plan préconçu, Tim Ingold oppose le fait que les galets sur la plage sont également le résultat de processus complexes et longs, sans pour autant être le résultat d’une activité humaine, nous projetons ainsi une intentionnalité qui n’existe pas. Le biface n’est achevé que pour les archéologues qui l’inscrivent dans une collection. L’importance du corps revient à plusieurs reprises, tant cet artefact porte la forme des mains de celles et de ceux qui les ont taillés et façonnés. Tim Ingold parvient enfin à une proposition qui fait sens : le biface est le résultat d’une action qui fait émerger une forme. Nous retenons plusieurs idées fortes de la conclusion de ce chapitre, conclusion qui s’appuie sur les travaux des chercheurs et des chercheuses, Tim Ingold réalisant ici un formidable travail de récolement, de synthèse et de critique, établissant une conversation scientifique riche. Dans le cas du biface il n’y a pas de projection, c’est l’utilité de la distinction (et de l’opposition) entre “forme émergente” et “forme imposée”. Il faut ainsi considérer un processus qui se constitue par la pratique et par l’action, ici en lien avec la matière. Tim Ingold fait référence à Gilles Deleuze et à Félix Guattari en ce qui concerne la relation à la matière et la remise en cause définitive du modèle hylémorphique.   Il est clair qu’il ne s’agit pas en l’occurrence d’imposer une forme à un matériau, mais plutôt de laisser émerger les formes — en comprenant ces dernières en un sens plus topologique que géométrique — qui se trouvent de manière latente dans les variations de la matière elle-même, dans ses lignes d’énergie de tension et de compression. (Ingold, Gosselin & al., 2017, pp. 107-108)   Si plusieurs centaines de millénaires nous séparent du Paléolithique, et qu’une comparaison entre la fabrication d’un biface et celle d’un livre est quelque peu incongrue, nous pouvons nous inspirer de la méthode de Tim Ingold pour observer quelques éléments pertinents. Tout d’abord, comme nous l’avons déjà dit (voir 1.2. La forme du livre et sa matérialité), le livre porte la trace de sa fabrication, et les logiciels de traitement de texte ou de mise en page ont plus spécifiquement une influence sur la façon d’éditer. C’est en tout cas ce que révèlent des pratiques sans logiciels comme abordées dans les sections précédentes (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). Si tout acte éditorial est préconçu en cela qu’il y a un plan établi, des étapes définies et une méthode, il n’en demeure pas moins que tout projet éditorial n’est achevé qu’à mesure que des étapes se succèdent, celles-ci devant s’adapter à un nombre important de facteurs qui ne sont pas tous prévisibles — modifications du texte, révision de la structure, espace de diffusion, changement substantiel de la forme de l’artefact, etc. Le livre, comme le biface d’une certaine manière, est façonné pendant l’acte éditorial, résultat de différentes forces qui opèrent sur le sens, qui forment le sens. Le designer et typographe Jost Hochuli évoque cette relation entre instinct et méthode (Hochuli & Morgan, 2020), le design de ses livres conservant des traces de ce façonnage. Si cela ne nous dit pas exactement ce qu’il en est de la fabrique, étudier le faire comme activité double et réflexive nous permet d’envisager d’autres modèles conceptuels pour définir des pratiques d’édition. Du “courant tourbillonnant” évoqué par Tim Ingold pour qualifier le biface comme le résultat d’un processus manuel réflexif sur la matière, nous devons désormais analyser le “cercle des outils” de Vilèm Flusser.   5.4.3. La fabrique de Vilèm Flusser “Fabrique” est un terme empreint de nombreuses consonances, autant politiques, philosophiques que techniques, d’autant plus avec les révolutions industrielles qui ont marqué les sociétés depuis plusieurs siècles. Le mot est aujourd’hui utilisé dans bien des contextes — difficile de lister le nombre d’ouvrages de toute sorte dont le titre est une déclinaison de fabrique —, profitant d’un relatif flou de cette notion. Une (re)conceptualisation du terme est donc nécessaire voire incontournable, et le court texte “The Factory” — La Fabrique en français — issu de The Shape of Design de Vilèm Flusser (Flusser, 1999, p. 43-50) est un point de départ puissant et riche. Si cet ouvrage s’inscrit dans une théorie du design — au sens large —, il s’agit aussi d’une réflexion dans le champ des médias, ainsi qu’en anthropologie et plus globalement en sciences humaines. Le pionnier de la théorie des médias est avant tout phénoménologue, ce qui explique ses centres d’intérêt multiples et sa pensée toujours aiguisée, quel que soit le sujet — l’ouvrage Flusseriana: An Intellectual Toolbox en donne un bon aperçu (Zielinski, Weibel& al., 2015). Vilèm Flusser établit une définition contemporaine de l’être humain contemporain, au moment où le monde connaît un basculement dans la société de l’information (note : Le texte original en allemand est publié en 1993, suivi par la version en langue anglaise en 1999 puis par une version française en 2002.), l’informatique et Internet jouant alors un rôle prépondérant. Plutôt que de baser cette définition selon une supposée sagesse — le sapiens d’Homo sapiens —, Vilèm Flusser préfère s’en tenir à une approche anthropologique moins idéologique. L’humanité se définit ainsi par sa capacité à manufacturer, à fabriquer.   Whenever we find any hominid anywhere in whose vicinity there is a working-floor, and whenever it is clear that a hominid has worked in this “factory”, then this hominid should be referred to as homo faber — i.e. a real human being. (Flusser, 1999, p. 43)   Toute approche anthropologique — mais aussi historique — devrait se consacrer à l’étude des fabriques, qu’elles soient passées, présentes ou futures. Vilèm Flusser parle plus précisément des outils du quotidien, comme le biface de Tim Ingold. Tout ce qui définit l’être humain (les relations sociales élaborées, le langage, l’écriture, etc.) peut être étudié sous l’angle de la fabrique. Étudier les fabriques, quels que soient les domaines ou les âges, c’est étudier l’humain. Vilèm Flusser liste ainsi les principales évolutions de ces fabriques — façonnant aussi l’être humain — à travers quatre périodes successives, aussi appelées “replis” tels qu’analysées par Yves Citton (Citton, 2019, p. 172-173).   Factories are places in which new kinds of human beings are always being produced: first the hand-man, then the tool-man, then the machine-man, and finally the robot-man. To repeat: This is the story of humankind. (Flusser, 1999, pp. 44-45)   En plus de fabriquer, l’être humain a aussi cette particularité de valoriser ou d’exploiter les artefacts issus de ses pratiques de fabrication. Un autre phénomène accompagne cette pratique, celle de l’influence de l’objet fabriqué sur l’humain, ou plutôt de la fabrique sur l’humain. Les passages de la main à l’outil, puis de l’outil à la machine, et enfin de la machine aux appareils, démontrent une forme de réflexivité qui se meut. Le texte traduit en anglais fait mention de “robots” et non d’“appareils” que nous devons à la traduction française (Flusser, 2002, p. 58). Yves Citton utilise l’expression “appareils de computation” (Citton, 2019, p. 173) qui répond bien aux enjeux de l’époque de ce texte — les années 1990. Si la main ancre l’humain dans la nature, l’outil lui permet d’accéder à la culture, c’est même l’outil qui expulse l’être humain de la nature. L’apparition de la machine, permise grâce au développement de la science et plus précisément de la physique et de la chimie, bouleverse considérablement le rapport à la technique. Si l’outil était la variable et l’humain la constante, les rôles sont inversés avec la machine, tant cette dernière est plus durable et plus précieuse que les ouvriers et les ouvrières qui la manipulent. D’une fabrique centrée sur l’humain avec l’outil, les dix-neuvième et vingtième siècles sont un moment où l’être humain est malmené par la machine, à la fois attiré et “recraché”. Vilèm Flusser envisage une troisième révolution industrielle avec le développement des domaines scientifiques de la biologie et de la neuropsychologie, où les robots — ou appareils de computation — sont bien plus malléables que les machines.   A new method of manufacturing — i.e. of functioning — is coming into being: The human being is a functionary of robots that function as a function of him. (Flusser, 1999, p. 48)   Les robots ou les appareils de computation constituent le point de départ de cette troisième révolution — en train de se faire au moment où Vilèm Flusser écrit ce texte —, après la simulation empirique de la main et du corps permise par l’outil, puis celle mécanique de la machine. L’être humain est désormais le “fonctionnaire” des robots, ces derniers ayant toutefois besoin des êtres humains pour que ses fonctions soient définies. Nous avons encore à faire à une imbrication ici, puisque l’être humain est l’agent des robots, mais pour que cela soit le cas encore faut-il que ces robots aient été programmés par les êtres humains eux-mêmes. Nous sommes en plein dans une réflexion théorique sur l’informatique et le logiciel, les interrogations de Vilèm Flusser rejoignant celles de Friedrich Kittler déjà mentionnées (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente) où il est désormais question de fonctionnalités et de comment elles sont déterminées. Quelles sont les conditions d’une forme d’émancipation avec l’informatique ? Comment ne pas recréer le même dispositif aliénant de la machine ? Vilèm Flusser définit un nouveau type de fabrique comme lieu d’apprentissage et de créativité, dont la condition d’existence est permise par ces appareils de computation. Après l’humain-main, l’humain-outil et l’humain-machine, l’humain-robot est un scientifique, et non plus un artisan, un ouvrier ou un ingénieur. Notons ici que Vilèm Flusser a lui-même travaillé dans des usines et a été directeur de Stabivolt, une fabrique de radios et de transistors. De la fabrique comme lieu de la machine à laquelle l’humain est asservi, il s’agit de reconsidérer notre rapport à la technique avec la perspective d’un apprentissage entremêlé dans une pratique de fabrication. Ainsi la fabrique n’est plus un agent de la production qui oppresse les humains, ces derniers deviennent les agents de la fabrique, en tant qu’ils déterminent ses fonctions et sont influencés par les fonctions des appareils de computation. Il était déjà question d’agent dans la définition de l’édition en tant qu’acte (voir 2.2. L’acte, le dispositif et l’action), ou dans les recherches d’Alan Kay sur les interfaces (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts) où l’agent est défini comme l’intermédiaire avec lequel les personnes qui utilisent le (méta)médium informatique interagissent. Ici agent est entendu à la fois comme la condition d’intervention sur les robots qui passe par des instructions de programmation, et comme une abstraction de toute chose comme composant d’un calcul, d’une computation.   Si leur destruction est impossible, il nous faut donc apprendre à vivre dans les programmes. (Masure, 2019, p. 180)   Il y a ici un point commun avec Alan Kay et avec Friedrich Kittler, qui réside dans cette volonté de placer l’apprentissage du code comme une condition d’une émancipation avec les appareils de computation omniprésents. La créativité est possible si nous nous emparons de ce code. Cela ne signifie pour autant pas que nous devons tous savoir programmer, mais plutôt être aptes à déjouer les codes en les détournant ; c’est ce que nous avons démontré avec les mouvements de creative coding ou de CSS print abordés précédemment (voir 4.2. Les conditions de la sémantique : format texte et balisage).   When, however, robots begin to oust machines, it becomes apparent that the factory is nothing but an applied school and the school nothing but a factory for the acquisition of information. And at this point, the term homo faber comes into its own for the first time. (Flusser, 1999, pp. 49-50)   Le dernier enjeu signalé par Vilèm Flusser est celui de la compréhension, de l’apprentissage et de la constitution des fonctions, qui sont de plus en plus abstraites. La fabrique, telle que définie pendant les révolutions industrielles, disparaît, pour laisser la place à des fabriques-écoles et des écoles-fabriques, qui sont amenées à être partout, et qui sont l’occasion de penser de nouveaux modèles épistémologiques après l’outil ou la machine. Cette dimension d’apprentissage inhérente à la fabrique — Vilèm Flusser parle même d’“école appliquée” — est un motif que nous avons rencontré à plusieurs reprises, à la fois dans les argumentations anthropologiques de Tim Ingold et comme composante inéluctable des processus analysés dans les différentes études de cas qui jalonnent les chapitres de cette thèse. La fabrique n’est plus seulement un agent de la production, elle a aussi une influence sur celui ou celle qui l’utilise et la met en place. Ne faudrait-il pas alors estimer la fabrique comme un phénomène plus que comme un lieu ou un dispositif ? Avant de définir le concept de fabrique appliqué à l’édition, il faut replacer ce texte parmi les nombreux autres de Vilèm Flusser. Un concept important dans sa pensée est celui de “techno-images” qui correspond à une modélisation épistémologique imposée par ses codes (Flusser, 1978), qui réduit fortement notre capacité à imaginer du fait de notre incapacité à le décoder. Il est ainsi nécessaire d’établir un “techno-imaginaire” “capable de donner du sens à cette vie artificielle, à cette vie dans l’ennui des intervalles” (Masure, 2019, p. 181). Dans ce contexte la fabrique semble être une issue possible pour réapprendre autant à coder qu’à détourner. Définition Fabrique La fabrique est un concept qui définit une manière de concevoir et de produire des artefacts. Parler de fabriques permet d’envisager un processus réflexif, qui se construit en même temps que l’artefact est conçu puis produit, et dont les deux mouvements s’écoutent et se répondent. Avec cette approche nous ne prenons plus seulement en considération des outils prééxistants, mais aussi et surtout un ensemble de méthodes, de pratiques et de processus qui se définissent à mesure qu’un travail de conception et de production est enclenché. L’entremêlement qualifie la fabrique, tant la mise en place d’un processus technique, l’apprentissage qui en est nécessaire et la création d’artefacts se croisent et se rencontrent. La fabrique est aussi considérée comme le pont entre des dispositifs dits industriels, qui placent la rapidité ou le rendement comme principes ou comme critères de réussite, et des pratiques dites artisanales souvent à moindre échelle, qui se concentrent sur les manières de faire autant que sur l’artefact produit. Construire, produire ou manufacturer, le résultat est donc un artefact qui a été élaboré puis formé, avec la technique.   5.4.4. La fabrique d’édition : définition d’un concept et d’un phénomène Loin de vouloir établir une catégorisation enfermante en listant ce qui est et ce qui n’est pas une fabrique d’édition, nous nous appuyons sur les théories de Tim Ingold et de Vilèm Flusser pour énoncer un certain nombre de principes inhérents. Considérant que la fabrique d’édition consiste plus en un phénomène qu’en une méthode à suivre ou un processus à construire, notre définition est volontairement large. Nous faisons ici référence aux différentes études de cas qui traversent la thèse, comme des preuves de concept convergentes et complémentaires. Définition Fabrique d’édition La fabrique d’édition est un phénomène, il s’agit de l’imbrication et de la réflexivité du travail sur le texte et de la constitution d’un processus technique permettant ce travail. Le choix, l’agencement voir le développement des outils d’édition sont réalisés en même temps que le texte est sélectionné, structuré, corrigé, mis en forme et publié. Il ne s’agit pas de deux calques qui se superposent mais d’un entremêlement de micro-actions qui donnent lieu à l’acte éditorial. La forme de l’artefact éditorial est façonné par le processus technique, et ce dernier est mis en place en fonction du projet d’édition. Les recherches de Tim Ingold sur le biface (parmi d’autres objets étudiés) introduisent la prise en compte d’un “tourbillon” à l’œuvre dans tout acte de fabrication. L’acte de fabrication est la condition d’une conception, une conception ne peut être telle que par un acte de fabrication. Vilèm Flusser abonde dans cette idée, apportant une nouvelle définition de la fabrique qui balise l’histoire humaine. L’émergence du numérique peut être l’occasion de s’extraire de l’aliénation induite par les machines, à condition d’adopter une posture d’apprentissage et de créativité, voir de détournement. Les concepts analysés dans chaque chapitre de cette thèse servent à comprendre le contexte d’émergence de la fabrique d’édition, et les concepts établis par la suite constituent un cadre de lecture de la fabrique d’édition comme phénomène. Nous nous plaçons dans le domaine de l’édition (voir 2.1. Évolution de l’édition) où il est question de produire des livres (voir 1.1. Le livre : fonctions, concept et modes de production). Le numérique a influencé et influence encore la façon dont nous éditons des objets littéraires (voir 3.1. Le numérique : culture, politique et ubiquité), les formats nous aident à constater ces effets (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente), les chaînes d’édition étant par ailleurs majoritairement constitués de logiciels (voir 5.1. Les chaînes d’édition : composer avec les logiciels) qui amènent à une forme d’opacité et d’enfermement dans la diversité des pratiques et des artefacts qui sont produits. Les livres sont des artefacts (voir 1.4. L’artefact : entre production, fabrication et technique), ils conservent la trace de leurs modalités de fabrication, ils sont donc des objets éditoriaux qui permettent d’observer un processus en action, l’édition. L’édition est plus spécifiquement un acte éditorial (voir 2.2. L’acte, le dispositif et l’action), dont nous pouvons considérer qu’il se déploie, dans un contexte désormais numérique, en une éditorialisation (voir 2.4. L’éditorialisation en jeu). Les pratiques d’édition ne se réduisent pas qu’à la seule production d’artefacts, la dimension hybride induite par le numérique permet de prendre en compte les outils et les plateformes multiples qui sont en jeu. L’éditorialisation est donc aussi l’outil méthodologique utile à l’analyse de productions multimodales. L’édition numérique (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) révèle autant ces formes multiples qu’une profonde refonte des processus techniques permettant d’y parvenir. L’apport de l’approche des humanités numériques permet d’adopter un regard réflexif sur les pratiques et les artefacts, et ainsi d’interroger et de critiquer tout recours à des technologies dites du numérique. Il s’agit de publier en cherchant, ou de chercher en publiant, avec la particularité de porter un regard critique sur la façon dont les processus opèrent. L’acte éditorial peut aussi devenir un acte éditorial sémantique (voir 4.4. Le single source publishing comme acte éditorial sémantique), car si le sens du texte peut être représenté à travers un langage de balisage (quel qu’il soit), le sens de l’édition peut s’exprimer avec les principes du single source publishing. Le processus d’édition s’accomplit par une modélisation à la fois abstraite et pratique, cette modélisation reflétant les différentes strates du travail sur le texte. Nous établissons ainsi le concept de fabrique d’édition en explicitant des concepts existants ou en en constituant, tels que artefact éditorial, éditorialisation, édition numérique et acte éditorial sémantique. Nous pouvons envisager une fabrique d’édition si nous tenons compte de ces quatre concepts. Dit autrement, il y a fabrique d’édition lorsque : nous observons le processus d’édition dans l’artefact final ; nous faisons le constat des dynamiques constituantes de l’espace numérique, induites, permises ou engendrées par l’édition ; nous relevons un positionnement réflexif dans des pratiques d’édition numérique ; nous constatons un processus sémantique en plus d’une structuration qui porte le sens. Ces différents concepts partagent une conception complexe des pratiques de conception, de fabrication et de production des livres, les artefacts finaux n’étant qu’une expression de l’acte éditorial parmi d’autres traces tels que les choix techniques. Enfin, de nouvelles modélisations épistémologiques — hétérogènes mais ayant comme point commun un caractère non-conventionnel — ne sont possibles qu’à condition d’abandonner le logiciel. Les études de cas qui ponctuent les quatre premiers chapitres sont considérées comme des fabriques d’édition, tant les processus techniques mis en place sont fermement liés à la préparation et à la publication des textes. Mieux, dans ces initiatives les différentes étapes d’édition se traduisent autant par la définition (sélection, adaptation ou développement) des programmes et des micro-programmes, que par des interventions sur le texte (structuration, correction, composition). La fabrique d’édition est un phénomène qui constitue un cadre théorique dans le champ des études de l’édition, en contexte numérique. Il s’agit d’une méthode systématique permettant d’observer de nouveaux modèles épistémologiques à l’œuvre dans des pratiques dites non conventionnelles. À la suite des concepts cités précédemment (livre, édition, numérique, édition numérique), ainsi que des concepts d’énonciation éditoriale, d’éditorialisation, d’édition, ou de faire, nous établissons une proposition théorique qui s’appuie sur l’étude de pratiques, mais aussi sur l’expérimentation de processus éditoriaux comme nous le voyons dans la prochaine section. Considérer des fabriques d’édition c’est définir ce qu’est la connaissance (l’édition produit des artefacts), étudier comment elle est constituée (la modélisation du sens nécessite un dispositif technique), et déterminer les conditions de sa diffusion et de sa réception.   5.4.5. La modélisation contextuelle pour illustrer le double mouvement de la fabrique Les éléments théoriques présentés ci-dessus doivent être explicités via un exemple pratique, ici nous prenons le cas de ce que nous nommons la “modélisation contextuelle”. Le phénomène d’imbrication de la constitution d’une chaîne éditoriale et du travail éditorial sur un texte est expliqué en prenant comme cas pratique l’application de différents scénarios de transformation en fonction du format de sortie et donc de différents types d’artefacts. Il s’agit donc de définir des règles de transformation en fonction de la sémantique de la source, du format de sortie et du modèle de données ou de représentation qui dépend de ce format. Nous nous plaçons ici dans le cas d’une perspective multimodale, puisque les artefacts se différencient en termes de version et non pas seulement de forme. La modélisation contextuelle appliquée ici consiste donc à aboutir à différentes modalités éditoriales et non seulement à différents formats. Afin de mieux comprendre ce que cette “modélisation contextuelle” signifie, le schéma de la figure ci-dessous présente les différentes étapes. Dans la figure ci-dessus le document source comporte des blocs de texte mais aussi un bloc spécifique sur lequel une règle de conversion particulière peut être appliquée. La conversion est effectuée en appliquant des modèles, le pluriel correspondant aux différents formats de sortie, des mises en forme étant par ailleurs appliquées à ces modèles. Les deux artefacts, disons web et imprimé ici, résultent donc de l’application des modèles en fonction des règles de conversion et du type d’artefact souhaité. Plusieurs processus permettent d’implémenter ce principe de modélisation contextuelle, et si nous nous intéressons par la suite plus spécifiquement à la manière dont un générateur de site statique le met en œuvre, la TEI l’utilise pour anticiper la génération de plusieurs formats de sortie. Par défaut la TEI est conçue pour permettre plusieurs traitements sur une source unique, mais la fonctionnalité de “processing models” (littéralement “modèles de traitement” en français) permet de préciser exactement le comportement en fonction d’un format de sortie.   As far as possible, the TEI defines elements and their attributes in a way which is entirely independent of their subsequent processing, since its intention is to maximize the reusability of encoded documents and their use in multiple contexts. Nevertheless, it can be very useful to specify one or more possible models for such processing, both to clarify the intentions of the encoder, and to provide default behaviours for a software engineer to implement when documents conforming to a particular TEI customization are processed. To that end, the following elements may be used to document one or more processing models for a given element. (TEI Consortium, 2023)   Ainsi la TEI prévoit un système contextuel qui prend en compte plusieurs indications, dont (parmi de nombreux paramètres) le comportement en fonction du type d’élément, la mise en forme du rendu final via l’application de classes CSS, les formats de sortie ou encore des pseudo-éléments qui permettent de préciser des micro-scénarios. Ce système peut être mis en pratique de façons diverses, TEI Simple Processing Model est par exemple un canevas qui comporte plusieurs paramétrages par défaut et est relativement simple à mettre en place dans un environnement TEI (Turska, 2015). Nous ne nous étendons pas sur le cas de la TEI, remarquons toutefois que ce système est puissant, et que cette puissance implique un mécanisme relativement complexe. Un autre type d’implémentation est l’utilisation d’un générateur de site statique, en l’occurrence Hugo, pour à la fois convertir le format Markdown en plusieurs formats HTML, appliquer des gabarits, et organiser les fichiers obtenus. Hugo a une place particulière parmi les centaines de static site generators qui existent (note : https://jamstack.org/generators/), le plus souvent c’est sa rapidité à générer un site web (y compris pour plusieurs milliers de pages) qui est mise en avant, alors que sa capacité à gérer différents formats de sortie est encore plus intéressante. Hugo est en effet pensé pour produire plusieurs formats de sortie à partir d’une source unique via des gabarits correspondant à chacun de ces formats de sortie, ce principe est augmenté avec les shortcodes. Le système de templates permet en effet d’attribuer une structuration et une mise en forme spécifiques pour chaque sortie. À cette attribution s’ajoute le découpage des modèles ; ils facilitent leur gestion et prévoient des réutilisations dans différents contextes — par exemple pour deux versions HTML qui sont respectivement destinées à une publication sur le Web et à la production d’une version imprimée via les principes du CSS print comme nous l’avons abordé (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts). Les shortcodes sont des fragments de code qui sont placés dans les fichiers de contenu — ici balisés avec Markdown — et qui appellent des modèles prédéfinis ou à définir. Initialement les shortcodes sont utilisés pour ne pas avoir à répéter des lignes de code dans les fichiers de contenu, comme l’intégration d’une figure ou d’une vidéo. Le système des shortcodes est divisé en trois parties : le fichier de contenu avec les termes balisés par le shortcode, le shortcode lui-même qui est une modélisation, et le rendu en HTML du contenu initial auquel est appliquée la transformation via le modèle. L’exemple ci-dessus est relativement simple, il s’agit de définir un balisage spécifique pour une version HTML pour le Web, et un autre pour une version HTML qui est ensuite convertie au format PDF. Dans le premier cas il est nécessaire de disposer d’un balisage sémantique riche en raison de l’exposition du format numérique, notamment avec l’identification de l’œuvre avec l’élément <cite>, mais aussi en définissant la langue de la citation elle-même. Dans le second cas ces précisions sémantiques ne sont pas nécessaires, puisqu’elles n’apparaîtront pas sur le document imprimé final. Il s’agit donc de deux scénarios pour deux formats de sortie, mais la source est toujours la même. Contrairement au schéma générique présenté plus haut, celui-ci souligne que l’opération de conversion, ici réalisée par Hugo, est en capacité de déterminer quel modèle général appliquer et quel shortcode appeler en fonction du format de sortie. Un fichier de configuration permet de déclarer les formats de sortie et donc de faire correspondre les différents modèles, ce qui explique le nom de fichier citation.html pour le format par défaut, et citation.impression.html pour le format imprimable qui peut être déclaré comme ceci : Ainsi toutes les pages sont générées dans deux formats, et pour chaque format le shortcode correspondant est appelé, en plus des modèles plus généraux de page. Ce mécanisme, relativement simple, permet de disposer d’une modélisation contextuelle tout en facilitant la rédaction des contenus avec quelques éléments supplémentaires. Nous qualifions cette modélisation de contextuelle car elle dépend d’un contexte et en l’occurrence du format de sortie, cette modélisation est implémentée ou appliquée via une scénarisation qui correspond à la définition des règles d’attribution. Dans l’exemple ci-dessus et dans une perspective éditoriale — et non auctoriale — le travail sur le texte se fait conjointement à celui de la définition de ces shortcodes. Au fur et à mesure que des besoins sont identifiés ou pris en compte dans le travail d’édition — type de bloc de texte, format de sortie particulier —, les modèles sont adaptés, y compris les shortcodes. Cet exercice de templating, littéralement de modélisation, est ainsi partie prenant de l’acte éditorial. Il définit le comportement du texte, son édition. Définition Modélisation contextuelle Nous définissons la modélisation contextuelle comme une scénarisation d’éléments textuels au sein d’une chaîne d’édition multimodale. La structure de ces éléments et la mise en forme correspondante sont définies via autant de fragments de gabarits qu’il y a de types d’artefacts produits. En plus de baliser des suites de caractères, il est possible d’ajouter des paramètres pour enrichir les données ou préciser les règles de conversion ou de transformation. La définition de cette modélisation s’inscrit donc d’abord dans une perspective d’édition sémantique, où le sens est exprimé avant l’application d’un rendu graphique. La fonctionnalité de processing models en TEI ou l’usage des shortcodes avec le programme Hugo sont des implémentations de cette modélisation contextuelle. Éditer des fabriques, fabriquer des éditions, la formalisation du concept de fabrique et l’analyse du phénomène de fabrique d’édition se prolongent dans une étude de cas de deux projets, dans la continuité de l’usage d’un générateur de site statique et de cette question de la modélisation contextuelle. Cette étude de cas a aussi comme objectif d’épuiser cette idée et d’apporter un regard critique sur ces limites. 5.5. Prototyper la Fabrique [209ee7c] À la suite des différentes études de cas des quatre premiers chapitres, dont les objets peuvent constituer des fabriques, nous présentons deux prototypes en lien direct avec la recherche menée à travers cette thèse, comme deux preuves de concept qui prolongent l’analyse du phénomène de fabrique d’édition. Il s’agit d’une part d’un dispositif d’écriture et de publication qui constitue un espace d’édition intermédiaire, entre l’outil d’écriture et le dispositif de publication ; et d’autre part de la chaîne d’édition mise en place pour écrire et produire les artefacts de cette thèse. Dans les deux cas la question posée est la suivante : à quel point un phénomène de fabrique d’édition, à travers des choix techniques et leur imbrication avec des pratiques d’écriture et d’édition, révèle-t-il une vision du monde ? Quelles sont les valeurs que la technique permet d’implémenter dans ce double mouvement de la fabrique ? C’est dans une démarche performative que nous entendons apporter une réponse à cette question. Nous présentons et analysons tout d’abord une preuve de concept qui se situe entre l’espace de l’atelier de recherche et celui de la publication académique, il s’agit d’une chaîne de publication permettant de diffuser des textes ou des supports de façon temporaire. Ensuite la question de la construction du sens est plus particulièrement abordée avec le cas de la thèse — occasion pour détailler certains fonctionnements qui ont conduit à des pratiques d’écriture ou de recherche bien spécifiques pour l’établissement de ce texte. Enfin, nous détaillons plusieurs réflexions critiques déclenchées par ces deux expérimentations, et nous listons plusieurs des limites rencontrées avec ces approches et leurs implémentations. Avant de présenter les deux objets numériques qui constituent cette étude de cas, nous revenons sur les éléments de la fabrique qui peuvent être implémentés de diverses manières. Quels sont les ingrédients de cette fabrique d’édition ? Tout en conservant un degré d’ouverture pour le concept de fabrique et le phénomène de fabrique d’édition, voici les principes abordés dans la section précédente en lien avec les études de cas des différents chapitres : artefact, multi-formats, multimodalité et éditorialisation sont des résultats ou des fonctionnements attendus ; pour les atteindre plusieurs moyens sont possibles, comme les concepts de gabarits, de versionnement, de single source publishing ou de modélisation éditoriale. Cette double étude de cas est donc aussi un prétexte pour revenir sur ces différents éléments, avec, en creux, ce double phénomène d’édition d’un texte et de construction d’un processus qui permet de produire et de diffuser du sens.   5.5.1. Une preuve de concept multi-formats Comment implémenter les principes du single source publishing dans un prototype de processus d’écriture, tout en maîtrisant la modélisation éditoriale ? Nous démontrons comment est constitué un acte d’édition sémantique multi-formats et multimodal en construisant un processus technique pour publier des textes intermédiaires dans le champ académique. L’objet de notre expérimentation est la publication multi-formats de textes ou de communications dans le cadre universitaire, afin d’obtenir différents artefacts facilement diffusables, et se situant avant une publication scientifique. Il s’agit donc de supports de conférences, d’ébauches d’articles ou de textes utiles pour des ateliers ou des cours, des documents communiqués mais non référencés, entre le carnet privé et la publication publique. La place qu’occupe cette fabrique aux côtés de l’atelier (privé), du carnet de recherche et de la thèse en fait son intérêt : il s’agit d’un dispositif de pré-publication qui nécessite néanmoins un travail d’édition. Cette fabrique de textes permet de générer trois formats et deux versions pour chacun des textes : une page web en flux, un support de présentation en diapositives, et un document paginé ; la page web et le document paginé sont homothétiques, le support de présentation réparti les informations dans des diapositives ou des contenus en notes cachées. Plusieurs principes ont présidé au développement de ce projet, en lien avec le concept de fabrique, et notamment la limitation des dépendances informatiques afin de pouvoir facilement reproduire un environnement de travail, la généricisation de la modélisation ou le fait de prévoir une duplication pour d’autres usages, ou encore la distinction nette entre les contenus et leurs modélisations. Ces principes révèlent un positionnement fort par rapport aux outils habituels d’édition, nous privilégions en effet des technologies ouvertes et modulaires à des logiciels fermés et souvent monolithiques (note : Nous qualifions de “monolithiques” des logiciels conçus pour effectuer plusieurs tâches très diverses sans permettre de déconstruire et d’appréhender les fonctions qui permettent de réaliser ces tâches.). Le projet, que nous intitulons fortuitement TXT, est une preuve de concept basée sur les outils du développement web. Il consiste plus précisément en un balisage sémantique de textes, une conversion de ces fichiers vers d’autres langages de balisage, une organisation des fichiers convertis, et à la gestion d’un certain nombre de paramètres. Tout cela dans la perspective éditoriale de produire des objets de plusieurs types : support de présentation, article ou support de cours. Si plusieurs programmes sont nécessaires au fonctionnement de ce processus technique, il n’y a pas, au centre, de logiciel. Le programme Hugo, un générateur de site statique déjà présenté à la fois dans la section précédente (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions) et dans le chapitre 3 (voir 3.5. Le Novendécaméron ou éditer avec et en numérique), est utilisé pour ces opérations. Avant de les détailler nous présentons l’origine d’une telle initiative. Plusieurs facteurs concomitants ont déclenché le besoin de développer une telle chaîne d’écriture ou d’édition (note : Nous considérons cette double caractéristique comme pertinente, puisqu’il y a bien un travail de préparation de texte en vue de diffuser un contenu.), et ainsi d’expérimenter en parallèle d’autres projets de recherche. Il s’agit tout d’abord d’une nécessité de disposer d’un espace semi-public, avec la possibilité de partager une page web ou d’afficher un contenu depuis cette même adresse. Ce sont des contenus qui ne sont pas indexés dans un carnet de recherche ou un blog, et qui ne nécessitent pas le parcours de publication scientifique relativement long. Un entre-deux dont le format de la source doit être proche de ce qui précède et de ce qui peut suivre, respectivement : l’atelier de thèse (Fauchié, 2020) et le carnet de recherche (note : https://www.quaternum.net/phd/). TXT se situe donc après la recherche et la prise de notes, il s’agit d’un contenu suffisamment formalisé pour pouvoir être partagé, et qui peut ensuite être transformé en billet pour le carnet de recherche, ou en article pour une revue ou des actes. Ensuite l’objectif a aussi été d’expérimenter en dehors de Pandoc, utilisé dans plusieurs expérimentations au sein de la Chaire de recherche du Canada sur les écritures numériques, comme le Pressoir déjà présenté (voir 2.5. Le Pressoir : une chaîne d’éditorialisation). Modéliser des artefacts pluriels avec autre chose que le convertisseur Pandoc s’est avéré nécessaire pour implémenter la fabrique. Ces expériences ont convergé vers la construction d’un processus évolutif et durable. Ce prototype a aussi constitué une preuve de concept pour enseigner plusieurs notions dans le domaine de l’édition numérique, comme les principes de l’édition multi-formats à partir d’une source unique ou la modélisation contextuelle (voir la définition de Modélisation contextuelle, chapitre 5). TXT a aussi été utilisé pour construire un point d’accès unique à des supports de cours dans plusieurs formats. Pour réaliser à la fois les actions de conversion, de transformation et d’organisation pendant le processus d’édition, l’usage d’un générateur de site statique a été utilisé. Cela permet de séparer les étapes d’écriture, d’édition et de publication, et de disposer d’un artefact web qui nécessite peu de ressources pour être diffusé — puisqu’il s’agit de fichiers HTML et CSS sans base de données. Parmi les centaines de générateurs de site statique, Hugo présente plusieurs avantages et notamment le fait de pouvoir être installé à partir d’un seul fichier, ou encore de produire plusieurs formats à partir d’une même source. La possibilité d’installer Hugo à partir d’un fichier ou d’un magasin d’applications est particulièrement utile pour mettre en place facilement un espace d’édition et de publication quel que soit le dispositif informatique (ordinateurs et serveurs). La chaîne d’édition peut donc être émulée, par exemple via les GitHub Actions ou les GitLab Pages, donnant la possibilité de constituer des environnements virtuels de travail sans besoin d’installer de programme. Pour produire simultanément les trois formats (web, présentation et paginé), une fonctionnalité incluse dans Hugo est utilisée, elle consiste à produire plusieurs formats d’un même contenu via des déclarations et des gabarits associés. Hugo génère par défaut le format HTML, et supporte également plusieurs formats de balisage, tels que XML, JSON, TXT ou YAML. Hugo n’est pas un convertisseur, et il propose donc bien moins de possibilités que Pandoc. Son intérêt réside plutôt dans le fait de produire plusieurs versions HTML distinctes, en appliquant des gabarits différents via l’utilisation d’un langage de modélisation puissant. Dans notre cas il s’agit de disposer de trois formats HTML : un format en flux (page web classique), un support de présentation en diapositives via l’utilisation de Reveal.js (note : https://revealjs.com), et un format web paginé via l’utilisation de Paged.js. Dans la figure ci-dessus les deux paramètres “outputFormats” et “outputs” décrivent respectivement le ou les formats en plus de celui par défaut (HTML) et les types d’objets concernés par ce ou ces formats additionnels. Le paramètre rel = "impression" précise que s’il existe un gabarit qui finit par impression, tel que single.impression.html pour le modèle d’une page, alors il est appliqué pour ce format spécifique. Il en est de même pour les shortcodes, qui peuvent donc être déclinés en autant de formats de sortie. Ce mécanisme relativement simple, liant la déclaration des formats et l’appel des gabarits appropriés (shortcodes inclus), constitue en soi une modélisation éditoriale puissante. Le travail d’édition réside alors dans la définition de ce comportement (quels formats ? quels intitulés ?) et dans la description et la réalisation des gabarits associés. Cette expérimentation se concentre sur la gestion des formats de sortie, et n’explore que très peu les possibilités de balisage sémantique fin des contenus — ce que fait le dispositif mis en place pour la thèse et présenté juste après. Outre cet espace de publication semi-public, TXT a aussi été utilisé pour rassembler les supports et les ressources pour des cours donnés à l’Université de Montréal, ainsi que pour construire les premières versions du site web (note : https://debogue.ecrituresnumeriques.ca/archives/) de “Déb/u/o/gue tes humanités”, un cycle de formations données par la Chaire de recherche du Canada sur les écritures numériques — dont l’auteur a l’un des initiateurs des premiers cycles. Ce prototype a réellement ce statut d’un premier exemplaire, il fait office de preuve de concept dans les dimensions multimodale et de multi-formats d’une fabrique d’édition, portant des valeurs et constituant une posture vis-à-vis de l’usage de la technique dans une pratique d’écriture et d’édition. Plusieurs des fonctionnalités proposées ici sont des détournements de ce pour quoi ce générateur de site statique a été conçu, ce caractère non conventionnel génère des résultats non prévus — tels que l’utilisation des shortcodes pour modéliser des artefacts — ou des compromis — comme le langage de modélisation relativement strict de Hugo. Cette chaîne d’édition ou de publication est un travail en cours, utile pour relever les limites dans un possible passage à un niveau collectif — et non plus seulement individuel — et les modifications qui seraient nécessaires. Les principes appliqués auraient pu l’être avec d’autres choix techniques, nous retenons toutefois trois dimensions épistémologiques permises par Hugo. La limitation des dépendances, avec le fait de pouvoir installer Hugo sans autre programme ou logiciel, permet une installation ou une émulation dans des environnements informatiques très divers, sans la nécessité d’installer de nombreux programmes ou logiciels — ces derniers ayant parfois eux-mêmes des dépendances. Avec son langage de gabarit assez simple et bien documenté, Hugo est un bon moyen de prototyper des processus de publication. Enfin, la génération de formats multiples, et l’organisation des gabarits et des shortcodes qui va avec, permet d’envisager immédiatement la production simultanée de plusieurs formats (formes et versions). À la suite de cette expérimentation nous avons mis en place une fabrique qui prolonge plusieurs de ces aspects.   5.5.2. Modéliser le sens dans une thèse Cette thèse est performative, elle expérimente les concepts présentés et les principes avancés, l’artefact que vous parcourez ou lisez est en soi une preuve de concept de l’hypothèse défendue, principalement autour de la fabrique (voir la définition de Fabrique, chapitre 5) et de la fabrique d’édition (voir la définition de Fabrique d’édition, chapitre 5). À la suite des différents projets éditoriaux présentés dans les études de cas qui ponctuent les quatre premiers chapitres, nous expérimentons une nouvelle chaîne d’édition, une fabrique, cette fois pour un objet textuel complexe qu’est une thèse de doctorat. Cela fait suite à la fabrique précédente, tant en termes d’expérimentation que de flux éditorial : il s’agit d’une part de prolonger cette idée d’une génération simultanée de plusieurs formats à partir d’une source unique, ainsi que de mettre en place un balisage suffisamment avancé permettant d’identifier les concepts et définitions ; et d’autre part de faire suite à cet espace intermédiaire de publication pour cristalliser le sens. L’objectif est donc autant de produire plusieurs artefacts que d’attribuer une valeur sémantique à des segments de texte pour les identifier et les manipuler. Avec cette fabrique d’édition nous répondons à la question suivante : comment modéliser le sens dans une thèse ? La thèse est un travail d’édition — en termes d’opérations sur le texte et non de diffusion —, et pas seulement d’écriture. S’il ne s’agit pas d’un processus pour aboutir à une monographie éditée par une structure d’édition, plusieurs étapes sont toutefois communes : révision et structuration du texte, respect de contraintes éditoriales, mise en forme selon des règles précises, validation par un comité, parcours bibliographique lors de l’enregistrement, stratégie de diffusion, etc. Dans le cas de cette thèse, la publication en est une partie intégrante, avec le travail sur la forme des artefacts — et notamment les formats web et imprimé — mais aussi la mise à disposition des sources et des versions (note : https://src.quaternum.net/t). La mise en place d’un processus spécifique d’écriture et d’édition répond à une exigence en termes de construction d’une pensée, pensée qui est constituée autant par le texte, les artefacts qui le contiennent, la forme de ces artefacts, ou les gabarits nécessaires à leur production. Afin de détailler les implémentations techniques, nous explicitons comment l’écriture, l’édition et la mise en place des briques techniques sont articulées. Après la phase de recherche qui s’est déroulée de septembre 2019 à juillet 2022, l’écriture de la thèse s’est enclenchée comme une fabrique, où le dispositif d’écriture et d’édition a été mis en place de façon totalement imbriquée avec l’écriture des textes. Dans notre cas, et au-delà de la dimension performative, il n’aurait pas été possible de construire une pensée sans également concevoir cette chaîne. Prenons quelques exemples de cette articulation entre l’écriture du texte et l’écriture du code. Avant cela notons que le modèle adopté ici est très similaire à d’autres déjà présentés : le texte est balisé avant d’être converti et transformé pour constituer plusieurs formes et versions d’artefacts. Ce n’est toutefois pas parce que ce modèle se répète qu’il est le seul à pouvoir être envisagé. Tout d’abord la structure même des fichiers a évolué, elle a suivi un déroulement sémantique consistant à identifier plus facilement chaque texte et ses particularités. Le découpage a d’abord été réalisé afin que pour chaque chapitre corresponde un seul fichier. Une division plus fine, c’est-à-dire un fichier par section, a ensuite permis une meilleure segmentation, chaque section ayant ses propres objectifs à l’intérieur d’un même chapitre — approche conceptuelle, critique, étude de cas illustrative, proposition conceptuelle et critique de cette proposition dans une deuxième étude de cas. De cinq fichiers nous aboutissons à vingt-cinq éléments correspondant à chaque section, plus un fichier (_index.md) pour l’introduction de chaque chapitre : Ce qui peut s’avérer un détail est en fait essentiel dans la construction de la pensée, chaque élément étant identifiable, facilitant le versionnement (quelles modifications à quelle étape), les renvois (lien vers une étude de cas ou une proposition conceptuelle) et les relectures (découpage plus fin). Ainsi chaque section correspond à un objet particulier et peut faire l’objet d’un traitement spécifique : les sections 1, 2 et 4 sont des parties théoriques où des concepts sont présentés ou construits avec de nombreuses références bibliographiques, alors que les sections 3 et 5 sont respectivement une étude de cas d’un objet éditorial puis une étude de cas d’un objet sur lequel nous avons travaillé. La conversion des fichiers source, au format Markdown pour les textes, a été possible avec Pandoc puis avec Hugo, reflétant l’évolution des pratiques d’écriture au cours de l’avancement de la rédaction. Le texte a d’abord été peu balisé, le traitement sémantique plus fin est intervenu notamment lors de l’identification des définitions. Pandoc, en tant que convertisseur et saveur Markdown, permet d’attribuer des classes personnalisées sur des éléments de ligne ou de bloc, lors d’un export au format HTML ces classes concordent avec des règles de mise en forme via le langage CSS. L’objectif pendant l’écriture et l’édition est de pouvoir facilement intervenir sur la structure HTML et non uniquement sur l’attribution d’une mise en forme. Hugo permet justement d’appliquer une structure spécifique via l’usage des shortcodes comme nous l’avons déjà expliqué (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). Pour la thèse nous avons mis en place un mécanisme afin d’identifier les définitions, les figures, les extraits de code, les citations longues ou les renvois. En plus de ces courts balisages personnalisés (et contextualisés), Hugo intègre la possibilité de paramétrer le rendu de plusieurs éléments sémantiques comme les niveaux de titre, les liens ou les images (note : https://gohugo.io/templates/render-hooks/). Cela signifie, pour les titres dans les textes, qu’il est possible d’ajouter des paramètres dans le HTML comme une ancre (pour pointer un lien vers cet élément) ou un identifiant (utile pour identifier un élément par exemple pour la construction d’une version paginée). Le fait de pouvoir jouer avec les éléments de structure et non uniquement de mise en forme apporte beaucoup dans la construction du sens même, permettant d’identifier syntaxiquement un mot, une phrase ou un bloc de texte pour ensuite lui attribuer une valeur sémantique en HTML. Dans cette perspective sémantique, les textes ont été rédigés en même temps que les différents gabarits permettant de modéliser les artefacts — dans deux formats principaux que sont le format web en flux et le format PDF paginé. Le principal gabarit a ainsi été celui des chapitres, agrégeant les différentes sections représentées chacune par un fichier. Les informations présentes dans l’entête de chacun de ces fichiers a permis de préciser la place de la section dans le chapitre et le type de section (conceptualisation, étude de cas, etc.). Les quelques lignes de code ci-dessus récupèrent le contenu du fichier _index.md, soit l’introduction du chapitre, pour ensuite rassembler les sections (dans l’ordre) et ajouter des éléments syntaxiques tels que les titres et des identifiants, ainsi que des éléments de mise en forme en attribuant des classes spécifiques. Le langage de modélisation utilisé par Hugo est, pour cette opération, relativement simple à utiliser. La rigueur intrinsèque de cette grammaire n’empêche pas, toujours dans cette situation, de pouvoir personnaliser la structure via l’attribution de données dans l’entête des différents fichiers — par exemple .Params.section qui est déclarée dans chacun des fichiers des sections. Le croisement de l’écriture du code (qui permet le fonctionnement de la chaîne d’édition) et de l’écriture des textes (qui forment les chapitres de la thèse) est aussi visible dans le développement de certaines fonctionnalités comme l’appel des définitions. Il s’agit de pouvoir indiquer qu’un terme ou une expression a déjà été définie, et de renvoyer soit vers le contexte de cette définition, c’est-à-dire vers un chapitre spécifique, soit vers la liste de toutes les définitions. Un mécanisme de mémorisation des informations balisées dans le texte est donc nécessaire. Le développement d’un tel fonctionnement a par exemple été réalisé en même temps que la rédaction de la définition du concept de fabrique et du phénomène de fabrique d’édition. Ces quelques lignes de code décrivent la façon dont les informations issues d’un balisage spécifique peuvent être enregistrées, ici avec la fonction Store de Hugo. Voici le balisage dans le texte qui permet d’identifier une définition : Ce shortcode permet d’appliquer un balisage HTML spécifique, il y a ici autant le principe de balisage de plusieurs lignes de texte que l’ajout de paramètres pour identifier cette définition. Le paramètre intitulé (intitule) est utilisé pour afficher un titre, et le paramètre identifiant (id) permet de générer une ancre pour pointer directement vers la définition dans la version web ou pour calculer le numéro de page concernée dans la version imprimée. Une définition conceptuelle est donc élaborée dans le texte de la thèse sur deux plans : un sens est explicité avec des mots et une syntaxe calculable est donnée avec un balisage sémantique. Cette portion de texte est rendue lisible pour les humains et pour les machines, l’un ne fonctionnant pas sans l’autre dans les choix techniques qui ont été faits ici. L’écriture et l’édition de la thèse dépendent de ces deux plans. La recherche théorique et la recherche technique sont entremêlées, elles se répondent sur leurs potentialités syntaxiques et sémantiques respectives. Enfin, un travail de mise en forme des artefacts est réalisé conjointement avec les phases de relecture, en utilisant le langage CSS pour les versions web et imprimée. Les relectures individuelles puis collectives sont des moments importants pour composer les formes auxquelles les personnes (dont l’auteur de cette thèse) ont accès. Le soin apporté aux artefacts est décisif pour faciliter la lecture, par exemple pour que les paragraphes puissent être identifiés avec un numéro unique (par chapitre) ou que le texte et les citations soient suffisamment lisibles. L’usage de CSS ne se limite pas à l’application d’un rendu graphique, mais aussi à la génération d’éléments comme c’est le cas avec la numérotation des paragraphes. L’élaboration des feuilles de styles CSS participe donc également à la fabrication du sens. Pour clore la présentation de cette fabrique d’édition et avant d’apporter un double regard critique à ces deux expérimentations, TXT et la thèse, notons quelques points importants. La chaîne d’édition de cette thèse a d’abord bénéficié du travail engagé sur TXT, notamment les mécanismes de modélisation des artefacts, même si ici tout a été déconstruit et recréé de zéro. Nous retrouvons également ce lien ténu entre la constitution d’une chaîne d’édition ou de publication, l’écriture de textes scientifiques, et la formalisation d’artefacts divers. Loin d’être un modèle reproductible, il s’agit surtout d’une entreprise de construction du sens, et de dévoilement de l’écriture et de l’édition, suscitant un certain nombre de réflexions critiques que nous allons désormais explorer.   5.5.3. Réflexions critiques sur des prototypes de fabriques d’édition Ces deux expérimentations soulèvent plusieurs réflexions critiques, directement liées au concept de fabrique et au phénomène de fabrique d’édition, telles que l’usage d’un outil comme Hugo, l’apport de la modélisation contextuelle, la possible illusion du single source publishing, la reproductibilité d’un tel modèle, la place du chercheur dans la production d’un programme et non d’une solution, et enfin le positionnement humaniste dans un contexte numérique. La place importante qu’occupe Hugo est à la fois déterminante dans les possibilités de modélisation et de multi-formats, et conjoncturelle en cela que ce programme peut être substitué par un autre. En effet il est possible d’imaginer une implémentation similaire avec d’autres programmes ou logiciels, et notamment avec le convertisseur Pandoc. Certains détails dans cette mise en place seraient forcément différents, et l’utilisation de programmes tiers tels que Make (Mecklenburg, 2005) serait par ailleurs nécessaire pour orchestrer les transformations, mais une modélisation équivalente est envisageable. Pourquoi alors utiliser Hugo plutôt que Pandoc qui est sans conteste un programme créé par et pour des universitaires ? Pour deux raisons. D’une part Hugo comprend des fonctionnalités tels que la génération simultanée de plusieurs formats et la modélisation contextuelle avec les shortcodes ; d’autre part Hugo est un programme pensé pour publier des documents numériques et plus spécifiquement des sites web, dont l’application dans le champ académique relève d’un usage non conventionnel. C’est ce pas de côté qui génèrent plusieurs frictions et compromis que nous considérons comme essentiels pour penser et critiquer des modèles éditoriaux. En allant chercher des initiatives techniques dans d’autres champs éditoriaux (ici le Web), il est possible d’envisager des usages nouveaux, de repenser certains acquis et ainsi d’enrichir les possibles lorsque nous considérons les modèles éditoriaux. Par ailleurs, comme nous l’avons vu dans plusieurs études de cas précédentes, Pandoc est déjà largement utilisé, il est essentiel d’explorer d’autres voies pour ne pas enfermer nos pratiques, quitte à revenir à Pandoc ensuite. Pandoc, comme tout programme ou logiciel, implique un modèle de pensée spécifique. Si ce modèle s’avère particulièrement ouvert et riche avec Pandoc, comme nous l’avons déjà vu (voir 4.3. Le langage de balisage léger Markdown : entre interopérabilité et compromis), son implémentation technique conduit toutefois à certains choix. Nous retrouvons ici un point soulevé par Vilèm Flusser sur les questions d’apprentissage et de créativité, nécessaires pour retrouver un équilibre avec les machines. La modélisation contextuelle utilisée ici permet d’envisager des scénarios liés entre eux, et donc de construire un acte éditorial qui se déploie selon plusieurs modalités correspondant à plusieurs formats ou formes. Le fonctionnement des shortcodes de Hugo, ajouté à la dimension multi-formats, est une occasion de formaliser clairement le comportement sémantique de textes et de sous-éléments de ces textes. Un même texte peut être rédigé et structuré en envisageant plusieurs artefacts différents, l’écriture s’incarne dans ces modélisations. Ce fonctionnement permet en outre de déterminer une structure personnalisée et néanmoins standard dans un environnement HTML, tout en conservant un balisage lisible dans la source. Enfin, la modélisation contextuelle peut s’appliquer de plusieurs manières ; il est possible de convertir le balisage agrémenté des shortcodes en une autre syntaxe, comme le processing models de la TEI que nous avons déjà mentionné (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions). L’usage de Hugo et de ses shortcodes est donc une occasion de réaliser une preuve de concept du principe de la modélisation contextuelle. L’application des principes du single source publishing — ou édition multi-formats à partir d’une source unique (voir la définition de Single source publishing ou édition multi-formats depuis une source unique, chapitre 4) — comme tentative d’une modélisation abstraite idéale est un leurre, et peut représenter un enfermement théorique. Il faut plutôt considérer ces principes comme une occasion de formaliser des pratiques d’édition. Dit autrement, mettre en place une chaîne d’édition qui intègre la génération de plusieurs formes et formats tout en conservant une source unique est une invitation à examiner des façons de faire plutôt qu’un modèle idéal. Nicolas Taffin précise les limites d’une vision fonctionnaliste :   Le paradoxe, ou plutôt la tension, reste celle-ci : comment d’un côté construire un balisage sémantique du texte, un modèle abstrait de toute forme, qui pourrait s’incarner dans n’importe laquelle d’une part, et de l’autre porter l’attention nécessaire à la composition de chaque “page” qui doit permettre de prendre le contrôle sur le moindre détail, un paragraphe, une ligne, un mot, une césure pour en manifester visuellement la structure. (Taffin & Melot, 2023, p. 161)   L’enjeu des expérimentations présentées ici est non pas de proposer des modèles duplicables mais de représenter des terrains d’expérimentation. Il s’agit donc non pas de considérer le single source publishing comme un objectif à atteindre absolument, dans une perspective d’automatisation plus grande, mais plutôt d’observer les modifications dans les méthodes de travail ou dans l’organisation du flux éditorial qui adopte ces principes. Nous parlons ainsi plus volontiers de l’opportunité de questionner des pratiques existantes et futures. Ces deux expérimentations n’ont pas été construites comme des modèles à dupliquer telles quelles, et ne peuvent en constituer. L’effort de lisibilité dans la publication des sources de TXT (note : https://src.quaternum.net/txt.quaternum.net) et de la fabrique de cette thèse — qui consiste essentiellement en des modélisations et en une série de paramétrages avec Hugo — réside uniquement dans la volonté de permettre une compréhension de ces objets processuels, par exemple pour pouvoir envisager d’autres implémentations de principes similaires. La généricisation est un objectif impossible à atteindre, comme nous l’avons vu avec l’étude de cas du Novendécaméron qui présente trop de cas particuliers (voir 3.5. Le Novendécaméron ou éditer avec et en numérique). S’agit-il de parvenir à un “modèle abstrait de toute forme” comme le dit plus haut Nicolas Taffin ? Il n’est ni souhaitable ni possible de mettre en place un modèle qui conviendrait pour nombre d’usages, le projet TEI le prouve avec suffisamment d’acuité : la complexité est telle que l’effort consenti pour son usage empêche toute modification de cette architecture aussi puissante que complexe. L’intérêt de l’exposition de notre modélisation est de démontrer comment la thèse est, dans notre cas, une édition de textes et la construction d’un processus technique, ou la construction d’un processus technique et une édition de textes. Fabriquer une édition, éditer une fabrique : ce double mouvement nous amène à la position du chercheur dans la constitution d’un modèle éditorial expérimental, il convient en effet d’éviter de verser dans la production d’une solution voire d’un produit, et de conserver la dimension exploratrice d’un tel projet scientifique. La reproductibilité d’une modélisation est attendue, mais elle ne doit pas être confondue avec la mise à disposition d’un produit, d’autant plus au niveau individuel comme le nôtre (note : Même si des collaborations ou des interventions extérieures ont pu permettre de résoudre un certain nombre de problèmes ou de relever plusieurs défis.), quand bien même une certaine injonction existe à mettre à disposition des solutions prêtes à l’emploi. Nous adoptons la position selon laquelle la constitution de ces deux chaînes d’édition, et les modélisations correspondantes, ont comme fonction de nourrir des réflexions théoriques et pratiques. Ces dernières conduisent à l’élaboration d’objets éditoriaux finalisés, via l’exposition d’un certain nombre de mécanismes dont nous pouvons ainsi prévoir une reproductibilité — ce qui diffère du fait de vouloir réutiliser ces processus techniques sans les adapter ou les modifier en profondeur. Notons que si ces prototypes sont fortement améliorables, ils constituent tout de même des processus ou des objets fonctionnels. Enfin il s’agit de constater l’apport en termes d’apprentissage : en effet les compétences développées durant le processus de conception et de développement de TXT et de la fabrique de la thèse font partie intégrante du déroulement. Ce qui nous amène aux enjeux relatifs à la connaissance ou la maîtrise de la programmation. Les chercheurs et les chercheuses en humanités numériques doivent savoir coder, dans le sens où il est nécessaire de décomposer les outils que nous utilisons comme l’explique Quinn Dombrowski (Dombrowski, 2022). Nous considérons en outre que l’approche du creative coding, comme nous l’avons abordé à propos des designers dans le champ du graphisme (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts), est pertinente aussi dans des pratiques de recherche. Il faut s’approprier des langages, par exemple ici le langage de templating de Hugo hérité de celui du langage de programmation Go, sans pour autant devoir maîtriser la programmation elle-même. Cela signifie identifier une communauté et des personnes ressources, pour pouvoir solliciter des compétences et ensuite agréger des façons de faire sans reproduire aveuglément des fragments de code. Il faut alors être en mesure de formuler un problème, notamment pour recourir à de l’aide lorsque cela est nécessaire. Cela signifie aussi en retour apporter un soutien aux personnes de cette communauté, quand cela est possible. Dans notre cas le travail de prototypage s’est construit en apportant un regard critique continu, notamment via l’espace d’échanges de la Chaire de recherche du Canada sur les écritures numériques et des membres qui la constituent, et via la publication d’articles dans des revues ou en présentant des résultats intermédiaires lors de communications. La réflexivité inhérente à l’approche des humanités numériques est un apport capital pour conserver un regard critique. Les questions de choix des outils, de scénarisation des modélisations éditoriales, de limites de principes techniques, de reproductibilité, des résultats produits et de réflexivité critique participent toutes de cette fabrique. Ces questions constituent des points d’ancrage d’une réflexion sur la manière dont le sens est produit dans une activité d’édition. Nous abordons désormais plusieurs interrogations comme ouverture à la suite de cette double étude de cas.   5.5.4. Ouverture et limites Quel est le degré d’ouverture d’une fabrique d’édition ? Si jusqu’ici nous avons mis en avant plusieurs caractéristiques positives de ce phénomène de fabrique d’édition, il est pourtant nécessaire de relever plusieurs limites intrinsèques, comme l’inclusivité permise ou non par ces processus, les ressources nécessaires pour leur fonctionnement, et enfin la participation ou non de la fabrique à une certaine course technologique — et technophile. Les outils, programmes ou logiciels utilisés ici sont majoritairement créés et développés par des hommes occidentaux — comme l’auteur de cette thèse. Nous sommes dans la position où nous recommandons des approches qui sont mises en place dans un cadre très spécifique, que nous pouvons qualifier de privilégié. Quand bien même ces approches sont ouvertes, nous devons prendre en considération les conditions de leur émergence, ainsi que les nombreux biais qu’elles comportent — par exemple un accès continu à l’électricité ou à Internet, la compréhension de la langue anglaise majoritairement utilisée dans les documentations, ou encore disposer d’ordinateurs récents ou de serveurs. Si la reprise de TXT dans d’autres circonstances — avec Débugue tes humanités (voir 5.5. Prototyper la Fabrique)— est un pas engageant vers l’utilisabilité ou l’appropriation d’un tel processus, ces usages demeurent circonscrits à certaines situations et ne peuvent être généralisées. L’utilisation de Hugo, mais aussi de Pandoc, nécessite une puissance de calcul qui n’est pas négligeable. Si la rapidité du générateur de site statique se vérifie sur des ordinateurs récents, il faut prendre en considération que le temps de génération — et l’énergie qui l’alimente — peut être plus important sur des machines plus anciennes. C’est ce que souligne l’équipe de Low-Tech Magazine lors du changement de workflow :   En passant à Hugo, nous avons réussi à réduire le temps de génération sur le serveur de plus d’une heure à environ douze minutes. Sur un ordinateur portable moderne, la différence se situe entre plusieurs minutes et plusieurs secondes de génération. Cette différence de temps signifie également une différence dans la consommation d’énergie sur le serveur. (Decker, Otsuka & al., 2023)   C’est également une réflexion suscitée par les principes du minimal computing — que nous avons présentés précédemment (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) — qui consistent à considérer les ressources disponibles dans un contexte donné pour conduire des choix technologiques, et non faire usage de technologies sans prendre en compte les contraintes locales. Tout choix technique ne convient pas à toutes les situations. Dans notre cas, Hugo, malgré son grand avantage de ne disposer d’aucune dépendance, requiert tout de même des machines relativement récentes. Enfin, ces deux prototypes participent-ils à une certaine course technologique ? Probablement oui, indirectement, dans la mesure où Hugo (et Go) se placent tout de même dans une démarche d’amélioration continue qui vise plus à augmenter les performances qu’à réduire l’impact de leur usage. Le concept de permacomputing apporte un éclairage pertinent sur cette double question de cette constante progression technique et de la consommation de matériel et d’énergie :   At a time when computational culture seems to be increasingly characterised by electronic and energy waste, permacomputing instead encourages a more sustainable approach by maximising the life of hardware, minimising energy consumption and focusing on the use of already available computing devices and components. (Mansoux, Howell & al., 2023)   Cette remise en question technique et profonde peut permettre de fonder une nouvelle culture numérique ainsi que de découvrir de nouvelles esthétiques (S.A., 2023). Dans une situation climatique catastrophique ce questionnement peut constituer une perspective positive. C’est ce que nous avons tenté de faire, à une moindre échelle, avec ces deux prototypes. En prenant en compte ces trois questions, à la fois comme des critiques, des limites et des perspectives, nous nous positionnons dans une situation de prototypage. Une des suites possibles de cette double expérimentation serait l’adoption de choix radicaux, par exemple en abandonnant des langages incompatibles avec des machines informatiques de plus de vingt ans, ou en remettant en cause l’absence de construction incrémentale — actuellement l’ensemble des artefacts sont regénérés même si un seul fichier source est modifié. Les résultats obtenus, en l’occurrence l’implémentation de plusieurs principes permettant de construire des fabriques, sont désormais utiles pour envisager de nouvelles implémentations. ========== Conclusion [d8cb6e4] Les fabriques d’édition sont des processus techniques qui fabriquent et produisent du sens, tant à travers les différents artefacts qui en conservent des traces, que dans les modélisations qui les précèdent. Nous avons pu démontrer que ces fabriques se constituent dans des situations où la technique est interrogée et critiquée. C’est donc un désir de faire autrement, une volonté de remettre en cause les archétypes établis ou imposés, qui ouvre des perspectives vers de nouveaux modèles épistémologiques. Notre hypothèse s’est constituée et a été argumentée autour de cinq grandes thématiques, qui ont chacune fait l’objet d’un développement conceptuel, d’un prolongement critique et de l’élaboration d’un nouveau concept. Ces analyses et ces propositions théoriques ont été articulées puis fondées autour d’études de cas de dispositifs et d’expérimentations. Le parcours général de cette thèse a été progressif, partant du livre comme artefact, étudiant l’édition comme acte et comme éditorialisation, présentant le numérique comme environnement puis comme processus technique avec l’édition numérique, analysant les formats comme dispositif de modélisation du sens, et questionnant enfin le logiciel pour conceptualiser la fabrique. 6.1. Un parcours conceptuel du livre au logiciel [131f817] Notre démonstration a permis de répondre à la question des relations qu’entretiennent le texte et la technique dans les opérations d’édition. Cette démonstration a tout d’abord été possible en analysant ce qu’est un livre. L’établissement d’une définition conceptuelle (voir la définition de Livre, chapitre 1) nous a effectivement permis d’articuler fonctions et aspects, et de délimiter les dimensions techniques inhérentes au livre. L’analyse des procédés de reproduction, depuis l’impression à caractères mobiles jusqu’à ce jour, révèle une évolution qui correspond globalement à celle de nos sociétés occidentales. Les formes livresques portent en elles leurs conditions techniques, le livre est matériel. L’étude de cas d’une démarche singulière d’édition, l’ouvrage Busy Doing Nothing du duo Hundred Rabbits, confirme cette dimension intrinsèque du livre. Notre définition est alors complétée, considérant cet objet matériel comme un artefact, c’est-à-dire le résultat d’opérations de fabrication et de production, le livre portant ainsi en lui les traces des dispositifs techniques nécessaires à son existence (voir la définition de Artefact éditorial, chapitre 1). L’étude du livre Exigeons de meilleures bibliothèques de R. David Lankes, publié par les Ateliers de [sens public], en tant qu’il est constitué de plusieurs formats et versions, donne à voir un processus technique dont il est le résultat. Partant de l’objet, nous avons pu justifier l’intérêt de nous concentrer désormais sur le processus. L’édition (voir la définition de Édition, chapitre 2) est une activité profondément technique, dans laquelle sont entremêlées des opérations de modélisation, de révision, de composition, d’agencement technologique ou d’établissement d’une diffusion. L’édition est un acte (voir la définition de Acte éditorial, chapitre 2) car il s’agit d’un dispositif en action, qui agit autant sur le monde via la production d’un artefact que sur la personne qui l’utilise. Nous remettons en cause l’idée selon laquelle la technique serait neutre, surtout dans l’activité d’édition. Les enjeux politiques inhérents à toute technique et à ses usages sont révélés dans la manière dont Abrüpt édite ses livres. Dans la mise en place de processus techniques d’édition, cette structure d’édition fabrique des objets qui participent ou qui engagent une éditorialisation (voir la définition de Éditorialisation, chapitre 2), soit des dynamiques constituantes qui forment un cadre méthodologique. L’étude du dispositif technique développé pour fabriquer les livres des Ateliers de [sens public] confirme cette hypothèse selon laquelle les modèles épistémologiques sont constitués à travers un acte d’édition. La description de cet environnement, le numérique, qui est désormais le nôtre, est prolongée par l’analyse du numérique en tant que culture(s) et en tant qu’il dispose d’une dimension réflexive agissante (voir la définition de Numérique, chapitre 3). La place qu’occupe le numérique, ou plutôt l’espace constitué par le numérique, engendre un changement de paradigme dans la constitution de nos environnements techniques. Cela est particulièrement visible dans le domaine de l’édition, et plus précisément avec l’apparition du livre numérique (voir la définition de Livre numérique, chapitre 3) comme phénomène d’homothétisation. Emblématique d’un rapport complexe avec le numérique, il nous permet de distinguer trois positions : publier dans le numérique avec le livre numérique homothétique ; publier avec le numérique en l’utilisant tout en prolongeant une tradition de l’imprimé ; publier en numérique en prenant en considération les processus techniques comme constitutifs de pratiques protéiformes et d’artefacts variés et variables. L’étude de cas de la chaîne d’édition Ekdosis, conçue pour l’édition critique, est significative de ce publier avec le numérique. La relation originelle entre l’édition numérique (voir la définition de Édition numérique, chapitre 3) — en tant que publier en numérique — et les humanités numériques nous permet de mieux comprendre les dimensions réflexives et critiques nécessaires dans toute élaboration d’une modélisation. Cela se confirme avec l’étude de cas du recueil Le Novendécaméron, où le dispositif technique a été développé de concert avec l’édition des textes de ce livre web et imprimé. Notre étude du format s’inscrit dans notre recherche en tant qu’elle explore les processus techniques d’édition. Définir ce qu’est un format (voir la définition de Format, chapitre 4) est essentiel dans l’analyse des dispositifs d’édition, et vient encore confirmer le lien ténu entre la technique et l’édition. Nous le démontrons avec le cas de formats qui découplent l’acte de sémantisation d’autres opérations éditoriales. En s’affranchissant des logiciels qui masquent la dimension sémantique de l’écriture et de l’édition, il devient en effet possible de définir des formats qui expriment le sens tout en le séparant de sa modélisation afin de produire des artefacts. C’est également ce que révèle l’étude du langage de balisage léger Markdown, et la nécessité de le considérer en tant que format à convertir. Nous définissons ainsi un acte éditorial sémantique spécifique, le single source publishing — l’édition multi-formats à partir d’une source unique (voir la définition de Single source publishing ou édition multi-formats depuis une source unique, chapitre 4) —, où l’imbrication des déclarations sémantiques et de leur modélisation apparaît comme une opportunité de nouvelles pratiques — et non un horizon productiviste. Ce chapitre se clôt sur l’étude de cas du module d’export de l’éditeur de texte sémantique Stylo, en tant que démonstration pertinente d’une modélisation éditoriale — ici dans la publication savante. En débutant par une critique du logiciel (voir la définition de Logiciel, chapitre 5), le dernier chapitre s’appuie sur les concepts d’artefact éditorial, de dispositif éditorial, d’éditorialisation, et de single source publishing pour définir précisément ce que nous appelons fabrique. Notre critique se construit dans le contexte des pratiques d’édition du champ des lettres — littérature au sens large, publications savantes et scientifiques —, où la place prépondérante des logiciels de traitement de texte et de publication assistée par ordinateur nous invite à questionner notre rapport à la technique — encore. C’est du côté des designers graphiques que de nouvelles perspectives d’outillage forment un double courant de réappropriation : le creative coding pour les questions générales de création de programmes adaptés aux besoins spécifiques de production d’artefacts éditoriaux ; le CSS print dans le cas de l’utilisation des briques ouvertes que constituent les technologies du Web pour paginer et imprimer des livres. La maison d’édition C&F Éditions fait partie des structures qui décident d’adopter des pratiques non conventionnelles d’édition, et construisent ainsi des modélisations éditoriales libérées des logiciels, tout en devant faire face à un certain nombre de contraintes éditoriales et techniques. Notre définition du concept de fabrique, à partir des théories de Tim Ingold et de Vilèm Flusser (voir la définition de Fabrique, chapitre 5), nous amène à considérer le phénomène de fabriques d’édition comme imbrication des dimensions techniques de tout acte éditorial (voir la définition de Fabrique d’édition, chapitre 5). Nous ne généralisons pas ces pratiques protéiformes et plurielles, mais nous identifions des traits communs originaux qui forment une convergence. Pour donner un autre éclairage à ce concept et à ce phénomène, nous présentons nos propres pratiques d’édition qui s’inscrivent dans le cadre de la réalisation de cette thèse. Nous démontrons, avec cet acte performatif, que ce processus de recherche scientifique, qui dispose d’une dimension éditoriale, est aussi une modélisation épistémologique qui se traduit par des choix techniques divers. La structure des sources, l’identification des concepts, les renvois entre les différentes parties du texte ou encore l’identification des types de section, participent autant à la thèse que la rédaction ou la correction du texte. À travers ce parcours nous parvenons à confirmer notre hypothèse : en interrogeant notre rapport à la technique et en critiquant les dispositions et les dispositifs techniques d’édition, des modélisations éditoriales et épistémologiques inattendues émergent. Notre recherche constitue un apport pour les sciences de l’information et de la communication, et plus spécifiquement les études de l’édition — voire du livre. Le phénomène de fabrique d’édition constitue en effet un cadre d’analyse pour observer des pratiques d’édition, et le concept de fabrique peut permettre l’analyse d’un phénomène semblable dans le travail d’écriture et les enjeux d’auctorialité. 6.2. Perspectives radicales [131f817] Pour à la fois clore ce texte et prolonger ce travail de conceptualisation, d’analyse et d’expérimentation, nous ouvrons trois perspectives politiques autour de trois thématiques : la place des interfaces textuelles dans les pratiques d’édition et leur rôle émancipateur ; la prise en compte des contextes d’usage des techniques avec le concept de minimal computing ; le permacomputing ou la soutenabilité des modèles techniques dans un contexte de limitation des ressources. Ces trois dimensions émanent de la fabrique, et de sa propension à nous amener à interroger nos cadres de pensée, et les dispositions sociales et politiques dans lesquelles nous nous trouvons. Les humanités numériques jouent ici un rôle prépondérant, elles nous permettent de construire une méthodologie critique et de disposer d’outils et de communautés pour adresser ces questions et disséminer des expériences. Les différentes expérimentations présentées dans cette thèse ont en commun de reposer sur des modes d’écriture et d’édition textuels, plutôt que sur des interfaces (utilisateur) graphiques. Ces dernières se révèlent bien souvent, comme nous l’avons vu dans le dernier chapitre (voir 5.2. Contre le logiciel : pour des processus décomposés et ouverts), des outillages hostiles au sens. Les fabriques d’édition — engageant nécessairement la constitution d’une littératie — émergent dans des environnements ouverts et conviviaux dont le format texte et les interfaces textuelles sont probablement des éléments centraux. Il ne s’agit pas de promouvoir une culture du code mais plutôt d’envisager une réappropriation des mécanismes techniques de nos environnements — forcément numériques. Remonter la chaîne logicielle, dans le cas de pratiques d’édition, ouvre des perspectives d’apprentissage, comme cela a pu être le cas dans le cheminement de cette thèse et le cadre d’expérimentation de la Chaire de recherche du Canada sur les écritures numériques. Il n’est plus question de concevoir des solutions, qui prennent souvent la forme de logiciels, mais de permettre des mouvements doubles d’acquisition et de fabrication. Cela constitue à la fois une perspective — le développement de pratiques d’édition textuelles — et un terrain d’études — les usages sont variés — pour des recherches qui prolongeraient celle qui se conclut ici. Le concept de minimal computing est développé au sein de la communauté des humanités numériques autour de l’enjeu de l’accès et de l’usage des technologies numériques dans des localités où les ressources (machines, connexions, électricité) sont contraintes voire limitées (Gil, 2015). Longuement présenté dans un article de Roopika Risam et Alex Gil, ce concept — que nous avons évoqué dans le troisième chapitre (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) — met en perspective des choix techniques qui sont établis souvent et d’abord dans des situations favorisées. Il est nécessaire de confronter les conditions de conception de ces modélisations — parfois éloignées de leur possibilité d’usage — à des principes d’accessibilité plus forts.   Despite critiques, which can and should continue to be addressed through our collective work, the two of us still see minimal computing as a space wherein we can explore forms of computation that do not depend on expensive infrastructures and the harmful practices of the centers of capital accumulation in the 21st century. (Risam & Gil, 2022)   Plusieurs projets ont accompagné l’élaboration de ce concept, dont la chaîne d’édition Ed (note : https://minicomp.github.io/ed/documentation/) est un exemple emblématique : il s’agit de l’utilisation d’un générateur de site statique (Jekyll) pour fabriquer des publications numériques. Plutôt que de recourir à des systèmes de publication puissants mais néanmoins complexes (des dispositifs comme Omeka(S) ou XML-TEI), certains projets d’édition sont envisagés autour de programmes ou de logiciels de plus bas niveau ou disposant d’un minimum de fonctionnalités. Tout dispositif technique est situé. Le numéro spécial de Digital Humanities Quarterly dédié à cette question réunit d’autres initiatives très diverses qui partagent les mêmes principes. Citons également la revue académique Pop!, qui place au centre les interactions humaines plutôt que les relevés métriques (Maxwell, 2022). De plus en plus d’expérimentations partagent des principes similaires — sans pour autant s’en réclamer — dans le champ plus spécifique de l’édition et de la fabrication d’artefacts paginés. Le collectif PrePostPrint (note : https://prepostprint.org) constitue par exemple un terrain d’expérimentation autour de ces enjeux politiques et techniques, ses membres construisant leurs propres outils, et concevant des dispositifs alternatifs — des alternatives aux logiciels privateurs et énergivores, mais pas forcément des solutions. Plus qu’une invitation à limiter les ressources, il s’agit de critiquer les modes d’édition en tant qu’ils se fondent dans des environnements spécifiques, divers, pluriels. C’est une forme d’inclusivité que nous devons toujours questionner et établir. Le permacomputing se situe dans le prolongement de ces enjeux. Ce néologisme définit une approche plus qu’un concept — que nous avons évoqué dans le dernier chapitre (voir 5.5. Prototyper la Fabrique) —, né du double constat que la culture informatique se caractérise par une tendance forte au gaspillage des dispositifs matériels (machines, composants, câbles, etc.), et que les ressources générales permettant leur maintien ou leur renouvellement s’épuisent. Dit autrement, dans un contexte d’urgence climatique il semble opportun de repenser notre empreinte numérique, notamment en utilisant des appareils déjà existants ou en privilégiant la réparation. Ce sont les constats formulés par Ville-Matias Heikkilä dans un texte (Heikkilä, 2020) qui crée rapidement un engouement. Des communautés se rassemblent autour de ces questions (note : https://permacomputing.net), le cadre des réflexions suscitées dépassant les enjeux d’implémentation technique, notamment autour de principes comme l’éthique, la résilience, le partage, la décentralisation ou la diversité. Adopter les principes du permacomputing n’est pas tant une adaptation de nos habitus numériques qu’une reconfiguration de nos modes de vie, comme le duo Hundred Rabbits l’expérimente depuis quelques années (voir 1.3. Éditer autrement : le cas de Busy Doing Nothing).   So when we talk about permacomputing aesthetics, it is not just about technical implementation, or about countering a broken maximalism with an exact opposite, such as an equally broken minimalism. It is about reimagining, dreaming, and experimenting with alternative ways of engaging with computer and network technology. (Mansoux, Howell & al., 2023, p. 3)   Plusieurs expérimentations sont développées en prenant appui sur les principes du permacomputing, plurielles et protéiformes, comme des systèmes d’exploitation conçus pour des machines très peu puissantes, le développement de compilateurs bas niveau pour la création d’outils divers ou pour des pratiques artistiques, ou encore des systèmes de production d’énergie autonome. En se distinguant du mouvement dit low-tech (Mateus & Roussilhe, 2023), notamment sur le refus des concessions et le rejet des autorités étatiques ou capitalistes, il le rejoint sur les dimensions de reconfiguration ou de partage. Il s’agit de repenser la façon dont nous créons et développons nos outils numériques, les machines étant, dans ce contexte, considérées comme des modèles de computation aux capacités désormais finies. Le permacomputing invite à une radicalité, au sens d’un choix total ou complet et non d’un retour aux sources. Dans ce cadre la fabrique peut être un dispositif d’émergence, un lieu où la technique est questionnée et construite. Ce positionnement politique nous engage dans une écologie des modélisations épistémologiques. Nous sommes aujourd’hui dans l’ardente obligation d’envisager l’émergence de fabriques dans des contextes environnementaux, politiques, économiques et culturels parfois passifs ou réfractaires. Littérature et livres montreraient encore une fois la voie, à l’image de Johannes Gutenberg au quinzième siècle ou d’Alde Manuce au seizième siècle. Les pionniers d’aujourd’hui sont les défricheurs d’un espace nouveau qui est critique, écologique, sobre et convivial. Loin d’être un projet utopique, il s’agit de (dé)construire un numérique, ensemble, en fabriquant des éditions et en éditant des fabriques. ========== Références bibliographiques Abrüpt (2023). Abrüpt. Consulté à l’adresse https://abrupt.cc/ Abrüpt (2023). Antilivre. Consulté à l’adresse https://www.antilivre.org/ Abrüpt (2021). Gabarit Abrüpt. Consulté à l’adresse https://gitlab.com/cestabrupt/gabarit-abrupt Abrüpt (2019). Idées de prospective éditoriale. Consulté à l’adresse https://mamot.fr/@cestabrupt/101465668377263368 Abrüpt (2021). L’incendie est clos. Consulté à l’adresse https://gitlab.com/cestabrupt/borg-otto-lincendie-est-clos Abrüpt (2023). Organisation. Consulté à l’adresse https://abrupt.cc/organisation/ Adema, J. (2021). Living Books: Experiments in the Posthumanities. MIT Press. Agamben, G. (2007). Qu’est-ce qu’un dispositif ? Payot & Rivages. Alcaras, G. (2020). Des biens industriels publics. Genèse de l’insertion des logiciels libres dans la Silicon Valley. Sociologie du travail, 62(3). https://doi.org/10.4000/sdt.33283 Alcaras, G. & Larribeau, A. (2022). Codes. L’informatique comme elle s’écrit. RESET. Recherches en sciences sociales sur Internet(11). https://doi.org/10.4000/reset.3914 Alcaras, G. (2022). Des logiciels libres au contrôle du code: l’industrialisation de l’écriture informatique. Thèse de doctorat, École des hautes études en sciences sociales. Consulté à l’adresse http://www.theses.fr/2022EHES0120/document Alessi, R. (2020). ekdosis: Using LuaLaTeX for Producing TEI XML Compliant Critical Editions and Highlighting Parallel Writings. Journal of Data Mining & Digital Humanities, Special Issue on Collecting, Preserving, and Disseminating Endangered Cultural Heritage for New Understandings through Multilingual Approaches(Visualisation of intertextuality and text reuse). https://doi.org/10.46298/jdmdh.6536 Alessi, R. & Vitali-Rosati, M. (dir.). (2023). Les éditions critiques numériques: entre tradition et changement de paradigme. Presses de l'Université de Montréal. Consulté à l’adresse https://www.parcoursnumeriques-pum.ca/12-editionscritiques/index.html Alessi, R. (2023). Quelques réflexions sur les nouveaux horizons épistémologiques offerts par les éditions critiques numériques. Consulté à l’adresse https://hal.science/hal-04246861 Alexandre, O. (2023). La tech: quand la Silicon Valley refait le monde. Éditions du Seuil. Allington, D. (2016). The LaTeX fetish (Or: Don’t write in LaTeX! It’s just for typesetting). Consulté à l’adresse http://www.danielallington.net/2016/09/the-latex-fetish/ Anderson, C., Vadé, B. & Le Séac'h, M. (2007). The long tail. Les éditions logiques. Archibald, S. (2009). Le texte et la technique: la lecture à l’heure des médias numériques. Le Quartanier. Arribe, T. (2014). Conception des chaînes éditoriales. Thèse de doctorat, Université de technologie de Compiègne. Consulté à l’adresse https://ics.utc.fr/~tha/co/Home.html Audet, R., Blanc, J., Bourassa, R., Brassard, L., Casenave, J., Hourez, J., Miranda, X., Mellet, M., Monjour, S., Paquin, M., Pons, L., Soubret, J., Sauret, N. & Youssef, E. (2018). Version 0. Notes sur le livre numérique. CRC en écritures numériques. Consulté à l’adresse https://hal.archives-ouvertes.fr/hal-01922682 Ávila Araújo, C. (2022). Épistémologie des sciences de l’information : histoire intellectuelle des concepts, théories et paradigmes. Revue française des sciences de l’information et de la communication(24). https://doi.org/10.4000/rfsic.12443 Bachimont, B. (2020). Formes, concepts, matières : quels place et rôle pour le numérique et la technique. Dans Philizot, V. & Saint-Loubert Bié, J. (dir.), Technique & design graphique: outils, médias, savoirs. (pp. 204–229). Éditions B42.  Bachimont, B. (2007). Ingénierie des connaissances et des contenus: le numérique entre ontologies et documents. Hermès Science. Bachimont, B. & Crozat, S. (2004). Instrumentation numérique des documents : pour une séparation fonds/forme. Revue I3 - Information Interaction Intelligence, 4(1). Consulté à l’adresse https://archivesic.ccsd.cnrs.fr/sic_00001017/document Bachimont, B. (2007). Nouvelles tendances applicatives: de l’indexation à l’éditorialisation. Dans L'indexation multimédia description et recherche automatiques. (pp. 309–321). Hermès Science/Lavoisier.  Baetens, J. (2018). Plain Text: The Poetics of Computation. Leonardo, 51(3). 322–323. https://doi.org/10.1162/leon_r_01627 Baratin, U. (2017). L’art de publier des essais : entretien avec Alexandre Laumonier. Consulté à l’adresse https://www.en-attendant-nadeau.fr/2017/03/14/entretien-alexandre-laumonier/ Barron, G., Camolezi, M. & Deldicque, T. (2021). Technique, technologie : mots, concepts, catégories. Artefact. Techniques, histoire et sciences humaines(15). 7–14. https://doi.org/10.4000/artefact.11173 Bellum, R. & Linvega, D. (2021). Busy Doing Nothing. Hundred Rabbits. Benhamou, F. (2014). Le livre à l’heure numérique: papiers, écrans, vers un nouveau vagabondage. Éditions du Seuil. Berends, M., Heij, G., Timmermans, D. & Leray, A. (2023). html2print as a practice of boilerplates. Consulté à l’adresse http://blog.osp.kitchen/residency/a-practice-of-boilerplates.html Berne, X. (2014). Le ministère du Travail va basculer vers des logiciels de bureautique libres. Consulté à l’adresse https://www.nextinpact.com/article/14311/89239-le-ministere-travail-va-basculer-vers-logiciels-bureautique-libres Bert-Erboul, C. (2015). Les Creative Commons. Une troisième voie entre domaine public et communauté ? Recherches sociologiques et anthropologiques, 46(2). 43–65. https://doi.org/10.4000/rsa.1514 Biagini, C. (2015). L’assassinat des livres: par ceux qui oeuvrent à la dématérialisation du monde. L'Échappée. Blanc, J. & Maudet, N. (2022). Code <–> Design graphique: Dix ans de relations. Graphisme en France(2022). Blanc, J. (2023). Composer avec les technologies du web : Genèses instrumentales collectives pour le développement d’une communauté de pratique de designers graphiques. Thèse de doctorat, Université Paris 8 - Vincennes - Saint-Denis. Blanc, J. (2022). Si Jan Tschichold avait connu les feuilles de style en cascade : plaidoyer pour une mise en page comme programme. Revue Design Arts Medias(11/2023). Consulté à l’adresse https://journal.dampress.org/issues/systemes-logiques-graphies-materialites/si-jan-tschichold-avait-connu-les-feuilles-de-style-en-cascade-plaidoyer-pour-une-mise-en-page-comme-programme Blanc, J. & Haute, L. (2018). Technologies de l’édition numérique. Sciences du design, 8(2). 11–17. https://doi.org/10.3917/sdd.008.0011 Bleeker, E., Buitendijk, B. & Dekker, R. (2020). Between Flexibility and Universality: Combining TAGML and XML to Enhance the Modeling of Cultural Heritage Text. Dans Karsdorp, F., McGillivray, B., Nerghes, A. & Wevers, M. (dir.), Proceedings of the Workshop on Computational Humanities Research (CHR 2020). (pp. 340–350). CEUR.  Bleier, R. (2021). How to cite this digital edition? Digital Humanities Quarterly, 015(3). Bolter, J. & Grusin, R. (2000). Remediation: understanding new media. The MIT Press. Bolter, J. (2001). Writing space: computers, hypertext, and the remediation of print (2nd ed.). Lawrence Erlbaum Associates. Borg, O. (2018). L’incendie est clos. Abrüpt. Borsuk, A. (2018). The book. The MIT Press. Borsuk, A. (dir.). (2021). The Book: 101 Definitions. Anteism. Bortzmeyer, S. (2020). Le protocole Gemini, revenir à du simple et sûr pour distribuer l’information en ligne ? Consulté à l’adresse https://www.bortzmeyer.org/gemini.html Bouchardon, S. & Cailleau, I. (2018). Milieu numérique et « lettrés » du numérique. Le français aujourd'hui, 200(1). 117–126. https://doi.org/10.3917/lfa.200.0117 Boulétreau, V. & Habert, B. (2017). Les formats. Dans Sinatra, M. & Vitali-Rosati, M. (dir.), Pratiques de l’édition numérique. (pp. 145–159). Parcours numériques. Consulté à l’adresse http://www.parcoursnumeriques-pum.ca/les-formats  Bourassa, R., Haute, L. & Rouffineau, G. (2018). Devenirs numériques de l’édition. Sciences du Design, no 8(2). 27–33. https://doi.org/10.3917/sdd.008.0027 Bourdieu, P. (1998). Les règles de l’art: genèse et structure du champ littéraire. Éditions du Seuil. Broca, S. & Kelty, C. (2018). Utopie du logiciel libre. Éditions le Passager clandestin. Broudoux, É. (2022). Éditorialisation et autorité: dispositifs info-communicationnels numériques. De Boeck supérieur. Buard, P. (2015). Modélisation des sources anciennes et édition numérique. Thèse de doctorat, Université de Caen. Consulté à l’adresse https://hal.science/tel-01279385 Burdick, A., Drucker, J. & Lunenfeld, P. (2012). Digital_humanities. MIT Press. Burnard, L. (2015). Qu’est-ce que la Text Encoding Initiative ? OpenEdition Press. Consulté à l’adresse http://books.openedition.org/oep/1237 Candel, É. (2017). L’édition du texte informatisé, une pratique de lecture. Dans Catoir-Brisson, M. & Vial, S. (dir.), Design et innovation dans la chaîne du livre. (pp. 113–127). Presses Universitaires de France. https://doi.org/10.3917/puf.vials.2017.03.0113  Cardon, D. (2015). À quoi rêvent les algorithmes: nos vies à l’heure des big data. Seuil. Cardon, D. (2019). Culture numérique. Les presses SciencesPo. Carlin, C. (2018). Endings: Concluding, Archiving, and Preserving Digital Projects for Long-Term Usability. KULA: Knowledge Creation, Dissemination, and Preservation Studies, 2. 19–19. https://doi.org/10.5334/kula.35 Casenave, J. (2023). L’édition critique numérique: une nouvelle approche du patrimoine littéraire et documentaire. Honoré Champion. Caserta, J. (2014). For/with/in: graphic design for, with, and in the browser (For with in). [The Design Office]. Cavalié, É., Clavert, F., Legendre, O. & Martin, D. (dir.). (2018). Expérimenter les humanités numériques : Des outils individuels aux projets collectifs. Presses de l’Université de Montréal. Consulté à l’adresse https://www.parcoursnumeriques-pum.ca/9-experimenter/ Cavallari, P. (2019). La culture numérique selon Dominique Cardon. Sens public. https://doi.org/10.7202/1067448ar Cerquiglini, B. (1989). Eloge de la variante: histoire critique de la philologie. Éditions du Seuil. C&F Éditions (2011). La licence Édition Équitable. Consulté à l’adresse https://edition-equitable.org/ Chacon, S. & Straub, B. (2018). Pro Git Book. Consulté à l’adresse https://git-scm.com/book/fr/v2/ Chantepie, P. & Le Diberder, A. (2010). Révolution numérique et industrie culturelles. La Découverte. Chartier, R. (2005). Inscrire et effacer : culture écrite et littérature, XIe-XVIIIe siècle. Gallimard le Seuil. Chartier, R. (1992). L’ordre des livres: lecteurs, auteurs, bibliothèques en Europe entre XIVe et XVIIIe siècle. Alinea. Chartier, R. (2007). The Printing Revolution: A Reappraisal. Dans Baron, S., Lindquist, E. & Shevlin, E. (dir.), Agent of change: print culture studies after Elizabeth L. Eisenstein. (pp. 397–408). University of Massachusetts Press. Consulté à l’adresse https://www.loc.gov/catdir/toc/ecip0711/2007004225.html  Chartron, G. (2016). Edition et publication des contenus : regard transversal sur la transformation des modèles. Dans Calderan, L., Laurent, P., Lowinger, H. & Millet, J. (dir.), Publier, éditer, éditorialiser, nouveaux enjeux de la production numérique. (pp. 9–36). De Boeck Supérieur.  Christin, A. (2009). L’image écrite ou La déraison graphique. Flammarion. Citton, Y., Lechner, M. & Masure, A. (dir.). (2023). Angles morts du numérique ubiquitaire: glossaire critique et amoureux. Les Presses du réel. Citton, Y. (2012). Gestes d’humanités: anthropologie sauvage de nos expériences esthétiques. Armand Colin. Citton, Y. (2016). Notre-Dame-des-Médias. Ceci tuera ceux-là, qui ne mourront pas. Azimuts(43). 147–160. Citton, Y. (2019). La singularité flussérienne. Multitudes, 74(1). 167–175. https://doi.org/10.3917/mult.074.0167 Clark, D. (2007). Content Management and the Separation of Presentation and Content. Technical Communication Quarterly, 17(1). 35–60. https://doi.org/10.1080/10572250701588624 Clavert, F. & Fickers, A. (2022). Publishing digital history scholarship in the era of updatism. Journal of Digital history(jdh002). https://doi.org/10.1515/JDH-2022-0003 CNRTL (2012). Acte. Consulté à l’adresse https://www.cnrtl.fr/definition/acte CNRTL (2012). Édition. Consulté à l’adresse https://www.cnrtl.fr/definition/édition CNRTL (2012). Fabrication. Consulté à l’adresse https://www.cnrtl.fr/definition/fabrication Combet, C. (2015). L’univers de Lovecraft sur l’iPad. Consulté à l’adresse https://www.livreshebdo.fr/article/lunivers-de-lovecraft-sur-lipad Condillac, É. (1749). Traité des sistêmes, où l’on en demêle les inconvéniens et les avantages. Consulté à l’adresse https://gallica.bnf.fr/ark:/12148/bpt6k1517703g Conrad, D., Leijsen, R. & Héritier, D. (dir.). (2021). Graphic Design in the Post-Digital Age: A Survey of Practices Fueled by Creative Coding (First edition). Onomatopee. Conrad, D. (2021). Graphic Design in the Post-Digital Age: Introduction. Dans Conrad, D., Leijsen, R. & Héritier, D. (dir.), Graphic Design in the Post-Digital Age: A Survey of Practices Fueled by Creative Coding. (First edition, pp. 7–24). Onomatopee.  Conrad, D., Leijsen, R. & Héritier, D. (dir.). (2023). Graphic Design in the Post-Digital Age: A Survey of Practices Fueled by Creative Coding (Second edition). Set Margins'. Coombs, J., Renear, A. & DeRose, S. (1987). Markup systems and the future of scholarly text processing. Communications of the ACM, 30(11). 933–947. https://doi.org/10.1145/32206.32209 Cramer, D. (2017). Beyond XML: Making Books with HTML. Consulté à l’adresse https://www.xml.com/articles/2017/02/20/beyond-xml-making-books-html/ Cramer, F. & Fuller, M. (2008). Interface. Dans Fuller, M. (dir.), Software studies: a lexicon. (pp. 149–153). The MIT Press.  Cramer, F., Cubaud, P., Dacos, M. & Lantenois, A. (dir.). (2011). Lire à l’écran: contribution du design aux pratiques et aux apprentissages des savoirs dans la culture numérique. Éditions B42. Crocker, S., Huitema, C. & Postel, J. (1995). Not All RFCs are Standards. Internet Engineering Task Force. https://doi.org/10.17487/RFC1796 Crozat, S. (2012). Chaînes éditoriales et rééditorialisation de contenus numériques. ADBS. Consulté à l’adresse https://hal.inria.fr/hal-00740268 Crozat, S. (2007). Scenari: la chaîne éditoriale libre. Eyrolles. Dacos, M. & Mounier, P. (2010). L’édition électronique. La Découverte. Dacos, M. (dir.). (2009). Read-Write Book : le livre inscriptible. Centre pour l'édition électronique ouverte. Darnton, R. & Revellat, M. (1992). Gens de lettres, gens du livre. Éditions Odile Jacob. Debeaux, G. (2021). Le livre décomposé. Sens public(2021). https://doi.org/10.7202/1089659ar Debouy, E. (2021). Édition critique numérique avec le logiciel Ekdosis pour LuaLaTeX. L’exemple des fragments latins d’atellanes. Humanités numériques(4). https://doi.org/10.4000/revuehn.2509 Debouy, E. (2022). Stylo, un éditeur pour les sciences humaines et sociales. RIDE, 15. https://doi.org/10.18716/ride.a.15.3 Decker, K., Otsuka, M., Abbing, R. & Verdeil, M. (2023). Reconstruire un site web alimenté par l’énergie solaire. Consulté à l’adresse https://solar.lowtechmagazine.com/fr/2023/06/rebuilding-a-solar-powered-website/ Delavenay, E. (1974). Pour le livre. Unesco. Deloignon, O., Chatelain, J. & Mollier, J. (2021). D’encre et de papier: une histoire du livre imprimé. Imprimerie nationale éditions / Actes Sud. DeRose, S. (2004). Markup Overlap: A Review and a Horse. DeRose, S., Durand, D., Mylonas, E. & Renear, A. (1990). What is text, really? Journal of Computing in Higher Education, 1(2). 3–26. https://doi.org/10.1007/BF02941632 Derrida, J. (1967). De la grammatologie. Éditions de Minuit. Dessauer, J. (1989). Book Publishing: a Basic Introduction. Continuum. Deyzieux, A. (2008). Les grands courants de la bande dessinée. Le français aujourd'hui, 161(2). 59–68. https://doi.org/10.3917/lfa.161.0059 Diaz, C. (2018). Using Static Site Generators for Scholarly Publications and Open Educational Resources. The Code4Lib Journal(42). Consulté à l’adresse https://journal.code4lib.org/articles/13861 D'Ignazio, C. & Klein, L. (2020). Data feminism. The MIT Press. Dillaerts, H. & Epron, B. (dir.). (2017). L’offre de livres numériques à destination des bibliothèques de lecture publique : un regard international. Presses de l’enssib. https://doi.org/10.4000/books.pressesenssib.1567 Dombrowski, Q. (2022). Does Coding Matter for Doing Digital Humanities? Dans O'Sullivan, J. (dir.), The Bloomsbury Handbook of the Digital Humanities. (pp. 137–145). Bloomsbury Academic.  Dominici, M. (2014). An overview of Pandoc. TUGboat, 35(1). 44–50. Donnot, K. (2012). Code = design. Graphisme en France(2012). 3–12. Doueihi, M. (2008). La Grande conversion numérique. Éditions du Seuil. Drucker, J. (2004). The century of artists’ books. Granary Books. Ducos, B. (2023). Antoon Van Dyck: catalogue raisonné des tableaux du musée du Louvre. Louvre éditions. Consulté à l’adresse https://livres.louvre.fr/vandyck/ Dunning, A. (2020). Reledmac. Typesetting technology-independent critical editions with LaTeX. https://doi.org/10.18716/ride.a.11.1 Ebsi (2018). Terminologie de base en sciences de l’information. École de bibliothéconomie et des sciences de l’information, Université de Montréal. ecrinum (2023). Stylo export. Ecrinum. Consulté à l’adresse https://gitlab.huma-num.fr/ecrinum/stylo/stylo-export Eghbal, N. (2017). Sur quoi reposent nos infrastructures numériques ? : Le travail invisible des faiseurs du web. OpenEdition Press. Consulté à l’adresse http://books.openedition.org/oep/1797 Eisenstein, E. (1979). The Printing Press as an Agent of Change: Communications and Cultural Transformations in Early Modern Europe. Cambridge University Press. Engst, A. (1992). TidBITS in new format. Consulté à l’adresse https://tidbits.com/1992/01/06/tidbits-in-new-format/ Epron, B. & Vitali-Rosati, M. (2018). L’édition à l’ère numérique. La Découverte. Epron, B. (2018). Livre numérique. Abécédaire des mondes lettrés. Consulté à l’adresse http://abecedaire.enssib.fr/l/livre-numerique/notices/129?path=54 Escarpit, R. (1965). La révolution du livre. Unesco. Eyrolles, S. (2009). Les 100 mots de l’édition (1re éd). Presses universitaires de France. Fagerholm, F. & Münch, J. (2012). Developer experience: Concept and definition. https://doi.org/10.1109/ICSSP.2012.6225984 Fauchié, A. (2023). L’antilivre dynamique des éditions Abrüpt : la littérature insaisissable. Dans Mougin, P. (dir.), Littérature et design. Visualités et visualisations du texte en régime numérique. (pp. 99–110). Presses du réel (À paraître).  Fauchié, A. (2020). Atelier de thèse. Consulté à l’adresse https://www.quaternum.net/2020/03/29/atelier-de-these/ Fauchié, A. (2021). Déployer le livre. Études du livre au XXIe siècle. Consulté à l’adresse https://deployer.quaternum.net Fauchié, A., Delannay, R., Sinatra, M. & Vitali-Rosati, M. (2023). Exploring New (Digital) Publishing Practices with Le Pressoir. Pop! Public. Open. Participatory(5). https://doi.org/10.54590/pop.2023.006 Fauchié, A. (2021). Fabriques de publication : Hugo. Consulté à l’adresse https://www.quaternum.net/2021/08/06/fabriques-de-publication-hugo/ Fauchié, A. & Audin, Y. (2023). The Importance of Single Source Publishing in Scientific Publishing. Digital Studies / Le champ numérique. https://doi.org/10.16995/dscn.9655 Fauchié, A. (2020). Les technologies d’édition numérique sont-elles des documents comme les autres ? Balisages(1). https://doi.org/10.35562/balisages.321 Fauchié, A. (2017). Le livre web comme objet d’édition ? Dans Catoir-Brisson, M. & Vial, S. (dir.), Design et innovation dans la chaîne du livre. (pp. 141–158). PUF.  Fauchié, A. (2018). Markdown comme condition d’une norme de l’écriture numérique. Réél - Virtuel(6). Consulté à l’adresse http://www.reel-virtuel.com/numeros/numero6/sentinelles/markdown-condition-ecriture-numerique Fauchié, A. (2019). Origines, formes et supports du livre numérique. Dans Queyraud, F. (dir.), Connaître et valoriser la création littéraire numérique en bibliothèque. (pp. 72–80). Presses de l’Enssib.  Fauchié, A. & Larroche, V. (2021). Quel régime de conception pour les communs éditoriaux ? Revue française des sciences de l’information et de la communication(23). Consulté à l’adresse https://journals.openedition.org/rfsic/11994 Fauchié, A. (2018). Vers un système modulaire de publication. Mémoire de master, École nationale supérieure des sciences de l'information et des bibliothèques. Consulté à l’adresse https://memoire.quaternum.net Faucilhon, J. (2016). Production de livres numériques et dette technique. Consulté à l’adresse http://www.lekti.fr/blog/index.php/post/2016/05/14/Production-de-livres-num%C3%A9riques-et-dette-technique Febvre, L. & Martin, H. (1957). L’apparition du livre. Albin Michel [1999]. Ferret, S. (1998). L’identité. Flammarion. Flusser, V. (2002). La fabrique. Dans Petite philosophie du design. (pp. 57–64). Circé.  Flusser, V. (2011). Into the universe of technical images. University of Minnesota Press. Consulté à l’adresse http://site.ebrary.com/id/10455041 Flusser, V. (1978). Un modèle possible de notre culture. Communication & Langages, 40(1). 99–105. https://doi.org/10.3406/colan.1978.1257 Flusser, V. (2002). Petite philosophie du design. Circé. Flusser, V. (1999). Shape of Things: a Philosophy of Design. Reaktion Books. Flynn, P. (2005). What does XML give the LATEX user? The PracTEX Journal, 2005(2). Ford, P. & Garnier, S. (2023). C’est quoi le code ? Teque, 3(1). 70–192. Consulté à l’adresse https://www.cairn.info/revue-teque-2023-1-page-70.htm Forest, J. (2007). Artefact, les apports de l’approche simonienne. Les Enjeux de l'information et de la communication, 2(8). Consulté à l’adresse https://lesenjeux.univ-grenoble-alpes.fr/2007/supplement-a/10-artefact-les-apports-de-lapproche-simonienne/ Foucault, M. (1975). Surveiller et punir: naissance de la prison. Gallimard. Fouché, P. (1998). L’édition française depuis 1945. Éditions du Cercle de la librairie. Fourmentraux, J. (2017). Disnovation: Archéologie de quelques dispositifs médiactivistes low tech. Techniques & Culture. Revue semestrielle d’anthropologie des techniques(67). 280–285. https://doi.org/10.4000/tc.8535 Frenkel, K. (1994). A conversation with Alan Kay. Interactions, 1(2). 13–22. https://doi.org/10.1145/174809.174811 Fuller, M. (2003). Behind the blip: essays on the culture of software. Autonomedia. Fuller, M. (dir.). (2008). Software studies: a lexicon. The MIT Press. Furter, L. (2018). Trouble dans le genre ­: pédagogie alternative de l’édition hybride. Consulté à l’adresse https://www.design-research.be/hybrid/publications.html Gehl, R. & Bell, S. (2012). Heterogeneous Software Engineering: Garmisch 1968, Microsoft Vista, and a Methodology for Software Studies. Computational Culture(2). Consulté à l’adresse http://computationalculture.net/heterogeneous-software-engineering-garmisch-1968-microsoft-vista-and-a-methodology-for-software-studies/ Genette, G. (1979). Introduction à l’architexte. Éditions du Seuil. Genette, G. (2002). Seuils. Éditions du Seuil. Gil, A. (2019). Design for Diversity: The Case of Ed. Dans The Design for Diversity Learning Toolkit.. Northeastern University Library. Consulté à l’adresse https://des4div.library.northeastern.edu/design-for-diversity-the-case-of-ed-alex-gil/  Gil, A. (2015). The User, the Learner and the Machines We Make. Consulté à l’adresse https://go-dh.github.io/mincomp/thoughts/2015/05/21/user-vs-learner/ Gitelman, L. (2006). Always Already New: Media, History and the Data of Culture. The MIT Press. Gold, M. (dir.). (2012). Debates in the Digital Humanities. University of Minnesota Press. Gold, M. & Klein, L. (dir.). (2016). Debates in the digital humanities 2016. University of Minnesota Press. Gold, M. & Klein, L. (dir.). (2019). Debates in the digital humanities. 2019. University of Minnesota Press. Goldfarb, C. (1999). The roots of SGML: a personal recollection. Technical Communication, 46(1). 75–83. Goldfarb, C. & Rubinsky, Y. (1990). The SGML Handbook. Clarendon Press. Goody, J. (1979). La Raison graphique. La domestication de la pensée sauvage. Les Editions de Minuit. Grafton, A. (1980). The Importance of Being Printed. Journal of Interdisciplinary History, 11(2). 265. https://doi.org/10.2307/203783 Grafton, A., Allain, J. & Loyrette, H. (2012). La page de l’Antiquité à l’ère du numérique: histoire, usages, esthétiques. Hazan / Louvre éditions. Gruber, J. (2004). Dive Into Markdown. Consulté à l’adresse https://daringfireball.net/2004/03/dive_into_markdown Gruber, J. (2004). Markdown Syntax Documentation. Consulté à l’adresse https://daringfireball.net/projects/markdown/syntax#philosophy Guay, M. (2020). The story behind Markdown. Consulté à l’adresse https://capiche.com/e/markdown-history Guédon, J. & Loute, A. (2017). L’histoire de la forme revue au prisme de l’histoire de la « grande conversation scientifique ». Entretien avec Jean-Claude Guédon réalisé par Alain Loute, préparé avec l’aide de Caroline Glorie, Thomas Franck et Andrea Cavazzini. Cahiers du GRM. publiés par le Groupe de Recherches Matérialistes – Association(12). https://doi.org/10.4000/grm.912 Guez, E. & Vargoz, F. (2015). Kittler et les machines d’écriture. Dans Mode protégé. (pp. 7–24). Les Presses du réel.  Guichard, É. (2008). L’écriture scientifique. Consulté à l’adresse https://halshs.archives-ouvertes.fr/halshs-00347616/document Guilhaumou, J. (1969). Lexique de l’informatique. Entreprise moderne d'édition. Guillaud, H. (2010). Qu’est-ce qu’un livre à l’heure du numérique ? Dans Mounier, P. (dir.), Read/Write Book : Le livre inscriptible. (pp. 49–64). OpenEdition Press. https://doi.org/10.4000/books.oep.147  Habrand, T. (2010). Publie.net : La littérature est-elle soluble dans le numérique ? Indications, 383. Consulté à l’adresse https://orbi.uliege.be/handle/2268/73619 Haute, L. (2019). Livres mécaniques et chimères numériques. Back Office(3). Consulté à l’adresse http://www.revue-backoffice.com/numeros/03-ecrire-lecran/06_haute Hayles, N. (2004). Print Is Flat, Code Is Deep: The Importance of Media-Specific Analysis. Poetics Today, 25(1). 67–90. https://doi.org/10.1215/03335372-25-1-67 Hayles, N. (2002). Writing machines. MIT Press. Consulté à l’adresse http://catalogue.bnf.fr/ark:/12148/cb41235225p Hazan, É. & Moret, E. (2016). Pour aboutir à un livre. La Fabrique éditions. Hegland, F. (dir.). (2020). The Future of Text (1). Future Text Publishing. https://doi.org/10.48197/fot2020a Heikkilä, V. (2020). Permacomputing. Consulté à l’adresse http://viznut.fi/texts-en/permacomputing.html Heppler, J. (2015). What Is Digital Humanities? What is Digital Humanities. Consulté à l’adresse https://whatisdigitalhumanities.com/ Hochuli, J. & Morgan, J. (2020). Un design de livre systématique ? B42. Hyde, A. (2021). Single Source Publishing. Consulté à l’adresse https://coko.foundation/articles/single-source-publishing.html IBM (1985). Document Composition Facility: Generalized Markup Language: Implementation Guide. IBM. Illich, I. (2014). La convivialité. Éditions Points. Ingold, T., Gosselin, H. & Afeissa, H. (2017). Faire: anthropologie, archéologie, art et architecture. Éditions Dehors. Ingold, T. (2017). Faire un biface. Dans Faire: anthropologie, archéologie, art et architecture. (pp. 83–109). Éditions Dehors.  Ingold, T. (2010). L’Outil, l’esprit et la machine : Une excursion dans la philosophie de la « technologie ». Techniques & Culture. Revue semestrielle d’anthropologie des techniques(54-55). 291–311. https://doi.org/10.4000/tc.5004 Ingold, T. (2013). Making: anthropology, archaeology, art and architecture. Routledge. Jamet-Pinkiewicz, F. (2018). L’infini du livre : entre numérique et tangible. Sciences du Design, 8(2). 79–89. Consulté à l’adresse https://www.cairn.info/revue-sciences-du-design-2018-2-page-79.htm?contenu=article Jancovic, M., Volmar, A. & Schneider, A. (dir.). (2019). Format Matters Standards, Practices, and Politics in Media Cultures. Meson Press. Jeanneret, Y. (2005). Dispositif. Dans La société de l'information: glossaire critique. (pp. 50–51). Documentation française.  Jeanneret, Y. & Souchier, E. (2005). L’énonciation éditoriale dans les écrits d’écran. Communication & Langages, 145(1). 3–15. https://doi.org/10.3406/colan.2005.3351 Journal Officiel (1982). Enrichissement du vocabulaire de l’informatique. Consulté à l’adresse https://bbf.enssib.fr/consulter/bbf-1982-06-0355-009 Kalantzis, M. & Cope, B. (2020). Adding sense: context and interest in a grammar of multimodal meaning. Cambridge University Press. Kauffmann, A. (2011). Et si l’on créait ensemble une forge libre pour les métiers de l’édition ? Consulté à l’adresse https://framablog.org/2011/09/14/forge-metiers-edition-chloe-girard/ Kay, A. & Goldberg, A. (1977). Personal Dynamic Media. Computer, 10(3). https://doi.org/10.1109/C-M.1977.217672 Kay, A. (1990). User Interface: A Personal View. Dans Laurel, B. & Mountford, S. (dir.), The art of human-computer interface design. (pp. 191–207). Addison-Wesley Pub. Co..  Kembellec, G. & Le Deuff, O. (2022). Poétique et ingénierie des data papers. Revue française des sciences de l’information et de la communication(24). https://doi.org/10.4000/rfsic.12938 Kembellec, G. (2020). Semantic publishing, la sémantique dans la sémiotique des codes sources d’écrits d’écran scientifiques. Les Enjeux de l'information et de la communication(20/2). 55–74. Consulté à l’adresse https://lesenjeux.univ-grenoble-alpes.fr/2019/dossier/04-semantic-publishing-la-semantique-dans-la-semiotique-des-codes-sources-decrits-decran-scientifiques/ Kinross, R. (2009). A4 and Before: Towards a Long History of Paper Sizes. NIAS. Kirschenbaum, M. (2016). Track changes: a literary history of word processing. The Belknap Press of Harvard University Press. Kirschenbaum, M. (2012). Virtuality and VRML: Software Studies After Manovich. Consulté à l’adresse https://electronicbookreview.com/essay/virtuality-and-vrml-software-studies-after-manovich/ Kirschenbaum, M. (2012). What Is Digital Humanities and What’s It Doing in English Departments? Dans Gold, M. (dir.), Debates in the Digital Humanities. (University of Minnesota Press).   Kittler, F. & Vargoz, F. (2015). Le logiciel n’existe pas. Dans Mode protégé. (pp. 29–45). Les Presses du réel.  Kittler, F., Guez, E., Vargoz, F. & Parikka, J. (2015). Mode protégé. Les Presses du réel. Kittler, F. (1995). There is No Software. CTheory. 147–155. Consulté à l’adresse https://journals.uvic.ca/index.php/ctheory/article/view/14655 Knuth, D. (1986). Computers & typesetting. A, The TeXbook. Addison-Wesley Pub. Co.. Knuth, D. (1984). Literate Programming. The Computer Journal, 27(2). 97–111. https://doi.org/10.1093/comjnl/27.2.97 Labarre, A. (1970). Histoire du livre. Presses universitaires de France [2001]. Lamport, L. (1986). LaTeX: a document preparation system. Addison-Wesley. Lantenois, A. (2012). Ouvrir des chemins. Graphisme en France(2012). 13–22. Lardellier, P. & Melot, M. (dir.). (2007). Demain, le livre. L'Harmattan. Larroche, V. (2018). Le dispositif: un concept pour les sciences de l’information et de la communication. ISTE editions. Larrue, J. & Vitali-Rosati, M. (2019). Media do not exist. Institute of Network Cultures. Latzko-Toth, G. (2017). Objet technique (artefact, instrument, machine, dispositif). Dans Bouchard, F., Doray, P. & Prud'homme, J. (dir.), Sciences, technologies et sociétés de A à Z. (pp. 165–168). Presses de l’Université de Montréal.  Laurel, B. & Mountford, S. (dir.). (1990). The art of human-computer interface design. Addison-Wesley Pub. Co.. Lebert, M. (2008). Le Projet Gutenberg (1971-2008). Consulté à l’adresse https://www.gutenberg.org/ebooks/27046 Lefort, C. (1986). Le travail de l’oeuvre Machiavel. Gallimard. Legendre, B. (2019). Ce que le numérique fait aux livres. Presses universitaires de Grenoble. https://doi.org/10.3917/pug.legen.2019.01 Leonard, S. (2016). Guidance on Markdown: Design Philosophies, Stability Strategies, and Select Registrations. Internet Engineering Task Force. https://doi.org/10.17487/RFC7764 Leroi-Gourhan, A. (1964). Le geste et la parole. Éditions Albin Michel. Littré, É. (1873). Dictionnaire de la langue française / Tome 2. L. Hachette. Consulté à l’adresse https://gallica.bnf.fr/ark:/12148/bpt6k5406698m Lorusso, S. (2021). Learn to Code vs. Code to Learn: Creative Coding Beyond the Economic Imperative. Dans Conrad, D., Leijsen, R. & Héritier, D. (dir.), Graphic Design in the Post-Digital Age: A Survey of Practices Fueled by Creative Coding. (First edition, pp. 25–34). Onomatopee.  Lorusso, S. (2021). Liquider l’utilisateur. Tèque(1). 10–57. https://doi.org/10.3917/tequ.001.0010 Ludovico, A. & Cramer, F. (2016). Post-digital print: la mutation de l’édition depuis 1894. Éditions B42. MacFarlane, J. (2018). Beyond Markdown. Consulté à l’adresse https://johnmacfarlane.net/beyond-markdown.html MacFarlane, J. (2021). CommonMark changelog. Consulté à l’adresse https://spec.commonmark.org/changelog.txt Macvey, S. & Altbach, P. (dir.). (1976). Perspectives on Publishing. Lexington books. Mailloux, P. (1980). La définition de l’édition et les AACR 2. Documentation et bibliothèques, 26(1). 29–34. https://doi.org/10.7202/1054264ar Manguel, A. & Le Bœuf, C. (1998). La forme du livre. Dans Une histoire de la lecture. (pp. 155–181). Actes Sud.  Manguel, A. & Le Bœuf, C. (1998). Une histoire de la lecture. Actes Sud. Manovich, L. (2011). Inside Photoshop. Computational Culture(1). Consulté à l’adresse http://computationalculture.net/inside-photoshop/ Manovich, L., Beauvais, Y. & Tribe, M. (2010). Le langage des nouveaux médias. Les Presses du réel. Manovich, L. (2017). Logiciel culturel. Back Office(1). Consulté à l’adresse http://www.revue-backoffice.com/numeros/01-faire-avec/lev-manovich-logiciel-culturel Manovich, L. (2013). Software Takes Command. Bloomsbury. Consulté à l’adresse http://catalogue.bnf.fr/ark:/12148/cb43821879d Mansoux, A., Howell, B., Barok, D. & Heikkilä, V. (2023). Permacomputing Aesthetics: Potential and Limits of Constraints in Computational Art, Design and Culture. LIMITS. https://doi.org/10.21428/bf6fb269.6690fc2e Marcoux, F. (2014). Le livrel et le format ePub. Dans Sinatra, M. & Vitali-Rosati, M. (dir.), Pratiques de l'édition numérique. (pp. 177–189). Parcours numériques. Consulté à l’adresse http://www.parcoursnumeriques-pum.ca/le-livrel-et-le-format-epub  Margantin, L. (2009). Des mots dangereux. Que peut une parole insurrectionnelle ? Lignes, 29(2). 95–103. https://doi.org/10.3917/lignes.029.0095 Marino, M. (2020). Critical Code Studies. MIT Press. Martin, H., Delmas, B. & Chaunu, P. (1988). Histoire et pouvoirs de l’écrit. Librairie académique Perrin. Martin, G. (1985). L’imprimerie. Presses Universitaires de France. Masure, A. (2014). Le design des programmes: des façons de faire du numérique. Thèse de doctorat, Université Panthéon-Sorbonne. Consulté à l’adresse http://www.softphd.com/ Masure, A. (2017). Design et humanités numériques. Éditions B42. Consulté à l’adresse http://esthetique-des-donnees.editions-b42.com/#design-et-humanites-numeriques/complement/contenu-complementaire-1 Masure, A. (2017). Design et humanités numériques. Consulté à l’adresse http://esthetique-des-donnees.editions-b42.com/#index Masure, A. (2018). Mutations du livre Web. Consulté à l’adresse http://www.anthonymasure.com/conferences/2018-04-livre-web-ecridil-montreal Masure, A. (2019). Vivre dans les programmes. Multitudes, 74(1). 176–181. https://doi.org/10.3917/mult.074.0176 Mateus, Q. & Roussilhe, G. (2023). Perspectives low-tech: comment vivre, faire et s’organiser autrement ? Éditions Divergences. Maudet, N. (2022). Une brève histoire des templates, entre autonomisation et contrôle des graphistes amateurs. Revue Design Arts Medias. Consulté à l’adresse https://journal.dampress.org/issues/systemes-logiques-graphies-materialites/une-breve-histoire-des-templates-entre-autonomisation-et-controle-des-graphistes-amateurs Maudet, N. (2017). Muriel Cooper, Information Landscapes. Back Office(1). Consulté à l’adresse http://www.revue-backoffice.com/numeros/01-faire-avec/nolwenn-maudet-muriel-cooper-information-landscapes Maudet, N. (2018). Reinventing Graphic Design Software by Bridging the Gap Between Graphical User Interfaces and Programming. Design Research Society Conference 2018. https://doi.org/10.21606/drs.2018.611 Maxwell, J. (2022). The Care-ful Reviewer: Peer Review as if People Mattered. Pop! Public. Open. Participatory(4). https://doi.org/10.54590/pop.2022.004 Maxwell, J. (dir.). (2019). Mind the Gap: A Landscape Analysis of Open Source Publishing Tools and Platforms. The MIT Press. Consulté à l’adresse https://mindthegap.pubpub.org/ Maxwell, J. (2022). Pop! A simplest-possible journal workflow. Commonplace. https://doi.org/10.21428/6ffd8432.1b66f04a McGann, J. (2004). Marking Texts of Many Dimensions. Dans Schreibman, S., Siemens, R. & Unsworth, J. (dir.), A Companion to Digital Humanities. (pp. 198–217). Blackwell Publishing.  McGann, J. (2014). A new republic of letters: memory and scholarship in the age of digital reproduction. Harvard University Press. McGill, M. (2018). Format. Early American Studies, 16(4). 671–677. McLuhan, M. & Wolton, D. (1962). La galaxie Gutenberg: la génèse de l’homme typographique. CNRS éditions [2017]. McLuhan, M. (1968). Pour comprendre les médias: les prolongements technologiques de l’homme. Points [2013]. McPherson, T. (2018). Feminist in a software lab: difference + design. Harvard University Press. Mecklenburg, R. (2005). Managing projects with GNU Make. O'Reilly Media. Mellet, M. (2023). What Lies under the Petites Mains: Reconsidering the Traditional Model of the Humanities. CCLA. Menu, J. (2005). Plates-bandes: janvier 2005 (2e édition). L'Association. Merzeau, L. (2013). Éditorialisation collaborative d’un événement. Communication et organisation. Revue scientifique francophone en Communication organisationnelle(43). 105–122. https://doi.org/10.4000/communicationorganisation.4158 Mollier, J. (2015). Une autre histoire de l’édition française. La Fabrique éditions. Mollier, J. (2022). Brève histoire de la concentration dans le monde du livre. Libertalia. Mollier, J. (2007). Où va le livre ? La Dispute. Morozov, E. (2014). Pour tout résoudre, cliquez ici: l’aberration du solutionnisme technologique. Fyp. Mounier, P. (2018). Les humanités numériques : Une histoire critique. Éditions de la Maison des sciences de l’homme. Mounier, P. (dir.). (2012). Read/Write Book 2: une introduction aux humanités numériques. OpenEdition Press. Mourat, R. (2018). Le design fantomatique des communautés savantes : enjeux phénoménologiques, sociaux et politiques de trois formats de données en usage dans l’édition scientifique contemporaine. Sciences du Design, no 8(2). 34–44. https://doi.org/10.3917/sdd.008.0034 Mourat, R. (2020). Le vacillement des formats : matérialité, écriture et enquête : le design des publications en Sciences Humaines et Sociales. Thèse de doctorat, Université Rennes 2. Consulté à l’adresse https://theses.hal.science/tel-03052597 Mpondo-Dicka, P. (2020). Le Markdown, une praxis énonciative du numérique. Interfaces numériques, 8(2). 304–304. https://doi.org/10.25965/interfaces-numeriques.3915 Nicolas-Le Strat, P. (2018). Quand la sociologie entre dans l’action: la recherche en situation d’expérimentation sociale, artistique ou politique. Éditions du commun. (S.A.). (2022). artéfact. Larousse. Consulté à l’adresse https://www.larousse.fr/dictionnaires/francais/artefact/5512 (2017). The Chicago manual of style (Seventeenth edition). The University of Chicago Press. (S.A.). (2023). Lankes. Ateliers de [sens public]. Consulté à l’adresse https://framagit.org/ateliers/lankes/ (S.A.). (2010). Livre numérique. Consulté à l’adresse https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/8375423/livre-numerique (S.A.). (2023). Permacomputing. Consulté à l’adresse https://permacomputing.net/ (S.A.). (2020). Thèses sur l’informatique. Véloce(1). 29–39. Consulté à l’adresse http://www.lisez-veloce.fr/veloce-01/theses-sur-linformatique/ (S.A.). (2012). Vocabulaire de l’édition et du livre (liste de termes, expressions et définitions adoptés). Consulté à l’adresse https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000025627105 Noël, S. (2012). L’édition indépendante critique: engagements politiques et intellectuels : essai. Presses de l'ENSSIB. O'Sullivan, J. (dir.). (2022). The Bloomsbury handbook of the digital humanities (First edition). Bloomsbury Academic. Ouvry-Vial, B. (2007). L’acte éditorial : vers une théorie du geste. Communication & langages(154). 59–74. https://doi.org/10.3406/colan.2007.4691 (S.A.). (2013). Gilbert Simondon Entretien sur la mécanologie [complet] 1968 (R1: Bobine 1 de 3). Consulté à l’adresse https://www.youtube.com/watch?v=VLkjI8U5PoQ Parmentier, S. (2021). Pourquoi faire livre à l’ancienne ? Des nouvelles formes d’auto-édition sur le web. Communication & langages, 207(1). 93–107. https://doi.org/10.3917/comla1.207.0093 Pédauque, R. & Melot, M. (2006). Le document à la lumière du numérique. C&F éditions. Perret, A. (2022). Format texte. arthurperret.fr/. Consulté à l’adresse https://www.arthurperret.fr/cours/format-texte.html Perret, A. (2020). Histoire typographique de la légèreté. Consulté à l’adresse https://www.arthurperret.fr/histoire-typographique-legerete.html Perret, A. (2022). De l’héritage épistémologique de Paul Otlet à une théorie relationnelle de l’organisation des connaissances. Thèse de doctorat, Université Bordeaux Montaigne. Consulté à l’adresse https://these.arthurperret.fr Quinqueton, T. (2019). Pour la négociation d’un nouveau compromis éditorial. Dans Defalvard, H. (dir.), Le livre, l’édition et l’économie sociale et solidaire. (pp. 71–77). Presses universitaires de Grenoble.  Quinton, P. (2007). L’artefact : un objet du faire. Les Enjeux de l'information et de la communication, 2(8). Consulté à l’adresse https://lesenjeux.univ-grenoble-alpes.fr/2007/supplement-a/19-lartefact-un-objet-du-faire Rabbits, H. (2022). busy doing nothing. Consulté à l’adresse https://100r.co/site/busy_doing_nothing.html Rabbits, H. (2021). mission. Consulté à l’adresse https://100r.co/site/mission.html Rabbits, H. (2020). north pacific logbook. Consulté à l’adresse https://100r.co/site/north_pacific_logbook.html Rabbits, H. (2023). North Pacific Logbook. Hundredrabbits. Consulté à l’adresse https://git.sr.ht/~rabbits/busydoingnothing Rabbits, H. (2023). Weathering Software Winter. Consulté à l’adresse https://100r.co/site/weathering_software_winter.html Ramsay, S. (2016). On Building. Dans Terras, M., Nyhan, J. & Vanhoutte, E. (dir.), Defining digital humanities: a reader. (pp. 243–245). Routledge.  Reichenstein, O. (2016). Multichannel Text Processing. Consulté à l’adresse https://ia.net/topics/multichannel-text-processing Reid, B. (1980). Scribe: A Document Specification Language and Its Compiler. Thèse de doctorat, ProQuest Dissertations Publishing. Renou-Nativel, C. (2012). Les polices ont du caractère. Consulté à l’adresse https://www.la-croix.com/Archives/2012-11-15/Les-polices-ont-du-caractere.-Les-polices-ont-du-caractere-_NP_-2012-11-15-876569 Reynaud, B. (1982). La dynamique d’un oligopole avec frange : Le cas de la branche d’édition de livres en France. Revue d'économie industrielle, 22(1). 61–71. https://doi.org/10.3406/rei.1982.2072 Rheingold, H. (2000). Tools for thought the history and future of mind-expanding technology. MIT Press. Risam, R. & Gil, A. (2022). Introduction: The Questions of Minimal Computing. Digital Humanities Quarterly, 16(2). Consulté à l’adresse https://www.digitalhumanities.org/dhq/vol/16/2/000646/000646.html Saemmer, A. (2019). La littérature informatique, un art du dispositif. Dans Queyraud, F. (dir.), Connaître et valoriser la création littéraire numérique en bibliothèque. (pp. 28–39). Presses de l’Enssib.  Sale, K. & Izoard, C. (s.d.). La révolte luddite: briseurs de machines à l’ère de l’industrialisation. Éd. l'Échappée. Sauret, N. (2018). Design de la conversation scientifique : naissance d’un format éditorial. Sciences du Design, 8(2). 57–66. https://doi.org/10.3917/sdd.008.0057 Sauret, N. (2020). De la revue au collectif : la conversation comme dispositif d’éditorialisation des communautés savantes en lettres et sciences humaines. Thèse de doctorat, Université de Montréal. Consulté à l’adresse https://these.nicolassauret.net Schiffrin, A. (1999). L’édition sans éditeurs. La Fabrique éditions. Schreibman, S., Siemens, R. & Unsworth, J. (dir.). (2004). A Companion to Digital Humanities. Blackwell Publishing. Schreibman, S., Siemens, R. & Unsworth, J. (dir.). (2016). A New Companion to Digital Humanities. John Wiley & Sons. Schuwer, P. (2002). Traité pratique d’édition. Éditions du Cercle de la librairie. Seckel, H. (2018). Procès de Tarnac : Julien Coupat et Yildune Lévy relaxés. Consulté à l’adresse https://www.lemonde.fr/police-justice/article/2018/04/12/proces-de-tarnac-julien-coupat-et-yildune-levy-relaxes_5284397_1653578.html Sinatra, M. & Vitali-Rosati, M. (2014). Histoire des humanités numériques. Dans Sinatra, M. & Vitali-Rosati, M. (dir.), Pratiques de l’édition numérique. (pp. 49–60). Presses de l'Université de Montréal. Consulté à l’adresse https://www.parcoursnumeriques-pum.ca/1-pratiques/​https://www.parcoursnumeriques-pum.ca/1-pratiques/chapitre3.html  Sinatra, M. & Vitali-Rosati, M. (dir.). (2014). Pratiques de l’édition numérique. Presses de l'Université de Montréal. Consulté à l’adresse http://www.parcoursnumeriques-pum.ca/1-pratiques Siskin, C. (2016). System: the shaping of modern knowledge. The MIT Press. Sordet, Y. & Darnton, R. (2021). Histoire du livre et de l’édition : production & circulation, formes & mutations. Albin Michel. Souchier, E. (1998). L’image du texte pour une théorie de l’énonciation éditoriale. Les cahiers de mediologie, 6(2). 137–145. https://doi.org/10.3917/cdm.006.0137 Souchier, E., Candel, É., Gomez-Mejia, G. & Jeanne-Perrier, V. (2019). Le numérique comme écriture: théories et méthodes d’analyse. Armand Colin. Stallman, R. (1986). What is the Free Software Foundation? GNU's Bulletin, 1(1). Consulté à l’adresse https://www.gnu.org/bulletins/bull1.txt Syndicat national de l'édition (1973). Monographie de l’édition. Cercle de la librairie. Taffin, N. (2021). Dans les recoins de la double page (Paged.js à la maison, saison 2). Consulté à l’adresse https://polylogue.org/apres-la-page-la-double-page/ Taffin, N. (2011). Des livres, pourquoi faire ? Consulté à l’adresse https://polylogue.org/des-livres-pourquoi-faire/ Taffin, N. (2019). Making-of d’une collection libérée : Addictions sur ordonnance. Consulté à l’adresse https://polylogue.org/addictions-sur-ordonnance-making-of-dune-collection-liberee/ Taffin, N. (2020). Pagedjs reload-in-place. Consulté à l’adresse https://gitlab.com/nicolastaf/pagedjs-reload-in-place Taffin, N. & Melot, M. (2023). Typothérapie: fragments d’une amitié typographique. C&F éditions. Tanselle, G. (2000). The Concept of Format. Studies in Bibliography, 53. 67–115. TEI Consortium (2023). Documentation Elements (22). Consulté à l’adresse https://tei-c.org/release/doc/tei-p5-doc/en/html/TD.html#TDPM TEI Consortium (2023). TEI P5: Guidelines for Electronic Text Encoding and Interchange. https://doi.org/10.5281/ZENODO.3413524 Tenen, D. (2017). Plain text: the poetics of computation. Stanford University Press. Terras, M., Nyhan, J. & Vanhoutte, E. (dir.). (2016). Defining digital humanities: a reader. Routledge. The Unicode Consortium (2000). The Unicode standard, version 3.0. Addison-Wesley. Thoden, K. (2019). Modeling scholarly publications for sustainable workflows. ELectronic PUBlishing, Academic publishing and digital bibliodiversity. https://doi.org/10.4000/proceedings.elpub.2019.2 Tréhondart, N. (2016). Le livre numérique enrichi : conception, modélisations de pratiques, réception. Thèse de doctorat, Université Paris 8 - Saint-Denis. Consulté à l’adresse https://hal.science/tel-03189497 Tschichold, J. & Paris, M. (1994). Livre et typographie: essais choisis. Éditions Allia. Tufte, E. (2006). Beautiful evidence. Graphics Press. Turing, A. (1937). On Computable Numbers, with an Application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, s2-42(1). 230–265. https://doi.org/10.1112/plms/s2-42.1.230 Turner, F., Vannini, L. & Cardon, D. (2021). Aux sources de l’utopie numérique: de la contre-culture à la cyberculture, Stewart Brand, un homme d’influence. C&F éditions (2012). Turska, M. (2015). TEI Simple Processing Model: Oxford workshop. Consulté à l’adresse https://dixit.hypotheses.org/695 Vallée, J. (2013). Le livre utopique. Mémoires du livre / Studies in Book Culture, 4(2). https://doi.org/10.7202/1016737ar Vallée, J. & Ringuet, C. (dir.). (2021). Le Novendécaméron. Ramures. Consulté à l’adresse https://novendecameron.ramures.org/ Vallée, J. & Ringuet, C. (dir.). (2022). Le Novendécaméron. Ramures. Vallée, J., Brassard, L. & Fauchié, A. (2022). Le Novendécaméron : Une expérience d’édition littéraire numérique à l’ère de la covid-19. Colloque Humanistica. Vandendorpe, C. (1999). Du papyrus à l’hypertexte: essai sur les mutations du texte et de la lecture. La Découverte. Vincent, E. (2020). Métopes, édition et diffusion multisupports : Un exemple de déploiement à l’EHESS. Consulté à l’adresse https://www.annales.org/enjeux-numeriques/2020/resumes/juin/09-en-resum-FR-AN-juin-2020.html Visscher, A. (2019). Du design de la page à la pédagogie du flux : le cas belge. Back Office(3). 122–135. Consulté à l’adresse http://www.revue-backoffice.com/numeros/03-ecrire-lecran/10_devisscher Vitali-Rosati, M., Monjour, S. & Sauret, N. (2018). À propos. Consulté à l’adresse https://ateliers.sens-public.org Vitali-Rosati, M., Sauret, N., Fauchié, A. & Mellet, M. (2020). Écrire les SHS en environnement numérique. L’éditeur de texte Stylo. Revue Intelligibilité du Numérique. https://doi.org/10.34745/numerev_1697 Vitali-Rosati, M. (2017). Éditorialisation. Dans Rouet, G. (dir.), 100 notions. Management et numérique. (pp. 102–104). Les éditions de l'immatériel.  Vitali-Rosati, M. (2021). Le fait numérique comme « conjonctures médiatrices ». Communication & langages, 208-209(2-3). 155–170. https://doi.org/10.3917/comla1.208.0155 Vitali-Rosati, M. (2023). Une pensée dispositive. Dans Alessi, R. & Vitali-Rosati, M. (dir.), Les éditions critiques numériques : entre tradition et changement de paradigme. (pp. 11–27). Les Presses de l’Université de Montréal.  Vitali-Rosati, M. (2020). Pour une théorie de l’éditorialisation. Humanités numériques(1). https://doi.org/10.4000/revuehn.371 Vitali-Rosati, M. (2021). Pour une pensée préhumaine. Sens public(SP1596). Consulté à l’adresse http://sens-public.org/articles/1598/ Vitali-Rosati, M. (2016). Qu’est-ce que l’éditorialisation ? Sens Public(2016). Consulté à l’adresse http://www.sens-public.org/article1184.html Vitali-Rosati, M. (2020). Qu’est-ce que l’écriture numérique ? Corela. Cognition, représentation, langage(HS-33). https://doi.org/10.4000/corela.11759 Volmar, A., Jancovic, M. & Schneider, A. (2019). Format Matters: An Introduction to Format Studies. 7–22. https://doi.org/10.25969/mediarep/13663 Williams, S., Masutti, C. & Stallman, R. (2013). Richard Stallman et la révolution du logiciel libre: une biographie autorisée (2e éd). Eyrolles. Zacklad, M. (2007). Espace documentaire participatif et gouvernance. Zielinski, S., Weibel, P., Irrgang, D., Antunes, M. & Baitello jun., N. (dir.). (2015). Flusseriana: An Intellectual Toolbox. Univocal. ========== Concepts Les définitions des concepts produites dans cette thèse sont classées par ordre d’apparition dans les chapitres et sections. Livre (voir 1.1. Le livre : fonctions, concept et modes de production) Le livre est un artefact éditorial clos, il est le résultat d’un travail d’écriture et d’édition, de création ou de réflexion, un objet physique (par exemple imprimé) ou numérique (un fichier ou un flux) maniable voir malléable. Le livre est un concept, il donne lieu à des recherches et des théories spécifiques, il est également un champ d’études lié à l’histoire, la sociologie, les sciences de l’information ou la bibliothéconomie. C’est un objet qui délimite un texte, dont la forme et le format sont pluriels. Il s’agit d’un artefact produit selon des procédés complexes qui évoluent depuis plusieurs siècles. Le livre est une interface, pour reprendre l’expression d’Amaranth Borsuk, c’est un média qui permet d’inscrire et de transmettre des idées. Le livre est un objet technique, son existence même dépend de la façon dont il est conçu, fabriqué, produit et reproduit. Artefact éditorial (voir 1.4. L’artefact : entre production, fabrication et technique) Le livre est un artefact, le résultat d’un processus technique complexe dont il conserve certaines traces qui sont autant des marques des choix techniques que des énonciations — pour reprendre la théorie de l’énonciation éditoriale d’Emmanuël Souchier. Le livre est un artefact éditorial, il porte ses conditions d’existence, il les révèle si nous lui consacrons une analyse théorique et pratique, et si nous acceptons de remettre en cause notre rapport à la technique comme nous y invite Gilbert Simondon. Édition (voir 2.1. Évolution de l’édition) L’édition est un processus technique qui fabrique du sens sous la forme d’artefacts, comme le livre. L’édition est une activité située dans des environnements économiques (marchands et non-marchands), elle se décompose en des étapes précises qui peuvent varier selon ces environnements et selon le projet politique associé. L’édition comprend un travail de clarification et de mise en relation de contenus, sur et autour d’un texte, produisant une légitimation à plusieurs facteurs. La préparation de la diffusion des contenus — rassemblés, sélectionnés, travaillés, et légitimés — fait partie intégrante de l’édition. Au cœur de la démarche d’édition se situe la fabrication et la production de formes et d’objets éditoriaux, des artefacts qui révèlent ces façons de faire. L’édition est enfin un concept, principalement en raison des recherches académiques dont elle fait l’objet. Acte éditorial (voir 2.2. L’acte, le dispositif et l’action) L’expression d’acte éditorial permet de prendre en considération la question de l’action en tant qu’effet de l’édition sur le texte et qu’effet de l’objet créé sur le monde. Le terme d’acte correspond à une définition de l’édition comme processus et comme réalisation d’une intention. Le geste appelle une intention sans prendre en compte les conditions de réalisation de cette intention. Nous considérons que les figures tutélaires du livre ne suffisent pas à expliquer l’édition. Considérer l’édition comme un geste limite ce processus à une série de décisions ou à la mise en place d’un contrôle sur le texte, sans en expliquer les rouages, et donc sans décrire précisément l’édition en tant que dispositif. L’édition est ainsi un dispositif technique permettant la médiation d’un contenu à travers la réalisation d’un artefact. Dispositif éditorial (voir 2.2. L’acte, le dispositif et l’action) Un dispositif éditorial consiste en l’agencement de processus techniques en vue de produire un ou des artefacts, dans l’objectif de transmettre un texte. Il s’agit d’un dispositif parce que c’est une suite d’opérations liées et organisées dans un but précis, et que cette organisation technique est autant l’objet de décisions qui opèrent par des contingences matérielles, que le sujet qui génère des modélisations porteuses de sens. Éditorialisation (voir 2.4. L’éditorialisation en jeu) L’éditorialisation est d’abord considérée comme l’édition sous l’effet des technologies numériques, mais l’apport des recherches récentes sur ce concept, et notamment celles de Marcello Vitali-Rosati, permet de considérer ce concept comme un outil méthodologique. L’éditorialisation et ses trois aspects (technologique, culturel, pratique) constituent un cadre de compréhension du numérique, en tant qu’un ensemble de dynamiques, ainsi que, dans le cas de notre étude, un moyen de comprendre ce qu’est l’édition aujourd’hui. Chaîne d’édition (voir 2.5. Le Pressoir : une chaîne d’éditorialisation) Une chaîne d’édition est l’ensemble des processus, des méthodes et des outils nécessaires à la réalisation d’une activité d’édition, et plus spécifiquement à la création, la fabrication, la production et la diffusion d’un livre. Si l’objet de la chaîne d’édition est la génération d’un tel artefact, sa matière première est le texte sans s’y réduire. Une chaîne d’édition est basée sur une modélisation éditoriale qui doit permettre une gestion sémantique des contenus en vue de la réalisation d’un ou de plusieurs artefacts tels qu’un livre imprimé, un livre numérique, un document structuré ou toute autre forme permettant de diffuser des contenus, des idées, et de faire sens. Une chaîne d’édition est aussi, comme le terme de “chaîne” l’implique, une suite d’étapes linéaires, et à ce titre elle peut être critiquée et mise en regard d’autres dispositifs qui envisagent, de façon divergente, l’édition comme un entremêlement d’opérations en prenant en compte leurs relations et leurs apports mutuels. Numérique (voir 3.1. Le numérique : culture, politique et ubiquité) Le numérique est une infrastructure technique permettant l’échange de données, il est composé de dispositifs d’affichage et d’interaction. Le numérique permet le développement d’usages à partir de technologies, ces technologies bénéficient en retour de ces pratiques pour évoluer. Le numérique est constitué de l’informatique en tant que modélisation calculatoire sur laquelle des machines diverses traitent des informations à l’aide de programmes, instanciés grâce à des protocoles et des standards. Le numérique est englobant et ubiquitaire, car il se structure avec le métamédia qu’est l’informatique. Des services comme le Web se fondent sur des réseaux de réseaux comme Internet, et font émerger des modalités d’écriture et d’édition, multiples et protéiformes. Les cultures numériques se forment avec les terminaux, les logiciels, les plateformes, les protocoles, les normes et les standards. Livre numérique (voir 3.2. Le livre numérique ou la pensée homothétique) Un livre numérique est la transposition du modèle du livre dans l’écosystème numérique. Cela signifie tout d’abord l’utilisation de l’informatique pour la conversion ou la création des artefacts éditoriaux, puis la mise en réseau des fichiers produits afin de les rendre disponibles, et enfin l’usage de terminaux électroniques pour la lecture des fichiers. Le livre numérique répond à un modèle épistémologique qui met le livre, dans sa forme classique, au centre, reproduisant autant que possible l’objet ainsi que les pratiques d’édition. Humanités numériques (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) Les humanités numériques constituent une approche multidisciplinaire au sein des sciences humaines et sociales, à la fois comme une évolution des pratiques de recherche et comme une attitude critique face à l’usage des technologies. Il s’agit d’adopter des méthodes avec le numérique, et plus globalement avec l’utilisation de l’informatique, principalement pour calculer les données extraites des textes et exploiter ces calculs. Il s’agit aussi d’un mouvement critique réflexif, interrogeant les outils invoqués et l’effet de leurs usages sur nos modèles épistémologiques. Édition numérique (voir 3.4. Fondement de l’édition numérique au prisme des humanités numériques) L’édition numérique est un processus protéiforme, une fabrique du sens dont le numérique innerve des formes plurielles de cristallisation du savoir. L’édition numérique se distingue de l’édition par ses modélisations techniques diverses, autant dans la formalisation de textes, dans la constitution d’artefacts originaux, dans la définition de modalités de partage que dans la publication conjointe de contenu et de code. Un rapprochement peut être établi entre l’apparition des humanités numériques et l’émergence de l’édition numérique, nous considérons ainsi que celle-ci se fonde au prisme de l’approche pluridisciplinaire des humanités numériques. Format (voir 4.1. Les formats dans l’édition : pour une sémantique omniprésente) Un format définit la façon dont des informations sont décrites et stockées, il s’agit d’une série d’instructions formalisées afin qu’une action soit réalisée par un agent. L’établissement d’un format est la condition de circulation d’une information, son choix révèle donc une intention mais aussi un acte. Dans l’édition, le format définit les caractéristiques techniques de la modélisation du texte, de sa structure et de la façon dont ses artefacts peuvent être produits. Il peut faire l’objet d’un standard afin d’être partagé et de permettre une interopérabilité voire une modularité. Définir un format n’est pas une action neutre, et participe à l’acte éditorial dans son ensemble. Format de balisage (voir 4.2. Les conditions de la sémantique : format texte et balisage) Un format de balisage est une série d’instructions pour modéliser une information et plus particulièrement un texte. Ces instructions doivent être univoques, afin d’être compréhensibles par des personnes qui les lisent ou les machines qui les traitent. Tout fragment de texte peut ainsi être balisé pour déclarer le sens qu’il porte, marquant une distinction entre des données textuelles telles qu’une citation, un paragraphe ou même une date. Les balises sont des points de repères, permettant de naviguer dans un texte et de construire des modélisations épistémologiques. Single source publishing ou édition multi-formats depuis une source unique (voir 4.4. Le single source publishing comme acte éditorial sémantique) L’édition multi-formats ou multimodale à partir d’une source unique est une méthode et un processus visant à produire plusieurs formats ou versions depuis une seule et unique source, en appliquant des conversions ou des transformations. Il s’agit de générer des formes variées, en répétant plusieurs opérations distinctes et néanmoins liées par une modélisation éditoriale commune, tout en restreignant les données en entrée à une seule origine. Le single source publishing est un ensemble de principes nécessitant une dimension interopérable. La source, et les éléments qui la composent, doit répondre à des standards pour que les programmes invoqués dans le processus soient capables d’appréhender la structure, afin de transposer une expression sémantique dans plusieurs formats de sortie — des manifestations. Les principes de l’édition multi-formats ou multimodale à partir d’une source unique sont d’ordre technique, mais, comme tout principe technique, ils sous-tendent des enjeux théoriques et épistémologiques, principalement autour de la modélisation éditoriale et donc de la construction du sens à partir de modèles de données. Logiciel (voir 5.1. Les chaînes d’édition : composer avec les logiciels) Le logiciel est compris ici comme un objet numérique permettant de réaliser des opérations de calcul grâce à un ordinateur. Le logiciel est l’interface — par ailleurs souvent graphique — entre un utilisateur ou une utilisatrice et des programmes, ces derniers étant eux-mêmes une suite d’algorithmes. Le logiciel est ubiquitaire, il a totalement façonné nos sociétés contemporaines. Le logiciel est une invention commerciale qui porte des valeurs marchandes plus qu’émancipatrices, cachant l’interaction avec la machine sous couvert de rapidité et de facilité. Son opacité nous conduit à le considérer comme une boîte noire dont le traitement des informations n’est pas toujours révélé, en raison de son code propriétaire ou de sa complexité inhérente. La documentation qui accompagne le logiciel n’est pas écrite pour comprendre ses modalités intrinsèques, mais uniquement pour aboutir à un fonctionnement, fonctionnement qui est rarement compatible avec une appropriation ou à un apprentissage. Par extension, un logiciel peut aussi être une application — dans le cas d’environnements encore plus fermés —, ou un service en ligne — pour une délocalisation totale. Le logiciel est ici distingué du programme, ce dernier étant une partie d’un logiciel, et pensé comme un composant pouvant être arrimé à d’autres programmes. Fabrique (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions) La fabrique est un concept qui définit une manière de concevoir et de produire des artefacts. Parler de fabriques permet d’envisager un processus réflexif, qui se construit en même temps que l’artefact est conçu puis produit, et dont les deux mouvements s’écoutent et se répondent. Avec cette approche nous ne prenons plus seulement en considération des outils prééxistants, mais aussi et surtout un ensemble de méthodes, de pratiques et de processus qui se définissent à mesure qu’un travail de conception et de production est enclenché. L’entremêlement qualifie la fabrique, tant la mise en place d’un processus technique, l’apprentissage qui en est nécessaire et la création d’artefacts se croisent et se rencontrent. La fabrique est aussi considérée comme le pont entre des dispositifs dits industriels, qui placent la rapidité ou le rendement comme principes ou comme critères de réussite, et des pratiques dites artisanales souvent à moindre échelle, qui se concentrent sur les manières de faire autant que sur l’artefact produit. Construire, produire ou manufacturer, le résultat est donc un artefact qui a été élaboré puis formé, avec la technique. Fabrique d’édition (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions) La fabrique d’édition est un phénomène, il s’agit de l’imbrication et de la réflexivité du travail sur le texte et de la constitution d’un processus technique permettant ce travail. Le choix, l’agencement voir le développement des outils d’édition sont réalisés en même temps que le texte est sélectionné, structuré, corrigé, mis en forme et publié. Il ne s’agit pas de deux calques qui se superposent mais d’un entremêlement de micro-actions qui donnent lieu à l’acte éditorial. La forme de l’artefact éditorial est façonné par le processus technique, et ce dernier est mis en place en fonction du projet d’édition. Modélisation contextuelle (voir 5.4. La fabrique : éditer des fabriques et fabriquer des éditions) Nous définissons la modélisation contextuelle comme une scénarisation d’éléments textuels au sein d’une chaîne d’édition multimodale. La structure de ces éléments et la mise en forme correspondante sont définies via autant de fragments de gabarits qu’il y a de types d’artefacts produits. En plus de baliser des suites de caractères, il est possible d’ajouter des paramètres pour enrichir les données ou préciser les règles de conversion ou de transformation. La définition de cette modélisation s’inscrit donc d’abord dans une perspective d’édition sémantique, où le sens est exprimé avant l’application d’un rendu graphique. La fonctionnalité de processing models en TEI ou l’usage des shortcodes avec le programme Hugo sont des implémentations de cette modélisation contextuelle. ========== Colophon Cette thèse a été écrite avec l’éditeur de texte Vim, dans un terminal Gnome, sur des ordinateurs portables ThinkPad X13 sous Ubuntu et ThinkPad T480 sous Debian. Les fichiers sont versionnés avec Git, les dépôts distants sont hébergés par SourceHut, Codeberg, Huma-Num et Ionos. Le générateur de site statique Hugo a permis de modéliser les textes et de fabriquer les artefacts (formats web et paginé). Le convertisseur Pandoc a été utilisé pendant les premières phases de rédaction, ainsi que LaTeX et la distribution TeXlive. La version paginée a été produite avec Paged.js (et l’aide précieuse de Julien Taquet pour la gestion des marges) et générée avec Chromium. La version web est hébergée par Ionos et OVH. La police typographique, Fern, est une création de David Jonathan Ross, sous licence educational.