Archiver le web : une entreprise folle et merveilleuse - Valérie Schafer

Internet Archive Protected Petaboxr

Titre : Archiver le Web : une entreprise folle et merveilleuse
Intervenant·e·s : Valérie Schafer - Xavier de La Porte
Lieu : Émission Le code a changé, France Inter
Date : mai 2020
Durée : 45 min 38
Écouter le podcast
Présentation de l'émission
Licence de la transcription : Verbatim
Illustration : Internet Archive Protected Petabox, Wikimedia Commons - GNU Free Documentation License
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Depuis 1996, des gens archivent le Web. Pourquoi ? Dans quels buts ? Comment saisir une matière aussi mouvante ?

Transcription

Xavier de La Porte : Le point de départ c’est une photo, une des premières photos de l’histoire. Elle a été prise au printemps 1838 par Louis Daguerre. Daguerre a posé son appareil à la fenêtre de son atelier et il a photographié le boulevard du Temple, à Paris. Ce qui est étonnant c’est que, sur la photo, le boulevard est vide alors qu’on sait quelle a été prise le matin à un moment de la journée où, normalement, il grouille de monde. Là on n’y voit personne. Enfin, ce n’est pas tout à fait vrai, parce que, quand on regarde bien, on y aperçoit une silhouette, celle d’un homme ; sa position indique qu’il devait être en train de se faire cirer les chaussures ou quelque chose comme ça. Si cet homme est à peu près le seul être humain ou animal qui apparaît sur cette photo, c’est que le temps d’impression nécessaire à l’époque pour que la lumière marque la plaque de cuivre était trop long pour saisir ce qui était en mouvement, seul s’imprimait ce qui était immobile, c’est-à-dire les bâtiments, les arbres, les réverbères, les bancs. Donc, sur la photo, le boulevard du Temple qui, ce matin de 1838 devait fourmiller de passants, de fiacres et de charrettes, ce boulevard, sur la photo, est presque vide.
Je n’avais jamais entendu parler de cette photo avant qu’un monsieur ne l’évoque. C’était à une réunion où discutaient des gens dont le métier est d’archiver le Web. Des gens dont le métier est donc de recueillir et de conserver pour l’avenir cette matière mouvante et insaisissable qu’est le Web. À un moment de la réunion, ce monsieur a dit : « Nous, les archivistes du Web, on est comme Daguerre en 1838, on essaye de capter un réel qui va trop vite pour nos outils, mais on le fait quand même. » Donc, depuis ce jour, je me suis dit qu’il faudrait s’intéresser à cette activité très belle qui consiste à vouloir fixer ce qui bouge tout le temps, à capter ce qui se dérobe et conserver ce truc hyper-fuyant qu’est le Web.

Valérie Schafer est historienne des technologies, elle est chargée de recherche au CNRS (erratum: professeure à l'université du Luxembourg) et elle a écrit sur le Minitel, sur Arpanet qui est un ancêtre américain de l’Internet, sur le début du Web français aussi. Elle raconte souvent qu’elle n’a découvert les archives du Web qu’à la fin des années 2000. Un jour, un historien danois lui parle d’un truc qui s’appelle Internet Archive1, créé en 1996 par un Américain du nom de Brewster Kahle, dans l’idée d’archiver. Quand Valérie Schafer découvre Internet Archive, ça fait déjà quelques années que Brewster Kahle a mis à disposition des internautes un programme qui s’appelle la Wayback Machine2 qui sert à parcourir ces archives déjà énormes.

Voix off : C’est ça qui permet de voyager à travers le temps.

Valérie Schafer : J’ai dit quand même, il faut que je comprenne, il faut que j’aille voir, c’est assez logique, donc je vais sur la Wayback Machine et là il y a une sorte de coup de foudre avec ces archives du Web, du coup je ne les ai pas lâchées depuis, ça fait une petite décennie. Je commence tout bêtement en arrivant sur la Wayback Machine par taper, je ne sais plus, le nom d’une institution, je crois qu’à l’époque c’était déjà le CNRS.

Xavier de La Porte : Sexy !

Valérie Schafer : Oui, mais à l’époque il n’y avait pas de mots-clefs dans la Wayback Machine, il fallait taper une URL qu’on connaissait, donc réflexe très professionnel, et là je suis épatée parce que je m’attendais à quelque chose d’assez statique et, en fait, ce sont des archives interactives dans lesquelles on peut passer de lien en lien, passer à travers les époques. Il y a là quelque chose d’archivé mais qui paraît à la fois totalement immersif et vivant. Il y a cette espèce d’émerveillement, vraiment au départ, sur cette entreprise aussi titanesque ; intellectuellement aussi je trouve ça assez fascinant.

Xavier de La Porte : C’est sûr qu’intellectuellement Internet Archive c’est fascinant. Déjà, il faut être assez visionnaire pour sentir, en 1996, que le Web qui a six ans à peine va devenir aussi important pour l’humanité et qu’il faut donc l’archiver. Il faut être visionnaire, OK, mais aussi techniquement balaise parce que si le Web de 1996 était peut-être moins complexe qu’aujourd’hui, il était déjà divers, il était déjà mouvant et puis les machines de l’époque, qui allaient faire le travail d’archive, étaient beaucoup moins performantes. Bref, ça mérite que Valérie Schafer explique un peu ce qu’est Internet Archive.

Valérie Schafer : C’est un rêve et une entreprise qui est lancée par Brewster Kahle3 qui a déjà, à l’époque, travaillé dans le numérique, notamment sur tout ce qui est référencement avec une entreprise qui s’appelle Alexa, qui fouille déjà le Web et qui, sensible à l’idée de ce qu’on appelle parfois le digital dark age ou ce risque de disparition de tout ce qui passe sur la toile, sensible aussi à tout un héritage dans l’histoire à la fois des bibliothèques mais à la fois aussi du numérique, de préservation des documents – on peut remonter très loin, on peut remonter à un des pères de la documentation moderne, à Paul Otlet et à d’autres – se dit "je vais archiver le Web et, si possible, je vais l’archiver exhaustivement". Aujourd’hui on a 400 milliards de pages archivées mais ce n’est pas exhaustif.

Xavier de La Porte : 400 milliards ! Et ce n’est pas exhaustif.

Valérie Schafer : Oui. Et ce n’est pas exhaustif !

Xavier de La Porte : 400 milliards de pages archivées. C’est dingue ! J’ai cherché une comparaison. La plus grande bibliothèque au monde c’est, je crois, la bibliothèque du Congrès à Washington aux États-Unis, elle compte plus de 38 millions de livres. Si on considère arbitrairement que chaque volume fait 500 pages, ça veut dire que la bibliothèque du Congrès contient 15 milliards de pages papier. Bon ! C’est déjà énorme. Mais par rapport aux 400 milliards de pages web que contient Internet Archive alors là, ce n’est vraiment pas grand-chose.
Valérie Schafer a dit que ce rêve d’archivage exhaustif est lié à l’histoire des bibliothèques et elle a cité un nom, Paul Otlet. Il faut dire quelques mots de Paul Otlet parce que c’est vraiment un personnage fascinant.
Paul Otlet est un bibliographe belge, donc un spécialiste du livre, né en 1868 et mort en 1944. Il est bibliographe mais aussi parce qu’il est avocat, socialiste, pacifiste et utopiste, Paul Otlet a une idée assez vaste de ce à quoi servent les bibliothèques. Pour lui, elles servent à faire accéder le plus grand nombre et le plus facilement possible aux savoirs que contiennent les livres. Donc Paul Otlet a passé sa vie à inventer des dispositifs pour réaliser cette utopie : recenser et classer tous les savoirs du monde dans l’idée qu’ils sont garants de la paix entre les hommes. Par exemple, en 1895, il crée le Répertoire Bibliographique Universel, une sorte de catalogue de tous les livres publiés sur tous les sujets. Dix ans plus tard, donc en 1905, il crée la classification décimale universelle, assez connue sous l’acronyme CDU, c’est-à-dire le système de classement des livres dans les bibliothèques, celui qui est toujours en vigueur aujourd’hui dans la plupart des bibliothèques du monde. Il imagine aussi une encyclopédie qui contiendrait des fiches de synthèse sur tous les savoirs du monde, donc une sorte de Wikipédia avant la lettre.
Là où Otlet est véritablement un visionnaire c’est qu’il prévoit que bientôt l’écrit ne sera plus le seul support du savoir. Donc, dès 1910, il s’intéresse par exemple au microfilm. Ce qui est encore plus dingue, c’est qu’en 1934 Otlet écrit un livre duquel on lit le texte suivant, je cite : « Ici, la table de travail n’est plus chargée d’aucun livre. À leur place se dresse un écran et, à portée, un téléphone. De là, on fait apparaître sur l’écran la page à lire pour connaître la question posée par téléphone, avec ou sans chiffre. Un écran qui serait double, quadruple ou décuple s’il s’agissait de multiplier les textes et les documents à confronter simultanément. Il y aurait un haut-parleur si la vue devait être aidée par une audition. Utopie aujourd’hui parce qu’elle n’existe encore nulle part, mai elle pourrait bien devenir la réalité de demain pourvu que se perfectionnent encore nos méthodes et nos instrumentations ». Voilà ! Il écrit ça en 1934. Évidemment, ça fait penser à Internet. C’est pour ce texte, entre autres, qu’on considère que Paul Otlet a imaginé Internet plusieurs décennies avant qu’il n’existe, à une époque où même les ordinateurs n’existaient pas, ce qui est quand même assez fort.
Donc ce n’est quand même pas un hasard si c’est un homme des bibliothèques qui a ce rêve, parce qu’au départ, dans les deux cas, c’est une histoire de documents. Donc quand Brewster Kahle crée Internet Archive en 1996, il crée une nouvelle archive en récoltant de nouveaux supports mais, en même temps, il s’inscrit dans une histoire qui est une histoire qui est déjà très longue. D’ailleurs ce n’est pas pour qu’une réplique d’Internet Archive, donc un site miroir est, je crois, stockée dans la bibliothèque d’Alexandrie en Égypte. Bref ! En écoutant Valérie Schafer je me dis que c’est drôle comme les rêves se prolongent à travers le temps. D’ailleurs le programme qui sert à chercher dans Internet Archive, Brewster Kahle l’appelle Wayback Machine, la machine à remonter le temps. Et là encore c’est une vieille référence. Mais est-ce que machine, cette Wayback Machine machine, elle ressemble vraiment à une machine à remonter le temps ?

Voix off : Attention !

Valérie Schafer : Sur le bandeau de la Wayback Machine longtemps c’était browse history, donc on pouvait vraiment parcourir l’histoire. C’était cette idée qu’on allait remonter dans le temps. On peut retrouver des tas de choses, on peut retrouver des sites depuis 96, effectivement, on peut retrouver des évènements qui ont été marquants à travers cette toile archivée. Après, l’expérience même de l’utilisateur de la fin des années 90, par exemple, avec nos terminaux ultramodernes, nos débits rapides, avec les bandeaux temporels et tout ce qui est aussi métadonnées rajoutées, on n’a pas une expérience totalement similaire par Internet Archive, mais il y a quand même une émotion.

Xavier de La Porte : Alors ça c’est pour Internet Archive, mais les archives du Web ce n’est pas simplement Internet Archive qui archive le Web mondial, certes, mais qui est un organisme américain. En France, par exemple, il y a un archivage institutionnel, national, un dépôt légal du Web comme il y en a pour les livres. Une partie du Web français est archivée par la BNF, la Bibliothèque nationale de France, et une autre, celle qui concerne les médias, est archivée par l’INA, l’Institut national de l’audiovisuel.
Je demande à Valérie Schafer dans quelles circonstances le dépôt légal du Web a été créé parce que ça ne va pas de soi de mettre en place une telle politique de conservation.

Valérie Schafer : Le dépôt légal à la BNF et à l’INA est lancé dix ans après Internet Archive, en 2006, à travers la loi DADVSI [loi relative au droit d'auteur et aux droits voisins dans la société de l'information] qui est une loi qui a été surtout réputée pour ses éléments de surveillance, mais il y a effectivement une dimension conservation dedans et conservation d’un patrimoine qu’on commence à appeler patrimoine nativement numérique, notamment depuis une charte de l’UNESCO]4, de 2003, qui a reconnu ce patrimoine.

Xavier de La Porte : La reconnaissance du Web comme patrimoine de l’UNESCO et une loi, la loi DADVSI qui est restée célèbre pour d’autres raisons, c’est donc ça qui a créé le dépôt légal du Web français. Ce qui est intéressant c’est que d’autres pays vont suivre la même voie avec des processus qui peuvent différer un peu. Donc se constituent au milieu des années 2000, un peu partout, des archives nationales du Web.
Il y a des choses plus bizarres, par exemple le projet de la bibliothèque du Congrès à Washington d’archiver Twitter. Ça, ça m’a toujours fasciné, cette idée que tout Twitter soit disponible dans la bibliothèque du Congrès. Je trouve ça assez beau que cohabitent dans le même espace des volumes très précieux et des disques durs avec toutes les conneries qui sont dans Twitter. Il n’y a pas que des conneries dans Twitter, mais il y en a aussi !
Elle en pense quoi, Valérie Schafer, de ça ?

Valérie Schafer : En fait, ce n’est pas tout à fait un projet d’archivage de Twitter par la librairie du Congrès, c’est un accord qui a été fait entre Twitter et la librairie du Congrès pour que la librairie du Congrès puisse bénéficier des archives de Twitter. Donc ça passe par ce qu’a collecté Twitter au départ et pour l’instant, honnêtement, on ne va pas dire que ce n’est pas une grande réussite, c’est stocké, c’est là, il y a quelque chose, mais ce n’est pas encore accessible au public.

Xavier de La Porte : OK ! J’avais lu quelque part que si ces archives rendues disponibles par Twitter n’étaient pas encore accessibles au public c’était parce que qu’on ne disposait pas encore des outils adéquats pour fouiller dedans, qu’il y avait trop de données à traiter pour les programmes et que donc, on archivait aujourd’hui en pensant pouvoir, un jour, exploiter tout ça mais que, en attendant, on ne pouvait rien en faire, ce que je trouvais encore une assez belle idée. Mais est-ce que c’est vraiment ce qui se passe ?

Valérie Schafer : Il y a quelques années c’est ce que mettait en avant la librairie du Congrès. C’était la difficulté, effectivement, enfin le temps qu’il fallait pour rechercher dans ces tweets, etc. Aujourd’hui est-ce qu’on n’a toujours pas les moyens de brasser une telle masse de données ? Je suis un peu sceptique, je pense qu’il y a d’autres enjeux derrière et qui sont des enjeux certainement aussi d’accès aux utilisateurs parce qu’on a là des données qui posent de véritables enjeux en termes d’éthique, on peut croiser des données d’utilisateurs à une vaste échelle.
On est loin de ces archives Twitter de la librairie du Congrès, mais l’INA, par exemple lors des attentats de Charlie Hebdo et du Bataclan, mais aussi de Nice et d’autres, a collecté ce qui se passait sur Twitter et c’est plus de 30 millions de tweets pour Charlie Hebdo et le Bataclan qui ont été conservés. Comme on ne peut pas sortir ces tweets des enceintes de l’INA, on les consulte sur place, ils ont aussi développé des outils pour consulter ces tweets, que ce soit ceux des attentats ou d’autres, et des moteurs de recherche, des visualisations, etc.

Xavier de La Porte : Oh là, là, qu’est-ce que j’entends ! C’est quoi ces archives des attentats de 2015 ? C’est donc qu’en plus des collectes régulières, on peut faire des collectes spéciales, des collectes d’urgence, on peut décider de garder trace d’un évènement qui est en train de se dérouler sous nos yeux.
Reprenons. Les attentats de 2015 ont lieu et là, qu’est-ce qui se passe ?

Valérie Schafer : Coté BNF comme côté INA, dès le lendemain ou quelques heures après, il y a le sentiment qu’il faut conserver, qu’on vit un évènement dont il faut aussi garder trace. En dehors des institutions il y a aussi eu ce sentiment de nécessité. Je pense à des chercheurs, à Romain Badouard qui va collecter le « Je ne suis pas Charlie »5 à la suite des évènements. Je pense à un Canadien, Nick Ruest, qui appartient aussi au monde des bibliothèques mais qui, à titre personnel lorsqu’il découvre les évènements, se dit « il faut faire quelque chose ; si personne ne le fait, je préserve cette trace. »

Xavier de La Porte : C’est quoi l’idée de préserver cette trace ? Qu’est-ce que tu vas y trouver que tu ne trouves pas ailleurs ? Qu’est-ce que tu espères y trouver ou garder ?

Valérie Schafer : Je pense par exemple au travail très intéressant d’un collègue qui s’appelle Gérôme Truc, qui est spécialiste des attentats, qui a écrit un beau livre qui s’appelle Sidérations. Une sociologie des attentats, qui a très bien montré, par exemple dans les premières heures de l’évènement, d’abord comment on va nommer ce qui se passe, comment on va passer du terme « fusillade » ou « attaque » au terme « attentat », etc. Donc on voit la fabrique de l’évènement aussi par le choix des hashtags et de leur provenance, quasiment en temps réel au cours des attentats. On apprend de tas de choses.

Xavier de La Porte : Auparavant on n’avait pas accès à tout ça, à ce que pensaient les gens, à leurs émotions, aux conversations. C’est quand même incroyablement nouveau, non ? C’est plein de possibles. Là, Valérie Schafer tempère un peu mon enthousiasme. On n’était pas complètement sans ressources non plus avant Internet.

Valérie Schafer : Il y avait les journaux intimes, il y avait le courrier des lecteurs, il y avait des tas de choses, pas forcément en temps réel, mais qui permettaient aussi de saisir ce que, entre guillemets, « l’individu ordinaire » voulait ou pouvait ressentir ou exprimer. Il y avait aussi au moment de la vague d’attentats au milieu des années 90 en France des micros-trottoirs, etc., mais on n’avait effectivement pas cette masse de réactions et il faut, en même temps, être conscient qu’elle a aussi des biais. Je ne sais même pas si c’est un quart de la population qui utilise Twitter.

Xavier de La Porte : C’est très peu.

Valérie Schafer : C’est très peu. Ce sont aussi des profils, des catégories socioprofessionnelles, etc., très spécifiques.

Xavier de La Porte : Oui, évidemment, Twitter a des biais, mais les documents ont toujours eu des biais, les archives ont toujours eu des biais. Là, je pense à une discussion que j’ai eue récemment avec une historienne, Clémentine Vidal-Naquet.
Clémentine Vidal-Naquet travaille sur la guerre de 14 et notamment sur l’histoire des couples pendant la guerre de 14. Donc ce qu’elle manipule ce sont beaucoup d’archives intimes, familiales, des correspondances, des journaux, des albums photos. Elle me racontait une archive particulière sur laquelle elle était tombée : un album photo d’un ancien soldat de la Grande Guerre qui, juste après la démobilisation, s’était marié. Et pour son voyage de noces, où emmène-t-il son épouse ? Eh bien, sur les lieux de la guerre.

Extrait musical, La Chanson de Craonne :
Quand au bout de huit jours, le repos terminé
On va reprendre les tranchées
Notre place est si utile
Que sans nous, on prend la pile.

Xavier de La Porte : Un an après à la fin de la guerre, le type emmène sa jeune épouse dans les tranchées. Clémentine Vidal-Naquet trouve cette archive passionnante dans ce qu’elle dit d’un certain rapport à la guerre. Mais, elle me disait aussi que ce type d’archive pose une question à l’historienne qu’elle est. Aussi passionnante soit-elle, cette archive est singulière. Est-ce que les conclusions qu’elle en tire sur un rapport à la guerre par exemple, est-ce que ces conclusions sont généralisables ? Est-ce que ça raconte quelque chose au-delà du cas particulier de ce soldat particulier qui a voulu montrer les tranchées à sa femme ? Ça c’est un problème pour l’historien.
Or, avec le numérique et la masse d’archives, eh bien on peut beaucoup plus facilement généraliser. Ce n’est plus un album photos conservé par une famille particulière qu’on étudie, mais ce sont des centaines de milliers de photos, des centaines de milliers de propos tenus dans des blogs, dans des posts, et puis on a accès aux conversations encore une fois, à ce que les gens se racontent les uns aux autres. Donc je me dis que ça doit être un rêve d’historien de pouvoir accès à tout ça, à une telle masse !

Valérie Schafer : Rêve d’historien, je pense que les historiens ne se ressemblent pas. Il y a une variété d’historiens, il y a une partie des historiens pour qui, aujourd’hui, déjà on n’a pas assez de recul sur ces matériaux, qui ne les feront pas rentrer dans leur champ d’expertise et qui ne sont pas forcément intéressés par cette lecture par le bas. Et puis il y a sûrement, au contraire, des potentialités énormes pour d’autres historiens effectivement intéressés à ces modes de discussion, d’interaction.

Xavier de La Porte : Parce que, quand même, archiver les conversations c’est aussi un rêve du pouvoir. C’est quand même incroyable d’avoir accès à ce que les gens se racontent !

Valérie Schafer : Est-ce qu’ils se racontent ? Sur Facebook oui, ils se racontent, mais Facebook est beaucoup moins bien collecté parce que ça pose des problèmes de statut public-privé des messages, de comment conserver Facebook. On est loin du compte sur l’archivage de la collecte de Facebook.
Sur Twitter on suit effectivement des fils, on suit des échanges. Après, ce n’est pas forcément non plus les conversations du quotidien.

Xavier de La Porte : Encore une fois, Valérie Schafer n’a pas complètement tort de tempérer mon enthousiasme. Oui, c’est vrai, Twitter ce ne sont pas les conversations du quotidien. Les commentaires qu’on trouve sur les sites d’information, enfin qu’on trouvait parce que c’est de moins en moins le cas, eh bien ce n’est pas non plus les conversations du quotidien. C’est un type particulier de conversation entre le privé et le public, ce n’est pas complètement la conversation entre copains, mais ce n’est pas complètement non plus la conversation de café, ce n’est pas non plus le débat public complètement. Bref ! C’est compliqué de définir le statut de ce qu’on conserve.
Et puis il y a un autre problème, c’est qu’elles ont beau être hyper-massives ces archives, eh bien elles ne sont pas exhaustives. Par exemple, pour ce qui concerne celles qui sont conservées à la BNF et à l’INA, elles relèvent d’un choix politique bien défini.

Valérie Schafer : Elles sont définies par la loi qui, en France, va dire il y a du .fr mais il y a ensuite d’autres règles, ça peut être du .com à condition que l’entreprise soit implantée en France ou un Français à l’étranger. Donc on ne fait pas n’importe quoi, on ne va pas collecter tous azimuts quand on est dans un cadre national. Il y a des choix qui sont aussi des choix budgétaires, il y a aussi des choix que je dis patrimoniaux, parce que, comme on n’archive pas tous les jours tous les sites, il y a une grande collecte annuelle qui porte, du côté de la BNF, sur plusieurs millions de noms de domaines, mais la collecte qui va être quotidienne a le fait choix, par exemple, de se porter sur la presse. On aurait pu faire d’autres choix, mais c’est ce qui a paru légitime à la bibliothèque.

Xavier de La Porte : Ça, c’est le côté toujours vertigineux de la conservation. Elle doit répondre à une question à laquelle il est quand même très dur de répondre : qu’est-ce qui intéressera dans l’avenir ? En l’occurrence, pour le Web, ça va décider de la fréquence à laquelle on organise la collecte. Et c’est sûr que ce n’est pas pareil d’aller collecter un site une fois par an ou de le collecter tous les jours. Mais bon ! Je me pose une question très technique : cette collecte, qu’elle soit quotidienne pour les sites de presse ou annuelle pour d’autres sortes de sites, eh bien j’imagine qu’elle n’est pas faite à la main, que ce sont des robots qui la réalisent.

Valérie Schafer : Oui, ce sont des robots qui sont programmés en fait et qui vont, à la récurrence à laquelle on leur a demandé de le faire, aller cliquer sur des sites et sur des liens. Et on leur a dit aussi s’ils doivent cliquer à trois clics de profondeur ou à deux et aller se balader de façon très large ou pas.

Xavier de La Porte : C’est quoi des clics de profondeur ?

Valérie Schafer : C’est-à-dire que quand on arrive sur la page d’accueil d’un site Web, on va trouver plein d’hyperliens dedans, c’est le principe du Web, et on va dire au robot « tu as le droit d’aller cliquer et de collecter la page qui s’ouvre ensuite, mais tu ne vas pas trop profond, tu n’ouvres pas 16 pages d’affilée parce qu’on ne veut pas toute la profondeur du site. Et puis tu ne vas pas te balader trop loin, parce que quand tu cliques parfois tu sors du site par des hyperliens pour collecter aussi la page liée. »

Xavier de La Porte : Donc ce ne sont pas simplement ds photographies.

Valérie Schafer : Non, ce ne sont pas des captures d’écran. On retrouve vraiment de l’interactivité, les hyperliens fonctionnent. On se promène dans le site.

Xavier de La Porte : OK. Mais est-ce que pour autant on a l’impression de s’y promener comme on s’y promenait à l’époque dont datent ces pages ?
C’est marrant parce que, en écoutant Valérie Schafer, je pense à ces musées un peu cheap où on reconstitue le passé. En Auvergne par exemple, près de Saint-Julien-aux-Bois, il y a un truc qui s’appelle Les fermes du Moyen Âge. C’est une sorte de village médiéval reconstitué avec sa végétation médiévale, ses chemins médiévaux, ses bâtisses médiévales, ses meubles du Moyen Âge. Il y a même des cochons rabougris pour faire un peu genre époque. C’est super, mais je ne peux pas dire non plus qu’on ait complètement l’impression d’être au Moyen Âge. Donc je me demande si les archives du Web produisent le même effet. Si vraiment on se promène dans les sites tels qu’ils étaient quand ils ont été archivés.

Valérie Schafer : Tel qu’il était, c’est là qu’est tout le débat. En fait pas totalement parce qu’on va régulièrement tomber sur des liens qui s’arrêtent, la page suivante n’a pas été collectée, c’est une question de profondeur, c’est une question de collecte ratée, c’est une question de plein de choses. On va trouver parfois des éléments manquants parce qu’il y a des formats qui ne passent pas ou des robots impatients qui sont partis un peu trop vite et qui ont oublié de récupérer l’image qui allait avec.

Xavier de La Porte : C’est beau l’idée de robots impatients !

Valérie Schafer : Oui. On l’avait vu dans une archive de l’INA qui était pleine de trous et je m’étais dit « mais il ne peut pas collecter les images ? », par ailleurs, à l’époque, il y en avait partout. Je me suis dit « qu’est-ce qui s’est passé » et à l’INA on m’avait montré le code source et, en fait, on voyait que le robot n’était resté que quelques secondes, qu’il était parti et qu’il avait fait son travail comme un cochon pour le dire ainsi. Donc il y a parfois des ratés dans la collecte.
Ce qui est très particulier, c’est dur à expliquer en quelques mots, mais c’est surtout au début de cette collecte : impossible de faire un contrôle qualité sur tout ce qui sort, on stocke, mais il y a des milliards, c’est ce qu’on disait, de pages archivées et il n’y a personne derrière pour vérifier à la main si c’est bien fait. En fait on voit, en particulier dans la Wayback Machine, des sauts temporels, c’est-à-dire que parfois, dans la page d’accueil, on va cliquer sur un lien qui nous amène trois mois après parce que la page suivante, qui avait le lien, n’a été collectée que trois mois plus tard.

Xavier de La Porte : J’aime beaucoup cette idée d’hybride temporel. Ça me fait penser à une amie de mes grands-parents qui était très forte en histoire du mobilier, en histoire des tissus, en histoire de la décoration d’intérieur. Elle savait exactement à quelle époque telle tenture était apparue, comment étaient les poignées de porte sous Louis XV, etc. Et cette dame souffrait énormément quand elle allait visiter des châteaux avec des pièces censées restituer l’intérieur à une époque précise. Elle disait « mais ce n’est pas possible, ces cheminées n’existaient pas dans la région à ce moment-là Et ce secrétaire, évidemment, il a deux siècles de plus. Et on n’a jamais vu des parures de lit avec des motifs comme ça à cette époque-là ! Mais ce n’est pas possible ! » C’est-à-dire qu’elle voyait, elle aussi, des hybrides temporels partout. Elle visitait ces châteaux comme nous on visite ces sites internet archivés.
Du coup, je me pose une question : est-ce qu’il n’y a pas un problème avec l’authenticité de ces pages web qui sont archivées ? Comment être certain que la page qu’on voit est bien celle qui était vue à l’époque où elle a été archivée ? C’est quand même une question centrale ça, l’authenticité du document quand on fait de l’histoire !

Valérie Schafer : Certains invitent à faire de la philologie ou de la diplomatique des pages web.

Xavier de La Porte : Ça veut dire quoi ?

Valérie Schafer : C’est-à-dire à travailler sur leur authenticité, à travailler justement sur ces anachronismes qui se glissent, ces différences. On a aujourd’hui des outils. Par exemple, dans Internet Archive, ils ont développé un outil qui permet d’afficher le moment où chaque élément de la page a été collecté. Et parfois on se rend compte que, même dans une page qui paraît authentique, il y a des sauts et des éléments qui avaient été collectés auparavant – un logo, une carte, une image qui est venue après – et qu’on a, comme ça, une espèce de patchwork temporel.

Xavier de La Porte : Parce que c’est ça, une page web c’est extrêmement composite.

Valérie Schafer : Oui.

Xavier de La Porte : Donc on n’arrive pas à recomposer exactement cet aspect composite dans l’état de la personne qui était face à la page au moment t.

Valérie Schafer : Non, pour différentes raisons, parce que le temps que le robot crawl – ils sont de plus en plus rapides maintenant –, mais il peut y avoir eu des changements, des mises à jour dans la page, il peut faire son travail entre guillemets, de façon effectivement un peu « insuffisante », et puis il y a des trucs qu’on ne recollecte pas. Par exemple, quand on est à la page du CNRS et son logo, eh bien le logo on ne va pas le recollecter à chaque fois et faire des doublons.

Xavier de La Porte : Donc ça veut dire quelque chose d’à la fois grave et passionnant : la page web archivée n’est pas celle consultée, jamais ou presque. C’est très différent d’autres documents quand on y pense. Un livre par exemple, un livre qui a été archivé il y a quelques siècles, il est le même aujourd’hui que quand il est entré dans les archives. Quand je vais consulter un ouvrage en bibliothèque c’est celui que tenait dans la main le lecteur du passé. Eh bien, ça n’est pas le cas pour une page web ! Ça veut dire qu’une page web c’est une archive par définition, donc inauthentique, imparfaite.

Valérie Schafer : C’est imparfait, ça l’est encore plus à la fin des années 90 qu’aujourd’hui. Il y a eu d’énormes évolutions dans la manière dont on collecte notamment le flux, dont on va intégrer les images, les vidéos, etc., mais ça n’empêche pas la prudence, effectivement, de se dire qu’on n’a absolument pas une copie parfaite du Web en l’état et tel qu’il était.

Xavier de La Porte : Ça veut dire qu’il n’y a pas de possibilité de revivre l’expérience exacte.

Valérie Schafer : De toutes façons on ne la revit pas non plus lorsqu’on a en mains un manuscrit du Moyen Âge, on ne le lit pas de la même façon. Certes, on l’a entre les mains, mais on ne revit pas l’expérience de lecture médiévale et on a un effort d’imagination et de compréhension, d’intelligibilité vraiment cognitive à faire, eh bien c’est pareil pour le Web. On est d’accord, il n’y a pas d’authentique au sens copie parfaite et ça pose un vrai débat. Par exemple l’Office des publications de l'Union européenne qui doit archiver les sites des institutions européennes fait, lui, un contrôle qualité sur ses archives, en disant une fois qu’on a fait tout ce passage on va revérifier le résultat pour voir si ça ressemble ou pas à ce qu’on avait au départ et ils vont éventuellement intervenir sur la page ou refaire la collecte s’ils estiment que le résultat n’est pas convenable.

Xavier de La Porte : Ils recomposent a posteriori le document.

Valérie Schafer : Qui, de toute façon, est un composite.

Xavier de La Porte : Oui, c’est sûr, une page web ça n’est pas un objet uniforme et statique, c’est composite et c’est mouvant. Dedans il y a des formats différents, il y a des programmes différents, il y a du texte, il y a une vidéo, il y a une photo et puis ça bouge. Par exemple, la publicité. Sur un site, la publicité change tout le temps et parfois elle n’est même pas la même selon l’internaute qui consulte le site. Donc comment archiver un truc qui bouge tout le temps et qui n’est pas le même pour tout le monde ? C’est sûr que dans ces conditions l’authenticité peut toujours être mise en cause. Quand on pense que c’est ça que les historiens et archéologues du futur auront entre les mains pour étudier notre civilisation, j’avoue que je trouve ça un peu abyssal !
L’an dernier je suis allé faire un reportage à l’IMEC, l’Institut mémoires de l'édition contemporaine. On y trouve les archives de nombreux écrivains contemporains, fin 19e, 20e, 21e siècles, des archives de revues, de maisons d’édition. Bon ! Ce trésor est abrité dans les sous-sols d’une abbaye à quelques kilomètres de Caen et ces archives sont la plupart du temps matérielles – des livres, des manuscrits, des carnets, des lettres, des objets aussi –, mais, de plus en plus, elles consistent en des disques durs, parce que les auteurs d’aujourd’hui travaillent sur des ordinateurs. Donc le travail du conservateur va être de fouiller dans des fichiers informatiques avec toutes les questions que ça pose.
Le jour où j’étais à l’IMEC un des conservateurs était en train de travailler sur un disque dur ayant appartenu à un auteur mort il y a quelques années et il m’expliquait qu’il n’arrivait pas à ouvrir tous les fichiers parce que c’était de vieux fichiers qui avaient été transférés de disque dur en disque dur. Et, ce jour-là, le conservateur était hyper-content parce qu’il avait enfin réussi à trouver le bon logiciel pour ouvrir un fichier de cet auteur qui lui résistait. Bon ! Pas de bol, c’étaient des relevés bancaires. Anecdotique mais pas seulement, parce que de plus en plus les chercheurs travaillent sur des supports numériques soit parce que les archives ont été numérisées, la presse, le patrimoine littéraire, soit parce que les documents d’origine donc sont numériques, ce qui risque d’être de plus en plus le cas dans l’avenir. Mon romantisme du chercheur face à son vieux parchemin qui tombe en poussière, il en prend un coup !
Mais il y a une autre question que je me pose sur ces archives du Web, mais qui se pose, en fait, pour les archives numériques en général : comment on fait non seulement pour que ça reste lisible alors que les formats ne cessent d’évoluer mais surtout pour que l’archive soit pérenne, qu’on puisse encore la conserver, la consulter dans 10, 20 30, 100 ans ?

Valérie Schafer : Il y a un énorme travail de la part des institutions pour trouver des changements de format, de l’émulation, etc., et conserver effectivement ce patrimoine. De ce côté-là je suis moins inquiète que sur le risque d’accidents ; les Portugais, notamment arquivo.pt, ont été victimes d’un incendie de leurs locaux et ils ont perdu une partie des fonds qu’ils avaient collectés.

Xavier de La Porte : Le serveurs ont brûlé ?

Valérie Schafer : Oui, mais comme peuvent brûler… On a eu des cas d’archives aussi bien en France, on pense aussi au Brésil et à son musée, donc la perte peut exister. Après, avec le numérique, il y a aussi des possibilités évidemment de sauvegardes de sécurisation et, de ce côté-là, côté BNF comme INA, on est équipés.
À l’arrivée de Trump au pouvoir, Brewster Kahle avait lancé une campagne de communication pour dire faisons au Canada un miroir de Internet Archive et de ses ressources parce que le risque ce sont aussi des pressions éventuellement politiques voire géopolitiques, il y a eu des coupures en Jordanie, en Chine et autres d’Internet Archive. Il y a aussi l’idée qu’on peut faire des copies.

Xavier de La Porte : Il y a un autre problème. Le Web c’est aussi une matière mouvante. En dehors des formats des archives qu’il faut faire évoluer pour qu’elles restent visibles, eh bien il y a les programmes qui sont utilisés dans le Web lui-même, les changements techniques constants de ces programmes. Est-ce que les gens qui archivent s’en inquiètent ?

Valérie Schafer : On s’en inquiète et on s’en inquiète en fait au quotidien parce que, par exemple, que ce soit YouTube ou d’autres, il y a aussi régulièrement des mises à jour et des changements qui font que les robots peuvent, du jour au lendemain, se retrouver bloqués et ne plus pouvoir faire leur travail parce que justement les accès, les formats, tout ça a changé. Il y a derrière des moyens informatiques, des équipes d’ingénieurs qui sont capables, très rapidement, de réagir et de voir comment on s’adapte au changement technique. De la même façon que les silos de plus en plus dans l’Internet et le Web, l’idée qu’il faut des mots de passe, etc., peuvent faire barrière à cette collecte. Effectivement, il y a en permanence des défis techniques. Certes le Web a évolué, il a fallu adapter aussi les collectes, mais c’est moins des évolutions techniques qu’à la limite des évolutions juridiques, des évolutions du Web en îlots d’applications qui posent problème.

Xavier de La Porte : Ça c’est intéressant parce que, en effet, depuis 1996 et le début de l’archivage du Web par Brewster Kahle, eh bien le Web a changé. Bien sûr il a changé techniquement, mais il a changé aussi architecturalement. Et cette folie des mots de passe qu’on connaît aujourd’hui, qu’on nous demande toujours d’entrer quand on arrive sur un site, doit être forcément un obstacle à l’archivage, bien sûr. Il y a aussi le fait que notre usage d’Internet s’est transformé. Sur nos téléphones, on navigue de moins en moins sur le Web, on passe par des applications. Ça, les applications, je ne vois pas bien comment on peut les archiver, sauf si ce sont des web applications c’est-à-dire des applications qui sont aussi des sites web. Tout ça dépasse mes compétences techniques !
Bon, OK ! Il y a des parties du Web qui échappent à la collecte et peut-être de plus en plus. Mais à part Internet Archive qui archive tous les sites, les autres collectes se font la plupart du temps par des institutions qui sont nationales et là, ça pose quand même un problème, parce qu’il y a par exemple des pays qui disparaissent et il y a des pays qui, peut-être, se moquent d’archiver leur Web, donc il y a peut-être des trous noirs nationaux dans les archives du Web. Là, Valérie Schafer me parle des travaux d’une chercheuse du nom de Anat Ben-David qui, aux dires de Valérie, fait toujours des travaux extraordinaires.

Valérie Schafer : Elle a par exemple essayé de reconstituer le .yu du Web, l’Internet yougoslave, en disant « quand un pays disparaît, si son nom de domaine disparaît avec, qu’est-ce qui se passe ? » Et elle a essayé de voir ce qui avait été archivé, de reconstituer ce nom de domaine par tout un travail vraiment extrêmement riche.

Xavier de La Porte : Alors il en reste quoi ?

Valérie Schafer : Il en reste pas mal de choses, parce qu’elle a retrouvé des listes de sites. En fait, grâce à elle, on a une vision assez claire du .yu, de ce Web yougoslave. Comme elle a tout le temps des idées originales et intéressantes, elle a relevé un autre défi, celui de la Corée du Nord. Pendant longtemps, on n’a absolument pas su ce qu’il y avait en Corée du Nord comme Web, on n’avait pas de listes de sites officiels, donc comment on peut collecter si on ne sait pas ce qui existe, si on n’a pas les sites et si, en gros, il n’y a pas de communication dessus ? En fait, elle s’est rendu compte qu’il y a avait eu une collecte plutôt efficace du Web nord-coréen et que des sites étaient en circulation. C’est à la suite d’une fuite qu’on a su exactement combien il y avait de sites nord-coréens et elle a dit « je vais remonter dans le temps ». Elle a vu qu’il y avait tout un système de curation humaine qui s’est mis en place pour signaler quand on trouvait une URL nord-coréenne et, en fait, ça a été assez bien réussi par des réseaux humains et pas techniques.

Xavier de La Porte : C’est beau cette idée que le Web nord-coréen, en tout cas une partie du Web nord-coréen, a été méticuleusement archivé par des gens. On aimerait savoir pourquoi ils ont fait ça, pourquoi ils le font encore, par intérêt scientifique, par intérêt politique, par intérêt affectif ? Je n’en sais rien !
Bon, d’accord, on l’a compris, il y a des trous dans ces archives du Web, enfin, elles sont quand même gigantesques, peut-être les archives les plus gigantesques auxquelles l’humain ait eu à faire. D’où une question : est-ce qu’il n’y a pas un risque d’avoir trop d’archives avec tout ça ?
Je pense toujours à cette magnifique nouvelle de Borges Funes ou la Mémoire. Dans cette nouvelle, Borges imagine un jeune garçon qui, à la suite d’une chute de cheval, se retrouve affublé d’un mal terrible. Il se souvient de tout, sa mémoire est infaillible. Il est devenu hypermnésique et très vite ça lui rend la vie complètement impossible. Ses souvenirs sont trop nombreux, il passe son temps à se remémorer ce qu’il a fait, ce qu’il a vécu, ce qu’il a vu, et il ne peut plus rien accueillir du présent, il ne peut plus penser, donc il meurt très jeune enseveli sous ses souvenirs.
Sans aller jusqu’à ce niveau de tragique, est-ce qu’il n’y a pas un risque qu’en archivant le Web on se retrouve avec trop de matériel, qu’on se perde dans notre propre mémoire ?

Valérie Schafer : Oui. On a à la fois trop et pas assez, j’ai toujours dit que c’est à la fois l’abondance et la lacune parce que, quand tu cherches une page particulière, tu n’es absolument pas sûr de la trouver. Si la page que j’ai décidé de trouver n’a pas été collectée ce jour-là et, qu’entre temps, ça a bougé, je peux ne pas retrouver ce que je cherche dans le site. Par exemple, il y a des sites qui vont changer de design ou faire une refonte complète et le temps que le robot passe sur le site, il peut s’être passé six mois ou autres. Donc on n’est à la fois jamais sûr de trouver ce qu’on veut et, à la fois effectivement, on a énormément. Le risque c’est de dire « je pars de ce qui existe » et on tombe typiquement dans ce qu’on critique, la data-driven science, c’est-à-dire le développement d’études fondées sur ce qui existe, sur les données, plutôt que sur une question de recherche ou une véritable quête de sources.

Xavier de La Porte : Donc quand même, sans aller jusqu’à la tragédie métaphysique de Borges, cette abondance a des conséquences scientifiques. On peut se laisser absorber par la profusion des données et penser que c’est de la masse des données que le savoir émergera, un peu comme par magie, sans poser d’hypothèses. Valérie Schafer appelle ça la data-driven science, je ne savais même pas que c’était l’expression consacrée. Je me souviens qu’à la fin des années 2000 Chris Anderson, le rédacteur en chef du magazine américain WIRED et qui est souvent assez visionnaire, avait publié un texte où il disait à peu près ça : « Avec la profusion des données, on va pouvoir faire de la science autrement sans passer par la vieille méthode consistant à poser des hypothèses, à mener des expériences et à en tirer des résultats ». D’ailleurs, le texte s’appelait, je traduis, « La fin de la théorie, comment le déluge de données rend la méthode scientifique obsolète ». Bon, ça avait déjà été très critiqué à l’époque, mais, ce que m’apprend Valérie Schafer, c’est que c’est aussi une tentation en histoire, pas simplement dans les sciences dures.
Il y a quand même un autre problème dans tout ça. Dans le Web il y a beaucoup de nous, donc archiver le Web c’est nous archiver, nous. Pour ce qui en est de ce qui est conservé par l’INA et la BNF c’est évidemment encadré, il faut être accrédité pour y accéder et on ne peut pas faire n’importe quoi. Mais ça, ce n’est pas valable partout.

Valérie Schafer : Là où c’est, par exemple pour moi, plus discutable ou inquiétant même si j’adore ces sources, c’est le fait que Google ait repris tous ces groupes de discussion qu’on a appelé les Newsgroups des années 80/90 et là il y a les Newsgroups français qui sont accessibles en ligne, par exemple, et on retrouve des prises de position avec forcément des propos qui peuvent être parfois racistes ou pas très fins ; on retrouve ça en ligne, effectivement, avec parfois l’adresse des individus qui s’exprimaient.

Xavier de La Porte : Ça pose quand même un gigantesque problème parce que c’est sur une masse énorme d’individus.

Valérie Schafer : Oui. Dans les Newsgroups ce n’est pas une masse énorme d’individus parce que c’était quand même une élite un peu technique et scientifique qui s’exprimait. Par contre, on retrouve des prises de position qu’ils ont, certes, rendu publiques à l’époque mais c’était il y a 20 ans et des gens qui, depuis, ont largement évolué, qui sont toujours effectivement en activité, qui ont changé de position. Donc oui, il y a cette question.
Les vastes dépôts de données en ligne, accessibles, effectivement il y a danger, mais on peut se dire aussi que les dépôts de Google, Facebook, enfin ceux qui gardent nos données sont dangereux.

Xavier de La Porte : En effet, ça c’est dangereux, on en a déjà parlé au moins dix fois. Mais, paradoxalement, est-ce que ce n’est pas non plus là qu’on trouve ce qu’il y a de plus intéressant sur nous ? Je veux dire par là, est-ce que ce qui dirait le plus sur notre humanité ce ne sont pas, finalement, nos conversations Facebook, nos discussions dans les groupes WhatsApp. On peut rêver par exemple à des historiens qui, dans quelques siècles, auraient accès aux discussions d’une famille dans un groupe WhatsApp, ce serait quand même extraordinaire. Est-ce que ce ne sont pas les données de Facebook, d’Instagram, de Messenger qui nous permettraient de plonger dans l’âme humaine ? Et celles-là, ces archives, eh bien elles sont privées et pas ouvertes à la recherche, sauf exception. De toutes façons, Valérie Schafer me rappelle que plonger dans l’âme humaine ce n’est pas forcément le but de l’histoire et elle a raison, il y a d’autres disciplines pour ça. En même temps c’est drôle, quand je lui demande quelle archive du Web l’a plus impressionnée au cours de toutes ses recherches, c’est bien de questions humaines, très humaines, profondément humaines dont il s’agit.

Valérie Schafer : Effectivement, c’est quand j’ai essayé de remonter les premiers procès, 96 et suivants, lancés par la LICRA [Ligue internationale contre le racisme et l'antisémitisme], l’Union des étudiants juifs de France et autres, qu’il y avait les premières affaires pour antisémitisme, racisme, etc. et que je suis tombée dans les archives sur les pages, par exemple, de Front14 qui était un site néonazi agglomérant toute une galaxie de sites du même acabit. J’ai été assez sidérée de retrouver ces sites aussi par l’iconographie, par le nombre de liens, parce qu’évidemment on se dit qu’eux aussi ont été conservés et bien sûr heureusement et, en même temps, on a quand même ce malaise en se retrouvant confronté aux interactions entre les internautes, parce qu’il y a des discussions, souvent sous pseudonyme, mais qui ont été conservées aussi. C’est ça qui m’a le plus impressionnée.

Xavier de La Porte : Deux leçons.
Ce que dit Valérie Schafer relativise un peu l’idée que le Web d’aujourd’hui est plus haineux, plus sale que celui d’hier, ce n’est pas sûr. C’est juste qu’aujourd’hui tout le monde s’affronte sur des plateformes communes alors qu’avant les choses étaient sans doute plus éparses, plus séparées, on pouvait fréquenter le Web sans tomber sur les sites fachos ; aujourd’hui tout le monde est sur les mêmes réseaux.
Deuxième remarque : tout pourrait accréditer l’idée défendue par certains qu’Internet c’est la poubelle de l’histoire.

Alain Finkielkraut, voix off : Est-ce qu’Internet est ce lieu que je décris ou non ? Est-ce que ce n’est pas cette poubelle de toutes les informations et du dérapé.

Xavier de La Porte : C’est Alain Finkielkraut qui avait employé cette expression qui a été, ensuite, reprise par d’autres.
Peut-être, pas faux. Certes, Internet est bien autre chose, mais il est ça aussi, la poubelle de l’histoire. Voilà, le problème c’est que les poubelles c’est hyper-intéressant. L’archéologie et la paléoanthropologie accordent depuis longtemps une grande attention à nos déchets, aux déchets de nos ancêtres. On ne compte pas ce qui a été appris sur l’humanité en fouillant les lieux où elle entreposait ses déchets : de quoi on se nourrit, comment on se nourrit, avec quel objet, tout ce qu’on peut apprendre d’une poubelle, eh bien là où Internet est une poubelle magnifique c’est que c’est une poubelle de l’immatériel, une poubelle de nos curiosités, de nos pensées de nos fantasmes, de nos angoisses ; c’est inestimable de pouvoir fouiller cette poubelle mentale. Les scientifiques l’ont déjà compris, ils y travaillent et c’est donc à ça que sert d’archiver le Web.
Quand j’ai fini l’entretien avec Valérie Schafer, j’ai demandé à Fanny et à la technicienne qui enregistrait ce jour-là si elles avaient des questions. Elles m’ont répondu « ah non, désolées, on était plongées dans la Wayback Machine et ça, ça enchante Valérie Schafer.

Valérie Schafer : Ça me fait plaisir parce que ça veut dire que ça peut donner envie de la découvrir. Eh bien tant mieux !

Xavier de La Porte : Je remercie beaucoup Valérie Schafer, ses travaux sont, pour certains, trouvables sur Internet.
C’était Le code a changé, un podcast proposé par France Inter en partenariat avec Fabernovel.