Les digital humanities font partie des choses desquelles on parle, qui existent, oui, mais qu’on ne se force pas trop à creuser.
Ca paraît évident une fois qu’on a dit ce que ça recouvrait, mais on ne le dit pas si souvent. Grosso modo, il s’agit de prendre la mesure des changements que l’apparition du numérique a provoqués dans la recherche, que ce soit en terme de documentation disponible, des possibilités nouvelles offertes pour l’exploitation et l’édition de corpus et pour l’échange des résultats de la recherche. Il est donc à la fois question de contenu et d’outils, de création et d’archivage, et c’est très bien expliqué ici.

A ce sujet, j’ai pu assister à une séance organisée lors du Printemps des SHS par la Maison européenne des sciences de l’homme située à Lille. Au programme, interventions de Marin Dacos, responsable du CLEO, Richard Walter, directeur-adjoint du TGE Adonis et Cynthia Pedroja, chargée de ressources documentaires numériques à la MESHS.

Marin Dacos a surtout mis en avant l’importance d’être en mesure de comprendre les enjeux qui se cachent derrière les concepts – Marin Dacos a parlé de « couches » – que l’on rencontre autour d’Internet, pour une bonne approche des digital humanities et, surtout, pour qu’on arrête d’espérer que les choses se stabilisent avant de daigner mettre les mains dans le cambouis : neutralité du réseau (un e-mail de Barack Obama n’est pas traité plus rapidement que le tweet de Madame Michu), l’assymétrie de la liaison numérique (autrement dit, l’ADSL qui peut mener à une télévisualisation du réseau), etc…

Qu’elles soient porteuses d’idéaux ou de dangers (tout dépend du point de vue duquel on se place), ces couches ont pour principale caractéristique d’être difficilement modifiables une fois mises en place (même si la neutralité du réseau subit actuellement des coups de boutoir, ce n’est pas la première fois que cela arrive), d’où la nécessité d’une certaine vigilance dès qu’une couche se rajoute.

Exemple typique d’un couche à éviter: la création artificielle de rareté. Alors qu’Internet permet une explosion de la documentation, certains acteurs vont tenter de limiter certaines ressources, pour leur donner de la valeur. De nombreuses affaires de trafic de noms de domaine défraient régulièrement  l’actualité. Concernant plus directement la documentation, les DOI, mécanisme permettant d’identifier les données numérisées, peuvent poser à terme ce même problème de création artificielle de rareté. Gérée par la Fondation Internationale DOI, l’attribution de chaque numéro est payante (du coup, on y réfléchit à deux fois avant d’identifier au plus précis chaque partie d’un document, alors que cela pourrait être pertinent pour l’éditeur comme pour le scientifique). Il y a effectivement là un enjeu à ne pas rater, quand on se rend compte de l’importance croissante de la bibliométrie dans le fonctionnement et le financement des laboratoires, ainsi que de l’impérieuse nécessité de pouvoir retrouver un document dans la masse nouvelle du numérique.

Marin Dacos a dévoilé quelques techniques de survie dans ce nouvel écosystème où il y a finalement plus de documents que de lecteurs pour les lire.  Aussi bien du point de vue de celui qui veut se faire identifier que du point de vue de celui qui cherche juste à retrouver, de nombreux outils existent: gestion de signets, de bibliographies, de flux rss, de blogs, etc… Loin d’en promouvoir un plutôt qu’un autre, il a incité à essayer un peu tout, histoire de se faire une idée. Une seule vérification à faire : être en mesure de pouvoir quitter l’outil rapidement sans perdre ses billes. Le choix du libre-accès et des formats ouverts favorisant l’interopérabilité, la longévité, l’ouverture, la transparence et l’exploitation des données peut paraître une évidence. Il est néanmoins bon de le rappeler.

Faire attention à tous ces aspects, c’est également favoriser le crowdsourcing, comme le font des expériences comme  September 11 Digital Archive ou data.gov. Transposée dans le domaine de la recherche, l’idée est d’obtenir un séminaire virtuel permanent, plein de bonnes surprises.

Outre le contenu du discours, c’est le positionnement de Marin Dacos qui m’a vraiment intéressée : loin de vouloir donner l’impression de détenir la vérité et de rabaisser l’assistance à son rang d’inculte, il a affirmé de manière très cohérente son intérêt à la co-invention, qui nécessite de partager avec tous les moyens nécessaires.  Concrètement, on pourra voir ce que ce genre de démarche peut donner très bientôt ici.

Au prochain épisode, l’on apprendra que le métier d’éditeur électronique n’est pas celui que l’on croit.

Publicités

La récente menace de pandémie-on-va-tous-mourir a quelques effets intéressants sur la documentation. Ainsi, La National Academy of Sciences of the United States of America, éditeur entre autres des PNAS, offre l’accès à tous les articles concernant le H1N1 publiés dans ses colonnes (soit une centaine), tout comme téléchargement d’un livre intitulé « Microbial Threats to Health:The Threat of Pandemic Influenza ».
Parallèlement, EBSCO a annoncé que la partie de sa base Dynamed concernant ce même ensemble de virus était dorénavant ouverte à tous.
Loin de moi l’idée de critiquer ces initiatives louables. Inversons cependant le point de vue. Même si je ne me sens pas personnellement concerné par cette maladie (mes tests sont négatifs), force est de constater que ce virus semble, à l’heure où j’écris, surtout toucher des pays riches. Y a-t-il des actions semblables, doublées d’annonces, pour le paludisme (entre 1,5 et 3 millions de morts parmi lesquels 90 % d’Africains), le SIDA (2,1 millions de morts en 2007 parmi lesquels 75% d’Africains) ou toute autre maladie touchant principalement des populations pauvres ? Certes, on pourra m’opposer que dès 2001 les plus grands éditeurs du domaine biomédical (Elsevier, LWW, Springer, Wiley-Blackwell), rapidement rejoints par d’autres, ont adhéré au programme de l’OMS HINARI permettant aux pays en voie de développement d’avoir accès gratuitement ou contre un abonnement modique (1000 $) à plus de 3400 revues. Formidable.
Pour autant, cette action n’est pas liée à un programme de développement de parc informatique ou d’amélioration de la disponibilité et de la qualité de la bande passante. Or, selon l’African University Network, rattachée au consortium Global Virtual University, la bande passante pour l’ensemble d’une université africaine moyenne équivaut à celle d’un logement privé en Europe ou en Amérique du Nord. Dès lors, on s’aperçoit rapidement du caractère, sinon vain, au moins très incertain d’une telle entreprise. Mais voilà : autant ouvrir des robinets de flux d’informations ne coûte rien ou pas grand chose, autant permettre réellement l’accès à ce flux nécessite de sérieux investissements.
Dans le cas de la grippe comme dans celui d’HINARI, les éditeurs se sont donc acheté une bonne conscience à peu de frais.

Travaillant dans une université de « Droit et Santé », j’ai une vision un peu tronquée de la documentation électronique. A ma gauche, un monde où l’anglais est la norme et où les publications et produits en français sont regardés, si ce n’est avec condescendance, au moins avec une certaine réserve (« c’est bon pour les étudiants » peut-on entendre – je reviendrai probablement là-dessus). Elsevier, Lippincott Williams & Wilkins (Wolters Kluwer), et d’autres mastodontes du genre règnent en maître. A ma droite un domaine qui, pour des raisons évidentes (l’étude des système juridiques de pays étrangers est secondaire dans les offres de formation), s’appuie principalement sur des textes et des produits en français, compilés et publiés par des éditeurs français – logique. On y trouve de vénérables insitutions, Dalloz, Juris Classeurs,…

Les plates-formes des gros éditeurs proposant des ressources documentaires dans le domaine de la médecine ont généralement bonne presse. Science Direct nous coûte cher, certes, mais nous propose depuis longtemps déjà (ma courte expérience équivaut à une éternité sur le web) reconnaissance IP, interface d’administration et de statistiques, flux RSS, accès distant via Shibboleth,… Elsevier semble par ailleurs suivre de près les évolutions techniques et les nouvelles pratiques, proposant, probablement non sans arrière-pensée, des services 2.0 « à la pointe ». En revanche, même si on ne peut nier leurs évolutions récentes, les plates-formes juridiques françaises

  • sont souvent d’une affligeante indigence en terme de services « modernes » (Marlène pointe ici le cas des flux RSS. Ni Lexbase , « le premier éditeur 100 % Internet »  ni Legalnews, un service d’actualité juridique, n’en proposent)
  • ne fournissent pas de statistiques et d’interfaces d’administration
  • sont terriblement complexes à interroger
  • sont parfois tout simplement incompréhensibles pour les usagers (Robert l’évoque )

Pourquoi ?

Eh bien, pour répondre aux deux premiers points, c’est la crise, ça coûte cher de faire une plate-forme (nous en avons suffisamment fait les frais…), faut bien vivre… OK. Je sais bien qu’un bon site ne se fait pas en claquant des doigts et qu’il ya des investissements à faire. Mais qui sont nos éditeurs franchouillards ? Les Juris Classeurs sont produits par Lexis-Nexis qui appartient à Reed Elsevier. 2LR appartient Wolters Kluwer, le Doctrinal à Thomson, Dalloz aux Editions Lefevbre Sarrut… On est loin des petits boutiquiers, et on reconnaît au passage des noms d’éditeurs qui, dans d’autres domaines, offrent par ailleurs des produits bien plus performants.  L’expertise est donc présente, surtout dans ces groupes.

Cette explication devient alors peu satisfaisante. En tout cas, nous ne devons sûrement pas nous en contenter.

Je vois en revanche dans cette attitude qu’ont les éditeurs vis à vis de ce public spécifique la manifestation d’une conception un peu caricaturale de ce dernier.  » Les juristes aiment le papier et l’odeur d’encaustique (contrairement aux scientifiques qui aiment les écrans et le ronronnement de leur PC), on va quand même pas se compliquer la vie en leur proposant des services qu’ils ne sauront pas utiliser « . Or, je ne l’apprends à personne, ce public est bel et bien demandeur de docelec. Je n’ai certes pas de statistiques pertinentes pour asseoir mon propos (la bonne blague), mais je puis vous affirmer que je suis mis immédiatement au courant  dès qu’un produit juridique n’est plus accessible, pour une raison ou une autre. Je pense que l’attachement au papier ou a des supports obsolètes (CD-ROM) n’est pas tant dû à un quelconque conservatisme qu’au fait que nos juristes ne trouvent pas encore tout à fait leur compte avec ces produits.

Pour les deux autres points, j’y vois une raison plus interne au champ juridique. Il faudrait que je relise Bourdieu, mais il me semble que dans la Noblesse d’Etat ce dernier évoque le fait que la complexification du droit est en fait une stratégie des hommes de loi pour monopoliser ce champ (je ne vérifie pas mes sources, je sais, c’est mal). La complexification des bases de données juridiques est peut-être un corollaire de cela. Cette explication vaut ce qu’elle vaut.

Sans doute aussi faut-il voir la protection de bases au contenu extrêmement riche derrière de multiples formulaires comme un moyen de se protéger contre tout usager, en qui, on le sait, sommeille un pirate.

Il y aurait enfin une dernière explication de tout cela, en laquelle je me refuse de croire : les éditeurs juridiques français sont incompétents et/ou mal conseillés.

Une lueur d’espoir cependant : il se tramerait des choses autour de l’UNJF et des accès via Shibboleth. J’attends.