La version française de cet article est ici.


 

Since a few years, academic publisers, especially the commercial ones (Elsevier, Wiley, NPG), have been prone to stress the value they bring to the scientific process, and more precisely to scholarly communication. Therefore they define the prices they ask for as « value based » and not « cost based ».

Alicia Wise, from Elsevier, exactly states this point :

And yes, we need to talk, because knowing how the value is assessed is paramount. Alexander Brown, from Springer, described in a 2012 Guardian blog post the value academic publishers add in the process of the dissemination of scientific knowledge. Two key points are stressed : the technical aspect, and the set up of a validation process for articles. Let’s analyse quickly each point.

We have seen that in some cases publishers removed meaning, hence value, to the content they publish. It is obviously wrong, but let’s say that they do their best to produce a good quality type-setting. There are costs attached to this process, no doubt, but there shouldn’t be an over-estimated value for it because it is roughly only a question of applying community defined standards. This article showing a publishing workflow using JATS is a good illustration. Whereas the latest STM report (which is very interesting by the way) reads that an article costs 1261 £ to be produced (it is 40 % of its total cost), the boss of the typesetting company River Valley Technologies who wrote the article cited above thinks that this estimate is almost four times too high (Ok, he is based in India, which must have effects on his production costs). Speaking of type-setting companies, it is interesting to see how often this tasks are performed not in house but by third parties : Elsevier outsources 75 % of its editorial activity, it’s 40 % for Springer, and it’s mostly to Indian companies… In any case, claiming that there is added value here doesn’t seem very relevant.

If the value is not brought by the technical workflow, which is a matter of costs, does it come from peer-reviewing ? Even if this process remains well perceived, the value of peer reviewing is regularly questioned : it is said to slow down the dissemination of research outputs, and in some cases to be only a mock mechanism that cannot tell true from false. I am not sure that Nature Publishing Group recent release about fast track peer review at additional cost will calm the situation. Once again, peer-reviewing process has costs, even if peer reviewers do no get paid. Nevertheless, not only these costs are often artificially high because of the artificially high rejection rates, but also they should not set by their own the value if we want to be consistent with this « value based pricing » approach.

So where does the value comme from ? There is nothing much left, except the prestige of the publisher’s brand. Elsevier, Wiley, Springer, what beautiful sounding words ! Alas, a recent study from Carole Tenopir showed that the parameter « name of the publisher » has no impact on a researcher when he wants to read, cite, or publish, as opposed to the parameter « journal title ». Very important and even crucial for a researcher who wants to publish, the journal title is just an element among others for the researcher who wants to read, the one university libraries pay their subscriptions for. When he wants to evaluate the trust he can give to an article he wants to read, the researcher indeeds refers to traditional criteria (journal title, reputation and impact factor), but also to criteria called navigational by Tenopir (no pay wall, abstract, consistent looking data, clear methods, references) and social (the author is personnaly known or the article was recommended by a colleague). I could not find any study showing that researchers particularly like platforms agregating hundreds of journals. The 2012 Ithaka UK survey of academics mentions that « specific electronic research resources/computer databases » are important for researchers, but it is not known whether it refers to resources like Pumed, Scopus, the Wos, or to publishers websites. Anyway, my feeling is that researchers do not credit value to the importance to the size of a publisher’s catalogue.

If we stick to the primary mission of academic publishers which is production and dissemination of research journals, we realise that value based pricing is all smoke and mirrors and that its goal is to melt production costs in a vague greater whole, hence pulling up the prices and the operative margins. Nothing shows this better than when a publisher asks for additional fees (platform fees, metadata fees – which fortunately barely occurs for current subscriptions) and passes costs while talking about value. Nothing seems to validate this shift from cost based pricing to value based pricing but the fear that publishers could not be able to justify their prices, either for subscriptions or for APCs.

The English version of this article is here.


 

Depuis quelques années, les éditeurs académiques, notamment ceux dits commerciaux (Elsevier, Wiley, NPG,…), insistent beaucoup dans leurs discours sur la valeur qu’ils apportent au processus scientifique en général et à la communication scientifique en particulier. Cela se traduit par une définition des prix s’effectuant en fonction de cette valeur (value based pricing), par opposition à un prix fixé en fonction du coût de production (cost based pricing).

Alicia Wise, de chez Elsevier, ne le dit pas autrement :

Effectivement, il faut qu’on en cause, car la question de la définition de la valeur est cruciale. Alexander Brown, de chez Springer, décrivait en 2012 dans un article d’un blog du Guardian la valeur qu’apportaient les éditeurs dans le processus de dissémination de la connaissance scientifique. De son discours émergent deux points importants : l’aspect technique, et la mise en place d’un circuit éditorial de validation des articles. Analysons rapidement chacun de ces points.

On a vu que dans certains cas les éditeurs ôtaient du sens, et donc de la valeur, à ce qu’ils publiaient. C’est certes un mauvais point, mais laissons-leur le bénéfice du doute et estimons qu’ils souhaitent faire l’effort d’un type-setting de qualité. Cela entraîne des coûts, certes, mais cela ne devrait pas avoir une valeur démesurée puisqu’on est censé être ici grosso-modo dans l’application de standards bien définis par la communauté. Cet article montrant un système de production basé sur JATS en est la bonne illustration. Alors que le dernier rapport de STM (rapport très intéressant au demeurant) mentionne qu’un article coûte environ 1261 £ à produire  (soit environ 40% du coût total), le patron de l’entreprise de type-setting River Valley Technologies, et auteur de l’article précédemment cité, pense quant à lui que cette estimation est presque quatre fois trop élevée (certes il est basé en Inde et ses coûts de production doivent s’en ressentir). A ce titre, il est intéressant de voir en quelle proportion ce travail de type-setting se fait non pas chez l’éditeur mais chez l’un des nombreux sous-traitants qui existent : 75 % des tâches éditoriales sont externalisées chez Elsevier, 40 % chez Springer, majoritairement en Inde… Quoi qu’il en soit, plaider dans ce cas l’ajout de valeur semble peu pertinent.

Si la valeur ne provient pas de la mise en forme technique, qui est donc une affaire de coûts, vient-elle du  peer-reviewing ? Même si globalement le processus reste bien perçu, la valeur effective du peer-reviewing est régulièrement mise en doute par des critiques pointant les ralentissements qu’il cause à la diffusion et  à la dissémination des résultats de la recherche, voire sa nature, parfois, de simple simulacre ne permettant pas de séparer le bon grain de l’ivraie. La récente déclaration de Nature Publishing Group de vouloir accélérer ce processus contre argent sonnant et trébuchant ne va pas apaiser la situation. Encore une fois, le processus de peer-reviewing a des coûts, quand bien même les reviewers ne sont pas rémunérés. Pour autant, non seulement ces coûts sont souvent artificiellement élevés à cause du fort taux de rejet lui aussi souvent artificiellement fixé, mais en plus si l’on suit la logique du value-based pricing, un coût ne devrait pas définir – exclusivement – la valeur.

Alors d’où vient cette valeur ? Il ne reste pas grand chose si ce n’est le prestige lié à la marque de l’éditeur. Elsevier, Wiley, Springer, comme ces noms sonnent bien ! Las, une étude récente de Carole Tenopir montre que le paramètre « nom de l’éditeur » n’entre en rien dans les considérations qu’un chercheur fait lorsqu’il décide de lire, citer ou publier un article, contrairement au paramètre « titre du journal ». Très important si ce n’est central pour le chercheur qui souhaite publier, le titre du journal n’est qu’un facteur parmi d’autre pour le chercheur-lecteur, celui pour qui les bibliothèques universitaires paient des abonnements. Ce dernier évalue en effet le degré de confiance à un article qu’il lit certes grâce à des critères « traditionnels » (nom et réputation du journal, facteur d’impact) mais également grâce à des critères que Tenopir qualifie de navigationnels (pas de barrière d’accès, présence d’un résumé, de données d’apparence cohérente, d’une méthode clairement définie, de références) ou encore sociaux (connaissance de l’auteur, recommandation par un collègue). Je n’ai pas trouvé d’étude indiquant que les chercheurs étaient sensibles à la présence de plates-formes agrégeant des centaines de titres. L’étude d’Ithaka de 2012 sur les pratiques des chercheurs britanniques mentionne l’importance des « ressources éléctroniques spécifiques ou bases de données » sans que l’on sache précisément si cela fait plutôt référence à des ressources du type Pubmed, Scopus ou Wos ou à des plates-formes d’éditeurs. Pour autant mon sentiment est que les chercheurs n’accordent aucune valeur à l’importance du catalogue d’un éditeur.

Si l’on s’en tient à la mission première des éditeurs scientifiques, à savoir l’édition et la diffusion de revues de recherche, le value-based pricing est donc un écran de fumée qui sert à fondre les coûts de production dans un grand tout assez vague, et donc à augmenter les prix – abonnements ou APC- et les marges opérationnelles qui vont avec. La meilleure preuve de cela se manifeste lorsque des éditeurs font payer des frais supplémentaires (frais de plate-forme, frais de mises à disposition de métadonnées – heureusement c’est assez rare pour les abonnements courants) répercutant ainsi de manière encore plus ouverte des coûts tout en parlant de valeur. Rien ne semble donc valider ce passage du « cost based pricing » à un « value based pricing », si ce n’est la crainte des éditeurs de ne plus pouvoir justifier les tarifs qu’ils imposent, que ce soit pour les abonnements ou pour les APC.

The English version of this article is  here.


Il y a quelques années j’ai fait l’acquisition de Kaputt de Malaparte, traduit par Juliette Bertrand et édité chez Denoël en 2006. Comme souvent, je n’ai qu’un souvenir très vague de l’intrigue. En revanche, ma mémoire restera longtemps marquée par les images puissantes nées sous la plume de Malaparte : la terreur des soldats allemands à la vue des chiens qui, dans les plaines d’Ukraine, sont tous des bombes incendiaires en puissance, les cris déchirant la nuit du pogrom de Jassy, ou encore cet élan, agonisant au beau milieu de la cour du palais présidentiel d’Helsinki. J’associe également ce grand texte à la sensation d’un gâchis immense. Je me souviens avoir été choqué de constater un nombre de coquilles tout bonnement hallucinant : des « u » devenus « n » (et inversement), des « I » transformés en « l »,… Jamais je n’avais vu un tel travail de gougnaffier. Ces erreurs sont typiques d’un travail fait à la va-vite, sans l’aune d’une correction. L’éditeur est pourtant censé être le garant de la qualité de ce qu’il publie, il est de son devoir de ne pas trahir l’auteur et son texte.

Si fort heureusement je n’ai plus rencontré de tels cas de manque de respect total envers les auteurs et leur public dans mes lectures ultérieures, j’ai pu en revanche constater qu’une telle approche est assez fréquente dans le monde de l’édition scientifique.

Les erreurs les plus fréquentes proviennent d’une mauvaise OCRisation et d’un rendu utilisant l’ASCII et non l’UTF-8. Lorsque les éditeurs scientifiques ont numérisé leurs « archives » aux alentours des années 2000, ils se sont probablement contentés de tout faire avaler par un scanner de masse. Au diable les diacritiques, les symboles mathématiques, les tables et autres erreurs classiques d’OCR. Un pdf pour l’image, un OCR à la hache pour le texte, le travail était fait.

Le problème est que la lecture scientifique est bien évidemment différente de la lecture de loisir, et que la mise à disposition en version électronique de revues académiques est normalement synonyme de plus-value, de gain de temps et d’efficacité. Un humain lisant sur écran un article disponible uniquement en pdf image (représentant par exemple 0,5 % des articles disponibles sur Science Direct, soit quand même environ 44 000 articles), ou en pdf texte issu d’une mauvaise OCRisation peut faire au pire une expérience désagréable : recherches « CTRL+F » infructueuses alors que le texte est bien présent dans le document, difficultés de réutiliser le contenu,…

En revanche dans de nombreuses disciplines scientifiques se développe la pratique de la fouille de contenu (Text and data mining ou content mining), une lecture computationnelle faite par des machines et permettant d’analyser des corpus de plusieurs dizaines, centaines, milliers de documents. Avant de pouvoir analyser les éventuels liens distants ou sous-jacents entre deux gènes, deux molécules, deux phénomènes, il faut permettre aux machines de comprendre ce qu’elles lisent, en leur apprenant par exemple à reconnaître automatiquement ces termes spécifiques, appelés entités nommées, quel que soit le contexte dans lequel ils sont employés. Encore avant de faire cela, il faut tout simplement apprendre à une machine à reconnaître la structure d’un document afin qu’elle puisse identifier si elle traite un titre, un paragraphe, une citation, … Un pdf issu d’OCRisation ne propose pas ce type de balisage. Tout est à plat, au même niveau (texte, notes de bas de page, et même en-tête et numéro de page), les fins de ligne sont encodées en dur. Même si plusieurs projets existent pour convertir du pdf en xml, le travail de pré-traitement est énorme et, surtout, redondant : les projets de recherche s’appuyant sur des corpus semblables devront faire les pré-traitements équivalents dans leur coin, puisqu’ils ne sont pas pris en charge par l’éditeur.

Certains éditeurs sûrement pétris de bonne volonté semblent penser que la solution miracle est de fournir du XML. Las, quand les tentatives se limitent à fournir le strict minimum, soit le corps entier d’un article entre deux balises <body></body> (voire entre des balises meta de l’en-tête), le résultat n’est pas tout à fait conforme aux attentes…

On pourrait imaginer qu’il s’agit là d’erreurs de jeunesse, du résultat de pratiques pionnières antérieures aux normes et standards à une époque où il fallait tout inventer. A la louche, cela représenterait quand même un peu plus de la moitié des articles scientifiques disponibles, ce qui n’est pas anodin.

Il est vrai que pour les contenus récents et nés numériques, les problèmes de structuration du texte sont moindres que pour ceux issus d’une numérisation, quand bien même il n’est pas satisfaisant de constater que plusieurs éditeurs, à commencer par Elsevier, préfèrent utiliser leurs DTD maison et propriétaire plutôt qu’un standard comme JATS. Mais cette solution ne règle pas tout. Même à l’heure actuelle, on constate de nombreux défauts qui empêchent les machines – et donc les chercheurs – d’exploiter de manière optimale les textes qu’ils analysent : utilisation « maison » de l’UTF-8 qui peut avoir des conséquences désastreuses dans certains champs disciplinaires, absence de considération pour les recommandations spécifiques W3C comme MathML, conversion d’images vectorielles en simple amas de pixels…

Comme Denoël avec Kaputt, bon nombre d’éditeurs scientifiques ne respectent pas les manuscrits des auteurs qui, eux, contiennent toute cette richesse. On a l’impression, pour des contenus assez anciens, que ces manuscrits originaux, parfois écrits en TeX ou LaTeX  ont été perdus et remplacés par de l’OCR bas de gamme (comme l’illustre  cet exemple parmi bien d’autres  – Oui, vous lisez « Typesetting by the editors in TeX » mais votre ordinateur lit « Typesetting by the editors in 1l9 »). Mais de la même façon qu’il est possible de trouver le texte du roman de Malaparte dans une meilleure qualité (en version poche par exemple), il est étonnamment possible de trouver de meilleures versions d’articles ailleurs que chez l’éditeur. Pour les contenus anciens, les agrégateurs semblent faire un meilleur travail que les éditeurs et l’OCRisation a manifestement été plus contrôlée. On comparera par exemple avec profit les résultats que renvoie la revue The Quarterly Journal of Economics chez OUP, EBSCO et JSTOR. Pour les contenus récents, les manuscrits d’auteurs disponibles sur les dépôts institutionnels ou thématiques (en premier lieu arxiv.org) seront probablement plus exploitables techniquement.

Quand bien même nous vivrions dans un monde idéal où l’activité de text et data mining serait possible de manière claire, transparente et sans licence particulière (je ne reviens pas sur la question brûlante du statut juridique de la fouille de contenu mais une excellente synthèse peut se trouver ici), les chercheurs resteraient confrontés à ce problème de qualité qui nuit à leurs travaux.

Jusqu’à présent, les bibliothécaires ont plutôt focalisé leur attention sur la qualité des métadonnées et nous savons tous que le chantier n’est pas mince. Pour autant, peut-être devrions-nous  également nous saisir de cette question de la qualité des données qui affecte aussi les outils que nous mettons à disposition de nos usagers. Par ailleurs, ne devrions-nous pas pousser pour que les outils de découverte puissent également proposer des outils facilitant le TDM, en sélectionnant par exemple les sources de meilleure qualité, en facilitant des téléchargements massifs (un peu à la Pubget)? Est-ce une direction que souhaitent ou peuvent prendre les fournisseurs d’outils de découverte qui deviendraient alors également des outils de text et data mining ?

Dans tous les cas, il semble assez évident qu’il ne faut pas prendre pour argent comptant les discours des éditeurs s’auto-proclamant champions de la qualité en s’interrogeant systématiquement sur la valeur qu’ils disent ajouter aux contenus soumis par les auteurs. Peut-être même que les éditeurs académiques portent atteinte au droit moral des auteurs lorsqu’ils publient un OCR pourri.

 

La version française de cet article est ici.


A few years ago I bought Malapartes’s Kaputt, translated into French by Juliette Bertrand and published by Denoël in 2006. As usual, I hardly remember the plot. However, I will remember for a long time the powerful images created by Malaparte : the German soldiers terrorised by the anti-tank Ukrainians dogs, the screams in the night during Jassy pogrom, the moose dying right in the middle of Helsinki’s presidential palace’s court.

I also associate this wonderful text with the feeling of a huge waste. I remember having been chocked by the amazingly high amount of typos : u instead of n (and vice-versa), l instead of I,… I had never seen such a poor work. These mistakes are typical. The publisher is however supposed to guarantee the quality of the published content, and he has not to betray the author and his text.

Although I have fortunately never encountered again such a lack of respect for the authors and their readership, I did notice that such a wrong behaviour happened quite often in scholarly publishing.
Most errors come from a bad OCR and an output in ASCII rather than in UTF-8. When academic publishers digitised their backfiles in the early 2000’s, they probably had all processed through a bulk scanner. To the hell with diacritics, math symbols, tables and other usual OCR mistakes. A pdf file for the image, a poor OCR output for the text, and the job is done.

Problem is that a scholar does not read the same way as a casual reader does. The electronic version of an article should enhance the global experience that would become swifter and more efficient. When a human being reads an article only available in image mode pdf (which represents roughly 0,5% of the articles on Science Direct, about 44 000 articles) or coming from a poor OCR, he might at its worst have a bad user experience : “CTRL+F” research that leads to nothing although the text is in the document, difficulties to reuse the content,…
In a lot of research fields text and data mining (or content mining) is expanding, letting machines analyse corpuses of several hundreds or thousands documents. Before being able to analyse probable underlying or distant bonds between two genes, two molecules, to phenomenons, machines have to be taught how to automatically recognise specific terms called named entities, according to the context. But even before that, they must simply be taught how to read a text so they can identify whether they deal with a title, a paragraph, or a citation. A pdf with an OCR layer does not have tags. Everything is at the same level: text, notes, and even headers and page numbers. End of lines are hard coded. Even if several projects aiming at converting pdf to xml do exist, the pre-processing tasks are huge but also redundant: research projects that rely on similar corpuses have to do the same pre-processing work since the publisher does not.

Some benevolent publishers seem to think that XML is the magic answer. Alas, when they only stick to the minimal requirements and put the whole article’s body between two <body></body> tags (and in some cases between header meta tags), we cannot say that the job is properly done…

So let’s say it is a youthful error coming from pioneering practices at a time when no standards existed and when everything had to be invented. Still, we are talking here about roughly half of the scholarly output ever, which is quite significant.

For born digital content, problems related to text structure are less present, even though it is not satisfactory that some publishers, starting with Elsevier, use their own proprietary DTD and not a standard like JATS. But this solution does not settle all. Even now, there are some flaws that prevent machines – hence scholars – from using at its best the texts they analyse : home made use of UTF-8, lack of consideration for W3C guidelines like MathML, conversion of vector images into a plain bulk of pixels…

Like Denoël for Kaputt, a lot of publishers do not respect the rich manuscripts sent by the authors. It is like they have lost these manuscripts, sometimes written with TeX or LaTeX, and used instead cheap OCR (as shown by this example, among others – Yes, you read « Typesetting by the editors in TeX » but your computer reads « Typesetting by the editors in 1l9 »). But as it is possible to find a better version of Malaparte’s text, it is surprisingly possible to find better version of articles outside of the publishers’ websites. For older content, aggregators seem to have done a better work than the publishers, and the OCR process was probably better monitored. A nice example is the Quarterly journal of economics which can be found on OUP, EBSO, and JSTOR platforms. For more recent content, the sources uploaded by the authors on institutional or subject repositories (like arxiv.org) are probably more reliable.
Did we live in an ideal world where text and data mining activities would be possible in a clearer and more transparent way, without any particular licence, scholars would still have to face with this quality issue which harms their work.

So far librarians are more focused on metadata quality issues, and we all know it is a big deal. But perhaps should we seize this data quality issue that also harms the tools we offer to our patrons. Shouldn’t we ask for instance that discovery tools include TDM tools showing first better quality sources or making bulk downloads easier (à la Pubget for instance) ? Is this a way vendors wish or can follow ?
Anyway, it seems pretty obvious that we should not take for granted the publisher’s statement presenting themselves as quality champions by systematically question the value they say they add to the contents provided by the authors. Maybe academic publishers even infringe the authors moral rights when they produce crappy OCR output.

This week took place Berlin11, the big international event about open access. I didn’t have the opportunity to be there, but I could follow some interesting discussions on twitter, especially about the Open Access Button, a tool that let you see in real time the impact of paywalls, these barriers that prevent researchers from accessing to content which their institution has not subscribed to. These walls exist, no doubt. But only on publishers websites. There are sideways that lead, ideally, to the same content. Green Open access is all about this, when a researcher decides to put one or several versions of his article on an institutional repository, whether local or national.

I don’t know how a researcher who enventually clicked on the Open Access button to say that he didn’t have access to the article he wanted got its reference. Google Scholar ? His library’s discovery tool ? A link to a reference cited by an article he had access to ? In any case, are we sure that the article he wanted to get did not exist in green open access and was simply not visible ?

A brief overlook of the literature seems to confirm that the visibility, well the lack of visibility, is a problem for institutional repositories. Google Scholar for instance doesn’t like Dublin Core, which is generally used by repositories that expose their metadata via OAI-PMH, and needs the metadata to be structured in another way in order to crawl efficiently the repositories. The IRs that stick to Googles Scholar needs get a significantly better indexing ratio (cf this 2012 article from Library Hi Tech)

Even if Google Scholar represents a high proportion of usages, it shouldn’t be the only way to improve green open access articles visibility. Another strategy for IR, followed for instance by ORBi, the Université de Liège repository, consists in letting discovery tools vendors index them (at least Primo, Summon andEDS offer this possibility). Metadata are agregated into the mega-indexes of this kind of tools. I imagine and hope (but I don’t really know) that there is some deduplication processes that create a link between every accessible version of an article, including the green open access one. These methods are interesting, but it is far from being enough I think. You are still stuck in a silo (Google Scholar or the library’s discovery tool), and not particularly where the researcher is (on Pubmed, on an article,…).

In fact, when you try to access to the open access version of an article, you are in front of the appropriate copy problem, that is supposed to be solved by the openurl standard. I feel that the best way to give visibility to the content of institutional repositories is to use tools that analyze metadata (title, author name, DOI,…) and find the matching reference in a IR. Dspace, one of the most popular IR software in the world, is OpenURL compliant. However, I can’t imagine a librarian who would tick in his institution’s knowledge base all the repositories he wants to make visible to his patrons. But I recently came across a Japanese project, quite old but still active, which seems to be a very interesting lead : AIRway (Access path to Institutional Resources via link resolvers). Airway « is aimed to achieve the navigation to open access documents collected in institutional repositories etc. by link resolvers ». AIRway target exists in several lik resolver interfaces (SFX, WorldCat Link Manager, TOUResolver, but not Serials Solutions one). Here are the system requirements :

  • Operate Institutional repository corresponding to OAI-PMH.
  • All items must be accompanying of the main body of the document. Or Somehow, the identification of the item with a main body of the document must be possible. (As example, state of specific element or « set », which is defined by OAI-PMH, etc.)
  • Availability of publisher version DOI or data such as ISSN, volume, starting page,…

These prerequisites seem pretty easy to meet, yet AIRway is only used  by seventeen IR (you can find Max Planck Society one, though). What prevents or has prevented IR from using this service? Is it only its lack of notoriety?

Imagine the power of such a tool  combined with a strong political will to promote  ZEN green open access ! Wouldn’t it be a great opportunity to ask ourselves about the legitimity of keeping subscriptions to scholarly journals that are more and more expensive and become a burden for academic libraries ?

Cette semaine a eu lieu Berlin11, grand raout international autour de l’open access. Je n’ai pas eu la chance d’y être mais ai pu suivre via twitter quelques échanges intéressants, notamment sur l’Open Access Button, un dispositif permettant de voir en temps réel l’impact des paywalls, ces murs auxquels se heurtent les chercheurs essayant d’accéder à du contenu auquel leur institution n’a pas souscrit. Ces murs existent de manière incontestable. Mais ils n’existent que sur les sites des éditeurs. Il y a également des chemins de traverse qui permettent, au moins idéalement, d’accéder au même contenu. C’est tout l’intérêt du green open access, suivant lequel un chercheur  décide de déposer une ou plusieurs versions d’un article dans un dépôt institutionnel, qu’il soit local ou national.

Je ne sais pas comment un chercheur qui a finalement cliqué sur l’Open Acces button pour signifier qu’il n’avait pas accès à l’article a eu accès à la référence de cet article. Google Scholar ? L’outil de découverte mis à disposition par sa bibliothèque universitaire ? Un lien vers une référence citée par un article auquel il avait accès ? Dans tous les cas, est-on sûr que l’article qu’il souhaitait obtenir n’existait pas en green open access, et qu’il n’était tout simplement pas visible ?

Un bref survol de la littérature semble confirmer que la visibilité, ou plutôt le manque de visibilité, est problématique pour les dépôts institutionnels. Google Scholar par exemple n’aime pas trop le Dublin Core, utilisé en règle générale par les dépôts qui exposent leur métadonnées via OAI-PMH, et a besoin de métadonnées structurées différemment afin de crawler efficacement les dépôts. Ceux qui se conforment aux besoins de Google Scholar obtiennent un taux d’indexation significativement plus important (voir cet article de 2012 de Library Hi Tech).  Mais si Google Scholar concentre une part importante des usages, il ne faut bien évidemment pas se cantonner à ce seul moyen pour donner plus de visibilité aux articles en green open access. Une autre stratégie, suivie par exemple par ORBi, le dépôt institutionnel de l’Université de Liège, consiste à se faire indexer par les fournisseurs d’outils de découverte (au moins Primo, Summon et EDS proposent cela). Il s’agit alors d’intégrer les métadonnées au sein des méga-index de ces outils. J’imagine et j’espère (mais je n’en sais rien) qu’il y a ensuite une sorte de dédoublonnage permettant de faire le lien entre un article et toutes les versions accessibles , y compris en green open access. Ces méthodes sont intéressantes mais loin d’être suffisante à mon sens. On reste dans un silo (Google Scholar d’un côté, l’outil de découverte de sa bibliothèque de l’autre), et pas forcément là où est le chercheur (sur Pubmed, sur un article,…).

En fait, le problème de l’accès à une version open access d’un article est exactement le même que celui de la copie appropriée, cher aux développeurs de la norme Openurl. La meilleure façon, à mon sens, de rendre visible le contenu de dépôts institutionnels est de passer par un outil qui, en analysant les métadonnées (titre, auteur, doi,…) d’un article auquel on souhaite accéder trouve la correspondance dans un dépôt institutionnel. Dspace, l’un des outils de création de dépôt institutionnel les plus utilisés au monde, est compatible avec la norme OpenURL. Toutefois, il semble fastidieux pour une institution de pointer dans sa base de connaissance locale tous les dépôts qu’elle veut rendre visibles à ses usagers. En revanche, je suis tombé tout récemment sur une initiative japonaise, assez ancienne mais toujours active, qui me semble être une piste extrêmement intéressante : AIRway (Access path to Institutional Resources via link resolvers). Airway est un service dont le but est de permettre l’accès aux documents présents dans les dépôts institutionnels via les résolveurs de lien. La cible AIRway est activable dans plusieurs résolveurs de lien (SFX, WorldCat Link Manager, TOUResolver, mais pas celui de Serials Solutions). Pour qu’un dépôt institutionnel puisse utiliser AIRway il faut :

  1. Qu’il puisse clairement distinguer les enregistrements proposant le texte intégral de ceux qui n’ont que des métadonnées bibliographiques
  2. Qu’il dispose dans ses métadonnées descriptives des éléments correspondant à la version finale de l’article publiée sur le site de l’éditeur (DOI, ISSN de la revue, n° de volume, pagination,…)
  3. Qu’il puisse être moissonné par OAI-PMH

Ces prérequis semblent être facilement obervés, pourtant AIRway n’est utilisé que par une grosse quinzaine de dépôt (parmi lesquels celui de la société Max Planck, quand même). Quels sont les obstacles qui conduisent ou ont conduit les établissements qui ont des dépôts institutionnels à ne pas utiliser ce service? Est-ce le simple manque de notoriété d’AIRway ?

Imaginez la puissance d’un tel outil largement adopté combiné avec une volonté politique forte de promotion d’un ZEN green open access ! Cela ne permettrait-il pas de véritablement rebattre les cartes et de se poser sérieusement la question de la légitimité de maintenir des abonnements pesant de plus en plus sur les budgets des bibliothèques universitaires et de recherche ?

Suivre

Recevez les nouvelles publications par mail.