The English version of this article is here.


 

Depuis quelques années, les éditeurs académiques, notamment ceux dits commerciaux (Elsevier, Wiley, NPG,…), insistent beaucoup dans leurs discours sur la valeur qu’ils apportent au processus scientifique en général et à la communication scientifique en particulier. Cela se traduit par une définition des prix s’effectuant en fonction de cette valeur (value based pricing), par opposition à un prix fixé en fonction du coût de production (cost based pricing).

Alicia Wise, de chez Elsevier, ne le dit pas autrement :

Effectivement, il faut qu’on en cause, car la question de la définition de la valeur est cruciale. Alexander Brown, de chez Springer, décrivait en 2012 dans un article d’un blog du Guardian la valeur qu’apportaient les éditeurs dans le processus de dissémination de la connaissance scientifique. De son discours émergent deux points importants : l’aspect technique, et la mise en place d’un circuit éditorial de validation des articles. Analysons rapidement chacun de ces points.

On a vu que dans certains cas les éditeurs ôtaient du sens, et donc de la valeur, à ce qu’ils publiaient. C’est certes un mauvais point, mais laissons-leur le bénéfice du doute et estimons qu’ils souhaitent faire l’effort d’un type-setting de qualité. Cela entraîne des coûts, certes, mais cela ne devrait pas avoir une valeur démesurée puisqu’on est censé être ici grosso-modo dans l’application de standards bien définis par la communauté. Cet article montrant un système de production basé sur JATS en est la bonne illustration. Alors que le dernier rapport de STM (rapport très intéressant au demeurant) mentionne qu’un article coûte environ 1261 £ à produire  (soit environ 40% du coût total), le patron de l’entreprise de type-setting River Valley Technologies, et auteur de l’article précédemment cité, pense quant à lui que cette estimation est presque quatre fois trop élevée (certes il est basé en Inde et ses coûts de production doivent s’en ressentir). A ce titre, il est intéressant de voir en quelle proportion ce travail de type-setting se fait non pas chez l’éditeur mais chez l’un des nombreux sous-traitants qui existent : 75 % des tâches éditoriales sont externalisées chez Elsevier, 40 % chez Springer, majoritairement en Inde… Quoi qu’il en soit, plaider dans ce cas l’ajout de valeur semble peu pertinent.

Si la valeur ne provient pas de la mise en forme technique, qui est donc une affaire de coûts, vient-elle du  peer-reviewing ? Même si globalement le processus reste bien perçu, la valeur effective du peer-reviewing est régulièrement mise en doute par des critiques pointant les ralentissements qu’il cause à la diffusion et  à la dissémination des résultats de la recherche, voire sa nature, parfois, de simple simulacre ne permettant pas de séparer le bon grain de l’ivraie. La récente déclaration de Nature Publishing Group de vouloir accélérer ce processus contre argent sonnant et trébuchant ne va pas apaiser la situation. Encore une fois, le processus de peer-reviewing a des coûts, quand bien même les reviewers ne sont pas rémunérés. Pour autant, non seulement ces coûts sont souvent artificiellement élevés à cause du fort taux de rejet lui aussi souvent artificiellement fixé, mais en plus si l’on suit la logique du value-based pricing, un coût ne devrait pas définir – exclusivement – la valeur.

Alors d’où vient cette valeur ? Il ne reste pas grand chose si ce n’est le prestige lié à la marque de l’éditeur. Elsevier, Wiley, Springer, comme ces noms sonnent bien ! Las, une étude récente de Carole Tenopir montre que le paramètre « nom de l’éditeur » n’entre en rien dans les considérations qu’un chercheur fait lorsqu’il décide de lire, citer ou publier un article, contrairement au paramètre « titre du journal ». Très important si ce n’est central pour le chercheur qui souhaite publier, le titre du journal n’est qu’un facteur parmi d’autre pour le chercheur-lecteur, celui pour qui les bibliothèques universitaires paient des abonnements. Ce dernier évalue en effet le degré de confiance à un article qu’il lit certes grâce à des critères « traditionnels » (nom et réputation du journal, facteur d’impact) mais également grâce à des critères que Tenopir qualifie de navigationnels (pas de barrière d’accès, présence d’un résumé, de données d’apparence cohérente, d’une méthode clairement définie, de références) ou encore sociaux (connaissance de l’auteur, recommandation par un collègue). Je n’ai pas trouvé d’étude indiquant que les chercheurs étaient sensibles à la présence de plates-formes agrégeant des centaines de titres. L’étude d’Ithaka de 2012 sur les pratiques des chercheurs britanniques mentionne l’importance des « ressources éléctroniques spécifiques ou bases de données » sans que l’on sache précisément si cela fait plutôt référence à des ressources du type Pubmed, Scopus ou Wos ou à des plates-formes d’éditeurs. Pour autant mon sentiment est que les chercheurs n’accordent aucune valeur à l’importance du catalogue d’un éditeur.

Si l’on s’en tient à la mission première des éditeurs scientifiques, à savoir l’édition et la diffusion de revues de recherche, le value-based pricing est donc un écran de fumée qui sert à fondre les coûts de production dans un grand tout assez vague, et donc à augmenter les prix – abonnements ou APC- et les marges opérationnelles qui vont avec. La meilleure preuve de cela se manifeste lorsque des éditeurs font payer des frais supplémentaires (frais de plate-forme, frais de mises à disposition de métadonnées – heureusement c’est assez rare pour les abonnements courants) répercutant ainsi de manière encore plus ouverte des coûts tout en parlant de valeur. Rien ne semble donc valider ce passage du « cost based pricing » à un « value based pricing », si ce n’est la crainte des éditeurs de ne plus pouvoir justifier les tarifs qu’ils imposent, que ce soit pour les abonnements ou pour les APC.

Publicités

Les digital humanities font partie des choses desquelles on parle, qui existent, oui, mais qu’on ne se force pas trop à creuser.
Ca paraît évident une fois qu’on a dit ce que ça recouvrait, mais on ne le dit pas si souvent. Grosso modo, il s’agit de prendre la mesure des changements que l’apparition du numérique a provoqués dans la recherche, que ce soit en terme de documentation disponible, des possibilités nouvelles offertes pour l’exploitation et l’édition de corpus et pour l’échange des résultats de la recherche. Il est donc à la fois question de contenu et d’outils, de création et d’archivage, et c’est très bien expliqué ici.

A ce sujet, j’ai pu assister à une séance organisée lors du Printemps des SHS par la Maison européenne des sciences de l’homme située à Lille. Au programme, interventions de Marin Dacos, responsable du CLEO, Richard Walter, directeur-adjoint du TGE Adonis et Cynthia Pedroja, chargée de ressources documentaires numériques à la MESHS.

Marin Dacos a surtout mis en avant l’importance d’être en mesure de comprendre les enjeux qui se cachent derrière les concepts – Marin Dacos a parlé de « couches » – que l’on rencontre autour d’Internet, pour une bonne approche des digital humanities et, surtout, pour qu’on arrête d’espérer que les choses se stabilisent avant de daigner mettre les mains dans le cambouis : neutralité du réseau (un e-mail de Barack Obama n’est pas traité plus rapidement que le tweet de Madame Michu), l’assymétrie de la liaison numérique (autrement dit, l’ADSL qui peut mener à une télévisualisation du réseau), etc…

Qu’elles soient porteuses d’idéaux ou de dangers (tout dépend du point de vue duquel on se place), ces couches ont pour principale caractéristique d’être difficilement modifiables une fois mises en place (même si la neutralité du réseau subit actuellement des coups de boutoir, ce n’est pas la première fois que cela arrive), d’où la nécessité d’une certaine vigilance dès qu’une couche se rajoute.

Exemple typique d’un couche à éviter: la création artificielle de rareté. Alors qu’Internet permet une explosion de la documentation, certains acteurs vont tenter de limiter certaines ressources, pour leur donner de la valeur. De nombreuses affaires de trafic de noms de domaine défraient régulièrement  l’actualité. Concernant plus directement la documentation, les DOI, mécanisme permettant d’identifier les données numérisées, peuvent poser à terme ce même problème de création artificielle de rareté. Gérée par la Fondation Internationale DOI, l’attribution de chaque numéro est payante (du coup, on y réfléchit à deux fois avant d’identifier au plus précis chaque partie d’un document, alors que cela pourrait être pertinent pour l’éditeur comme pour le scientifique). Il y a effectivement là un enjeu à ne pas rater, quand on se rend compte de l’importance croissante de la bibliométrie dans le fonctionnement et le financement des laboratoires, ainsi que de l’impérieuse nécessité de pouvoir retrouver un document dans la masse nouvelle du numérique.

Marin Dacos a dévoilé quelques techniques de survie dans ce nouvel écosystème où il y a finalement plus de documents que de lecteurs pour les lire.  Aussi bien du point de vue de celui qui veut se faire identifier que du point de vue de celui qui cherche juste à retrouver, de nombreux outils existent: gestion de signets, de bibliographies, de flux rss, de blogs, etc… Loin d’en promouvoir un plutôt qu’un autre, il a incité à essayer un peu tout, histoire de se faire une idée. Une seule vérification à faire : être en mesure de pouvoir quitter l’outil rapidement sans perdre ses billes. Le choix du libre-accès et des formats ouverts favorisant l’interopérabilité, la longévité, l’ouverture, la transparence et l’exploitation des données peut paraître une évidence. Il est néanmoins bon de le rappeler.

Faire attention à tous ces aspects, c’est également favoriser le crowdsourcing, comme le font des expériences comme  September 11 Digital Archive ou data.gov. Transposée dans le domaine de la recherche, l’idée est d’obtenir un séminaire virtuel permanent, plein de bonnes surprises.

Outre le contenu du discours, c’est le positionnement de Marin Dacos qui m’a vraiment intéressée : loin de vouloir donner l’impression de détenir la vérité et de rabaisser l’assistance à son rang d’inculte, il a affirmé de manière très cohérente son intérêt à la co-invention, qui nécessite de partager avec tous les moyens nécessaires.  Concrètement, on pourra voir ce que ce genre de démarche peut donner très bientôt ici.

Au prochain épisode, l’on apprendra que le métier d’éditeur électronique n’est pas celui que l’on croit.

Non spécialiste des questions relatives à la documentation électronique, force est de constater qu’il me semble de plus en plus indispensable de faire rentrer dans le fonctionnement quotidien des BU tout un tas de choses qui ont du mal à sortir hors du bureau du responsable de la bibliothèque numérique. Avant de pouvoir répandre la bonne parole et trouver les moyens de déplacer le centre de gravité des tâches classiques d’une bibliothèque, à savoir la documentation papier, pour mieux prendre en compte toute la partie immatérielle de nos collections, il est indispensable de savoir de quoi on parle, pour savoir ce qui peut être fait. Alors je m’y colle de plus en plus et comme je pars de loin, j’apprends énormément.

Dans la série des choses auxquelles il faudrait qu’on s’intéresse, mais qui passent après tout le reste (les toilettes bouchées, les plannings à bidouiller, les pannes de filmolux) les questions de bibliométrie.
Lors de la journée d’études co-organisée par Mediadix et l’Urfist de Paris le 13 avril 2010, les interventions avaient pour but, certes de sensibiliser et d’expliquer comment des indicateurs de toutes sortes régissaient de plus en plus le fonctionnement des labos et des universités, mais également de rassembler tous les acteurs actuels et potentiels de cette évaluation, à savoir aussi bien des enseignants-chercheurs que des professionnels de l’infodoc, toutes filières confondues. Pari rempli de mon point de vue, avec des interventions permettant de faire le point sur les enjeux de la bibliométrie, donnant lieu à la présentation d’expériences concrètes, des méthodes et des acteurs dans ce domaine et ouvrant des perspectives à partir des difficultés rencontrées. Les ppt seront mis en ligne, des comptes rendus seront sans doute faits, donc je résume ici uniquement les points qui m’ont le plus marquée (je n’aborde donc pas ici des questions sur les rapports entre qualité et évaluation, je ne dévoile pas ce qu’on entend par boîte à moustaches (cousin des facteurs h, y, g, etc…), et je ne refais pas le procès de Hal, mais ces questions ont bien entendu été abordées).

-Manuel Durand-Barthez, de l’Urfist Paris, regrettait qu’aussi peu de SCD soient impliqués dans la collaboration avec les services de la recherche pour toutes ces questions de bibliométrie. Les solutions pour remédier à cela doivent venir des SCD qui doivent forcer les portes des CS et Services de la recherche en tous genres. Il citait les expériences de collaboration intéressantes de Paris 5 et Bordeaux 2. L’ expérience d’archives ouvertes adossées à une base bibliométrique menée à l’Ifremer, et dont a témoigné Annick Salaün, montre qu’un accompagnement des chercheurs par les professionnels de l’infodoc est essentiel, qu’il s’agisse de sensibilisation à des questions classiques de mots-clés et d’affiliations, par exemple, ou de services rendus (édition de rapports bibliométriques, etc.) . Pour cet établissement, la démarche a été initiée par la tête qui a voulu faire de la bibliothèque un vrai partenaire dans ce domaine, et ça a marché!

-Les indicateurs ainsi que les sources de données ont été accablés pour leurs nombreuses lacunes. Un point qui est revenu souvent fut l’importance de pouvoir prendre la mesure des choses mesurées dans leur environnement: identifier les collaborations entre laboratoires, les collaborations « intellectuelles » en affinant le comptage des citants/cités par exemple, afin d’éviter le piège du « populaire » au détriment du « prestigieux », tout aussi important mais plus difficilement mesurable. C’est donc plus globalement la mesure de l’impact qui a posé question, et qui a même été évoquée par Pierre-Yves Renard au sujet de la mesure de l’activité de la bibliothèque : le groupe ISO chargé de revoir la norme 2789 essaie de prendre en compte cet aspect des choses. En règle générale, chacun s’est accordé sur la difficulté de concevoir un indicateur, qui même quand il est bien construit ne s’accompagne pas automatiquement d’une légitimité indispensable pour le faire vivre (rien qu’à voir le succès du classement de Shangaï, on peut se demander si ce n’est pas l’inverse parfois). Trouver un indicateur pour évaluer les indicateurs? Pour aller au delà de la simple plaisanterie, un bon moyen de qualifier un indicateur pourrait être sa facilité à être restitué.

-C’est le 3e point qui a particulièrement été mis en avant. Pour éviter la redondance et la mise en place d’une organisation chronophage centrée uniquement autour de la collecte des indicateurs, parfois presque au détriment de l’activité du service, il apparaît important de mettre en place un système de saisie unique, plutôt que d’espérer LE document unique servant à toutes les évaluations. L’important semble plutôt d’unifier les sources de données, de faire collaborer les différents acteurs dans le cadre de projets (OST avec Erefin, CNRS avec Ribac et Journalbase, projets locaux en tous genres… C’est pas gagné ), surtout dans la mesure où de plus en plus d’indicateurs risquent d’être demandés (on dépasse les simples questions de bibliométrie ici), tout en étant moins faciles à collecter et pas forcément toujours bien acceptés.

-Finalement, les questions de déontologie n’ont pas fait l’essentiel du débat, mais quelques points à souligner quand même. Quelles alternatives au modèle froid de l’évaluation par les indicateurs? On arrive vite à l’aporie, même si des alternatives permettant de prendre en compte le jugement par les pairs (Faculty of 1000) existent. Certes, il est important de pouvoir caractériser l’activité des unités de recherche, mais à quoi vont vraiment servir ces indicateurs, en fin de compte? Il n’existe pas d’étude pour savoir si des changements de comportement ont été constatés dans la manière de travailler des chercheurs. Si l’objectif le plus évident reste la mise en concurrence des établissements, il n’en reste pas moins que le caractère imparfait des indicateurs et les difficultés liées à leur restitution permet de ne pas espérer le pire pour tout de suite. L’expérience du modèle Sympa, décortiqué de manière limpide par Christophe Genili a eu le mérite de mettre en lumière le côté imparfait des différents indicateurs de performance utilisés par ce modèle, vite neutralisés par l’emploi de moyennes nationales par le Ministère lui même, ce qui a conduit à revoir le modèle en question. Mais une fois qu’on aura trouvé le système parfait? Que se passera-t-il? Il semble vraiment, vraiment important de se tenir informé de ces questions et, cette journée a eu ce mérite, de ne jamais oublier de considérer les indicateurs comme amorce d’un dialogue plutôt que comme une conclusion.

Un peu par opportunisme (j’ai cru comprendre que ça se faisait ici ou), un peu par manque de temps (ou plus précisément, de temps consacré à autre chose), et beaucoup en raison de l’intérêt que je porte aux questions qu’elle aborde,  je prête mon blog à Marie qui parlera tant qu’elle voudra de bibliométrie, de relations BU-chercheurs et autres joyeusetés.

Avec un peu de chance, ce sera aussi l’occasion de me motiver à publier les brouillons qui s’entassent. Enfin, au moins jusqu’au 16 avril.