La dernière conférence de l’ICOLC (International Coalition of Library Consortia) a été l’occasion de déplorer, une fois de plus malheureusement, la complaisance des éditeurs à s’abriter derrière l’argument de la hausse de la production scientifique internationale (+3 à +4 % par an en moyenne, voir notamment ce rapport de l’International Association of Scientific, Technical and Medical Publishers) pour justifier leurs perpétuelles hausses de tarifs.
Il est vrai que la hausse de contenu est le principal vecteur de croissance du revenu (et donc du cours en bourse pour les éditeurs côtés) dans la mesure où le nombre d’universités et d’organismes de recherche dans le monde est constant et que les marchés indien et chinois auront bientôt été « conquis ». J’aurais toutefois tendance à dire que ce n’est pas notre problème.
Pour continuer à profiter de cette hausse de la production sans susciter d’énormes tollés (ou pire, des désabonnements) de la part de bibliothèques prises à la gorge par les différentes coupes budgétaires, la stratégie actuelle des grands éditeurs semble s’orienter vers la création massive de revues en Gold Open Access (modèle auteur-payeur). Elsevier annonce ainsi la création d’une nouvelle revue en Gold OA toutes les deux semaines environ. L’investissement est minime, le risque business quasi nul (il suffit d’attendre les articles qui viennent tous seuls et non aller chercher les éventuels abonnés), le retour sur investissement confortable, le tout en donnant une image de chevalier blanc de la Science.
Bien évidemment cet investissement dans le Gold OA ne se fait pas au détriment des revues sur abonnement qui restent la principale source de revenus des éditeurs scientifiques. Ici la poule aux œufs d’or s’appelle les « cascade journals ». Il s’agit pour un éditeur de proposer plusieurs revues traitant du même sujet mais de niveau de prestige ou d’exigence différents. Ainsi un papier refusé par une revue de rang « A » peut être publiée dans une revue de rang « B » ou « C ». Le peer-reviewing a déjà été fait, l’auteur (et donc la valeur) est conservé au sein du porte-feuille, bref l’éditeur est content.
Il y a malgré tout fort à parier que cette inflation du nombre d’articles n’aille pas de pair avec l’augmentation globale de la qualité de ces articles. Combien d’articles font simplement état de la compétence de leur auteur, sans pour autant apporter des éléments neufs à leur champ disciplinaire ? Un indice pourrait être le nombre de citations, indice certes bien fruste par rapport à ce que pourrait apporter l’utilisation de description sémantique des relations citant-cité ou même par rapport à certains indicateurs altmetrics , mais qui a le mérite d’être facilement analysable par des outils efficaces, utilisés par les éditeurs et gratuits comme les api CrossRef. Et comme il semble y avoir une corrélation entre usage et nombre de citations (tant que PIRUS n’est pas répandu il sera malgré tout difficile de vérifier cette assertion) , ces articles jamais cités pourraient être très rarement vus, donc inutiles en tant que tels, donc à ne pas prendre en compte dans les estimations globales de coûts à l’article,…
Une brève revue de la littérature laisse penser qu’il n’y a pas eu beaucoup d’études sur ces articles jamais cités. J’ai bien trouvé ces quelques analyses portant principalement sur les articles dans le domaine médical  mais ça semble à peu près tout (amis bibliothécaires si vous avez d’autres références je les prendrai volontiers).
Du coup, prenant mon courage à deux mains et ma clé d’API crossref dans l’autre, je vais essayer de creuser cette question. Il suffit d’avoir une liste de DOIs et un script python codé avec les pieds. On va bien voir ce qu’il en sort, prochainement sur vos écrans.

C’est à Amsterdam, à quelques kilomètres à vol d’oiseau des sièges européens de mastodontes de l’édition scientifique – Elsevier, Wolters-Kluwer, Brill,… – que s’est tenue la session européenne 2010 de l’International Consortium Of Libraries Consortia. L’ICOLC est une structure informelle dont le rôle principal est de faire circuler l’information entre les différents consortia de bibliothèques afin de disposer au niveau local d’un niveau de connaissance du marché au moins égal à celui que détient un éditeur donné lors d’une négociation. Il est alors plus facile de tordre le cou à un des arguments préférés des éditeurs commerciaux qui consiste à dire lors d’une négociation « Mais vous disposez de bien meilleures conditions que le consortium du pays voisin ! ». Pour autant, dans l’idéal, il s’agit également de disposer de quelques coups d’avance par rapport à l’éditeur en disposant de données stratégiques qui ne pourront pas être évoquées ici (je reste par ailleurs volontairement vague sur la nature de ces données). Faire un compte rendu riche et intéressant des débats et échanges qui eurent lieu lors de cet événement sans pour autant dévoiler certains éléments clés relève donc un peu de l’exercice d’équilibrisme.

  • Business as usual

La crise économique internationale a été au centre des échanges de la première session. En guise d’écho au communiqué de janvier 2009 appelant les éditeurs à ne pas augmenter leurs prix entre 2009 et 2010, l’étude sur la hausse réelle des tarifs menée auprès de 61 consortia montre une réalité différente. Même si les consortia nord-américains ont en moyenne mieux réussi à contenir les hausses que leurs homologues européens et asiatiques, force est de constater que les acteurs de l’édition scientifique, qu’ils soient commerciaux ou à but non lucratif, n’ont pas grandement changé leurs habitudes d’avant la crise. Des hausses spectaculaires, supérieures à 15 %, ont même été constatées. Malheureusement, l’issue de la crise et la fin des coupes budgétaires semblent bien lointaines pour certains pays.
L’édition scientifique accrochée à ses modèles économiques et à une croissance à deux chiffres va bientôt être confrontée à une clientèle qui sera bien incapable de suivre cette marche forcée vers plus de services et plus de contenus. Plusieurs collègues des consortia ont fait remarquer l’inflation artificielle de la production scientifique et l’impossibilité actuelle de distinguer à un niveau macroscopique les articles qui font simplement état de la compétence de leurs auteurs avec des publication qui apportent véritablement des éléments nouveaux à la science. D’autres ont manifesté leur agacement face à certains services inadaptés à leur contexte local et pourtant facturés d’une manière ou d’une autre.
Face à ces critiques, les éditeurs Elsevier, Springer et Brill qui avaient été invités pour des sessions spécifiques tiennent un discours rebattu : « Nous oeuvrons dans l’intérêt de la science ». Seul Wiley-Blackwell a annoncé sa volonté de trouver un modèle économique qui encourage les bonnes publications et pas simplement plus de publications. Qu’en pensent les chercheurs ? Qu’en pensent leurs évaluateurs ?

  • La mutualisation, raison d’être des consortia

Le congrès a été l’occasion de montrer par ailleurs que les consortia de bibliothèques ne se limitent pas à l’acquisition de ressources électroniques mais cherchent également à mutualiser les moyens de leurs membres.
Au Royaume-Uni, JISC (Joint Information Systems Committee) s’est saisi depuis plusieurs années des questions de l’archivage des revues électroniques, soutenant des mouvements comme l’UK LOCKSS Alliance ou des projets comme PECAN, dont le but est de trouver la meilleure solution possible pour accéder au contenu souscrit après une annulation de contrat, ou PEPRS, qui vise la construction d’un registre visant à recenser les revues présentant une solution d’archivage pérenne. L’alliance des organismes de recherche allemands s’intéresse également aux questions des revues électroniques mais élargit sa réflexion aux documents numérisés par les bibliothèques.
Une autre collaboration possible réside dans la mise au point d’un système consortial de gestion des ressources électroniques (ERMS). La grande difficulté de tels projets et l’absence de solution véritablement aboutie de la part des fournisseurs font malheureusement que dans certains cas les projets ont vu leur ambition à la baisse (Danemark, Suède) ou ont été annulés (Pays-Bas).

Les membres des consortia ont beau tendre tous vers un objectif commun, la plus large diffusion des travaux de recherches à des conditions acceptables pour tous, il convient de reconnaître qu’ils sont parfois traversé de tensions internes. Les débats que l’on connaît en France – le consensus à tout prix est-il la meilleure solution, faut-il des négociateurs professionnels, comment gérer l’hétérogénéité des structures composant le consortium ?… – se retrouvent partout ailleurs, sans que les solutions trouvées chez les uns puissent s’appliquer telles quelles chez les autres.
Pour autant, contrairement à ce qu’a affirmé non sans malice le PDG de Springer, les consortia ont un avenir. Ce qu’on ne fait que percevoir, le Réseau Canadien de Documentation pour la Recherche l’a montré grâce une série d’indicateurs sur 10 ans, affirmant ainsi sa valeur ajoutée auprès de ses membres et de ses financeurs.

Les digital humanities font partie des choses desquelles on parle, qui existent, oui, mais qu’on ne se force pas trop à creuser.
Ca paraît évident une fois qu’on a dit ce que ça recouvrait, mais on ne le dit pas si souvent. Grosso modo, il s’agit de prendre la mesure des changements que l’apparition du numérique a provoqués dans la recherche, que ce soit en terme de documentation disponible, des possibilités nouvelles offertes pour l’exploitation et l’édition de corpus et pour l’échange des résultats de la recherche. Il est donc à la fois question de contenu et d’outils, de création et d’archivage, et c’est très bien expliqué ici.

A ce sujet, j’ai pu assister à une séance organisée lors du Printemps des SHS par la Maison européenne des sciences de l’homme située à Lille. Au programme, interventions de Marin Dacos, responsable du CLEO, Richard Walter, directeur-adjoint du TGE Adonis et Cynthia Pedroja, chargée de ressources documentaires numériques à la MESHS.

Marin Dacos a surtout mis en avant l’importance d’être en mesure de comprendre les enjeux qui se cachent derrière les concepts – Marin Dacos a parlé de « couches » – que l’on rencontre autour d’Internet, pour une bonne approche des digital humanities et, surtout, pour qu’on arrête d’espérer que les choses se stabilisent avant de daigner mettre les mains dans le cambouis : neutralité du réseau (un e-mail de Barack Obama n’est pas traité plus rapidement que le tweet de Madame Michu), l’assymétrie de la liaison numérique (autrement dit, l’ADSL qui peut mener à une télévisualisation du réseau), etc…

Qu’elles soient porteuses d’idéaux ou de dangers (tout dépend du point de vue duquel on se place), ces couches ont pour principale caractéristique d’être difficilement modifiables une fois mises en place (même si la neutralité du réseau subit actuellement des coups de boutoir, ce n’est pas la première fois que cela arrive), d’où la nécessité d’une certaine vigilance dès qu’une couche se rajoute.

Exemple typique d’un couche à éviter: la création artificielle de rareté. Alors qu’Internet permet une explosion de la documentation, certains acteurs vont tenter de limiter certaines ressources, pour leur donner de la valeur. De nombreuses affaires de trafic de noms de domaine défraient régulièrement  l’actualité. Concernant plus directement la documentation, les DOI, mécanisme permettant d’identifier les données numérisées, peuvent poser à terme ce même problème de création artificielle de rareté. Gérée par la Fondation Internationale DOI, l’attribution de chaque numéro est payante (du coup, on y réfléchit à deux fois avant d’identifier au plus précis chaque partie d’un document, alors que cela pourrait être pertinent pour l’éditeur comme pour le scientifique). Il y a effectivement là un enjeu à ne pas rater, quand on se rend compte de l’importance croissante de la bibliométrie dans le fonctionnement et le financement des laboratoires, ainsi que de l’impérieuse nécessité de pouvoir retrouver un document dans la masse nouvelle du numérique.

Marin Dacos a dévoilé quelques techniques de survie dans ce nouvel écosystème où il y a finalement plus de documents que de lecteurs pour les lire.  Aussi bien du point de vue de celui qui veut se faire identifier que du point de vue de celui qui cherche juste à retrouver, de nombreux outils existent: gestion de signets, de bibliographies, de flux rss, de blogs, etc… Loin d’en promouvoir un plutôt qu’un autre, il a incité à essayer un peu tout, histoire de se faire une idée. Une seule vérification à faire : être en mesure de pouvoir quitter l’outil rapidement sans perdre ses billes. Le choix du libre-accès et des formats ouverts favorisant l’interopérabilité, la longévité, l’ouverture, la transparence et l’exploitation des données peut paraître une évidence. Il est néanmoins bon de le rappeler.

Faire attention à tous ces aspects, c’est également favoriser le crowdsourcing, comme le font des expériences comme  September 11 Digital Archive ou data.gov. Transposée dans le domaine de la recherche, l’idée est d’obtenir un séminaire virtuel permanent, plein de bonnes surprises.

Outre le contenu du discours, c’est le positionnement de Marin Dacos qui m’a vraiment intéressée : loin de vouloir donner l’impression de détenir la vérité et de rabaisser l’assistance à son rang d’inculte, il a affirmé de manière très cohérente son intérêt à la co-invention, qui nécessite de partager avec tous les moyens nécessaires.  Concrètement, on pourra voir ce que ce genre de démarche peut donner très bientôt ici.

Au prochain épisode, l’on apprendra que le métier d’éditeur électronique n’est pas celui que l’on croit.

Non spécialiste des questions relatives à la documentation électronique, force est de constater qu’il me semble de plus en plus indispensable de faire rentrer dans le fonctionnement quotidien des BU tout un tas de choses qui ont du mal à sortir hors du bureau du responsable de la bibliothèque numérique. Avant de pouvoir répandre la bonne parole et trouver les moyens de déplacer le centre de gravité des tâches classiques d’une bibliothèque, à savoir la documentation papier, pour mieux prendre en compte toute la partie immatérielle de nos collections, il est indispensable de savoir de quoi on parle, pour savoir ce qui peut être fait. Alors je m’y colle de plus en plus et comme je pars de loin, j’apprends énormément.

Dans la série des choses auxquelles il faudrait qu’on s’intéresse, mais qui passent après tout le reste (les toilettes bouchées, les plannings à bidouiller, les pannes de filmolux) les questions de bibliométrie.
Lors de la journée d’études co-organisée par Mediadix et l’Urfist de Paris le 13 avril 2010, les interventions avaient pour but, certes de sensibiliser et d’expliquer comment des indicateurs de toutes sortes régissaient de plus en plus le fonctionnement des labos et des universités, mais également de rassembler tous les acteurs actuels et potentiels de cette évaluation, à savoir aussi bien des enseignants-chercheurs que des professionnels de l’infodoc, toutes filières confondues. Pari rempli de mon point de vue, avec des interventions permettant de faire le point sur les enjeux de la bibliométrie, donnant lieu à la présentation d’expériences concrètes, des méthodes et des acteurs dans ce domaine et ouvrant des perspectives à partir des difficultés rencontrées. Les ppt seront mis en ligne, des comptes rendus seront sans doute faits, donc je résume ici uniquement les points qui m’ont le plus marquée (je n’aborde donc pas ici des questions sur les rapports entre qualité et évaluation, je ne dévoile pas ce qu’on entend par boîte à moustaches (cousin des facteurs h, y, g, etc…), et je ne refais pas le procès de Hal, mais ces questions ont bien entendu été abordées).

-Manuel Durand-Barthez, de l’Urfist Paris, regrettait qu’aussi peu de SCD soient impliqués dans la collaboration avec les services de la recherche pour toutes ces questions de bibliométrie. Les solutions pour remédier à cela doivent venir des SCD qui doivent forcer les portes des CS et Services de la recherche en tous genres. Il citait les expériences de collaboration intéressantes de Paris 5 et Bordeaux 2. L’ expérience d’archives ouvertes adossées à une base bibliométrique menée à l’Ifremer, et dont a témoigné Annick Salaün, montre qu’un accompagnement des chercheurs par les professionnels de l’infodoc est essentiel, qu’il s’agisse de sensibilisation à des questions classiques de mots-clés et d’affiliations, par exemple, ou de services rendus (édition de rapports bibliométriques, etc.) . Pour cet établissement, la démarche a été initiée par la tête qui a voulu faire de la bibliothèque un vrai partenaire dans ce domaine, et ça a marché!

-Les indicateurs ainsi que les sources de données ont été accablés pour leurs nombreuses lacunes. Un point qui est revenu souvent fut l’importance de pouvoir prendre la mesure des choses mesurées dans leur environnement: identifier les collaborations entre laboratoires, les collaborations « intellectuelles » en affinant le comptage des citants/cités par exemple, afin d’éviter le piège du « populaire » au détriment du « prestigieux », tout aussi important mais plus difficilement mesurable. C’est donc plus globalement la mesure de l’impact qui a posé question, et qui a même été évoquée par Pierre-Yves Renard au sujet de la mesure de l’activité de la bibliothèque : le groupe ISO chargé de revoir la norme 2789 essaie de prendre en compte cet aspect des choses. En règle générale, chacun s’est accordé sur la difficulté de concevoir un indicateur, qui même quand il est bien construit ne s’accompagne pas automatiquement d’une légitimité indispensable pour le faire vivre (rien qu’à voir le succès du classement de Shangaï, on peut se demander si ce n’est pas l’inverse parfois). Trouver un indicateur pour évaluer les indicateurs? Pour aller au delà de la simple plaisanterie, un bon moyen de qualifier un indicateur pourrait être sa facilité à être restitué.

-C’est le 3e point qui a particulièrement été mis en avant. Pour éviter la redondance et la mise en place d’une organisation chronophage centrée uniquement autour de la collecte des indicateurs, parfois presque au détriment de l’activité du service, il apparaît important de mettre en place un système de saisie unique, plutôt que d’espérer LE document unique servant à toutes les évaluations. L’important semble plutôt d’unifier les sources de données, de faire collaborer les différents acteurs dans le cadre de projets (OST avec Erefin, CNRS avec Ribac et Journalbase, projets locaux en tous genres… C’est pas gagné ), surtout dans la mesure où de plus en plus d’indicateurs risquent d’être demandés (on dépasse les simples questions de bibliométrie ici), tout en étant moins faciles à collecter et pas forcément toujours bien acceptés.

-Finalement, les questions de déontologie n’ont pas fait l’essentiel du débat, mais quelques points à souligner quand même. Quelles alternatives au modèle froid de l’évaluation par les indicateurs? On arrive vite à l’aporie, même si des alternatives permettant de prendre en compte le jugement par les pairs (Faculty of 1000) existent. Certes, il est important de pouvoir caractériser l’activité des unités de recherche, mais à quoi vont vraiment servir ces indicateurs, en fin de compte? Il n’existe pas d’étude pour savoir si des changements de comportement ont été constatés dans la manière de travailler des chercheurs. Si l’objectif le plus évident reste la mise en concurrence des établissements, il n’en reste pas moins que le caractère imparfait des indicateurs et les difficultés liées à leur restitution permet de ne pas espérer le pire pour tout de suite. L’expérience du modèle Sympa, décortiqué de manière limpide par Christophe Genili a eu le mérite de mettre en lumière le côté imparfait des différents indicateurs de performance utilisés par ce modèle, vite neutralisés par l’emploi de moyennes nationales par le Ministère lui même, ce qui a conduit à revoir le modèle en question. Mais une fois qu’on aura trouvé le système parfait? Que se passera-t-il? Il semble vraiment, vraiment important de se tenir informé de ces questions et, cette journée a eu ce mérite, de ne jamais oublier de considérer les indicateurs comme amorce d’un dialogue plutôt que comme une conclusion.

Un peu par opportunisme (j’ai cru comprendre que ça se faisait ici ou), un peu par manque de temps (ou plus précisément, de temps consacré à autre chose), et beaucoup en raison de l’intérêt que je porte aux questions qu’elle aborde,  je prête mon blog à Marie qui parlera tant qu’elle voudra de bibliométrie, de relations BU-chercheurs et autres joyeusetés.

Avec un peu de chance, ce sera aussi l’occasion de me motiver à publier les brouillons qui s’entassent. Enfin, au moins jusqu’au 16 avril.

L’affaire des fausses revues Elsevier financées par le laboratoire pharmaceutique Merck est déjà un peu ancienne (pour ceux qui ont raté le début c’est ici puis ici que ça se passe) et a été relayée par plusieurs blogs (une petite revue ici).
Voulant malgré cela en faire la relation, j’hésitais cependant sur l’angle d’attaque à adopter. Je pensais dans un premier temps mettre cette affaire en perspective avec la pratique du ghostwriting, qui consiste à faire signer par une caution scientifique un article rédigé en fait par une petite main d’un laboratoire pharmaceutique. Je songeais un moment évoquer les associations curieuses entre un éditeur scientifique et une agence de communication (Elsevier n’a pas le monopole de cela…). Je reviendrai sans doute sur ces questions très intéressantes, mais les hasards de la veille m’ont fait choisir un autre éclairage.
Grâce à Twitter (merci @gaelos !), mon attention a été attirée par un article du blog « Annoyed Librarian » intitulé « Elsevier is more clever than you ». Rythmé par le refrain « Elsevier is clever, researchers and librarians are suckers », le texte énonce des points de vue assez tranchés mais plutôt pertinents :

  • Elsevier est une entreprise commerciale dont le but est de faire de l’argent et elle y arrive efficacement.
  • Les bibliothécaires (et les chercheurs) se plaignent mais ne font rien si ce n’est cracher au bassinet.

Il est évident que l’Open Access a encore du chemin à faire, ce à quoi semble faire allusion l’auteur du billet.  Mais s’il y a des pesanteurs institutionnelles qu’il ne faut pas nier ni sous-estimer, force est de constater que les éditeurs bleus, verts, blancs ou jaunes ne nous facilitent pas trop la tâche. En 2007, Elsevier et d’autres grands éditeurs scientifiques  ont ainsi lancé PRISM (Partnership for Research Integrity in Science & Medicine) dont le but avoué est de miner l’Open Access en lui reprochant de mettre en péril la qualité, la viabilité et l’indépendance de la recherche scientifique (voir à ce sujet cet article d’Affordance). Au vu de l’affaire Merck, cette prise de position est à mourir de rire. Il est regrettable que l’article d’Annoyed Librarian n’y fasse pas référence…

Un détail : le blog Annoyed Librarian est hébergé par le Library Journal. Le Library Journal est publié par Reed Business Information. Reed Business Information est une division de … Reed Elsevier.

La récente menace de pandémie-on-va-tous-mourir a quelques effets intéressants sur la documentation. Ainsi, La National Academy of Sciences of the United States of America, éditeur entre autres des PNAS, offre l’accès à tous les articles concernant le H1N1 publiés dans ses colonnes (soit une centaine), tout comme téléchargement d’un livre intitulé « Microbial Threats to Health:The Threat of Pandemic Influenza ».
Parallèlement, EBSCO a annoncé que la partie de sa base Dynamed concernant ce même ensemble de virus était dorénavant ouverte à tous.
Loin de moi l’idée de critiquer ces initiatives louables. Inversons cependant le point de vue. Même si je ne me sens pas personnellement concerné par cette maladie (mes tests sont négatifs), force est de constater que ce virus semble, à l’heure où j’écris, surtout toucher des pays riches. Y a-t-il des actions semblables, doublées d’annonces, pour le paludisme (entre 1,5 et 3 millions de morts parmi lesquels 90 % d’Africains), le SIDA (2,1 millions de morts en 2007 parmi lesquels 75% d’Africains) ou toute autre maladie touchant principalement des populations pauvres ? Certes, on pourra m’opposer que dès 2001 les plus grands éditeurs du domaine biomédical (Elsevier, LWW, Springer, Wiley-Blackwell), rapidement rejoints par d’autres, ont adhéré au programme de l’OMS HINARI permettant aux pays en voie de développement d’avoir accès gratuitement ou contre un abonnement modique (1000 $) à plus de 3400 revues. Formidable.
Pour autant, cette action n’est pas liée à un programme de développement de parc informatique ou d’amélioration de la disponibilité et de la qualité de la bande passante. Or, selon l’African University Network, rattachée au consortium Global Virtual University, la bande passante pour l’ensemble d’une université africaine moyenne équivaut à celle d’un logement privé en Europe ou en Amérique du Nord. Dès lors, on s’aperçoit rapidement du caractère, sinon vain, au moins très incertain d’une telle entreprise. Mais voilà : autant ouvrir des robinets de flux d’informations ne coûte rien ou pas grand chose, autant permettre réellement l’accès à ce flux nécessite de sérieux investissements.
Dans le cas de la grippe comme dans celui d’HINARI, les éditeurs se sont donc acheté une bonne conscience à peu de frais.