Recherche

Derrière la promesse de l’open access, la marchandisation renouvelée de l’édition scientifique

Sociologue

Depuis le début du siècle, de nouveaux modèles de diffusion de la recherche scientifique sont apparus. Marchandisant à leur profit l’injonction à l’open access, ils piègent les chercheurs mal informés ou souhaitant répondre plus facilement aux demandes de leurs institutions. Pour éviter la dégradation de la qualité scientifique provoquée par ces mégarevues, il est urgent de repenser les modalités d’expertise et d’évaluation de la recherche.

En France, la réforme de la recherche publique s’est accélérée à la fin des années 2000, visant notamment l’intensification et l’internationalisation de la production scientifique pour rivaliser avec les pays aux universités prestigieuses. Dans cette quête d’excellence, une concurrence accrue a été instaurée entre scientifiques comme entre institutions de recherche. Considérée comme vertueuse, elle a renforcé le besoin d’indicateurs pour évaluer les travaux et faire converger les moyens vers les « meilleurs ».

Déjà central, le rôle de l’article scientifique en tant qu’unité d’analyse de la performance s’en est trouvé accentué. Comparer, classer et distribuer les ressources à cette aune est d’autant plus commode qu’un facteur d’impact (FI)[1] est attribué à la plupart des revues anglo-saxonnes publiant ces articles, contribuant à leur hiérarchisation. Certes, l’activité d’évaluation ne se résume pas à faire des additions et tient compte d’autres référentiels et supports de publication (liste de revues d’audience nationale, livres et chapitres d’ouvrages collectifs dans bien des disciplines des sciences humaines et sociales). Mais, comme le souligne Yves Gingras, cette métrique internationale et ses déclinaisons (classement des revues par quartiles, h-index, etc.) constituent un point d’appui pour établir les jugements, justifier et accélérer les sélections.

publicité

En position de force, les éditeurs de revues cotées ont régulièrement et abusivement augmenté les tarifs des abonnements conditionnant l’accès à leur contenu. Sur fond d’incitations politiques à l’open access, deux évolutions récentes contribuent à atténuer l’emprise de cette rente. La première alternative est la mise à disposition en ligne, gratuite et légale, de travaux publiés dans ces revues (sur les archives publiques HAL ou arXiv par exemple). La seconde altère le modèle économique dominant : l’accès est rendu gratuit pour tous après paiement par l’auteur de frais de publication (article processing charges, ou APC). Cette contribution financière renversée est proposée soit en option, dans le cas de revues installées (accès ouvert hybride destiné à optimiser la diffusion et les revenus), soit comme seule voie, pour de nouveaux entrants (accès ouvert natif reposant uniquement sur le paiement d’APC).

Parmi ces derniers, il faut distinguer les revues prédatrices et les mégarevues. Les premières sont de grossières imitations destinées à piéger les chercheurs peu aguerris. Elles singent le nom de revues installées, affichent un faux FI et acceptent toutes les soumissions contre le paiement d’APC peu élevées. Les secondes sont incarnées par la Public Library of Science (PLOS) ou Frontiers. Ne disposant pas de revenus substantiels autres que les APC, elles publient un très grand nombre d’articles. Combinée à l’octroi de FI parfois élevés, leur sélectivité amoindrie les a rendues particulièrement attractives pour publier des travaux de recherche. Soupçonnées de conflits d’intérêts altérant la rigueur du processus d’expertise, les mégarevues sont fréquemment qualifiées d’éditeurs de la « zone grise » (situés entre revues légitimes et prédatrices).

Ces nouveaux modèles viennent bouleverser des usages installés de longue date, comme le caractère désintéressé de la relation auteur-éditeur ou l’exigence de sélectivité avant publication. Ils entendent aussi remédier à certains problèmes, comme le temps long de l’expertise par les pairs ou le nombre restreint d’articles publiés par chaque revue. Avant de décrire en détail ces changements, il convient de préciser le contexte dans lequel ils interviennent.

Transformations du paysage éditorial au regard de la montée en puissance des métriques et de sa marchandisation

Une complexification de l’écosystème de l’édition scientifique est à l’œuvre depuis le milieu des années 2000, fruit de multiples initiatives allant des plus vertueuses (développement des archives ouvertes, publication de preprints) aux plus mercantiles (double commercialisation par la voie gold, formes variées et évolutives de prédation). Les possibilités de diffusion s’en trouvent élargies, tout comme les pièges tendus aux chercheurs, et il devient difficile de placer les revues sur un illusoire continuum allant des légitimes aux prédatrices. Le FI reste par contre un pivot : en dépit des nombreuses initiatives institutionnelles destinées à relativiser sa prégnance lors de l’évaluation de la qualité de la recherche, il demeure dans bien des cas l’alpha et l’oméga des stratégies des éditeurs et du ciblage des revues de la part des scientifiques.

Les éditeurs traditionnels : installation et érosion d’un pouvoir marchand légitime

Jusqu’à la fin des années 2000, un oligopole d’éditeurs scientifiques (Springer Nature, Elsevier, Taylor & Francis, Wiley, Sage, etc.) a assis sa domination à travers la diffusion des revues les plus prestigieuses. Faiblement contestée, cette position les a incités à en tirer profit en augmentant régulièrement le montant des abonnements depuis les années 1980[2] quand bien même ce sont leurs clients (des institutions de recherche pour l’essentiel) qui financent, produisent et évaluent les travaux publiés. Cette particularité en termes de création et de validation des contenus explique la profitabilité élevée de ces entreprises : les six principaux éditeurs cumulent 7,5 milliards d’euros de chiffre d’affaires, avec des marges allant jusqu’à 40 %.

Signe de l’épuisement de ce modèle, certaines universités décident depuis peu de ne plus renouveler leurs abonnements. Une alternative est proposée, en France, et plus largement dans l’espace européen, à travers le Plan pour la science ouverte[3] et la cOAlition S. Cette contestation a poussé ces éditeurs incontournables à construire de nouveaux agencements marchands à travers le modèle hybride qui permet de bénéficier de subsides via les abonnements mais aussi à travers les APC facturées aux auteurs pour que les lecteurs accèdent gratuitement aux textes (voie gold).

La marchandisation se tourne ainsi partiellement vers les auteurs. Cet élargissement des sources de revenus s’appuie de manière opportuniste sur l’injonction croissante faite aux scientifiques (suite à l’obtention de financements publics, par exemple) de rendre gratuitement consultables les résultats de leurs travaux. Le modèle hybride est cependant déjà en perte de vitesse, subissant la concurrence des mises en ligne gratuites d’articles sur des plateformes d’archives publiques (modèle green).

Des revues prédatrices aux mégarevues : un continuum et des « zones grises »

Apparues en 2006, les mégarevues sont parfois aussi appelées « revues de faible qualité ». Leurs éditeurs surfent sur la tendance à l’open access auteur-payeur (pay to publish) sans systématiquement s’imposer les standards éprouvés en matière d’édition scientifique. Publiant en ligne un nombre jusqu’alors inconcevable d’articles[4], ces supports évaluent peu l’importance et la pertinence scientifiques des textes ou leur caractère novateur. De ce fait, ils sont amenés à refuser moins de propositions que les revues scientifiques classiques. Les délais sont par ailleurs raccourcis entre soumission et publication. Ces mégarevues constitueraient donc un refuge pour les chercheurs ne réussissant pas à publier ailleurs ou souhaitant trouver rapidement un débouché, sans grand risque, pour diffuser leur travail (avec une prédictibilité accrue quant à l’issue du processus). Le taux d’acceptation des articles est en effet supérieur à celui des revues classiques.

De fait, PLOS One et Frontiers Media ont été de véritables game changers. N’ayant plus besoin de vendre aux lecteurs et à leurs employeurs, il est économiquement avantageux pour ces éditeurs d’accepter davantage d’articles, quitte à ne pas être toujours aussi regardant que les revues réputées sur leur qualité et les critères de rejet.

Entre prédation et symbiose : pourquoi publier dans des revues douteuses ?

Les mégarevues ont constitué une innovation rapidement adoptée par de nombreux chercheurs sensibles aux opportunités démultipliées de publication. Le fait qu’elles les éloignent de supports de publication consacrés, faisant autorité dans leurs domaines respectifs, semble atténué par la combinaison entre rapidité, sélectivité amoindrie et labellisation procurée par la présence d’un FI.

Sans doute la méconnaissance des évolutions du paysage éditorial est-elle, en partie, explicative. La méfiance est notamment atténuée quand ces mégarevues adoptent des noms effaçant celui de l’éditeur : si la paternité des deux cent trente revues éditées par Frontiers Media est immédiatement identifiable, ce n’est pas le cas des quatre cent cinquante titres du Multidisciplinary Digital Publishing Institute (MDPI). En présence d’une proie (même imprudente ou insuffisamment renseignée), parler de prédation a du sens, et il existe à n’en pas douter des auteurs mal informés.

La naïveté n’est cependant pas systématique et certains scientifiques publient en connaissance de cause dans des revues de la « zone grise » : l’enjeu peut être d’accéder à une carrière scientifique ou d’optimiser sa trajectoire professionnelle. L’incitation est d’autant plus vive que la quantité d’articles constitue un indicateur privilégié par les institutions de recherche pour évaluer leurs membres.

Ces comportements délibérés, qui concernent un plus grand nombre de chercheurs qu’on ne le pense habituellement, ont diverses origines : impatience et aversion au risque, sentiment de manquer de compétences scientifiques, fait de voir d’autres scientifiques réussir par cette voie (quand bien même ils disposent des ressources pour viser des revues dites de qualité), prise en considération des articles en question dans les comités de sélection ou de promotion. Des auteurs s’affranchissent de l’éthique, bien conscients que les processus éditoriaux des éditeurs de la « zone grise » revisitent, a minima, les standards académiques. Se dessine ainsi une relation relevant aussi de la symbiose pour une frange de chercheurs en quête de moyens facilités d’allonger la liste de leurs publications en un laps de temps réduit.

Le MDPI : le modèle des mégarevues poussé à son paroxysme

Créée au début des années 2010, l’entreprise sino-suisse MDPI s’est fait une place centrale au sein de l’oligopole des mégarevues en poussant à leur paroxysme un ensemble d’avantages concurrentiels de l’édition scientifique en open access. Le MDPI a dans un premier temps fait l’acquisition de quelques revues scientifiques, avant d’en créer plusieurs centaines. Il a publié 36 000 articles en 2017, 167 000 en 2020, puis 300 000 en 2023[5]. Dans certaines revues du groupe, on note des pics à 38 000 (Applied Sciences) ou 45 000 (International Journal of Environmental Research and Public Health, IJERPH) articles annuels. Des chiffres à mettre en relation avec les cent à deux cent cinquante articles publiés en moyenne chaque année pour les revues de Taylor & Francis, Springer, Wiley ou Elsevier. Ce rythme de publication appelle une déconstruction de la mécanique du MDPI.

Une inflation d’articles liée à la multiplication des numéros spéciaux

La hausse effrénée du nombre de numéros spéciaux contribue à cette inflation : 475 en 2014, 1 386 en 2017, 6 756 en 2020 et 39 587 en 2021. Ainsi, trente-deux revues du MDPI publient plus d’un numéro thématique par jour, noyant les numéros classiques ; à titre d’exemple, la revue Sustainability avait trois mille trois cent trois appels thématiques en cours en mars 2021 (pour vingt-quatre numéros classiques par an). Cela amène à se poser une simple question de bon sens : comment disposer de suffisamment d’articles publiables pour remplir dix numéros spéciaux par jour (en plus des varia) ?

Une autre inversion révélatrice concerne la procédure suivie : là où l’usage est habituellement que les scientifiques sollicitent les revues sur la base d’un projet éditorial, ce sont les employés du MDPI qui prennent l’initiative d’inviter, via des courriels fréquents et massifs, des guest editors susceptibles de s’en trouver flattés (Frontiers procède de la même manière).

Des efforts constants pour comprimer le temps

Le délai accordé aux experts, à qui revient la charge d’évaluer les articles, est révélateur : de sept à dix jours pour une première version, il passe à trois jours pour un article révisé. Cette pression inédite permet d’aboutir à une décision éditoriale initiale en vingt jours en moyenne. Ensuite, c’est du côté des auteurs que le temps presse : en cas de demande d’une nouvelle version, ils ont cinq (révisions mineures) ou dix (révisions majeures) jours pour la fournir. En moyenne, trente-cinq à trente-sept jours s’écoulent entre la soumission initiale et l’acceptation d’un article. En 2020, 17 % des articles ont même été acceptés en vingt jours (révisions comprises). L’effort de compression est constant, aboutissant à une division par deux du délai médian soumis/publié entre 2014 et 2021.

Étonnamment, l’explosion du nombre d’articles publiés est sans effet sur ces délais. Il n’y a par ailleurs aucune différence entre les revues recevant quelques centaines ou plusieurs dizaines de milliers de propositions par an. Paradoxalement, la multiplication des numéros spéciaux, connus pour compliquer le processus éditorial en impliquant davantage de parties prenantes, n’a pas non plus contrarié cette accélération.

À titre de comparaison, il faut en moyenne soixante-douze jours pour être publié chez Frontiers, cent trente-quatre chez Elsevier, autour de cent cinquante chez Wiley ou Springer, cent quatre-vingt-cinq pour Nature et cent quatre-vingt-sept chez Taylor & Francis ou PLOS. Les délais hors-normes du MDPI interrogent quant à la rigueur des processus d’expertise[6] : une telle pression implique probablement un traitement des articles trop rapide, superficiel et peu soucieux de la qualité.

Taux d’acceptation élevés et pratiques d’évaluation questionnées

D’emblée, il faut préciser que le taux d’acceptation (ou de rejet) d’une revue est un indicateur sensible, susceptible de faire l’objet de manipulations. Les taux d’acceptation communiqués par le MDPI sont en moyenne de 50 % et peuvent atteindre 70 % pour certaines revues. Tous les articles ne sont donc pas acceptés, et certains peuvent être de qualité. Le taux d’acceptation a néanmoins progressé de 25 % entre 2019 et 2021. Le taux de rejet, globalement en baisse, est loin des 71 % constatés chez Elsevier par exemple, mais proche de ce qui est observable chez Frontiers[7].

De très nombreux experts sollicités par le MDPI ont constaté la publication d’articles dont ils avaient recommandé le rejet ou à propos desquels ils avaient suggéré des modifications substantielles. En 2018, l’ensemble du comité de rédaction de Nutrients (une des revues les plus prestigieuses du groupe) a démissionné du fait de pressions exercées sur l’éditeur en chef pour qu’il revoie à la baisse son niveau d’exigence scientifique et refuse moins de papiers. De même, des dizaines d’éditeurs méticuleux ont été remerciés par Frontiers Media, en particulier les signataires d’un manifeste dénonçant la superficialité des processus d’expertise et leur manque d’indépendance.

Une brève description de la procédure interactive d’évaluation des articles soumis à Frontiers permet de montrer comment cet éditeur a ouvert une brèche. Le rejet ne peut intervenir qu’à une double condition : que tous les évaluateurs sollicités refusent la proposition (tant qu’au moins un évaluateur soutient la publication, l’auteur peut continuer à chercher à convaincre les plus sceptiques)[8] ; que, sur la base de cette unanimité, l’éditeur en chef valide le refus. Les éditeurs thématiques, en charge de coordonner l’expertise, ne peuvent prendre la décision eux-mêmes. Par ailleurs, les auteurs se voient toujours offrir la possibilité de répondre aux commentaires des évaluateurs (en d’autres termes, le peer review ne peut se terminer par un simple refus du papier). La pratique encouragée peut sembler vertueuse en ce qu’elle permet d’accompagner l’auteur dans l’amélioration de son article (quitte à changer d’évaluateur au cours du processus, voire à laisser l’éditeur en chef endosser ce rôle[9]).

En tout état de cause, une fois l’article envoyé en expertise, les navettes peuvent être longues et fréquentes, mais les rejets s’avèrent assez rares, y compris quand une majorité de relecteurs les préconisent : une extrapolation des données mises à disposition sur le site de Frontiers pour l’année 2023 permet d’estimer le taux de rejet à 23,5 % une fois l’article parti en expertise. En cas de rejet, il reste possible de soumettre une nouvelle version remaniée…

Comme il n’y a pas suffisamment d’évaluateurs qualifiés et disponibles pour traiter la quantité phénoménale d’articles soumis aux revues du MDPI, ce dernier a recours à plusieurs types d’arrangements. Comme Frontiers Media, il utilise un algorithme de sélection de reviewers qui, couplé à un mécanisme de sollicitation, contacte simultanément un grand nombre d’évaluateurs, dont une part s’avère insuffisamment experte, voire complètement décalée, au regard du thème de l’article.

Des chercheurs ont par ailleurs relevé une forme de standardisation à travers quatre-vingt-cinq rapports d’évaluation très ressemblants concernant vingt-trois revues du MDPI. Ils reprennent texto des parties du résumé de l’article, puis poursuivent par des formulations types incitant systématiquement, pour les mêmes raisons génériques, à citer des articles écrits par les reviewers ou leurs coauteurs (pratique dite de coercitive citation). « Cela met en doute la véracité et la pertinence des rapports d’évaluation, voire leur authenticité dans la mesure où chaque manuscrit ne fait pas l’objet d’un examen approprié. »

Enfin, le chercheur Guillaume Cabanac a repéré des usages de l’application d’intelligence artificielle ChatGPT non seulement dans des expertises d’articles, mais aussi dans des articles publiés par le MDPI.

Un niveau d’autocitation contribuant à l’inflation des FI

L’autocitation consiste à intégrer aux références d’un article des papiers de la même revue. Souvent nécessaire et légitime, elle est considérée comme normale quand le taux se situe entre 5 % et 10 %. Or, ce taux dépasse les 20 % pour les revues du MDPI. À titre d’exemples, le taux d’autocitation de la revue Sustainability atteint 28 % ; la revue qui cite le plus l’IJERPH et qui est la plus citée par l’IJERPH est l’IJERPH. Cinquante-deux des cinquante-trois revues du MDPI indexées au Journal Citation Report (JCR) en 2018 ont accru leur taux d’autocitation en 2019. Par ailleurs, les citations interrevues du MDPI sont de plus en plus fréquentes, atteignant 29 %, en partie sous l’effet de citations non appropriées ou superflues. La consultation de la page dédiée à la revue Sustainability dans le JCR dévoile un réseau de citations typique : parmi les seize revues la citant le plus, on trouve onze titres du MDPI, deux de Frontiers, deux d’Elsevier et PLOS One.

Les autocitations intra- et interrevues du MDPI contribuent à l’inflation de leur FI, illustrant la manière dont cette métrique peut faire l’objet de manipulations de la part des éditeurs.

Le fonctionnement du MDPI se caractérise par un ensemble de pratiques générant une certaine perplexité : pressions pour l’acceptation des articles liées au modèle économique des APC ; énorme volume d’articles publiés ; vitesse expresse de publication ; processus éditorial peu rigoureux ; taux d’acceptation élevés ; robustesse scientifique controversée ; manipulations destinées à augmenter les FI.

De nombreuses revues de la « zone grise » diluent les repères censés attester des bonnes pratiques éditoriales et donc générer de la confiance. La confusion est toutefois insuffisante pour saper l’attrait de nombreux chercheurs pour les services fournis par les éditeurs frauduleux (facilité et rapidité contre paiement).

Réactions générées au sein des institutions de recherche pour lutter contre les éditeurs de la « zone grise »

Plusieurs initiatives visent à alerter la communauté scientifique vis-à-vis des dérives décrites, freiner le financement des publications chez des éditeurs douteux, voire écarter les articles publiés dans leurs revues lors de l’évaluation des activités scientifiques.

L’émergence de mesures d’exclusion en France

En 2023, la Conférence des doyens des facultés de Médecine a établi une liste de trois mille quatre cents revues à privilégier pour publier, reprise par la section santé du Conseil national des universités (CNU). Parmi ces nombreux titres, ne figure plus aucune revue de Frontiers ou du MDPI. Les critères menant à cette exclusion renvoient aux pratiques énoncées supra : délais très brefs pour expertiser et publier ; faible qualité des évaluations ; manque de clarté des procédures éditoriales ; tarifs élevés ; requêtes nombreuses et agressives pour inviter à soumettre ou à participer à des comités éditoriaux.

L’Inria et la vingt-septième section du CNU (informatique) appellent aussi à éviter ces deux éditeurs, en invitant à découpler les classements élogieux de leurs revues et la réalité des processus éditoriaux en vigueur. La sensibilisation des évaluateurs est privilégiée : ils sont invités à vérifier avec un soin particulier la qualité des articles publiés par MDPI et Frontiers, à demander aux auteurs de justifier leur ciblage de revues et à encourager le choix de revues pertinentes et « exemplaires ». Le choix de revues de faible qualité, tout comme les engagements éditoriaux au bénéfice de ces dernières, ont en effet pour effet de cautionner leurs pratiques douteuses.

Pour sa part, le CNRS demande à ses chercheurs de ne pas payer pour publier un article dans une revue, qu’elle soit hybride ou en accès ouvert intégral. Selon le directeur général délégué à la science du CNRS, il n’y a pas de raison de payer des APC (qu’il renomme « article prestige charges ») pour publier en open access car des revues en accès ouvert (modèle dit « diamant ») le permettent gratuitement.

Un interventionnisme plus marqué à l’international ?

En 2020, l’Académie des sciences chinoise a publié une « liste d’avertissement » de soixante-cinq revues posant problème en termes de qualité scientifique : vingt-deux revues du MDPI y figuraient (un total ramené à sept après intervention des services juridiques de l’entreprise). Parmi les critères avancés pour soutenir cette classification, on trouve pêle-mêle la présence de nombreuses erreurs (factuelles ou de forme), la nomination cavalière d’éditeurs, le trop grand nombre d’articles publiés, des processus d’évaluation semant le doute (rapidité, sélectivité), ou encore la création de nombreux nouveaux titres. Plus largement, une vingtaine d’universités et institutions de recherche chinoises ont déclaré ne plus prendre en considération les revues de cette liste dans leurs évaluations.

La même année, en Malaisie, le ministère de l’Enseignement supérieur a interdit aux universités de financer sur fonds publics les publications chez MDPI, Frontiers et Hindawi. Les autorités de ce pays souhaitent ainsi orienter leurs ressources vers les travaux menés pour faire progresser les connaissances et soutenir le développement sociétal, sans sacraliser l’open access ni les indexations internationales.

En Allemagne, l’université technique de Munich, faculté de Médecine et de Santé (Technical University of Munich, School of Medicine and Health), ne finance plus, depuis 2023, les APC du MDPI. En Espagne aussi, des revues ont été mises à l’index. Un rapport de l’Agence nationale d’évaluation de la qualité et d’accréditation (Agencia Nacional de Evaluación de la Calidad y Acreditación, ANECA), publié en 2021, met en cause le comportement anormal d’éditeurs comme le MDPI et Frontiers[10]. En Norvège, la revue Sustainability a connu un déclassement dans le système national d’indexation en raison de la fragilité du processus d’évaluation. Enfin, depuis 2023, le Fonds national suisse ne finance plus les articles en open access dans des numéros spéciaux de revues.

Le développement des revues douteuses s’explique par l’entrecroisement de différentes formes d’opportunisme. Il renouvelle la problématique des revues prédatrices apparue à la fin des années 2000. En brouillant les repères, il piège des chercheurs naïfs tout en correspondant aux besoins de scientifiques désireux de publier de manière fréquente. Stigmatiser ces derniers serait néanmoins simpliste car ils jouent le jeu dont leurs institutions de recherche ont accepté sinon défini les règles, créant des incitations perverses. Les systèmes contemporains d’évaluation de la recherche sont parmi les principaux moteurs des pratiques évoquées dans cet article, accentuant et poussant indirectement à l’adoption de comportements peu éthiques.

Lors des évaluations et des sélections, la prégnance des labels bibliométriques comme les FI produit des effets pervers déjà largement documentés qui atteignent une forme de paroxysme à travers le cas du MDPI. Une nouvelle fois, la loi de Goodhart se trouve ici illustrée : dès lors qu’une mesure devient une cible, elle cesse d’être une bonne mesure. Ce n’est pas l’open access en tant que tel qui est à l’origine de la situation décrite : bien des formats d’édition (revues « diamant », dépôt légal en ligne) permettent d’en développer les vertus sans générer les exagérations décrites dans cet article, à commencer par la trivialisation de la publication.

Cela démontre aussi, de manière schématique, deux orientations s’opposant au sein de la communauté scientifique. Comme l’a formulé Lucien Karpik, l’orientation symbolique, pour les chercheurs, est organisée autour d’un ensemble de valeurs et de normes classiques, parmi lesquelles on peut souligner la découverte comme finalité, l’importance de l’originalité, de l’ambition et du plaisir intellectuel, la position centrale du jugement des pairs et une forme de compétition animée par la volonté d’être le premier à découvrir et à être reconnu en publiant. À l’inverse, l’orientation matérielle désigne la tendance à maximiser le gain.

Ces deux logiques d’action sont entremêlées et leur influence relative est variable. Quand la seconde prévaut, les logiques professionnelles se voient en partie subordonnées à des logiques de marché rompant partiellement avec les normes académiques légitimes. Les effets produits sont tout sauf neutres : plus l’orientation matérielle est puissante, plus la création scientifique, en renforçant la désingularisation, se trouve défavorisée.

Selon l’InterAcademy Partnership, la monétisation et la commercialisation croissantes des résultats de la recherche sont en voie d’institutionnalisation, s’ancrant progressivement dans les cultures scientifiques. Ce constat alarmant appelle à repenser l’évaluation de la recherche dans trois directions : prise en compte de mesures plus qualitatives, reconnaissance du rôle crucial des pairs évaluateurs et transparence des processus d’expertise. Une vigilance s’impose d’autant plus que la pression des pairs figure en bonne place parmi les raisons évoquées par les chercheurs pour justifier le ciblage d’éditeurs de la « zone grise ». L’absence de surveillance contribue à l’inverse à légitimer les pratiques douteuses et les revues de faible qualité.

L’impact de ces dernières, actuellement sous-estimé, est protéiforme : qualité, diversité et originalité des recherches ; efficacité des scientifiques ; délégitimation de la science ; gaspillage intellectuel[11] et économique, etc. Elles sont même potentiellement dangereuses lorsqu’elles désinforment les politiques publiques et les pratiques médicales.

Les réactions institutionnelles sont plurielles et certaines prises de position sont radicales. Leur absence est indirectement incitative, en continuant à sacraliser des indicateurs qui sont le carburant des dérives constatées, contribuant au développement d’une fast science en butte à d’indépassables limites. L’exagération que représente le cas du MDPI, donnant open access à la consultation, mais aussi, dans une certaine mesure, à la publication – contre paiement –, est paradoxalement susceptible de représenter une opportunité pour une prise de conscience stimulant le changement du mode d’évaluation du travail des scientifiques.


[1] Cet indicateur a été créé dans les années 1950 dans le but d’outiller les choix d’abonnement des bibliothèques ; il correspond au ratio entre le nombre de citations des articles parus dans une revue et le nombre d’articles publiés par la même revue. Cette mesure assez rudimentaire a ensuite été détournée à des fins d’évaluation de la recherche, pour attester indirectement de la qualité des contenus d’une revue, dont elle constitue au mieux un proxy très approximatif.

[2] En 2020, 87,5 millions d’euros ont été dépensés en abonnements par les institutions de recherche françaises. À l’échelle européenne, la facture s’élève à un milliard d’euros.

[3] Lancé en France en 2018, le Plan national pour la science ouverte est soutenu par l’Agence nationale de la recherche (ANR), le Centre national de la recherche scientifique (CNRS) et la Commission européenne. Il entend dynamiser la construction d’un écosystème de publications scientifiques ouvert, éthique et transparent, impliquant une pluralité d’acteurs éditoriaux.

[4] Le cap des cent mille articles a été atteint par PLOS One en 2014, un peu plus de sept ans après sa création. Frontiers cumule, en 2023, plus de cinq cent mille articles publiés et le Multidisciplinary Digital Publishing Institute, en 2024, un million cinq cent mille.

[5] Promesse de l’open access, l’accélération de la circulation des savoirs se trouve paradoxalement entravée par une telle profusion d’articles, au sein de laquelle faire le tri relève de la gageure.

[6] Un processus éditorial digne de ce nom comporte différentes phases : assigner l’article à un éditeur (associé) ; laisser ce dernier jeter un œil à l’article et identifier des reviewers ; contacter et convaincre ces derniers (beaucoup refusent) ; expertiser le texte (sachant que les scientifiques compétents manquent généralement de temps) ; prendre une décision éditoriale basée sur la consultation des évaluations ; rédiger l’avis aux auteurs ; consulter et comprendre les rapports (pour les auteurs) ; réviser l’article, donc mener des analyses additionnelles, lire de nouvelles références, rédiger et resoumettre, etc.

[7] Le taux d’acceptation moyen mis en avant par l’entreprise Frontiers Media est de 60 %. De la Blanchardière et ses collègues estiment le taux de rejet entre 20 % et 40 % en 2021 alors que l’une des deux cocréatrices de l’entreprise le situait à 19 % en 2016.

[8] Il n’y a pas de symétrie pour l’acceptation des articles : les éditeurs sont encouragés à accepter les manuscrits dès qu’ils reçoivent deux recommandations de publication de la part des évaluateurs (quel que soit le nombre d’autres évaluateurs recommandant un rejet).

[9] Chez Frontiers, les éditeurs en chef sont soumis à des clauses contractuelles conditionnant le maintien de leur rémunération (15 000 € par an en 2016) à la publication d’un certain nombre d’articles par an (cinq cents, voire mille deux cents pour chaque field chief editor). La barre n’est fixée qu’à cent vingt pour les éditeurs spécialisés, qui ne sont pas rémunérés. Ce système pyramidal d’incitation pousse à recruter de nouveaux éditeurs (eux-mêmes incités à publier dans leurs revues) et à créer des sections supplémentaires et autres numéros spéciaux.

[10] Ce rapport fut cependant retiré en 2023, l’agence espagnole entendant réformer de manière plus radicale l’évaluation de la recherche : prise en compte accrue des dimensions qualitatives, mise en retrait des facteurs bibliométriques.

[11] Il a surtout été question, jusqu’alors, du volume presque inconcevable d’articles publiés dans les revues du MDPI. En dépit du flou concernant leur évaluation, certains chercheurs mettent en avant une activité d’expertise elle aussi effrénée, atteignant parfois près de trente articles évalués par an pour le compte de différentes revues. Cette intense implication est à mettre en miroir des réductions offertes aux reviewers (de l’ordre de 100 CHF par évaluation) sur les futures APC conditionnant la publication dans des revues de cette entreprise.

Bastien Soulé

Sociologue, Professeur à l’université Claude Bernard Lyon I et membre du Laboratoire sur les vulnérabilités et l’innovation dans le sport (L-ViS)

Notes

[1] Cet indicateur a été créé dans les années 1950 dans le but d’outiller les choix d’abonnement des bibliothèques ; il correspond au ratio entre le nombre de citations des articles parus dans une revue et le nombre d’articles publiés par la même revue. Cette mesure assez rudimentaire a ensuite été détournée à des fins d’évaluation de la recherche, pour attester indirectement de la qualité des contenus d’une revue, dont elle constitue au mieux un proxy très approximatif.

[2] En 2020, 87,5 millions d’euros ont été dépensés en abonnements par les institutions de recherche françaises. À l’échelle européenne, la facture s’élève à un milliard d’euros.

[3] Lancé en France en 2018, le Plan national pour la science ouverte est soutenu par l’Agence nationale de la recherche (ANR), le Centre national de la recherche scientifique (CNRS) et la Commission européenne. Il entend dynamiser la construction d’un écosystème de publications scientifiques ouvert, éthique et transparent, impliquant une pluralité d’acteurs éditoriaux.

[4] Le cap des cent mille articles a été atteint par PLOS One en 2014, un peu plus de sept ans après sa création. Frontiers cumule, en 2023, plus de cinq cent mille articles publiés et le Multidisciplinary Digital Publishing Institute, en 2024, un million cinq cent mille.

[5] Promesse de l’open access, l’accélération de la circulation des savoirs se trouve paradoxalement entravée par une telle profusion d’articles, au sein de laquelle faire le tri relève de la gageure.

[6] Un processus éditorial digne de ce nom comporte différentes phases : assigner l’article à un éditeur (associé) ; laisser ce dernier jeter un œil à l’article et identifier des reviewers ; contacter et convaincre ces derniers (beaucoup refusent) ; expertiser le texte (sachant que les scientifiques compétents manquent généralement de temps) ; prendre une décision éditoriale basée sur la consultation des évaluations ; rédiger l’avis aux auteurs ; consulter et comprendre les rapports (pour les auteurs) ; réviser l’article, donc mener des analyses additionnelles, lire de nouvelles références, rédiger et resoumettre, etc.

[7] Le taux d’acceptation moyen mis en avant par l’entreprise Frontiers Media est de 60 %. De la Blanchardière et ses collègues estiment le taux de rejet entre 20 % et 40 % en 2021 alors que l’une des deux cocréatrices de l’entreprise le situait à 19 % en 2016.

[8] Il n’y a pas de symétrie pour l’acceptation des articles : les éditeurs sont encouragés à accepter les manuscrits dès qu’ils reçoivent deux recommandations de publication de la part des évaluateurs (quel que soit le nombre d’autres évaluateurs recommandant un rejet).

[9] Chez Frontiers, les éditeurs en chef sont soumis à des clauses contractuelles conditionnant le maintien de leur rémunération (15 000 € par an en 2016) à la publication d’un certain nombre d’articles par an (cinq cents, voire mille deux cents pour chaque field chief editor). La barre n’est fixée qu’à cent vingt pour les éditeurs spécialisés, qui ne sont pas rémunérés. Ce système pyramidal d’incitation pousse à recruter de nouveaux éditeurs (eux-mêmes incités à publier dans leurs revues) et à créer des sections supplémentaires et autres numéros spéciaux.

[10] Ce rapport fut cependant retiré en 2023, l’agence espagnole entendant réformer de manière plus radicale l’évaluation de la recherche : prise en compte accrue des dimensions qualitatives, mise en retrait des facteurs bibliométriques.

[11] Il a surtout été question, jusqu’alors, du volume presque inconcevable d’articles publiés dans les revues du MDPI. En dépit du flou concernant leur évaluation, certains chercheurs mettent en avant une activité d’expertise elle aussi effrénée, atteignant parfois près de trente articles évalués par an pour le compte de différentes revues. Cette intense implication est à mettre en miroir des réductions offertes aux reviewers (de l’ordre de 100 CHF par évaluation) sur les futures APC conditionnant la publication dans des revues de cette entreprise.