Éducation

Mirage de l’excellence et naufrage de la recherche publique

Mathématicien, Philosophe

Actuellement discutée en procédure accélérée à l’Assemblée Nationale, la LPPR arrivera le 21 septembre en séance publique. Ultime occasion de remettre en question les principes qui président aujourd’hui au pilotage de la recherche. Car le moins que l’on puisse espérer, autant pour la science que pour la bonne utilisation des fonds publics, est qu’une bonne gestion de la recherche scientifique repose sur un minimum de bases scientifiques quant aux indicateurs qu’elle manipule et aux relations de cause à effet qu’elle envisage de mobiliser. Or il n’en est rien.

En pleine polémique sur la gestion de la recherche publique par l’exécutif, qui prépare une loi pluriannuelle de programmation de la recherche (LPPR) « ambitieuse, inégalitaire – oui, inégalitaire, (…) vertueuse et darwinienne » des dires mêmes du PDG du CNRS, nous posons la question de l’évaluation scientifique de ces politiques publiques. Le moins que l’on puisse espérer, autant pour la science que pour la bonne utilisation des fonds publics, est qu’une bonne gestion de la recherche scientifique repose sur un minimum de bases scientifiques quant aux indicateurs qu’elle manipule et aux relations de cause à effet qu’elle envisage de mobiliser. Or il n’en est rien.

Non seulement les politiques actuelles n’ont pas de justification scientifique particulière, mais on peut démontrer scientifiquement qu’elles s’appuient sur des métriques biaisées, produisent des effets contre-productifs et font peser une menace sérieuse sur l’avenir de la recherche française.

Rappelons au passage que le CNRS a été créé en 1939 pour favoriser une mobilisation scientifique devant l’inéluctabilité d’une nouvelle guerre. Car bien avant 1939, il y a eu 1870. La défaite face à la Prusse de Guillaume Ier et de Bismarck rassemble les savants français autour d’un constat  : le pays n’a pas été battu sur les champs de bataille, mais devant les paillasses. Il n’y a aucun doute pour Louis Pasteur  : «  la faiblesse de notre organisation scientifique  » est la cause des « malheurs de la  patrie ». De ce constat découlent, dès les débuts de la Troisième République, plusieurs réformes de l’enseignement supérieur, une hausse des budgets des facultés et des établissements – le Collège de France, le Muséum national d’histoire naturelle, etc. – et des initiatives prises par les savants eux-mêmes, dont la création de l’Institut Pasteur en 1888, l’un des exemples les plus notoires.

Qu’un établissement comme le CNRS souhaite améliorer sa manière de remplir ses objectifs est une bonne chose, qu’il le fasse sur des bases non scientifiques et en oubliant les raisons qui lui ont donné naissance serait un comble.

C’est pourtant l’orientation que semble prendre le projet de LPPR, qui s’inscrit dans la continuité d’un entêtement à faire entrer dans le moule néolibéral de la compétitivité la manière de gérer et de faire de la recherche publique, c’est à dire une recherche tournée vers le bien commun. Cela équivaut à imposer à des champions du 100m haies de porter des palmes sous prétexte qu’on nage mieux avec. Une fausse bonne idée, comme on va le voir.

L’idéologie actuelle de la recherche se définit par l’excellence et la compétitivité. Le Président Macron le rappelle régulièrement : il nous faut retenir les talents, attirer ceux qui sont loin, faire revenir ceux qui sont partis afin d’avoir les laboratoires les plus performants face à la concurrence internationale. Il faut un système d’évaluation qui permette « la bonne différenciation et l’accélération de notre excellence en matière de recherche » (voir l’intervention du Président lors des 80 ans du CNRS, à 40’). Telle une religion, cette idéologie s’étend à tout dans l’enseignement supérieur et la recherche (ESR).

Ainsi depuis quelques années, tout nouveau venu dans ce monde doit s’appeler « excellent » : les Idex (Investissements d’excellence), les Labex (laboratoire d’excellence), les Equipex (Equipement d’excellence), etc. Comme naguère les « ix » dans Astérix, les « ex » doivent dans l’ESR conclure le nom de chacun des protagonistes ; et sur les excellents l’argent pleuvra, sous forme de subventions, projets financés, bourses, etc. À terme, à l’horizon des réformes type Parcoursup à venir, des universités d’excellence pourront sans doute surpayer leurs professeurs (excellents) en faisant payer leurs étudiants (excellents), et les autres pourront gérer tranquillement leur délabrement matériel, financier, intellectuel.

Pour preuve de rigueur intellectuelle, cette politique a prévu les critères externes de son évaluation, pour autant qu’elle n’en soit pas le symptôme : l’excellence des mesures qu’elle préconise doit être validée par la progression des ESR français dans le classement de Shanghaï, pot-pourri scientometrique qui agrège de manière arbitraire une série d’indicateurs « standards » de la production scientifique.

La course poursuite perdue d’avance

Pour comprendre l’aporie à laquelle nous conduisent les politiques publiques de la recherche, rien de tel qu’une analogie avec une situation que toute personne comprendra.

Vous êtes inspecteur dans votre voiture et la covid-19 vient de s’enfuir sous vos yeux. Que faites vous ? Vous la prenez en chasse bien sûr, en appelant à l’aide vos collègues. Et bien non, en fait, c’est une mauvaise idée. Parce que votre gouvernement a décidé de mettre en place des stations essence « flash » qui vont vous donner rapidement et pour presque rien du carburant. Vous devez profiter de cette opportunité car si vous vous mettez en tête de faire le plein à un moment plus approprié, il y a fort à parier que toutes les stations flash auront disparu, l’essence sera chère et l’attente sera longue, aussi vos chances de reprendre la poursuite seraient quasi nulle. Par ailleurs, prévenir des collègues qui auraient des chances de se trouver sur la route de la covid-19 vous desservira, car vous savez que le gouvernement ne récompense que les inspecteurs excellents, c’est-à-dire ceux qui ont été vus en train d’attraper le criminel. Pour tous les autres participants à la traque, ce sera … toute notre estime et pain rassis.

La recherche publique est depuis plusieurs années dans cette situation, à la différence près que les voitures d’inspecteurs ont rarement de l’essence d’avance. Quand un chercheur veut prendre en chasse une bonne idée, il doit faire le tour des quelques agences de financement existantes, qui proposent des appels à projets aux dates de soumission irrégulières, fléchés thématiquement la plupart du temps et qui exigent des semaines de préparation pour la rédaction du dossier de soumission de la proposition. Ces agences mettront des semaines à les évaluer pour in fine tirer au sort les propositions à financer parmi celles dont les objectifs sont jugés « excellents » (le taux moyen d’acceptation d’un projet de recherche est de l’ordre de 15% et quiconque a été jury sait que cette proportion est bien inférieure, faute de moyens, à celle des projets « excellents » qui auraient pu prétendre à financement).

La nouvelle grande idée de la LPPR serait donc d’accentuer cette compétition alors qu’il est de connaissance commune qu’elle est contre-productive.

La Mark Gable Foundation et l’excellence

Curieusement, le système actuel de la recherche excellente avait déjà été rêvé par le physicien théoricien Leo Szilard, père de nombreuses choses dont d’importantes théories de l’information ; pour lui c’était plutôt un cauchemar.

Également écrivain, il imaginait dans un texte des années 50, un milliardaire, Mark Gable, posant la question suivante : « le progrès scientifique va trop vite, comment le ralentir ? »

La réponse que lui apportait son interlocuteur est on ne peut plus actuelle :
« Eh bien, je pense que cela ne devrait pas être très difficile. En fait, je pense que ce serait assez facile. Vous pourriez créer une fondation, avec une dotation annuelle de trente millions de dollars. Les chercheurs qui ont besoin de fonds pourraient demander des subventions, à condition d’avoir des arguments convaincants. Ayez dix comités, chacun composé de douze scientifiques, nommés pour traiter ces demandes. Sortez les scientifiques les plus actifs des laboratoires et faites-en des membres de ces comités. Et nommez les meilleurs chercheurs du domaine comme présidents avec des salaires de cinquante mille dollars chacun. Ayez aussi une vingtaine de prix de cent mille dollars chacun pour les meilleurs articles scientifiques de l’année. C’est à peu près tout ce que vous auriez à faire. Vos avocats pourraient facilement préparer une charte pour la fondation … »

Devant l’incrédulité de Mark Gable sur la capacité de ce dispositif à retarder le progrès scientifique, son interlocuteur poursuivait :
« Ça devrait être évident. Tout d’abord, les meilleurs scientifiques seraient retirés de leurs laboratoires et siégeraient dans des comités chargés de traiter les demandes de financement. Deuxièmement, les scientifiques ayant besoin de fonds se concentreraient sur des problèmes qui seraient considérés comme prometteurs et conduiraient avec une quasi-certitude à des résultats publiables. Pendant quelques années, il pourrait y avoir une forte augmentation de la production scientifique ; mais en s’attaquant à l’évidence, la science s’assècherait très vite. La science deviendrait quelque chose comme un jeu de société. Certaines choses seraient considérées comme intéressantes, d’autres non. Il y aurait des modes. Ceux qui suivraient la mode recevraient des subventions. Ceux qui ne le feraient pas n’en auraient pas, et très vite, ils apprendraient à suivre la mode. »

Szilard avait mille fois raison, et nous voulons appuyer sur un seul point de sa démonstration : la détection de l’ « excellence » du chercheur. Nous soutenons que c’est aujourd’hui une vaste fadaise, fadaise sur laquelle on construit l’ESR de demain.

Compétition et coopération

La plupart des activités sociales sont à des degrés divers un mixte de compétition et de coopération – la science comme le rugby, le théâtre, la musique. Ainsi, le comédien doit coopérer avec ses partenaires sans quoi le film sera exécrable ; mais tous les comédiens du film sont en compétition pour l’oscar, le rôle de leur vie, le regard d’un producteur, etc. La science fonctionne de la même manière : compétition entre chercheurs qui doivent coopérer, aujourd’hui parfois à plus de cent chercheurs pour écrire le moindre article (même si la « compétition » au sens du savant n’est précisément pas celle des managers de la recherche).

Indéniablement, la politique actuelle de l’excellence a poussé très loin le curseur vers la compétition, puisque de petits écarts initiaux s’accroitront démesurément sous l’effet des diverses subventions, bourses, projets plus ou moins pharaoniques donnés au vainqueur. Mais comment reconnaît-on ce vainqueur?

Dans l’ESR, l’unité de valeur est la publication : l’excellent – celui qui domine la compétition – publie beaucoup, dans les bonnes revues. Des termes tels que « h-index » sont censés mesurer sa « grandeur », pour reprendre le concept utile de Boltanski et Thévenot. Seulement l’attribution de l’excellence masque un problème fondamental, celui de l’inextricabilité des contributions causales, qui rend extrêmement complexe la notion de « crédit intellectuel », laquelle fonde la pratique de la citation. Or une telle pratique définit une dimension essentielle de l’excellence : les « grandes revues » (= à facteur d’impact élevé) contiennent davantage d’articles souvent cités ; les excellents publient davantage dans les « grandes revues »…

Quel est donc ce problème fondamental ? Pensons un instant au football. L’attaquant, Lionel Messi ou Cristiano Ronaldo, marque un but. On le célèbre, il a fait gagner son équipe. Mais quel était exactement son apport causal ? Parfois, il aura simplement poussé du bout du pied un ballon qui se trouvait être au bon endroit – et s’il l’était, au bon endroit, ce fut justement à cause de trois ou quatre de ses coéquipiers. Mais marquer le but est bien l’épreuve décisive qui sépare l’équipe gagnante de l’équipe perdante, et ultimement les premiers des derniers du classement. L’attaquant, statistiquement le plus à même de marquer des buts, remporte donc les lauriers : de fait, le « ballon d’or » de l’UEFA récompense le plus souvent des attaquants. Ce prix repose sur ce qu’on appelle parfois une « fiction utile » : on fait comme si l’apport de tous les autres n’était pas si déterminant, et on concentre toute la grandeur sur le vecteur final de la victoire, afin de pouvoir distinguer et célébrer certains joueurs (et fournir au Mercato une échelle de prix).

On retrouve en science un phénomène analogue : qui exactement a découvert la structure de l’ADN ? Crick et Watson, qui eurent le Nobel ? Rosalind Franklin qui a révélé les premières contraintes auxquelles devait se soumettre tout modèle de l’ADN, mais décéda 4 ans avant ce Nobel sans avoir pu cosigner les articles phares (possiblement écartée de la signature parce que c’était une femme) ? Que dire même des premiers chercheurs qui conçurent des modèles de la molécule, comme Linus Pauling (certes deux fois Nobel pour d’autre travaux) ? Comme le ballon d’or, le Nobel efface la contribution causale des autres acteurs.

De tels dispositifs résolvent ainsi la question du crédit intellectuel, qui pourrait se formuler de la sorte : « à qui doit-on une idée ? » Mais ils la résolvent en la dissolvant, de la même manière que le ballon d’or dissout les innombrables contributions qui sous-tendent les centaines de buts de Messi. Pour la science, « l’excellence », mesurée au h-index ou un autre de ses substituts, récompensée par des dispositifs qui vont de la subvention post-doctorale au prix Nobel (peut-être moins sensible, justement, à l’excellence du h-index, mais représentant pour le présent propos un bon exemple didactique), est donc exactement le même type de fiction utile : le « publiant » apparaît seul auteur d’une masse de contributions à la science, comme Lionel Messi semble, lorsqu’il reçoit sa récompense, avoir porté tout seul des centaines de fois un ballon dans les filets adverses.

Or le crédit intellectuel s’atteste dans la citation, et la citation est, encore une fois, la base de la mesure de l’excellence (comme l’a montré Yves Gingras). Mais quand un chercheur parle d’un modèle, d’une théorie, d’une hypothèse ou d’un résultat, bref d’une idée, et cite un article qui justifie cette idée, qui doit-il citer exactement ? L’article où il a lui-même lu l’idée (souvent ce qu’on appelle un review paper) ? Celui où celle-ci a été énoncée en premier ? Mais son métier ne requiert pas qu’il ait lu cet article originel, ni même qu’il le connaisse (il n’est pas historien) ; et bien entendu, cette idée aura souvent été énoncée sous des formes proches par d’autres que l’initiateur reconnu.

Toute marque d’excellence est donc une fiction utile pour répondre à ces questions : qui parle d’ADN citera Crick et Watson ; d’autres formes institutionnelles de reconnaissance font en sorte que la citation appropriée, dans un contexte donné, vient vite à l’esprit du chercheur. Et, par un mécanisme évident de rétroaction positive (soit : un effet renforce sa cause), ces effets s’auto-renforcent : au sujet du concept A, je citerai plus volontiers X, déjà beaucoup cité, que Y, qui a certes dit la même chose un peu avant X mais fut, lui, bien moins cité… Par cette simple logique, sans rien faire les « excellents » deviennent donc de plus en plus excellents.

Pour le football, la fiction utile du Ballon d’or n’est sans doute pas dommageable. Chacun sait qu’elle est une fiction, que le foot est un sport collectif – mais les choses sont plus floues pour ce qui est de la science, surtout si on considère la politique actuelle de l’ESR. Certes, pour le Nobel ou autres récompenses du même genre, le temps a déjà en quelque sorte filtré les découvertes, leur importance apparaît peut-être objectivement, la « fiction utile » du chercheur solitaire se justifierait. Mais le h-index, mesure pondérée du nombre de citations, ne considère justement pas les objets des publications et leur possible importance scientifique, d’autant qu’il s’établit en « temps réel » ; pourtant, il reste l’outil essentiel d’allocation des ressources en science (postes, financements, etc.).

Or ce décompte pondéré des publications, base de la détection de l’excellence, induit des effets collatéraux pervers, du type même de ceux qu’esquissait Szilard. La fiction supposément utile, dans le cas de la science, s’avèrera donc en réalité nuisible, comme nous allons tout d’abord l’expliquer. Nous montrerons ensuite sur la base de récents développements scientifiques au carrefour de l’informatique, de l’histoire des sciences et de l’épistémologie que l’excellence au sens usuel est une approche unidimensionnelle et donc fausse de ce qui mesurerait réellement la contribution d’un chercheur à la science.

Les effets pervers de l’excellence

Outre le fait de nuire à la coopération entre chercheurs, cette idéologie de l’excellence dégrade la dynamique même du développement de la connaissance.

Commençons par nous demander si une différence dans le nombre de publications reflète nécessairement une différence dans la grandeur de leurs auteurs. Un chercheur auteur de cent publications est-il nécessairement plus « excellent » qu’un chercheur qui en a eu dix sur la même période, toutes choses étant égales par ailleurs ? La réponse est non : des modélisations de la dynamique des sciences démontrent qu’une population d’acteurs d’égale qualité peut, de manière tout à fait contingente, générer des écarts dans les volumes de publication comparables à ceux que l’on observe dans le monde académique. L’un des indicateurs à l’aune desquels se mesure l’ « excellence » comporte donc une part intrinsèque et très importante d’aléa.

À cette imprécision initiale, s’ajoute l’effet pervers de l’incitation à la course à la publication. Le fait qu’elle conduise quasi mécaniquement à une baisse globale de la qualité de la production scientifique est depuis longtemps documenté autant d’un point de vue formel qu’empirique.[1]

Car il est bien des moyens pour avoir cinq publications au compteur là où on pourrait en avoir simplement une. Des plus éthiquement condamnables aux plus permises on rencontrera entre autres :
Le plagiat – une fois détecté, il peut vous valoir la radiation, donc son coût est très élevé. (Mais il l’est de moins en moins pour les raisons qu’on va indiquer. )
L’auto-plagiat – ensuite, permet de dédoubler une publication en racontant par exemple différemment dans deux journaux de disciplines un peu différentes la même idée.
Le saucissonnage – soit : produire cinq articles avec une seule idée, simplement en la découpant en petits morceaux, par exemple en analysant un même modèle avec plusieurs gammes de paramètres, ou en l’appliquant à différents contextes…
L’opportunisme – identifier des domaines où les données abondent et où on peut facilement en tirer quelque chose avec un traitement statistique ou une modélisation usuelle.
Le rush – écrire le plus vite possible un article et le soumettre au plus tôt à des journaux jusqu’à ce qu’il soit accepté, même s’il n’est pas encore bien ficelé (défaut de reproductibilité ou manque de vérification rigoureuse des résultats, y compris les résultats tiers sur lesquels il s’appuie). La probabilité que cette stratégie vous épargne les derniers 20% de vérifications nécessaires à un bon article (qui prennent généralement 80% du temps) est clairement non nulle. Sans compter qu’elle vous permet de prendre de court vos concurrents.

En outre, certains types de travaux sont plus propices que d’autres à être beaucoup cités : développer un modèle déjà beaucoup cité (opportunisme) ; produire des résultats positifs (« il est probable que notre hypothèse H explique les données ») plutôt que négatifs (« nous avons conçu l’hypothèse H, nos données ensuite l’infirment »), quitte à gonfler un peu la signifiance statistique des résultats, par quelques manipulations faciles (c’est le problème massif aujourd’hui du p-hacking) ; écrire une review de littérature qui, en attendant la prochaine review de ce type, sera citée en introduction par tout article souhaitant démontrer la connaissance des derniers développements d’un domaine.

Plusieurs effets découlent de cela : d’abord, le nombre de publications, et même le h-index, de deux chercheurs ne distingue aucunement leur vraie grandeur puisqu’il faudrait pondérer cela par le nombre de stratégies en question qu’ils s’autorisent. Ensuite, là où dans le monde de Gödel, Szilard ou Russell il y avait 5 publications à lire, il en existe aujourd’hui 50, grandement redondantes ; de sorte que le chercheur fait face à une littérature beaucoup plus étendue à défricher, et en identifier le contenu essentiel (en détectant les redondances) requiert bien plus de temps.

Cette accumulation prévient un traitement humain de la littérature scientifique ; ou, solution alternative : le chercheur ne lit plus, trop occupé à multiplier ses articles, et les chances sont grandes alors qu’il redécouvre l’eau chaude. Ce « bruit » croissant dans la publication rend aussi le plagiat difficilement détectable, puisque les chances d’avoir lu le texte plagié diminuent en fonction de la masse totale de textes à lire, et on constate maintenant qu’il augmente en fréquence.

Par ailleurs, si pour publier beaucoup, il est plus facile de viser des thématiques en vogue, comme l’indiquait déjà Szilard, alors il y aura sur-inflation de publications sur ces questions et pénurie sur le reste, ces voies intéressantes mais dans lesquelles on se risquera peu. Pour le dire à la manière des écologues, le système de l’excellence donne une prime à l’exploitation (creuser toujours le même filon, on est sûr d’avoir un certain rendement, même si il diminue) au détriment de l’exploration (aller voir d’autres sillons au risque de ne rien trouver). L’exploration induit une perte de temps (se familiariser avec de nouveaux sujets, etc.), laquelle se paye en nombre de publications et ainsi diminue les chances de remporter la compétition.

Cette prime à l’exploitation induit alors un effet de labellisation : une fois un filon trouvé, les chercheurs, en sciences dures comme en humanités, auront tendance à l’exploiter jusqu’à s’y identifier, jusque devenir « labellisés ». L’un sera Monsieur « motifs dans les réseaux », l’autre Madame épigénétique, etc. Et le label, à son tour, impose un coût de légitimité à qui veut s’écarter de son propre label. Là où des logiciens philosophes des mathématiques comme Nelson Goodman ont pu s’aventurer à écrire sur l’esthétique des ouvrages majeurs dans les années 70, aujourd’hui une telle démarche relèverait de l’inconscience.

À qui objecterait que la prise en compte de la qualité des supports de publication (mieux vaut publier 2 articles dans Nature que 10 dans un obscur Open Journal of Statistical physics) pallie tous ces biais dus au purement quantitatif, on rétorquera que la « grandeur » de tels supports, mesurée en termes de facteur d’impact, repose sur une métrique de la citation qui elle-même est déjà constituée par la fiction utile de l’excellence. Ainsi, les journaux à facteur d’impact élevé ne sont cités plus que les autres qu’à partir du moment où la notion de facteur d’impact est introduite, de sorte que leur « grandeur » n’est pas indépendante du système de l’ « excellence », lequel était censé, au contraire, venir la mesurer après coup.

La détection actuelle de l’excellence est donc non seulement faussée, mais induit des effets nuisibles sur la dynamique de la science elle-même – et ces deux traits sont solidaires en réalité. On a un bel exemple de contradiction performative : à partir du moment où on institue le système de l’excellence (centré sur des mesures de publication comme le h-index) on affecte directement la production de la littérature scientifique en un sens qui rend cette mesure de h-index incapable de saisir exactement ce qu’elle devait saisir initialement (i.e. la grandeur relative des chercheurs).

« L’excellence » selon la gouvernance de l’ESR : une image unidimensionnelle de la « grandeur » en sciences.

Il ne s’agit pas ici de dire que tout se vaut, que mesurer la « grandeur » en sciences n’a aucun sens. Mais la science de la science montre que l’excellence donne en réalité une vision unidimensionnelle de la grandeur en sciences, laquelle peut être abordée au moins en principe lorsqu’on replace un chercheur dans la dynamique de la science.

On peut en effet aujourd’hui reconstruire informatiquement en quelque sorte la cartographie et la phylogenèse des concepts scientifiques dans un domaine donné (un exemple est donné ici).

On savait déjà que la science n’est pas une simple accumulation de connaissances dues à l’observation ; mais sur la base de l’analyse d’une part significative de l’ensemble de la production scientifique d’un domaine, les méthodes de reconstruction computationnelle nous montrent que la dynamique de la science présente des patterns et des formes complexes qui invitent à réfléchir à la position du chercheur dans la phylogenèse du domaine auquel il contribue.

L’évolution d’un domaine de science n’a en effet rien de linéaire : des champs émergent comme des lignées et des failles dans les phylogénies biologiques, d’autre s’éteignent, certains domaines doivent à un moment explorer de nombreuses pistes pour la plupart infructueuse pour dépasser un verrou théorique ou technologique, d’autre naîtront de l’hybridation improbable entre domaines de science initialement conçus comme éloignés. Dans ces conditions, l’activité du chercheur n’a pas le même statut, les mêmes enjeux, et ne requiert pas les mêmes compétences et donc les mêmes critères d’évaluation selon sa place dans la branche. Et plus généralement, ce qui est « bon » pour la science peut être de plusieurs natures, selon qu’on se trouve à l’émergence d’une nouvelle branche, à sa périphérie, à un moment où elle fusionne, où à un moment où elle est en quelque sorte en plein régime.

Les besoins et les possibles de la science diffèrent en chaque lieu de la dynamique, telle qu’elle apparait sur un « arbre phylogénétique » reconstitué en saisissant les parentés, fusions, et évolutions des proximités entre termes et concepts.[2] Ainsi, la contribution possible d’un chercheur situé au centre d’une branche bien établie et ancienne se traduira par des articles plus nombreux que celle d’un chercheur oeuvrant dans un champ naissant, ou bien situé au point où deux champs s’hybrident; de même, un travail relevant d’un champ dont visiblement la taille s’amenuise sera probablement monnayé en un nombre de publications bien plus mince qu’une recherche située dans un domaine en pleine expansion. Ces différences s’expliquent par de nombreux facteurs sociaux : le nombre de journaux prestigieux établis, la vitesse différente de circulation des arguments, les financements disponibles pour le travail expérimental, la difficulté plus ou moins grande à obtenir un poste et donc s’assurer rapidement des meilleures conditions pour publier…

À chaque fois les contributions à la science se déploient sur des dimensions différentes : non seulement exploitation et exploration, mais plus précisément : forage, hybridation, rapprochements de champs, autonomisation (au sens où les biologistes parlent de « spéciation » pour nommer le processus d’émergence d’une nouvelle espèce). Sauf décision arbitraire ou convention discutable, aucune de ces dimensions ne vaut mieux que les autres. Ainsi, pour reprendre notre comparaison : l’étude de la dynamique de la science montre bien qu’en sciences des rôles différents sont déterminés et joués par chacun. Ils se constituent comme des combinaisons de contributions sur les différentes dimensions citées, dimensions que l’on peut voir émerger en retraçant la phylogénèse d’une science.

Tout se passe comme si, en sciences aussi, existent l’équivalent des positions d’ailier droit, d’avant centre, de goal ou de libero ; et les dynamiques scientifiques peuvent partiellement s’expliquer des répartitions de ces rôles, de même qu’en football une stratégie implique de définir une distribution des emplois (4-3-3, 4-4-2 etc.). Estimer la « grandeur » de tous les chercheurs par la métrique du h-index reviendrait à évaluer tous les joueurs d’une équipe de football sur le nombre de buts qu’ils marquent, ce qui est manifestement absurde.

En drapant une pénurie de moyens de l’idéologie de la compétition entre chercheurs – être meilleur que l’autre, passer devant l’autre – la loi pluriannuelle de programmation de la recherche menace de détruire l’essence même de la recherche : tisser des liens avec ses pairs pour confronter ses idées et faire progresser la connaissance. Les compétiteurs ne tissent plus de liens, comme le rappelait Albert Jacquart, et par conséquent, sous cette compétition artificiellement amplifiée se cache une forme de suicide collectif.

Les arguments pseudo-scientifiques qui justifient cette approche de l’évaluation relèvent autant d’une méconnaissance de la réalité de terrain que d’une ignorance des nombreux enseignements de la science de la science. Pour optimiser la dépense publique et rester dans le peloton de tête au niveau international en terme de R&D, une évaluation scientifique des arguments en faveur de l’évaluation différenciante des chercheurs ne serait peut-être pas superflue.

 


[1] Tijdink, J.K., Verbeke, R., Smulders, Y.M., 2014. Publication Pressure and Scientific Misconduct in Medical Scientists. Journal of Empirical Research on Human Research Ethics 9, 64–71 ; Moore, S., Neylon, C., Paul Eve, M., Paul O’Donnell, D., Pattinson, D., 2017. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Communications 3, 1–13.

[2] Pour la méthodologie et les exemplesvoir Chavalarias, D., & Cointet, J.-P. (2013). Phylomemetic patterns in science evolution—the rise and fall of scientific fields. PloS One, 8(2) ; et Chavalarias, D., Huneman, P., & Racovski, T. (2020). Contribution of phylomemies to the understanding of the dynamics of science. In Ramsey G., De Block A. (eds) *The Dynamics of Science: Computational Frontiers in History and Philosophy of Science. * Chicago: University of Chicago Press.

David Chavalarias

Mathématicien, Directeur de Recherche CNRS au Centre d’Analyse et de Mathématique Sociales de l’EHESS

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)

Le Covid-19, mon allié ambivalent

Par

En décrivant les multiples relations engagées entre les paysans et les plantes, l’anthropologue Dusan Kazic a montré dans une thèse soutenue fin 2019 que la production ne constitue pas la matérialité de notre... lire plus

Notes

[1] Tijdink, J.K., Verbeke, R., Smulders, Y.M., 2014. Publication Pressure and Scientific Misconduct in Medical Scientists. Journal of Empirical Research on Human Research Ethics 9, 64–71 ; Moore, S., Neylon, C., Paul Eve, M., Paul O’Donnell, D., Pattinson, D., 2017. “Excellence R Us”: university research and the fetishisation of excellence. Palgrave Communications 3, 1–13.

[2] Pour la méthodologie et les exemplesvoir Chavalarias, D., & Cointet, J.-P. (2013). Phylomemetic patterns in science evolution—the rise and fall of scientific fields. PloS One, 8(2) ; et Chavalarias, D., Huneman, P., & Racovski, T. (2020). Contribution of phylomemies to the understanding of the dynamics of science. In Ramsey G., De Block A. (eds) *The Dynamics of Science: Computational Frontiers in History and Philosophy of Science. * Chicago: University of Chicago Press.