Pandémie : la modélisation en première ligne
Notre monde est gravement secoué. La modélisation, une des méthodes les plus modernes de la science, est mise en avant, au point que, dans un numéro récent, la revue Science titrait : « With COVID-19, modeling takes on life and death importance. Epidemic simulations shape national responses » (« Avec le Covid-19, la modélisation prend une importance capitale. Les simulations d’épidémies façonnent les réponses nationales[1] »). D’autres sujets de préoccupation font aussi appels à la modélisation. Pour beaucoup de scientifiques, la catastrophe climatique est presque certaine, ou du moins c’est ce qu’on leur fait dire, et c’est ce qu’indiquent les simulations d’évolution du système climatique. Même si des craintes du même ordre concernent la biodiversité, les modèles de sa dynamique restent frustes et peu prédictifs.
L’économie fait aussi largement appel à la modélisation depuis le XIXe siècle. Les travaux de Léon Walras restent symboliques et une référence majeure de la discipline, même s’ils furent critiqués dès le début, notamment par Henri Poincaré. Des scientifiques se mobilisent pour proposer d’autres schémas que ceux actuellement en cours, souvent justifiés sur la base de modèles théoriques, en étudiant et modélisant l’économie réelle. Utiles pour penser le monde, les modèles, efficaces dans beaucoup d’applications technologiques, sont entrés dans d’autres domaines, notamment le processus d’aide à la décision politique. Mais leur utilisation est-elle sans risques ?
Un peu d’histoire
Le mot modèle vient du monde des arts, c’est la figure à reproduire. Puis, un glissement sémantique a conduit à désigner la reproduction elle-même. Il devient un terme scientifique dans les années 1960-1970 ainsi que celui de modélisation, la méthode d’élaboration et d’utilisation des modèles. Le terme de loi entre alors partiellement en désuétude, cet autre glissement sémantique traduit un affaiblissement du concept : une loi est respectée dans l’absolu, le modèle, seulement dans une certaine mesure. Il est plus facilement réfutable et donc évolutif. Il représente une étape dans le processus d’acquisition des connaissances, c’est un objet lui-même dynamique, modifiable, perfectif selon les données recueillies et ce qu’on veut en faire.
Commencée dans le monde des sciences physiques avec la formalisation mathématique de ses lois, la modélisation s’est étendue d’une part aux sciences de la vie et aux sciences sociales ; c’est alors que la plus faible adéquation avec la réalité a nécessité l’introduction de nouveaux termes et de modifier pratiques et interprétations. Corrélativement, les langages utilisés ont été étendus, les mathématiques au départ, l’informatique a apporté ensuite des possibilités nouvelles non seulement pour l’utilisation des modèles mathématiques, mais aussi de formalisation. Curieux effet miroir, on découvre que les arts, notamment graphiques, ont été utilisés pour construire des modèles opérationnels, complétant les aspects poétiques et esthétiques.
Encore un domaine dans lequel s’est illustré Léonard de Vinci. L’analyse de ses codex montre à quel point ses dessins constituaient une formalisation de la mécanique et non seulement la statique mais aussi la dynamique, au point qu’au sein du Studium (Institut d’études avancées du Val de Loire) une recherche mobilisant mathématiciens, physiciens et spécialistes des arts graphiques propose de systématiser leur étude et d’utiliser certains de ses dessins comme outils pédagogiques dans l’enseignement de la mécanique. De quoi adoucir le contact des élèves face à l’aridité du sujet abordé au tournant de la classe de seconde.
Qu’en est-il aujourd’hui ?
Cette méthodologie est efficace dans le processus d’acquisition des connaissances. Elle l’est aussi pour concevoir et mettre en place des contrôles et des régulations, notamment de procédés industriels. Là où les lois des sciences physiques sont bien formalisées, les résultats sont probants. C’est le cas en mécanique, par exemple pour décrire le ballet des corps célestes, ou plus prosaïquement pour réaliser des entités statiques ou mobiles de la vie courante. En revanche, il faut être précautionneux lorsque le vivant est concerné et encore plus s’il s’agit de phénomènes sociaux et économiques.
Selon nos besoins, l’adéquation au modèle peut être plus ou moins forte, quantitativement très rigoureuse quand il s’agit de réguler des processus industriels, on pourra se contenter de tendances (croissance, décroissance ou stationnarité), par exemple pour des populations d’êtres vivants. Enfin, un modèle peut être utile pour imaginer une réalité potentielle, un univers virtuel où l’on peut se déplacer sans risques d’impacts nocifs sur le monde réel. Une partie des modèles de l’économie ont eu le défaut de valider des positions idéologiques plus que de décrire la réalité ; ce n’est pas « parce que c’est mathématique que c’est vrai », il peut y avoir une véracité dans le champ des mathématiques mais ne correspondant pas à une réalité dans le monde concret.
Les problèmes posés par le monde vivant
Il n’existe pas de modèles d’évolution de la biodiversité équivalents à ceux du climat, même si la génétique mathématique a enregistré de grands succès. Un problème clé est la modélisation de la variabilité biologique alors que « la variation est l’invariant du vivant », selon une expression de Guiseppe Longo. Classiquement, elle est prise en compte en incluant des termes probabilistes. Mais rien n’est dit sur les processus qui engendrent cette variabilité. Un des grands enjeux est précisément de les prendre en compte comme cela a été fait avec les modèles engendrant du chaos, par exemple dans les modèles météorologiques et climatiques. Depuis quelques années, de grands progrès ont été faits dans ce qui relève de la mécanique, par exemple la modélisation des jeux de hasard[2]. On en arrive même à critiquer l’utilisation des modèles classiques de la mécanique newtonienne.
C’est ainsi, que fort honnêtement, en 1986, le président de l’Union internationale de mécanique pure et appliquée, James Lighthill, fit cette déclaration extraordinaire : « Ici, il me faut m’arrêter et parler au nom de la grande fraternité des praticiens de la mécanique. Nous sommes très conscients, aujourd’hui, de ce que l’enthousiasme que nourrissaient nos prédécesseurs pour la réussite merveilleuse de la mécanique newtonienne les a menés à des généralisations dans le domaine de la prévisibilité […] que nous savons désormais fausses. Nous voulons collectivement présenter nos excuses pour avoir induit en erreur le public cultivé en répandant, à propos du déterminisme des systèmes qui satisfont aux lois newtoniennes du mouvement, des idées qui se sont, après 1960, révélées incorrectes[3] ».
Il est possible que dans quelques années, la communauté des biométriciens, des biologistes et écologues fera de même pour s’en être tenue aux modèles probabilistes aux dépens du décryptement et de la modélisation des processus engendrant de la variabilité. Pour les modèles sans termes probabilistes que nous qualifions usuellement de déterministes, on peut distinguer les plus classiques à évolutions régulières (croissance, décroissance, oscillations plus ou moins périodiques), et ceux traduisant des dynamiques irrégulières ou erratiques, qu’on peut relier à des dynamiques chaotiques de différentes natures. Les deux peuvent se combiner : des variations erratiques, souvent qualifiées d’aléatoires, autour d’une tendance moyenne. On imagine que ces processus peuvent être introduits dans des modèles. En revanche, on ne voit pas bien comment faire avec le « hasard de Cournot » : la rencontre fortuite de chaînes causales indépendantes, illustrée par le paradigme de la tuile et du piéton, sinon a posteriori.
Cependant, il s’avère que les modèles mécanistes sont plus difficiles à construire que les modèles probabilistes traitant du même sujet. L’exemple du pile ou face est à lui seul très illustratif : l’approche probabiliste est immensément plus simple que l’approche mécaniste. On pourra souvent se contenter de ce type de modèle qui pourrait être qualifié de « symptomatique » en opposition, ou en complément, aux modèles « mécanistes » qui détaillent les processus élémentaires. L’important est de le savoir, de savoir ce que l’on ignore, ce que l’on néglige, la part d’incertitude et son évaluation, sinon des débats stériles ou des erreurs d’interprétation voire d’applications techniques ou décisionnelles non adaptées peuvent en résulter. C’est pour ces raisons qu’en 2016, le CNRS et l’Académies des technologies ont organisé un colloque intitulé « Modélisation, succès et limites ». En tout cas, il faut éviter de prendre un modèle comme étant une vérité absolue dans le monde réel, il n’en est qu’une représentation plus ou moins fidèle.
Les modèles de la statistique dite inférentielle (de inférence : tirer une conséquence d’un proposition) sont très utilisés en pratique depuis les années 1920. Deux grands champs d’applications y font largement appel : la médecine et l’agronomie. Très simplement, il s’agit de décider si un « traitement » a un effet significatif ou non sur une grandeur biologique, par exemple, en agronomie si l’apport d’une substance augmente le rendement d’une culture, ou en médecine si un médicament est efficace ou non pour traiter une maladie. Mais rien n’est dit sur les mécanismes sous-jacents, ces approches peuvent être qualifiées de semi-empiriques.
Le critère de décision est fondé sur le calcul d’une valeur, une probabilité, dite p-value (valeur p), celle d’obtenir un écart au moins aussi grand par rapport à l’hypothèse nulle, celle que le traitement n’a pas d’effet. Elle suppose que la distribution des variations aléatoires existe et est connue. Il en suit des conséquences pratiques non négligeables, de l’emploi ou non du traitement et de ses conséquences pour l’utilisateur potentiel, jusqu’aux bénéfices possibles des entreprises produisant le composé alors réputé actif ou non. Beaucoup de critiques sont faites sur l’emploi irraisonné de ce critère[4].
Des méthodes générales à contextualiser
L’analyse des données, très en vogue pour l’étude des grands ensembles de données, des Big Data selon le vocabulaire de la technosphère, est bien antérieure à ces engouements et n’est pas la seule voie utilisée. L’intelligence artificielle, par exemple sa branche consacrée aux réseaux neuronaux, rencontre un certain succès. L’école française s’y est illustrée, notamment celle qui se consacre à la statistique. Des exemples de son efficacité peuvent être trouvées dans les sciences de la vie et les sciences de l’homme et de la société.
Très schématiquement, les méthodes s’appuient sur des approches géométriques, à savoir plonger les ensembles de données dans des espaces abstraits (des modèles géométriques, comme l’espace euclidien usuel), et de trouver des représentations adaptées à l’amplification des composantes de la variabilité des données, permettant de la décomposer et de rendre la structure sous-jacente plus lisible.
Il reste bien sûr à l’interpréter dans le contexte spécifique d’une étude particulière. On met ainsi en évidence des corrélations entre sous-ensembles, par exemples entre pathologies et conditions de vie tout en soulignant une fois de plus que corrélation n’est pas causalité, et que la preuve de cette dernière doit prendre d’autres voies, notamment expérimentales. Un emploi intensif et superficiel de ces méthodes est risqué, comme l’a souligné John Ioannidis dans le domaine biomédical, on peut arriver à des résultats tout simplement faux.[5]
C’est le cas aussi dans des domaines relevant de l’agriculture. On soulignera que la notion de modèle est aussi présente dans ces méthodes, mais pas toujours explicitée. C’est l’une des originalités de ce que nos collègues biométriciens appellent « l’école lyonnaise de biométrie » de s’appuyer explicitement sur ces notions de modèle et de modélisation, qui a même servi de support au développement de la bioinformatique, et aussi et surtout sur l’exigence de double compétence en sciences de la vie et en sciences mathématiques et informatiques. Cette originalité a été valorisée dans le domaine de la formation ; elle a aussi été l’un des supports méthodologiques au développement de l’interdisciplinarité.
Enfin, je me demande aujourd’hui, si, en 1970, quand j’ai choisi cette direction de recherche, nous avions eu le même contexte institutionnel qu’aujourd’hui, je l’aurais choisi. Le risque était grand car il fallait acquérir une compétence élargie, accepter de peu publier pendant plusieurs années, pas de valorisation économique évidente, traduction en termes pédagogique à faire. Heureusement, mon laboratoire m’a soutenu, notamment son directeur et aussi, ce n’est pas mince, plusieurs biologistes de haut niveau de notre entourage. C’était un autre temps, plus propice à la dynamique de la recherche. On mesure aujourd’hui le désastre des politiques de recherche menées dès le milieu des années 1990[6].
*
Les développements méthodologiques ont permis de grands progrès dans l’analyse des systèmes vivants et dans les processus de décision impliquant ces systèmes. La crise du Covid-19 l’illustre aujourd’hui. Elle montre aussi des contradictions où les « méthodologistes » ont été mis en cause dans les choix stratégiques, notamment pour utiliser un médicament déjà certifié mais pour d’autres pathologies. Le cas risque de se reproduire comme l’a montré un exposé présenté à l’occasion du séminaire annuel de l’Académie des technologies[7]. Les problèmes surviennent dans leur utilisation et l’interprétation des résultats, même si elles s’appuient sur les outils mathématiques ou informatiques solides, ce n’est pas suffisant pour garantir leur validité et la fiabilité de leur exploitation concrète. La justesse mathématique n’assure aucunement la pertinence dans le monde réel, mais évite quand même tout un tas d’approximations voire de franches bêtises.