Santé

Prévoir ou expliquer : le dilemme de la modélisation de l’épidémie

Économiste

Des modèles de prévision, ou « simulation agents », sont élaborés pour prédire l’évolution de l’épidémie de Covid-19, et justifier les réponses politiques. Ces modèles ont pourtant leur limites, dont il faut être conscients : les experts scientifiques ne sont certes pas les nouveaux astrologues mais ils ne peuvent pas non plus être fiables à 100%. Expliquer et étudier les deux façons couramment utilisées pour modéliser l’épidémie de Covid-19, probabiliste ou descriptive, permet de comprendre leurs usages, mais aussi d’en pointer les insuffisances.

Dans la période où la France entrait en confinement, on a pu observer une certaine agitation dans la communauté des chercheurs en simulation agents. Un grand nombre de modèles anticipant la contagion sont apparus dans les médias. Certains ont été utilisés pour « expliquer » l’épidémie au public, et celui qui a eu le plus de succès dans ce sens est celui du Washington Post. D’autres ont été utilisés pour tenter de prévoir l’évolution de la situation afin d’aider les décideurs publics. Le modèle qui a le plus influé sur les politiques européennes du moment est celui proposé par l’Imperial College à Londres : c’est sur la base de ses prédictions que les confinements des différents pays ont été décidés.

publicité

Les discussions ont été vives principalement parce que les praticiens savent combien leurs modèles, dits complexes, sont sensibles à de petites modifications d’hypothèses. En sus, comme pour tout modèle calculatoire, les résultats ne peuvent pas être plus certains que leurs hypothèses. En conséquence, la prédiction, en temps réel et pendant une crise, où les données sont rares et où peu de connaissances sont solidement établies, ne semble pas vraiment relever du champ du « scientifique ».

C’est d’ailleurs ce qui a dérangé principalement les chercheurs : on a ainsi pu voir apparaître sur internet une pétition demandant à ce que les codes des modèles qui aident aux décisions soient rendus publics, afin que chacun puisse juger de la pertinence des résultats. En parallèle, des initiatives collectives à but pédagogique ont été mises en place, qui se proposent de répondre aux questions ouvertes du public.

Pour saisir les enjeux de cette controverse devenue publique, il est utile de comprendre la logique des travaux qui sous-tendent chacun des types de modélisation en usage. Chacun pourra alors juger si « la science » dans son ensemble, ou seulement une vision d’experts parmi d’autres, a soutenu la décision d’organiser un confinement général.

Qu’est ce qu’un modèle agent de diffusion ?

Une simulation agent peut être pensée comme une partie de SimCity, avec une petite différence : dans ce jeu très connu, les règles de comportement et d’interaction des entités sont déjà fixées dans la machine, et le joueur choisit dans une liste comment faire avancer son jeu. Pour construire son modèle de simulation, la modélisatrice construit elle-même les règles et définit (en allant au plus simple) :
– Un ensemble d’agents, où chacun est un programme qui a des règles de calcul autonomes : un agent peut faire plusieurs actions (se déplacer, interagir avec un autre agent) et il décide quelle action faire, quand c’est son tour,
– Les interactions, qui peuvent être de plusieurs types. Si on modélise par exemple la diffusion d’une opinion, les agents se transmettent une opinion quand ils se rencontrent et chacun est potentiellement transformé par l’opinion qu’il a reçu de l’autre. Si on modélise des changements de comportements dans une population, les agents observent le comportement de l’autre et changent éventuellement leur mode de décision pour l’imiter. Si on modélise un virus, si l’un des deux agents est infecté, à chaque rencontre avec un agent il pourra lui transmettre le virus.

Toutes les dynamiques sont liées à ces transmissions dans les interactions, c’est le point commun de ces modèles.

Une simulation de ce modèle consiste maintenant à créer une population artificielle (in silico) d’agents plongés dans un monde artificiel ; puis, le système exécute une série de « pas de temps » successifs. Durant chaque pas de temps, les agents exécutent une fois les règles qu’on leur a données, dans l’ordre qui leur est attribué. Une simulation est donc une histoire où les agents font réellement ce qu’on leur a dit : les programmes se transforment, stockent les informations.

Dans ce monde, il est possible d’observer toutes les informations que l’on souhaite : la modélisatrice et les utilisateurs éventuels sont des Dieux omniscients et omnipotents qui définissent règles et observables. Mais être Dieu n’est pas reposant car aucune observation n’est « naturelle » : il faut se doter des bons indicateurs, les mesurer, et en synthétiser les résultats. Cela prend du temps et réclame un peu d’imagination.

Une partie du travail revient à construire d’abord des tautologies, pour ensuite explorer plus avant l’ensemble des possibles. La modélisatrice construit les règles ; elle devrait pouvoir, en enchaînant les conséquences logiques de l’application de ces règles, anticiper ce qui va se passer. Mais dès qu’un certain nombre d’agents interagissent et font des choix enchaînés, il faudrait avoir un cerveau hors norme pour déduire toutes les conclusions de toutes les interactions – c’est une expérience de pensée « complexe ».

Or, on sait que l’ordinateur est beaucoup plus efficace que l’humain pour effectuer de grosses quantités de calculs à la file : c’est pourquoi dans une simulation agents les calculs lui sont délégués et la modélisatrice lui pose des questions sur les caractéristiques des agents qu’on a fait exister.

L’observation débute alors, par des cas très simples qui sont anticipables de fait par déduction, et cela permet de conforter les hypothèses de base ; puis, en s’éloignant des situations les plus simples, on se donne une chance de relever des surprises, qui constituent la part la plus intéressante des modèles. Les conséquences de nos propres hypothèses, quand elles impliquent beaucoup d’agents et du temps, nous dépassent. C’est là qu’on doit recommencer à réfléchir pour interpréter ce qu’on peut qualifier de phénomènes émergents.

Les modèles agents de diffusion forment une classe de modèle qui est devenue populaire dès l’invention de la simulation agents dans les années 1990. Leur grand intérêt est que les chercheurs qui les connaissent peuvent communiquer sur les paramètres et dynamiques structurelles essentielles du modèle, même s’ils ne l’appliquent pas aux mêmes questions scientifiques. On connaît ainsi l’importance cruciale de la forme des réseaux de relations, de la taille de la population représentée, et bien sûr de la règle de transmission entre deux agents.

Les deux modèles qui ont été les plus cités récemment sont d’excellents exemples car ils représentent les deux extrêmes de ce type de modèles : soit ultra stylisés, les modèles KISS (« keep it simple, stupid ! ») ; soit ceux qui sont très proches de la réalité, les KIDS (« keep it descriptive, stupid ! »). Ceux qui aiment les modèles simples disent qu’ils sont meilleurs car on sait qu’ils sont faux, qu’on ne peut pas confondre modèle et réalité, et que donc seuls les résultats structurels y sont importants. Ils sont donc très pertinents même s’ils ne sont pas très ressemblants. Les autres sont ressemblants, mais du fait de leur grand nombre de paramètres, chaque petit changement d’hypothèse peut avoir des conséquences dynamiques insoupçonnées : cette fragilité rend les extrapolations produites assez peu robustes.

Modéliser la diffusion et l’impact de Covid-19 : la version KISS

Dans le modèle popularisé par le Washington Post, une courbe exponentielle donne l’image de ce que les auteurs veulent représenter dans ce modèle : le nombre total d’agents infectés dans le temps. Ensuite, deux petites vidéos horizontales représentent la définition des agents et des interactions du modèle :
– Les agents se déplacent et peuvent se cogner lors de ces déplacements
– Dans la première vidéo, lorsqu’un agent infecté (rouge) touche un autre agent pour l’instant sain (gris) il lui transmet le virus, et celui-ci devient infecté (rouge).
– Dans la seconde vidéo la dynamique est perfectionnée car les agents peuvent guérir (rose) : alors ils ne peuvent plus transmettre ni recevoir la maladie.

Ce modèle est ce qu’on appelle un SIR (Susceptible, Infected, Recovered, soit : Susceptible d’être infecté, Infecté, Remis et immunisé), où les agents ne peuvent avoir que ces trois états. Sur la base de cette dynamique locale, le modèle est mis en simulation pour réaliser des tests sur une population dont on nous dit qu’elle a la taille d’une petite ville.

La première vidéo en deux dimensions montre donc des agents qui se promènent sans cesse dans la ville et se cognent jusqu’à ce que tout le monde soit infecté (courbe exponentielle). Là, le modèle n’est qu’une illustration tautologique et ne nous apprend pas grand-chose : au vu des hypothèses, un cerveau humain pouvait imaginer ce qui se passerait. Comme le résultat est cohérent, on se dit que le modèle est intéressant pour réfléchir, et on se permet de tester deux politiques publiques.

La première consiste à isoler deux populations, ce qui est représenté par un mur de séparation sur l’écran – puis le mur s’ouvre un peu et des agents ont la possibilité de passer. Lorsque les deux populations sont totalement isolées, le virus ne se diffuse pas d’une population à l’autre. On peut dire que ça correspond là encore à une illustration, celle du principe que Pasteur a découvert : une maladie virale ne se propage que si le virus peut se déplacer d’un hôte à un autre ; et si les hôtes ne sont pas en contact, il n’y a pas d’épidémie générale.

Malheureusement, ce qui est parfaitement prévisible, c’est qu’après l’ouverture du mur, comme le montre la vidéo, il suffira qu’un seul agent passe pour contaminer l’intégralité de la population jusque-là préservée. Ce résultat indique qu’il était facilement prévisible que la fuite de nombreux parisiens vers la province impliquerait une diffusion massive du virus dans ces zones.

La seconde propose le fameux « social distancing ». La vidéo montre deux sous-populations : celle qui bouge (1/4 des agents) et celle qui ne bouge pas (3/4 des agents). Les agents qui bougent finissent par cogner tous les autres agents, mais mettent beaucoup plus de temps pour cela. Entre temps, certains « bougeurs » ont eu le temps de guérir, et ils cognent sans n’être plus contagieux : ceci permet qu’une partie de la population ne soit jamais touchée par le virus. La dernière vidéo raffine cette solution en divisant par deux le nombre d’agents qui bougent : encore moins d’agents finissent infectés.

À ce niveau de la description, il est malaisé de continuer à explorer la piste du « social distancing ». Ce modèle propose en effet que les agents se rencontrent de façon moins aléatoire, mais cette représentation n’a qu’un rapport éloigné avec ce que sont les relations humaines hors des supermarchés, festivals, boîtes de nuit… Les auteurs du modèle ont fait ce qu’ils pouvaient pour représenter une hétérogénéité des pratiques (certains agents ont beaucoup de contacts et d’autres très peu). Ceci permettrait vaguement de rendre compte du phénomène des « super-disséminateurs » (médecins, infirmiers/infirmières, caissières/caissiers, gardes d’enfants, et des plus clandestins et précaires dont on parle moins).

Le problème, c’est que les agents qui réduisent leurs interactions peuvent aléatoirement être en contact avec ces « super-disséminateurs » : les infirmières viendraient à la maison, où nous serions aussi vulnérables qu’ailleurs… La métaphore des rencontres aléatoires s’épuise dès lors qu’on ne peut ni penser ce que serait une mise à distance dans les relations ordinaires (travail, école, groupes d’amis), ni la représenter techniquement dans le modèle, ni en tester l’impact d’une façon intéressante.

Je dirais qu’ici le modèle sort de son spectre de pertinence pour penser une politique pour juguler l’épidémie qui nous intéresse. Sa procédure de réduction de rencontres n’est pas structurellement analogique avec une organisation sociale crédible. On reste finalement dans la tautologie, en modèle agent et en épidémiologie : pour réduire la transmission, soit on réduit le risque de transmission entre les agents à chaque contact, soit on réduit les contacts. Face à l’évidence, l’utilisation d’un modèle a un défaut majeur : il donne plus de crédibilité au discours, alors qu’il serait plus utile s’il était vraiment sollicité en appui au raisonnement. Les auteurs du modèle restent parfaitement évasifs sur la mise en place de la réduction des contacts – le modèle ne sert donc pas à imaginer les conséquences réelles d’une pratique particulière. Il perd en ressemblance, et finalement perdre en pertinence également.

Le modèle du Washington Post semble donc beaucoup trop déconnecté d’un contexte social interprétable pour permettre de penser l’épidémie en cours. Le livrer tel quel à des lecteurs non informés ne semble pas du tout pédagogique, mais au contraire amène une certaine confusion en confortant des idées de sens commun.

Le « modèle de l’Imperial College » : populations synthétiques

Le second modèle qui a été très lu et commenté est connu comme « modèle de Ferguson » ou « de l’Imperial College » – dont l’article descriptif est disponible sur le site de l’Université. C’est celui dont les résultats bruts ont influencé les décisions publiques au moins au Royaume-Uni, aux États-Unis et en France.

Il fait partie d’une catégorie de modèles très utilisés, au moyen desquels les auteurs cherchent à convaincre de la pertinence par la ressemblance, c’est-à-dire de l’adéquation à des données statistiques. Ils sont souvent utilisés dans les programmes de recherche appliquée concernant des questions précises sur des territoires précis – par exemple pour analyser l’évolution de l’usage des surfaces au sol, ou décrire l’organisation des transports dans une ville. Dans ce cadre, il est important que la population d’agents de l’univers artificiel – qu’on appelle une population synthétique dans ce cas-là – ait des caractéristiques « proches » de celles des humains représentés.

Pour prendre un exemple : on voit mal comment organiser les transports d’une ville artificielle sans représenter des flux de voitures qui sont équivalents à ceux qu’on observe dans la réalité, et pour cela décrire des trajets crédibles, et donc connaître le nombre d’habitants dans chaque quartier et leurs destinations de travail. Dans ce type d’univers artificiel, l’environnement est une carte, et elle est découpée en pixels sur lesquels des agents sont posés. A chaque agent est attribuée une identité initiale plus riche que ceux vus précédemment : il habite dans un pixel et travaille dans un autre pixel, il est doté d’un niveau social, d’un nombre d’amis, d’enfants, d’une voiture, d’une moto, d’un vélo, d’un chien. Bref, tout ce qui peut être pertinent pour la question traitée. Grâce aux statistiques, la modélisation est capable de mettre cet agent au bon endroit sur la carte.

Le choix de cette méthode consiste à utiliser des données agrégées pour fabriquer des individus portant des caractéristiques-type issues de moyennes, afin de construire des algorithmes de décision des agents. Un facteur-clef de la description est le grain de représentation, c’est-à-dire la précision du pixel. L’idée cruciale pour ceux qui élaborent ces modèles est celle de crédibilité : il s’agit de reconnaître la carte. Dans beaucoup de recherches actuelles, la construction d’une bonne population synthétique est le centre du travail : la légitimité de cette façon de faire n’est plus discutée et seule la qualité de la représentation est jugée. D’autant que la crédibilité facilite la présentation aux décideurs (potentiels financeurs), qui les « liront » plus simplement que les modèles abstraits simulés précédemment.

Pour construire ce système initial, le nombre d’hypothèses à intégrer est colossal et chacune va avoir un impact immense : même la finesse du grain choisi pour la carte est déterminante. On peut supposer pour simplifier que la population synthétique définie dans ce modèle est réalisée de la meilleure façon possible. Mais qu’en est-il du modèle en lui-même ?

Un modèle SIR probabiliste

Le modèle de l’Imperial College repose exactement sur le même principe que celui du Washington Post. À chaque pas de temps, les agents se déplacent dans les lieux qui leur sont attribués, interagissent avec ceux qui sont au même endroit qu’eux, se transmettent ou non la maladie (selon une probabilité), et vivent cette maladie avant d’être immunisés. De façon tout à fait explicite, ce modèle est réalisé et calibré pour la grippe (donc toutes les probabilités de transmission, et les règles d’immunisation sont adaptées à la grippe).

Pourtant, il faut savoir que la plupart de ces hypothèses ne sont pas des « données » qu’on peut mesurer dans le monde réel : on n’a aucune idée du risque de transmettre la grippe lors d’une rencontre. Pour connaître les probabilités « acceptables » de transmission à intégrer dans le modèle, il a fallu faire de la rétro-ingénierie sur des quantités énormes de données, et trouver la valeur qui correspondrait à des parcours d’épidémies connues. Les chercheurs produisent des simulations avec différentes valeurs de paramètres, répètent un grand nombre de fois pour éliminer les effets de hasard, et, en observant les dynamiques d’épidémie, choisissent la probabilité qui a le meilleur ajustement statistique (fit, en anglais).

Pour atteindre cette ressemblance, on ne part pas vraiment d’une réflexion sur ce que sont les interactions, quand et comment elles se déroulent, et quelles en sont les conséquences logiques. D’ailleurs les hypothèses retenues sont minimales : toutes les interactions sont identiques et sont des rencontres aléatoires avec les agents qui se trouvent dans le même pixel au même moment. Il y a donc un mélange de formes de démonstration : déductives et statistiques. Et à la fin, on obtient ce qu’on appelle une « usine à gaz » : un modèle assez difficile à contester car les étapes techniques pour le comprendre sont excessivement complexes. On connaît la sensibilité extrême à toute variation de paramètres de ces programmes.

Les « données » par temps de Covid-19…

La démonstration sur le Covid-19 se gâte donc, quand on sait que le modèle a simplement été « adapté ». La localisation des agents et leurs habitudes de se rencontrer aléatoirement restent inchangées. La probabilité de transmission, le temps d’incubation, la probabilité de mourir sont modifiés, mais comme précédemment, on observe un mélange de techniques pour justifier chaque hypothèse.

Ainsi, l’incubation est fixée à « 5 jours pour les cas qui développent des symptômes » : c’est une donnée directement issue de l’observation et qui concerne effectivement ce qu’on peut voir à un niveau individuel. Elle présente le simple désavantage d’être la moyenne établie sur la population, car on savait déjà au moment de la réalisation du modèle que cette durée pouvait varier de 2 à 20 jours. Dans le monde artificiel, chaque agent qui est infecté change d’état et devient malade au bout de 5 jours du modèle : on reste dans la logique de la modélisation agents.

En revanche, les autres probabilités individuelles doivent être adaptées pour produire des données macroscopiques. Les paramètres sont donc choisis en fonction des sorties du modèle : « R0 = 2, 4 » (un indice déjà complexe à calculer), « on double le nombre d’infections tous les 5 jours », « on choisit les valeurs initiales pour que le nombre de morts soit le même qu’à date t en Angleterre », ou encore « que la courbe de progression soit la même qu’initialement à Wuhan ». On fait tourner le modèle qui produit des données globales et on choisit les valeurs de probabilités (être infecté lors d’une rencontre, être mort si on est malade…) pour que ces données ressemblent aux indicateurs choisis. La logique n’est donc pas d’avoir des hypothèses micro-comportementales et de regarder les conséquences par agrégation à l’échelle sociale, mais de construire des hypothèses micro-comportementales (dont on connaît l’artificialité et qui sont invérifiables pour un long moment) pour que le modèle global se comporte comme on souhaite.

Au-delà du fait que les règles construites sont peu crédibles, la qualité des données est un problème : les informations venues de Chine étaient connues pour être contradictoires à la source. En outre, le lien entre le nombre de morts et le nombre d’infectés au Covid-19 n’est toujours pas connu aujourd’hui – c’est pourtant comme ça que l’état initial d’infection a été déterminé pour le modèle et… les conditions initiales sont fondamentales pour déterminer les trajectoires dynamiques de ces modèles (surtout si on s’intéresse au facteur important qui nous occupe en ce moment : le temps). Ce n’est pas seulement parce que le SRAS-Cov2 se cache bien, aime rester de 1 à 9 jours sur les surfaces, qu’il nous semble mystérieux : c’est aussi parce que nous ne savons apparemment pas compter de façon coordonnée quand nous sommes collectivement affolés.

Les membres de l’équipe de l’Imperial College sont conscients qu’ils ne parlent pas du Covid-19, mais ils font quand même « comme si » dans l’espace public. Faire des extrapolations sur un modèle en utilisant des valeurs un peu hasardeuses n’est pas gênant car c’est la norme intellectuelle pour des chercheurs. Mais si l’on parle de valeurs quantitatives, il est courant d’exprimer clairement l’ordre de grandeur des incertitudes. Ainsi, il y a peut-être un peu plus de précautions à prendre lorsque les extrapolations sont considérées comme des prédictions « scientifiques » pour le grand public et les décideurs, en particulier sur le nombre brut de morts, si émotionnel (et c’est d’ailleurs ce qui a été retenu des propositions de l’article). Et pour autant c’est l’aspect « fidèle aux données quantitatives » qui légitime et donne confiance dans la dynamique extrapolée du modèle.

Les alternatives et leur représentation dans un modèle

Deux classes de politiques sont proposées dans ce modèle : 1/ suppression des liens sociaux (le fameux « social distancing »), pour utiliser le principe selon lequel « sans interaction directe, les infections à transmission directe s’éteignent » ; et 2/ une gestion des malades – détection, isolement, soin.

La suppression des liens peut prendre plusieurs formes : éloigner les anciens, confiner tout le monde, arrêter les regroupements de masse, et fermer des lieux d’éducation (on reconnaît certaines étapes par lesquelles nous sommes effectivement passés dans les dernières semaines : il s’agit visiblement de mesures classiques envisagées par les épidémiologues).

Par ailleurs, en observant le nombre de cas grave (l’indicateur « demande en soin intensif »), le modèle permet d’analyser le déroulé de l’épidémie, en mettant bien en avant le paramètre-clef de la crise : « la surmortalité liée au non-accès à des lits en soin intensif » (au sens hospitalier lit + matériel + personnel). Ce qui est le centre des questionnements sur le Covid-19 n’est pas la mortalité brute mais la « surmortalité », c’est-à-dire les morts qu’on pourrait éviter. C’est parce que l’offre de soins adaptés fait défaut qu’il y a des morts inacceptables : les médecins doivent choisir, individuellement et de façon extrêmement traumatisante, qui mourra.

Les simulations sont alors telles que décrites précédemment : on laisse vivre la population artificielle et on observe, pour chaque politique, les courbes de mortalité et d’occupation des lits : lissage des courbes et décalage dans le temps sont des preuves d’une bonne gestion de crise.

Certains ont signalé qu’aucune des stratégies utilisées en Chine (ou en Corée du Sud) n’est implémentée dans le modèle. Le fait de ne pas tester des politiques du type asiatique n’avait rien de bien grave à ce moment-là, car l’idée d’utiliser ces méthodes (en particulier en utilisant les données liées aux téléphones portables) n’était pas envisagée jusqu’à très récemment dans les options politiques présentées par les dirigeants européens.

Pourtant, ce travail analysant les « politiques publiques possibles» aurait pu offrir l’occasion d’évoquer des questions fondamentales et typiquement dynamiques pour les décisions en temps de crise, en particulier les problèmes logistiques de mise en place de la politique. Dans le modèle, la suppression des relations sociales est réalisée en un pas de temps : on aura remarqué que le monde réel n’est pas si simplement organisé ! C’est également le cas de l’atténuation (mitigation) : le matériel et les capacités d’organisation pratique ne sont pas disponibles au moment où l’on décide d’une politique. Dans un problème dynamique, les pas de temps de « cafouillage » initial lors de la suppression des liens sociaux peut avoir un impact énorme sur la diffusion (ou pas – mais on ne peut pas décider sans y réfléchir et tenter de l’intégrer au modèle).

Cette représentation de politiques sans problèmes de mise en application peut être schématiquement et théoriquement intéressante, mais elle est pratiquement bien moins pertinente, d’autant que quelques problèmes pourtant simples de santé publique comme la dépression, l’angoisse, les addictions, la précarisation, ne sont pas évoqués dans la perspective de choix public adoptée. Il faudrait continuer à imaginer les contrefactuels face à un tel modèle.

L’humilité et la diversité des points de vue : une solution ?

Nous sommes dans un contexte où la décision politique est justifiée de façon massive par le recours à l’argument de la scientificité des décisions. J’espère que le lecteur est à peu près convaincu à ce stade que, sur la question de la dynamique de diffusion, le modèle de l’Imperial College contient des incertitudes cumulées qui rendent la prévision « scientifique » aussi robuste que les prévisions de la Pythie. D’ailleurs, cela a été mis en avant très récemment dans une tribune au Monde par un épidémiologue anglais, qui rappelle que l’Imperial College s’est trompé aussi souvent qu’il a eu raison dans les vingt dernières années.

L’utilisation pour les politiques des arguments de l’Imperial College avait pourtant un intérêt : leur caractère impressionnant et sans appel (centaines de milliers de morts), et le fait qu’ils étaient basés sur des valeurs difficiles à contester publiquement (les morts) ; sans que beaucoup d’alternatives ou de cadres analytiques alternatifs ne soient proposés. On peut parler de praticité politique – sans grande originalité – mais prétendre que la décision a été imposée par les résultats de la science semble un peu abusif.

La science vit dans une temporalité longue, qui nécessite des débats contradictoires, et surtout qui repose sur quelques accords consensuels construits pas à pas sur les règles du monde qu’on observe. Au niveau d’incertitude où nous sommes au sujet de Covid-19, il est très délicat de faire des analogies simples et directes entre la diffusion de cette maladie et la grippe ; donc comment prétendre que les extrapolations sont des prédictions crédibles ?

Ce que peuvent faire les scientifiques sans données, c’est tout au plus faire confiance à leur instinct, et l’expliciter au mieux en fonction des bribes de connaissance qu’ils possèdent. Sortir de ce rôle minimal me semble abusif, tout comme prétendre avoir des démonstrations meilleures que les autres. Parler du futur nécessite enfin de construire un discours de précaution audible pour ceux qui lisent et écoutent – nous ne sommes pas des astrologues !

Pour ne pas finir sur une note trop négative, on peut mentionner de nouveau une initiative pédagogique collective, menée par des modélisateurs déjà engagés dans la recherche-action, à diverses échelles et en lien avec des publics diversifiés. Une plateforme propose ainsi de répondre à des questions posées par qui le souhaite, en produisant de petits modèles dynamiques pertinents quand ces questions s’y prêtent. Par exemple, le déconfinement y est déjà discuté, à travers la prise en compte de plusieurs facteurs incertains. L’hétérogénéité des points de vue et la précaution conceptuelle y sont beaucoup développées. Ceci semble typiquement du ressort d’un travail scientifique de base, et permet de sortir un peu de la posture surplombante des experts qui, aujourd’hui, n’ont finalement pas tant à nous dire.


Juliette Rouchier

Économiste, Directrice de recherche au CNRS, LAMSADE, PSL, Paris Dauphine

Mots-clés

Covid-19

Les temps du virus

Par

L'épidémie de coronavirus prend précisément la forme d’une polyphonie interne, faite de temporalités et de strates de vitesses superposées. Elle a l’allure de l’improbable et saisissante nouveauté de ce... lire plus