Panique morale à l’Elysée ! sur le rapport de la commission Bronner
Le 11 janvier 2022, la commission présidée par le sociologue Gérald Bronner a remis au Président de la République les conclusions et les 30 recommandations de son rapport, intitulé « Les Lumières à l’ère numérique[1] ». Le Chef de l’État a évoqué un « travail fondateur » et souhaité que celui-ci « puisse être diffusé largement et permette d’enrichir le débat démocratique[2] ».
Lors du cinquantième anniversaire du congrès de la Conférence des présidents d’universités, le 13 janvier 2022 en Sorbonne, il a de nouveau évoqué le travail de cette commission, « présidée par l’un de vos éminents collègues », qui vise « à bâtir, à reconstruire ou refonder les Lumières à l’ère numérique »[3]. Pourtant, rien dans le travail de cette commission ne permet d’esquisser le début d’un tel projet, aussi ambitieux que grandiloquent.
Ce texte de 124 pages fait référence à deux reprises à l’urgence qu’il y aurait à trouver des solutions à la « désinformation » (pp. 15 et 105) et mentionne le temps très contraint qu’il a pu y consacrer (100 jours), allant jusqu’à affirmer avoir « abandonné immédiatement l’objectif d’exhaustivité ».
Or, il ne s’agit pas ici d’une question d’exhaustivité ou de délai, mais de méthodologie. Ce rapport politique, partiel et, surtout, partial, veut contribuer à la lutte contre la « désinformation », mais nous confronte à un double problème : celui de son contenu et celui du moment politique dans lequel il s’insère et qu’il conforte.
Le contenu
En ce qui concerne le contenu, des généralisations sont hâtives et grossières, des termes ne sont pas définis, des auteurs importants sur les questions du numérique ne sont pas cités, la majorité des références concerne des travaux en sciences cognitives, de neurosciences ou en psychologie sociale, ce biais naturaliste empêchant toute portée plus large des constats, et le nombre quantitativement impressionnant des personnes auditionnées (plus de 150) interroge une fois que celui-ci est rapporté au profil des personnes auditionnées et à celui de celles qui ne l’ont pas été. Comment dès lors prendre ce travail au sérieux ?
Le texte donne l’impression de se dédouaner à l’avance de cette critique en insistant sur le temps limité qu’il a pu consacrer à ce travail, dont une des missions était de présenter un « état de l’art ». Toutefois, l’ampleur des manquements constatés n’a rien à voir avec un problème de temps. C’est en réalité une faute méthodologique qui empêche toute crédibilité des constats comme des propositions.
La dissymétrie entre les différentes disciplines et professions, qui auraient toutes vocation à éclairer la réflexion, est frappante : sociologie, histoire, anthropologie, didactique des sciences, sciences de l’éducation et philosophie, notamment, s’effacent devant cognitivistes et psychologues aussi bien dans la bibliographie que dans les auditions.
Par ailleurs, au sein de la psychologie, il n’y pas d’unanimité en ce qui concerne le sujet du rapport et il est regrettable de n’en retenir que la facette la plus connue du grand public, celle des biais et de l’irrationalité. Même sans faire appel à des sciences sociales non naturalistes, il aurait été possible de trouver d’autres manières de construire la compréhension de ces questions.
En outre, il est gênant de voir relayé dans ce rapport une « croyance » qui prend elle-même son essor à la faveur des réseaux sociaux numériques, celle selon laquelle il existerait un consensus en psychologie cognitive quant à l’existence de biais cognitifs, signes – potentiels – d’irrationalité[4]. C’est loin d’être le cas, et d’importantes critiques de cet usage mal régulé de la notion ont été formulées aussi bien de longue date que plus récemment par des psychologues cognitifs[5].
Une dizaine de psychologues chercheurs en sciences cognitives est auditionnée, contre aucun sociologue et peu de politistes, comme si la sociologie était intégralement incarnée par le président de la commission. Deux philosophes sont entendus sous le label de philosophe, les autres le sont au titre des sciences cognitives, alors que, au hasard, Claudine Tiercelin, professeure de philosophie au Collège de France, et qui est intervenue depuis plusieurs années sur la post-vérité, n’est auditionnée ni citée dans la bibliographie[6].
Un seul historien, si on ne compte pas les deux historiens de la commission[7], apporte ses lumières sur le devenir des Lumières… Au-delà des individus, l’absence de toute historicisation des phénomènes dont il est question participe de la dramatisation à outrance du présent.
En effet, ce rapport marque par son absence presque complète de perspective historique mais également par le fait que les rares tentatives en ce sens demeurent de l’ordre de la généralité, par exemple p. 19 (« En France comme ailleurs, et bien avant l’apparition d’Internet, les récits conspirationnistes ont embrasé les esprits tout au long de notre histoire contemporaine ») et renvoient, par leur ton dramatique, à une certaine idéalisation du passé, ce qu’illustre bien l’affirmation suivante : « avec la disponibilité des fausses informations sur Internet et la polarisation des réseaux sociaux, c’est la possibilité même d’un espace épistémique et de débat commun qui est menacée » (p. 25).
Présentée de la sorte, la question de la rupture d’un espace épistémique commun laisse entendre que, par le passé, il aurait existé un espace commun qu’il conviendrait de restaurer (même si les précautions d’usage indiquent qu’aux siècles précédents tout n’était pas épistémiquement rose). Il est fortement permis d’en douter.
Cette place pour le moins marginale donnée à l’histoire, marginalité partagée avec d’autres, n’est sans doute pas anodine. Un rapide survol historique permet de montrer que les phénomènes dénoncés ne sont, pour une bonne part, pas nouveaux (les accusations de manipulations par des puissances étrangères des politiques et de la presse sont par exemple un classique du XIXe et sans doute pas toujours sans fondement). La commission reconnaît d’ailleurs que l’arsenal judiciaire existe depuis la loi de 1881 ! Et pour discuter de leur forme actuelle, et de leurs effets sur les processus électoraux contemporains comme sur la vie civique, l’audition des présidents et présidentes des groupes parlementaires et des partis aurait semblé utile.
Encore une fois, il ne s’agit pas de demander au rapport de respecter les règles d’une publication académique ou de discuter de textes obscurs enfouis dans des revues inconnues ou la littérature la plus pointue. Le problème est que la partialité de ces choix et son absence de méthode empêchent tout diagnostic un peu sérieux.
C’est par exemple le cas en ce qui concerne le cœur de son sujet : le numérique. Le travail d’Antonio Casilli, spécialiste des mutations numériques dont les livres ont été largement présentés dans la presse, est absent, tout comme ceux de Nikos Smyrnaios, pourtant complètement dans le thème de la modération des contenus partagés sur les plateformes GAFAM[8].
De même, l’Institut des Systèmes complexes, qui a développé en France un des meilleurs outils de suivi des contenus sur les réseaux sociaux, en particulier pour ce qui est politique (le « tweetoscope » et le « politocscope ») n’est pas cité, et son directeur, David Chavalarias, modélisateur qui depuis des années travaille à comprendre l’effet de ces réseaux sur la politique et en particulier sur les élections – on lui doit de savoir que, pour le suffrage universel, l’astroturfing (faux comptes)[9] est plus dommageable que les fake news (fausses nouvelles) – n’est ni auditionné, ni lu par les rédacteurs du rapport.
Un esprit malicieux rappellerait ici que ce chercheur avait utilisé ses logiciels pour démontrer que les membres du gouvernement et de la majorité présidentielle avaient largement popularisé le terme « islamogauchiste »[10], multipliant ainsi la présence d’une prétendue menace qu’ils affirmaient combattre. Les professionnels du monde digital sont d’ailleurs peu visibles, sinon pour Frances Haugen dont la très récente notoriété laisse penser qu’elle a été captée in extremis.
Des livres, pourtant disponibles en français, et importants pour penser les questions numériques, ne sont pas cités, par exemple le travail de Shoshana Zuboff, Bernard Harcourt, Dominique Cardon – certes auditionné – ou de Cathy O’Neill. Sans parler des philosophes dont le travail, là aussi, aurait été précieux à la réflexion collective sur les fausses nouvelles et la post-vérité, comme Cailin O’Connor, Quassim Cassam ou Pascal Engel, Mathias Girel et Gloria Origgi en France[11].
Il n’y a aucune référence aux travaux en sociologie de l’ignorance qui ont pu nourrir de façon décisive la compréhension de ce qu’est le doute ou la désinformation. Aucune référence à des travaux d’historiens des sciences qui ont eu une approche similaire. Dans la bibliographie, les approches cognitivistes servent d’alibi pour dissimuler des préjugés sur les « jeunes », les classes populaires, ou les personnes peu dotées en capital culturel…
On doit aussi regretter que la « désinformation » ne soit pas mieux définie et analysée. Où commence-t-elle ? Où finit-elle ? Dire que cinq milliardaires s’entendent pour implanter des nanopuces dans notre sang relève de la désinformation. En revanche, qui pourrait dire qu’il est faux d’affirmer que cinq milliardaires ont un poids écrasant dans les affaires politiques et économiques mondiales à travers leurs sociétés (les GAFAM) ? L’énoncé « cinq milliardaires gouvernent le monde » est-il le résumé d’une information ou bien une désinformation ? Faute de ce travail conceptuel, le rapport sur les Lumières n’éclaire donc que les (déjà) illuminés.
Surtout, la question des sources de cette désinformation n’est pas posée alors même que des décennies de recherche sur les « marchands de doute » nous enseignent comment les industries du tabac, les industries fossiles, les biotechnologies, entre autres, manipulent l’opinion via des intermédiaires plus ou moins naïfs, consentants ou rémunérés.
Le dérèglement climatique est d’ailleurs décrit comme causé par « l’activité humaine », ce qui revient à occulter la responsabilité écrasante des industries fossiles à la fois dans la cause du réchauffement et dans les campagnes de désinformation, ce que de nombreux travaux scientifiques ont démontré, encore récemment sur le cas de Total[12].
Plus généralement, l’immense discussion, aussi bien en géologie qu’en sciences humaines, concernant le sens à donner à « l’Anthropocène », la responsabilité comparée des divers pays, périodes historiques, régimes politiques, et systèmes économiques dans le changement climatique, n’est même pas mentionnée. Or, elle a donné lieu à une exploration académique poussée des stratégies de manipulation et désinformation de la part des industries liées aux énergies fossiles, comme l’ont montré entre autres Naomi Oreskes et Erik Conway – ce qui fait de cette thématique un cas d’école pour qui s’intéresse à la désinformation.
Si le rapport déplore que le « climatoscepticisme », par le biais d’algorithmes, parvienne à capter l’attention des internautes au détriment de la science climatologique authentique, il n’interroge pas les sources de ces activités de désinformation sur Internet, lesquelles renvoient très souvent à des officines liées à des grands groupes énergétiques, dont certains sont européens ou même français…
S’il s’agit de faire revenir les Lumières à l’ère du numérique, pourquoi ne pas braquer les projecteurs sur les artisans de l’obscurité ? La référence lancinante aux mécanismes « cognitifs » est une sorte de couverture pudique masquant l’absence d’explicitation des enjeux politiques les plus durs. Que ce soit si patent est une source de perplexité, vu qu’une partie non négligeable des personnes auditionnées se classe parmi les élus et responsables politiques et administratifs.
Ces derniers auraient aussi pu être intéressés par des travaux mentionnant le rôle des lobbies (industrie agro-alimentaire ou industrie pharmaceutique, par exemple) dont le poids et l’influence, à Bruxelles notamment, sont documentés par de nombreuses enquêtes[13] et qui essaient de nous faire croire qu’ils œuvrent pour le bien public.
S’il s’agit de faire une synthèse de la connaissance sur ces questions, force est de constater qu’une part massive des résultats de la recherche de ces vingt dernières années manque à l’appel. Bien entendu, si l’on était en présence d’un travail un peu laborieux rendu par un étudiant de M1 à court de temps, préférentiellement en sciences cognitives, on pourrait être indulgent. Mais doit-on l’être lorsqu’il s’agit d’un rapport commandité par le Président de la République, dirigé par un chercheur auréolé du « Prix Aujourd’hui 2021 », et destiné à allumer nos Lumières dans un monde numérique ? Il est permis d’en douter. Plus encore quand les fautes du rapport ne se limitent pas aux manques de la bibliographie et de la liste des personnes auditionnées.
Le chapitre 1 fait par exemple référence, dans le cas du rapport aux vaccins, à une étude qui se base sur des données déclaratives concernant l’intention de se faire vacciner ou non en septembre 2020, soit avant même les débuts de la vaccination (l’autorisation de mise sur le marché au Royaume-Uni a eu lieu tout début décembre 2020). Surtout, comme le rappellent notamment les sociologues Jeremy Ward et Patrick Peretti-Watel, ainsi que les différentes vagues de l’enquête publique CovidPrev menée par les autorités de santé publique[14], il n’y a que peu de liens entre l’intention déclarée à un moment donné de se faire vacciner et l’effectivité de la vaccination[15].
Surtout, le déterminant principal de l’acte de vaccination n’est pas les informations lues sur Internet mais bien les informations et la pratique vaccinale des proches[16]. À ce titre, la confiance dans le médecin de famille est primordiale. C’est aussi ce que souligne l’enquête récente « Les Français et la Science » qui montre que pour les informations scientifiques et médicales, les Français font le plus confiance aux scientifiques et aux médecins[17].
L’absence de rigueur n’est pas cantonnée à ce seul exemple. La défiance et la théorie du complot ne font pas l’objet d’un travail de définition sérieux et circonstancié[18], alors que le rapport estime par ailleurs que « plusieurs études, conduites tant aux États-Unis qu’en France, soulignent que la désinformation constitue probablement une part minoritaire du volume global des actualités consultées sur les réseaux sociaux, et plus largement sur Internet. » (p. 41).
Autrement dit, l’heure est grave mais la menace n’est pas sérieuse. À moins que ce ne soit l’inverse… C’est un « gouvernement de la critique », pour reprendre l’expression de Sezin Topçu, sans autre référentiel que l’urgence et la nouveauté. Le recours à la mise en scène du risque et du danger apparaît comme une théâtralisation de l’arrivée des secouristes de la raison.
Le rapport ne distingue pas non plus l’esprit critique de la pensée critique. Pourtant, les deux syntagmes ne sont pas du tout synonymes. Le premier renvoie à des formes de tri ou d’évaluation des démarches pseudo-scientifiques (c’est, par exemple, le sens de la démarche « zététique » vulgarisée depuis Henri Broch) ou à des compétences à acquérir au cours de la formation scolaire[19]. Le second syntagme désigne un ensemble plus large encore de théorisations intellectuelles de l’ordre établi et naturalisé (la critique du pouvoir chez Michel Foucault, notamment), mais également de théories politiques normatives, et même, pour user d’un rappel scolaire, la tradition philosophique inaugurée par Kant.
Dans l’analyse, aucune référence, non plus, à la concentration des médias par des groupes industriels. Aucune mention concernant le rôle des plateformes, Facebook et Google en particulier, dans le financement de la presse et la difficulté à accéder aux informations de ces partenariats[20]. Aucune mention des difficultés subies par l’université, mais un soutien demandé pour « la recherche scientifique sur la désinformation en ligne et sur les ingérences numériques étrangères », ce qui correspond en partie au programme de travail du président de la commission.
S’il ne s’agit pas de personnaliser la critique sur Gérald Bronner, puisque le rapport est issu du travail officiellement mené par une commission composée de 14 membres au total, le choix de lui confier la présidence de cette commission paraît largement discutable sur le plan scientifique. Son dernier ouvrage Apocalypse cognitive (2021), qui porte sur un sujet similaire, se distingue par des généralisations, erreurs et approximations nombreuses, soulignées notamment par Dominique Boullier dans AOC en avril dernier[21] – critiques qui n’ont reçu aucune réponse à notre connaissance.
Surtout, il est difficile par moments de distinguer ce qui relève de la pensée de Gérald Bronner et du travail collectif des membres de la commission, plus encore dans un cas d’auto-plagiat qui voit un passage du rapport (p. 18) reprendre ce qui était écrit dans l’avant-propos du dernier livre du sociologue[22]. Comme si les conclusions du rapport étaient déjà contenues dans l’essai, dont il s’agirait de confirmer les intuitions, et ce, sans jamais les réviser[23].
À ce titre, on ne peut manquer de relever dans ce rapport l’omniprésence de la perspective défendue par Gérald Bronner, selon laquelle les idées et les opinions s’inscrivent dans « un marché de l’information »[24]. On trouve ainsi dans le rapport six occurrences de « marché de l’information » et deux de « marché cognitif », sans argument pour défendre la perspective, ni même offrir au lecteur une caractérisation exacte de ce marché : qui sont les producteurs et les consommateurs ? Quels sont les biens échangés ? De manière générale, comment caractériser les conditions de « concurrence libre et non faussée » qui, selon les économistes, garantissent le bon fonctionnement d’un marché ?
Si la perspective en reste au stade de la métaphore, et repose sur une crédibilité intuitive immédiate, elle permet toutefois de justifier l’objectif de « régulation » que vise le rapport. Par définition, un marché qui fonctionne mal doit en effet être régulé. Or si cette prémisse du « marché de l’information » est rendue à son statut de simple hypothèse plutôt que de fait brut, il n’y a plus rien de naturel dans l’exigence d’une régulation (forcément étatique) de ce marché.
Le contexte
Que l’Élysée commande un tel rapport et s’enthousiasme de son résultat interroge. Les questions traitées relèvent d’abord d’instances déjà existantes. Citons, d’abord, le Conseil national du numérique, qui a produit en juin 2021 un rapport de près de 100 pages sur un sujet très proche et organisé de manière systématique et didactique, qui gagnerait à être mis en balance avec cette nouvelle livraison – qui fait pâle figure en comparaison[25].
Ensuite, mentionnons les travaux issus du groupe de recherche transdisciplinaire européen COMPACT, composé de plus de 150 chercheurs. Il en résulte un état de l’art bien plus consistant que ledit rapport, repris dans le très complet Routledge Handbook of Conspiracy Theories paru en 2020[26], augmenté de recommandations aux pouvoirs publics dans plusieurs langues.
Enfin, le contournement des instances pourtant mobilisables (et d’ailleurs mobilisées) par l’exécutif élyséen n’est certes pas une première. Dans le domaine de la santé publique, d’autres cénacles ont été court-circuités par la mise en place de conseils et d’outils consultatifs à l’indépendance questionnable.
Le résultat, nous l’avons vu, justifie encore moins d’être passé outre les instances existantes[27]. Alors à quoi sert ce rapport ? Plusieurs hypothèses, cumulatives, méritent d’être mentionnées.
La première est le calendrier électoral et la volonté manifestée par le Président de la République de s’afficher en candidat de la rationalité, rassurante et raisonnable, face à la démagogie et l’hubris censées être uniformément incarnées par Éric Zemmour, Marine Le Pen et Jean-Luc Mélenchon.
C’est une stratégie qui se retrouve dans plusieurs discours présidentiels, lorsqu’il qualifie par exemple d’« amish » les opposants à la 5G, ainsi qu’au niveau du gouvernement avec des ministres qui invoquent une « écologie de la raison », terme déjà employé par les climato-négationnistes Luc Ferry et Claude Allègre dans un livre où cette écologie était censée s’opposer à celle de la peur[28].
D’autant plus que cette entreprise répond directement à une commande de l’Élysée, donc à un agenda politique, à un moment clé du mandat du locataire du Palais, plus que jamais en campagne pour sa réélection à trois mois du premier tour de l’élection présidentielle. L’indépendance revendiquée par cette commission est toute relative, et ses résultats et conclusions sont rendus disponibles sur le site elysee.fr : c’est, par définition, de l’aide à la décision politique et un rapport politique.
La deuxième hypothèse consiste à resituer ce rapport dans un moment plus large qui cherche à trier, sans aucune réflexion sur les pratiques et les usages, les bons et les mauvais canaux d’information. Ce rapport n’est alors qu’un dispositif parmi d’autres qui permet de donner matière à cette panique morale des élites et légitimité aux politiques censées y répondre.
Une série de dispositifs ont prétendument pour but de réguler l’information et de protéger « l’ordre public » : loi du 30 juillet 2018 relative à la protection du secret des affaires qui avait été dénoncée par de nombreuses associations ; loi du 22 décembre 2018 sur la manipulation de l’information ; brève création de l’espace dédié « Desinfox » destiné à recenser les « sources d’informations sûres et vérifiées » selon les termes de la porte-parole de l’époque du gouvernement ; loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite « loi Avia » largement censurée par le Conseil Constitutionnel et dont l’article 16 crée un « Observatoire de la haine en ligne » ; création du service de vigilance et de protection contre les ingérences numériques étrangères (Viginum). Le site Internet vie-publique.fr considérait déjà en juin 2019 que de « nombreux textes existent en droit français pour réprimer les diffuseurs de fausses nouvelles dans l’intention de nuire et également fixer des règles aux plateformes numériques[29] ».
Il ne s’agit ni de nier que le numérique pose des problèmes ni de faire le bilan, dans le cadre de ce texte, des lois existantes. Ce qui interroge, en la circonstance, c’est la multiplication de ces dispositifs qui dessinent une forme de « panique morale » du côté des dépositaires du pouvoir.
Le sociologue Stanley Cohen avait donné une définition de ce terme dans son ouvrage de 1972 où il décrit comment des personnes, groupes ou épisodes de la vie collective deviennent définis comme une « menace pour les valeurs et les intérêts de la société ». Des « barricades morales » sont alors occupées par des « personnes bien pensantes » et des « experts socialement agréés prononcent leurs diagnostics et leurs solutions ».
Comme l’écrit Cohen, l’objet de la panique peut être nouveau ou ancien, disparaître ou perdurer, ne pas laisser de traces ou remodeler une société[30]. Le rapport qui nous occupe illustre davantage une panique morale des dominants[31] qu’une « panique conspirationniste[32] » des classes populaires ou des « jeunes » sur lesquels les dominants projettent leurs propres fantasmes d’irrationalité, de « crédulité » ou « d’imbécillité ».
La troisième hypothèse est de comprendre ce rapport comme une ressource symbolique pour des projets en cours ou à venir. Le chapitre 6 du rapport est ainsi l’occasion d’un plaidoyer pour un Science Media Center version française. Le projet d’une telle maison de la science et des médias était inscrit dans le projet de Loi de programmation de la recherche présenté à l’automne 2020 mais semble pour le moment abandonné[33].
Porté en France par une chercheuse, Virginie Tournay[34], ce projet s’inspire du Science Media Center britannique où des journalistes peuvent venir piocher des informations et des citations directement utilisables auprès de prétendus experts, un cas d’école de la mise sous tutelle de l’information par des intérêts industriels et financiers[35]. Le rapport n’en reprend certes pas la terminologie, mais l’argumentation défend la perspective d’un tel centre en France : « Comment s’assurer que le recrutement des experts, par exemple en période de pandémie, suive un processus rationnel plutôt que les injonctions de l’urgence et la facilité de carnets d’adresses peu souvent renouvelés ? Les réponses apportées lors des auditions menées par la commission à ce sujet n’étaient guère convaincantes. À ce sujet, il manque clairement une intermédiation entre le monde de la science et celui des médias. » (p. 96).
L’absence de référence directe à un tel centre peut clairement se lire comme une manière d’en populariser l’idée sans recourir à son nom. La régulation de l’information s’entend ici comme une manière de délégitimer tout discours critique sur l’innovation, la technologie ou les orientations économiques et apparaît comme une volonté d’écarter, matériellement et symboliquement, toute alternative à la vision dominante de « l’intérêt général[36] ».
•
Les rapports commis par des scientifiques aux représentants politiques sont légion. Ils ont des destinées contrastées : bien souvent rapidement oubliés dans les dédales de la bureaucratie, il leur arrive de se voir promus boussole politique décisive – ce fut le cas, par exemple, du rapport Aghion-Cohen de 2004 qui a méthodiquement organisé le démantèlement encore en cours de l’enseignement supérieur et de la recherche.
On ne peut prévoir à coup sûr la trajectoire du rapport Bronner. Toutefois, s’il était appelé à conduire la politique d’un prochain gouvernement, le danger est grand de voir sur quelles bases fragiles (nous euphémisons), discutables et idéologiquement orientées elle serait menée.
Le problème que pose le contenu du rapport de la commission Bronner remis au Président de la République n’est pas seulement celui des manquements et des orientations d’un travail qui renseigne sur la manière dont se structure aujourd’hui un discours officiel sur le numérique, la vérité et l’information. C’est l’apparente dépolitisation que sa lecture fait apparaître : ce rapport, censé faire un état de l’art assorti des recommandations de rigueur, est en réalité un texte politique, mais il traite l’objet de son questionnement comme étant largement technique.
Il fabrique en outre une conception de la vérité comme objet largement désencastré, à la fois flottant au-dessus du monde social et suspendu dans un vide, pour mieux soutenir et, en même temps, naturaliser au nom d’une prétendue rationalité non idéologique, une réforme néolibérale de divers pans de la société.