Numérique

Panique morale à l’Elysée ! sur le rapport de la commission Bronner

Politiste, Politiste, Philosophe, Historien, Historien, Sociologue

Le rapport de la commission Bronner « Les Lumières à l’ère numérique » est à replacer dans une série de dispositifs qui ont prétendument pour but de réguler l’information et de protéger « l’ordre public ». Il donne matière à une panique morale des élites et légitimité aux politiques censées y répondre. C’est dire si son absence de rigueur, sa partialité et ses fragilités n’amoindrissent pas sa nocivité.

Le 11 janvier 2022, la commission présidée par le sociologue Gérald Bronner a remis au Président de la République les conclusions et les 30 recommandations de son rapport, intitulé « Les Lumières à l’ère numérique[1] ». Le Chef de l’État a évoqué un « travail fondateur » et souhaité que celui-ci « puisse être diffusé largement et permette d’enrichir le débat démocratique[2] ».

Lors du cinquantième anniversaire du congrès de la Conférence des présidents d’universités, le 13 janvier 2022 en Sorbonne, il a de nouveau évoqué le travail de cette commission, « présidée par l’un de vos éminents collègues », qui vise « à bâtir, à reconstruire ou refonder les Lumières à l’ère numérique »[3]. Pourtant, rien dans le travail de cette commission ne permet d’esquisser le début d’un tel projet, aussi ambitieux que grandiloquent.

publicité

Ce texte de 124 pages fait référence à deux reprises à l’urgence qu’il y aurait à trouver des solutions à la « désinformation » (pp. 15 et 105) et mentionne le temps très contraint qu’il a pu y consacrer (100 jours), allant jusqu’à affirmer avoir « abandonné immédiatement l’objectif d’exhaustivité ».

Or, il ne s’agit pas ici d’une question d’exhaustivité ou de délai, mais de méthodologie. Ce rapport politique, partiel et, surtout, partial, veut contribuer à la lutte contre la « désinformation », mais nous confronte à un double problème : celui de son contenu et celui du moment politique dans lequel il s’insère et qu’il conforte.

Le contenu

En ce qui concerne le contenu, des généralisations sont hâtives et grossières, des termes ne sont pas définis, des auteurs importants sur les questions du numérique ne sont pas cités, la majorité des références concerne des travaux en sciences cognitives, de neurosciences ou en psychologie sociale, ce biais naturaliste empêchant toute portée plus large des constats, et le nombre quantitativement impressionnant des personnes auditionnées (plus de 150) interroge une fois que celui-ci est rapporté au profil des personnes auditionnées et à celui de celles qui ne l’ont pas été. Comment dès lors prendre ce travail au sérieux ?

Le texte donne l’impression de se dédouaner à l’avance de cette critique en insistant sur le temps limité qu’il a pu consacrer à ce travail, dont une des missions était de présenter un « état de l’art ». Toutefois, l’ampleur des manquements constatés n’a rien à voir avec un problème de temps. C’est en réalité une faute méthodologique qui empêche toute crédibilité des constats comme des propositions.

La dissymétrie entre les différentes disciplines et professions, qui auraient toutes vocation à éclairer la réflexion, est frappante : sociologie, histoire, anthropologie, didactique des sciences, sciences de l’éducation et philosophie, notamment, s’effacent devant cognitivistes et psychologues aussi bien dans la bibliographie que dans les auditions.

Par ailleurs, au sein de la psychologie, il n’y pas d’unanimité en ce qui concerne le sujet du rapport et il est regrettable de n’en retenir que la facette la plus connue du grand public, celle des biais et de l’irrationalité. Même sans faire appel à des sciences sociales non naturalistes, il aurait été possible de trouver d’autres manières de construire la compréhension de ces questions.

En outre, il est gênant de voir relayé dans ce rapport une « croyance » qui prend elle-même son essor à la faveur des réseaux sociaux numériques, celle selon laquelle il existerait un consensus en psychologie cognitive quant à l’existence de biais cognitifs, signes – potentiels – d’irrationalité[4]. C’est loin d’être le cas, et d’importantes critiques de cet usage mal régulé de la notion ont été formulées aussi bien de longue date que plus récemment par des psychologues cognitifs[5].

Une dizaine de psychologues chercheurs en sciences cognitives est auditionnée, contre aucun sociologue et peu de politistes, comme si la sociologie était intégralement incarnée par le président de la commission. Deux philosophes sont entendus sous le label de philosophe, les autres le sont au titre des sciences cognitives, alors que, au hasard, Claudine Tiercelin, professeure de philosophie au Collège de France, et qui est intervenue depuis plusieurs années sur la post-vérité, n’est auditionnée ni citée dans la bibliographie[6].

Un seul historien, si on ne compte pas les deux historiens de la commission[7], apporte ses lumières sur le devenir des Lumières… Au-delà des individus, l’absence de toute historicisation des phénomènes dont il est question participe de la dramatisation à outrance du présent.

En effet, ce rapport marque par son absence presque complète de perspective historique mais également par le fait que les rares tentatives en ce sens demeurent de l’ordre de la généralité, par exemple p. 19 (« En France comme ailleurs, et bien avant l’apparition d’Internet, les récits conspirationnistes ont embrasé les esprits tout au long de notre histoire contemporaine ») et renvoient, par leur ton dramatique, à une certaine idéalisation du passé, ce qu’illustre bien l’affirmation suivante : « avec la disponibilité des fausses informations sur Internet et la polarisation des réseaux sociaux, c’est la possibilité même d’un espace épistémique et de débat commun qui est menacée » (p. 25).

Présentée de la sorte, la question de la rupture d’un espace épistémique commun laisse entendre que, par le passé, il aurait existé un espace commun qu’il conviendrait de restaurer (même si les précautions d’usage indiquent qu’aux siècles précédents tout n’était pas épistémiquement rose). Il est fortement permis d’en douter.

Cette place pour le moins marginale donnée à l’histoire, marginalité partagée avec d’autres, n’est sans doute pas anodine. Un rapide survol historique permet de montrer que les phénomènes dénoncés ne sont, pour une bonne part, pas nouveaux (les accusations de manipulations par des puissances étrangères des politiques et de la presse sont par exemple un classique du XIXe et sans doute pas toujours sans fondement). La commission reconnaît d’ailleurs que l’arsenal judiciaire existe depuis la loi de 1881 ! Et pour discuter de leur forme actuelle, et de leurs effets sur les processus électoraux contemporains comme sur la vie civique, l’audition des présidents et présidentes des groupes parlementaires et des partis aurait semblé utile.

Encore une fois, il ne s’agit pas de demander au rapport de respecter les règles d’une publication académique ou de discuter de textes obscurs enfouis dans des revues inconnues ou la littérature la plus pointue. Le problème est que la partialité de ces choix et son absence de méthode empêchent tout diagnostic un peu sérieux.

C’est par exemple le cas en ce qui concerne le cœur de son sujet : le numérique. Le travail d’Antonio Casilli, spécialiste des mutations numériques dont les livres ont été largement présentés dans la presse, est absent, tout comme ceux de Nikos Smyrnaios, pourtant complètement dans le thème de la modération des contenus partagés sur les plateformes GAFAM[8].

De même, l’Institut des Systèmes complexes, qui a développé en France un des meilleurs outils de suivi des contenus sur les réseaux sociaux, en particulier pour ce qui est politique (le « tweetoscope » et le « politocscope ») n’est pas cité, et son directeur, David Chavalarias, modélisateur qui depuis des années travaille à comprendre l’effet de ces réseaux sur la politique et en particulier sur les élections – on lui doit de savoir que, pour le suffrage universel, l’astroturfing (faux comptes)[9] est plus dommageable que les fake news (fausses nouvelles) – n’est ni auditionné, ni lu par les rédacteurs du rapport.

Un esprit malicieux rappellerait ici que ce chercheur avait utilisé ses logiciels pour démontrer que les membres du gouvernement et de la majorité présidentielle avaient largement popularisé le terme « islamogauchiste »[10], multipliant ainsi la présence d’une prétendue menace qu’ils affirmaient combattre. Les professionnels du monde digital sont d’ailleurs peu visibles, sinon pour Frances Haugen dont la très récente notoriété laisse penser qu’elle a été captée in extremis.

Des livres, pourtant disponibles en français, et importants pour penser les questions numériques, ne sont pas cités, par exemple le travail de Shoshana Zuboff, Bernard Harcourt, Dominique Cardon – certes auditionné – ou de Cathy O’Neill. Sans parler des philosophes dont le travail, là aussi, aurait été précieux à la réflexion collective sur les fausses nouvelles et la post-vérité, comme Cailin O’Connor, Quassim Cassam ou Pascal Engel, Mathias Girel et Gloria Origgi en France[11].

Il n’y a aucune référence aux travaux en sociologie de l’ignorance qui ont pu nourrir de façon décisive la compréhension de ce qu’est le doute ou la désinformation. Aucune référence à des travaux d’historiens des sciences qui ont eu une approche similaire. Dans la bibliographie, les approches cognitivistes servent d’alibi pour dissimuler des préjugés sur les « jeunes », les classes populaires, ou les personnes peu dotées en capital culturel…

On doit aussi regretter que la « désinformation » ne soit pas mieux définie et analysée. Où commence-t-elle ? Où finit-elle ? Dire que cinq milliardaires s’entendent pour implanter des nanopuces dans notre sang relève de la désinformation. En revanche, qui pourrait dire qu’il est faux d’affirmer que cinq milliardaires ont un poids écrasant dans les affaires politiques et économiques mondiales à travers leurs sociétés (les GAFAM) ? L’énoncé « cinq milliardaires gouvernent le monde » est-il le résumé d’une information ou bien une désinformation ? Faute de ce travail conceptuel, le rapport sur les Lumières n’éclaire donc que les (déjà) illuminés.

Surtout, la question des sources de cette désinformation n’est pas posée alors même que des décennies de recherche sur les « marchands de doute » nous enseignent comment les industries du tabac, les industries fossiles, les biotechnologies, entre autres, manipulent l’opinion via des intermédiaires plus ou moins naïfs, consentants ou rémunérés.

Le dérèglement climatique est d’ailleurs décrit comme causé par « l’activité humaine », ce qui revient à occulter la responsabilité écrasante des industries fossiles à la fois dans la cause du réchauffement et dans les campagnes de désinformation, ce que de nombreux travaux scientifiques ont démontré, encore récemment sur le cas de Total[12].

Plus généralement, l’immense discussion, aussi bien en géologie qu’en sciences humaines, concernant le sens à donner à « l’Anthropocène », la responsabilité comparée des divers pays, périodes historiques, régimes politiques, et systèmes économiques dans le changement climatique, n’est même pas mentionnée. Or, elle a donné lieu à une exploration académique poussée des stratégies de manipulation et désinformation de la part des industries liées aux énergies fossiles, comme l’ont montré entre autres Naomi Oreskes et Erik Conway – ce qui fait de cette thématique un cas d’école pour qui s’intéresse à la désinformation.

Si le rapport déplore que le « climatoscepticisme », par le biais d’algorithmes, parvienne à capter l’attention des internautes au détriment de la science climatologique authentique, il n’interroge pas les sources de ces activités de désinformation sur Internet, lesquelles renvoient très souvent à des officines liées à des grands groupes énergétiques, dont certains sont européens ou même français…

S’il s’agit de faire revenir les Lumières à l’ère du numérique, pourquoi ne pas braquer les projecteurs sur les artisans de l’obscurité ? La référence lancinante aux mécanismes « cognitifs » est une sorte de couverture pudique masquant l’absence d’explicitation des enjeux politiques les plus durs. Que ce soit si patent est une source de perplexité, vu qu’une partie non négligeable des personnes auditionnées se classe parmi les élus et responsables politiques et administratifs.

Ces derniers auraient aussi pu être intéressés par des travaux mentionnant le rôle des lobbies (industrie agro-alimentaire ou industrie pharmaceutique, par exemple) dont le poids et l’influence, à Bruxelles notamment, sont documentés par de nombreuses enquêtes[13] et qui essaient de nous faire croire qu’ils œuvrent pour le bien public.

S’il s’agit de faire une synthèse de la connaissance sur ces questions, force est de constater qu’une part massive des résultats de la recherche de ces vingt dernières années manque à l’appel. Bien entendu, si l’on était en présence d’un travail un peu laborieux rendu par un étudiant de M1 à court de temps, préférentiellement en sciences cognitives, on pourrait être indulgent. Mais doit-on l’être lorsqu’il s’agit d’un rapport commandité par le Président de la République, dirigé par un chercheur auréolé du « Prix Aujourd’hui 2021 », et destiné à allumer nos Lumières dans un monde numérique ? Il est permis d’en douter. Plus encore quand les fautes du rapport ne se limitent pas aux manques de la bibliographie et de la liste des personnes auditionnées.

Le chapitre 1 fait par exemple référence, dans le cas du rapport aux vaccins, à une étude qui se base sur des données déclaratives concernant l’intention de se faire vacciner ou non en septembre 2020, soit avant même les débuts de la vaccination (l’autorisation de mise sur le marché au Royaume-Uni a eu lieu tout début décembre 2020). Surtout, comme le rappellent notamment les sociologues Jeremy Ward et Patrick Peretti-Watel, ainsi que les différentes vagues de l’enquête publique CovidPrev menée par les autorités de santé publique[14], il n’y a que peu de liens entre l’intention déclarée à un moment donné de se faire vacciner et l’effectivité de la vaccination[15].

Surtout, le déterminant principal de l’acte de vaccination n’est pas les informations lues sur Internet mais bien les informations et la pratique vaccinale des proches[16]. À ce titre, la confiance dans le médecin de famille est primordiale. C’est aussi ce que souligne l’enquête récente « Les Français et la Science » qui montre que pour les informations scientifiques et médicales, les Français font le plus confiance aux scientifiques et aux médecins[17].

L’absence de rigueur n’est pas cantonnée à ce seul exemple. La défiance et la théorie du complot ne font pas l’objet d’un travail de définition sérieux et circonstancié[18], alors que le rapport estime par ailleurs que « plusieurs études, conduites tant aux États-Unis qu’en France, soulignent que la désinformation constitue probablement une part minoritaire du volume global des actualités consultées sur les réseaux sociaux, et plus largement sur Internet. » (p. 41).

Autrement dit, l’heure est grave mais la menace n’est pas sérieuse. À moins que ce ne soit l’inverse… C’est un « gouvernement de la critique », pour reprendre l’expression de Sezin Topçu, sans autre référentiel que l’urgence et la nouveauté. Le recours à la mise en scène du risque et du danger apparaît comme une théâtralisation de l’arrivée des secouristes de la raison.

Le rapport ne distingue pas non plus l’esprit critique de la pensée critique. Pourtant, les deux syntagmes ne sont pas du tout synonymes. Le premier renvoie à des formes de tri ou d’évaluation des démarches pseudo-scientifiques (c’est, par exemple, le sens de la démarche « zététique » vulgarisée depuis Henri Broch) ou à des compétences à acquérir au cours de la formation scolaire[19]. Le second syntagme désigne un ensemble plus large encore de théorisations intellectuelles de l’ordre établi et naturalisé (la critique du pouvoir chez Michel Foucault, notamment), mais également de théories politiques normatives, et même, pour user d’un rappel scolaire, la tradition philosophique inaugurée par Kant.

Dans l’analyse, aucune référence, non plus, à la concentration des médias par des groupes industriels. Aucune mention concernant le rôle des plateformes, Facebook et Google en particulier, dans le financement de la presse et la difficulté à accéder aux informations de ces partenariats[20]. Aucune mention des difficultés subies par l’université, mais un soutien demandé pour « la recherche scientifique sur la désinformation en ligne et sur les ingérences numériques étrangères », ce qui correspond en partie au programme de travail du président de la commission.

S’il ne s’agit pas de personnaliser la critique sur Gérald Bronner, puisque le rapport est issu du travail officiellement mené par une commission composée de 14 membres au total, le choix de lui confier la présidence de cette commission paraît largement discutable sur le plan scientifique. Son dernier ouvrage Apocalypse cognitive (2021), qui porte sur un sujet similaire, se distingue par des généralisations, erreurs et approximations nombreuses, soulignées notamment par Dominique Boullier dans AOC en avril dernier[21] – critiques qui n’ont reçu aucune réponse à notre connaissance.

Surtout, il est difficile par moments de distinguer ce qui relève de la pensée de Gérald Bronner et du travail collectif des membres de la commission, plus encore dans un cas d’auto-plagiat qui voit un passage du rapport (p. 18) reprendre ce qui était écrit dans l’avant-propos du dernier livre du sociologue[22]. Comme si les conclusions du rapport étaient déjà contenues dans l’essai, dont il s’agirait de confirmer les intuitions, et ce, sans jamais les réviser[23].

À ce titre, on ne peut manquer de relever dans ce rapport l’omniprésence de la perspective défendue par Gérald Bronner, selon laquelle les idées et les opinions s’inscrivent dans « un marché de l’information »[24]. On trouve ainsi dans le rapport six occurrences de « marché de l’information » et deux de « marché cognitif », sans argument pour défendre la perspective, ni même offrir au lecteur une caractérisation exacte de ce marché : qui sont les producteurs et les consommateurs ? Quels sont les biens échangés ? De manière générale, comment caractériser les conditions de « concurrence libre et non faussée » qui, selon les économistes, garantissent le bon fonctionnement d’un marché ?

Si la perspective en reste au stade de la métaphore, et repose sur une crédibilité intuitive immédiate, elle permet toutefois de justifier l’objectif de « régulation » que vise le rapport. Par définition, un marché qui fonctionne mal doit en effet être régulé. Or si cette prémisse du « marché de l’information » est rendue à son statut de simple hypothèse plutôt que de fait brut, il n’y a plus rien de naturel dans l’exigence d’une régulation (forcément étatique) de ce marché.

Le contexte

Que l’Élysée commande un tel rapport et s’enthousiasme de son résultat interroge. Les questions traitées relèvent d’abord d’instances déjà existantes. Citons, d’abord, le Conseil national du numérique, qui a produit en juin 2021 un rapport de près de 100 pages sur un sujet très proche et organisé de manière systématique et didactique, qui gagnerait à être mis en balance avec cette nouvelle livraison – qui fait pâle figure en comparaison[25].

Ensuite, mentionnons les travaux issus du groupe de recherche transdisciplinaire européen COMPACT, composé de plus de 150 chercheurs. Il en résulte un état de l’art bien plus consistant que ledit rapport, repris dans le très complet Routledge Handbook of Conspiracy Theories paru en 2020[26], augmenté de recommandations aux pouvoirs publics dans plusieurs langues.

Enfin, le contournement des instances pourtant mobilisables (et d’ailleurs mobilisées) par l’exécutif élyséen n’est certes pas une première. Dans le domaine de la santé publique, d’autres cénacles ont été court-circuités par la mise en place de conseils et d’outils consultatifs à l’indépendance questionnable.

Le résultat, nous l’avons vu, justifie encore moins d’être passé outre les instances existantes[27]. Alors à quoi sert ce rapport ? Plusieurs hypothèses, cumulatives, méritent d’être mentionnées.

La première est le calendrier électoral et la volonté manifestée par le Président de la République de s’afficher en candidat de la rationalité, rassurante et raisonnable, face à la démagogie et l’hubris censées être uniformément incarnées par Éric Zemmour, Marine Le Pen et Jean-Luc Mélenchon.

C’est une stratégie qui se retrouve dans plusieurs discours présidentiels, lorsqu’il qualifie par exemple d’« amish » les opposants à la 5G, ainsi qu’au niveau du gouvernement avec des ministres qui invoquent une « écologie de la raison », terme déjà employé par les climato-négationnistes Luc Ferry et Claude Allègre dans un livre où cette écologie était censée s’opposer à celle de la peur[28].

D’autant plus que cette entreprise répond directement à une commande de l’Élysée, donc à un agenda politique, à un moment clé du mandat du locataire du Palais, plus que jamais en campagne pour sa réélection à trois mois du premier tour de l’élection présidentielle. L’indépendance revendiquée par cette commission est toute relative, et ses résultats et conclusions sont rendus disponibles sur le site elysee.fr : c’est, par définition, de l’aide à la décision politique et un rapport politique.

La deuxième hypothèse consiste à resituer ce rapport dans un moment plus large qui cherche à trier, sans aucune réflexion sur les pratiques et les usages, les bons et les mauvais canaux d’information. Ce rapport n’est alors qu’un dispositif parmi d’autres qui permet de donner matière à cette panique morale des élites et légitimité aux politiques censées y répondre.

Une série de dispositifs ont prétendument pour but de réguler l’information et de protéger « l’ordre public » : loi du 30 juillet 2018 relative à la protection du secret des affaires qui avait été dénoncée par de nombreuses associations ; loi du 22 décembre 2018 sur la manipulation de l’information ; brève création de l’espace dédié « Desinfox » destiné à recenser les « sources d’informations sûres et vérifiées » selon les termes de la porte-parole de l’époque du gouvernement ; loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite « loi Avia » largement censurée par le Conseil Constitutionnel et dont l’article 16 crée un « Observatoire de la haine en ligne » ; création du service de vigilance et de protection contre les ingérences numériques étrangères (Viginum). Le site Internet vie-publique.fr considérait déjà en juin 2019 que de « nombreux textes existent en droit français pour réprimer les diffuseurs de fausses nouvelles dans l’intention de nuire et également fixer des règles aux plateformes numériques[29] ».

Il ne s’agit ni de nier que le numérique pose des problèmes ni de faire le bilan, dans le cadre de ce texte, des lois existantes. Ce qui interroge, en la circonstance, c’est la multiplication de ces dispositifs qui dessinent une forme de « panique morale » du côté des dépositaires du pouvoir.

Le sociologue Stanley Cohen avait donné une définition de ce terme dans son ouvrage de 1972 où il décrit comment des personnes, groupes ou épisodes de la vie collective deviennent définis comme une « menace pour les valeurs et les intérêts de la société ». Des « barricades morales » sont alors occupées par des « personnes bien pensantes » et des « experts socialement agréés prononcent leurs diagnostics et leurs solutions ».

Comme l’écrit Cohen, l’objet de la panique peut être nouveau ou ancien, disparaître ou perdurer, ne pas laisser de traces ou remodeler une société[30]. Le rapport qui nous occupe illustre davantage une panique morale des dominants[31] qu’une « panique conspirationniste[32] » des classes populaires ou des « jeunes » sur lesquels les dominants projettent leurs propres fantasmes d’irrationalité, de « crédulité » ou « d’imbécillité ».

La troisième hypothèse est de comprendre ce rapport comme une ressource symbolique pour des projets en cours ou à venir. Le chapitre 6 du rapport est ainsi l’occasion d’un plaidoyer pour un Science Media Center version française. Le projet d’une telle maison de la science et des médias était inscrit dans le projet de Loi de programmation de la recherche présenté à l’automne 2020 mais semble pour le moment abandonné[33].

Porté en France par une chercheuse, Virginie Tournay[34], ce projet s’inspire du Science Media Center britannique où des journalistes peuvent venir piocher des informations et des citations directement utilisables auprès de prétendus experts, un cas d’école de la mise sous tutelle de l’information par des intérêts industriels et financiers[35]. Le rapport n’en reprend certes pas la terminologie, mais l’argumentation défend la perspective d’un tel centre en France : « Comment s’assurer que le recrutement des experts, par exemple en période de pandémie, suive un processus rationnel plutôt que les injonctions de l’urgence et la facilité de carnets d’adresses peu souvent renouvelés ? Les réponses apportées lors des auditions menées par la commission à ce sujet n’étaient guère convaincantes. À ce sujet, il manque clairement une intermédiation entre le monde de la science et celui des médias. » (p. 96).

L’absence de référence directe à un tel centre peut clairement se lire comme une manière d’en populariser l’idée sans recourir à son nom. La régulation de l’information s’entend ici comme une manière de délégitimer tout discours critique sur l’innovation, la technologie ou les orientations économiques et apparaît comme une volonté d’écarter, matériellement et symboliquement, toute alternative à la vision dominante de « l’intérêt général[36] ».

Les rapports commis par des scientifiques aux représentants politiques sont légion. Ils ont des destinées contrastées : bien souvent rapidement oubliés dans les dédales de la bureaucratie, il leur arrive de se voir promus boussole politique décisive – ce fut le cas, par exemple, du rapport Aghion-Cohen de 2004 qui a méthodiquement organisé le démantèlement encore en cours de l’enseignement supérieur et de la recherche.

On ne peut prévoir à coup sûr la trajectoire du rapport Bronner. Toutefois, s’il était appelé à conduire la politique d’un prochain gouvernement, le danger est grand de voir sur quelles bases fragiles (nous euphémisons), discutables et idéologiquement orientées elle serait menée.

Le problème que pose le contenu du rapport de la commission Bronner remis au Président de la République n’est pas seulement celui des manquements et des orientations d’un travail qui renseigne sur la manière dont se structure aujourd’hui un discours officiel sur le numérique, la vérité et l’information. C’est l’apparente dépolitisation que sa lecture fait apparaître : ce rapport, censé faire un état de l’art assorti des recommandations de rigueur, est en réalité un texte politique, mais il traite l’objet de son questionnement comme étant largement technique.

Il fabrique en outre une conception de la vérité comme objet largement désencastré, à la fois flottant au-dessus du monde social et suspendu dans un vide, pour mieux soutenir et, en même temps, naturaliser au nom d’une prétendue rationalité non idéologique, une réforme néolibérale de divers pans de la société.


[1] Le rapport peut être consulté en ligne.

[2] Voir « Remise du rapport de la Commission Bronner », site de l’Élysée (consulté le 13 janvier 2022).

[3] Voir « Discours du Président Emmanuel Macron à l’occasion de la clôture du 50ème anniversaire du congrès de la Conférence des présidents d’universités », site de l’Élysée (consulté le 14 janvier 2022).

[4] Voir sur les différentes approches des liens entre rationalité et « biais cognitifs » en psychologie : Pascal Wagner-Egger, « Les canons de la rationalité : essai de classification des points de vue dans le débat sur les biais cognitifs et la rationalité humaine », L’Année psychologique, vol. 111, n° 1, 2011, pp. 191-224.

[5] Voir J. I. Krueger, D. C. Funder, « Towards a balanced social psychology: causes, consequences, and cures for the problem-seeking approach to social behavior and cognition », Behavioral and Brain Sciences, vol. 27, n° 3, 2004, pp. 313-27 ; Ulrike Hahn, Adam J. L. Harris, « What does it mean to be biased: motivated reasoning, and rationality », Psychology of Learning and Motivation, vol. 61, 2014, pp. 41-102. Pour un compte-rendu philosophique de cette littérature en français, voir Marion Vorms, « Bayes et les biais. Le “biais de confirmation” en question », Revue de métaphysique et de morale, vol. 112, n° 4, 2021, pp. 567-590. En particulier, l’idée d’une crédulité fondamentale de l’esprit humain, largement défendue par Gérald Bronner depuis vingt ans, commence à être battue en brèche par des études de plus en plus nombreuses ; par exemple, Hugo Mercier, Not Born Yesterday, Princeton, Princeton University Press, 2021 ; Marion Vorms M, « Sommes-nous trop crédules ? », dans Claudia Senik (éd.), Crises de confiance ?, Paris, La Découverte, 2020, pp. 191-212. Il se trouve que Hugo Mercier a été auditionné et son livre est cité, mais pour énoncer que « de même que la désinformation en ligne ne doit pas être surestimée, gardons-nous d’exagérer son influence sur les grands événements sociaux » (p. 41). La disputatio menée par les psychologues sur l’idée même de crédulité native, et à laquelle il contribue, est invisible.

[6] Voir, par exemple, le numéro 297/2021 de la Revue internationale de philosophie consacré à la post-vérité.

[7] Il faut aussi noter que trois membres de la commission Bronner sont membres du fonds de dotation pour la création de la Fondation Descartes, notamment son président qui est le président du conseil scientifique de ce fonds, sans que cela ne soit mentionné dans sa biographie en début de rapport (sur les trois membres de la commission Bronner qui sont membres de ce fonds de dotation, seule la biographie de Laurent Cordonier le mentionne). Le président de ce fonds de dotation est également auditionné. Six autres personnes auditionnées, au-delà des positions sociales qu’elles occupent, ont des liens avec ce fonds de dotation (membres de son conseil scientifique, de son conseil d’administration ou de son cercle des experts). Dommage que, dans un rapport cherchant à trouver des moyens pour lutter contre la désinformation « à l’ère du numérique », une transparence totale ne soit pas faite à ce sujet. Il est également regrettable que les choix des personnes et institutions sollicitées ne soient ni explicités, ni détaillés. Par exemple, dans le cas de l’audition du directeur exécutif du CyberPeace Institute, aucun détail n’est donné quant à cette structure. Un article publié dans Le Monde le 26 septembre 2019, au moment de sa création, signalait que « l’ONG sera financée par trois principaux donateurs : Mastercard, la Fondation Hewlett et Microsoft, ces deux derniers contribuant chacun à hauteur de 5 millions de dollars. Cette ONG permet donc, à nouveau, à Microsoft de s’afficher à nouveau comme porte-parole zélé de la pacification du cyberespace. »

[8] Nikos Smyrnaios, Emmanuel Marty, « Profession “nettoyeur du net”. De la modération des commentaires sur les sites d’information français », Réseaux, n° 205, 2017, pp. 57-90.

[9] L’astroturfing est en effet une technique de manipulation qui consiste à faire passer une information (vidéo, pétition, post de blog) ou une structure (association, collectif) comme si elle venait de citoyens alors qu’elle est en réalité l’œuvre de groupes d’intérêts, économiques ou financiers par exemple. Voir par exemple Sophie Boulay, « Exploration du phénomène d’astroturfing : une stratégie de communication usurpant l’identité citoyenne dans l’espace public ».

[10] Voir en ce sens : « “Islamogauchisme” : la piège de l’alt-right se referme sur la Macronie ».

[11] Shoshana Zuboff, Le capitalisme de surveillance, Zulma, 2020 ; Bernard E. Harcourt, La Société d’exposition, Désir et désobéissance à l’ère numérique, Seuil, 2020 ; Cathy O’Neill, Algorithmes : la bombe à retardement, Les Arènes, 2018 ; Pascal Engel, Les Vices du savoir: Essai d’éthique intellectuelle, Agone, 2019 ; Dominique Cardon, A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Le Seuil/La République des idées ; Mathias Girel, Science et territoires de l’ignorance, Éditions Quae, 2017; Quassim Cassam, Conspiracy Theories, Wiley, 2019 (traduction à venir aux éditions Eliott 2022). Sans compter la publication d’innombrables articles sur les fake news ou la post-vérité.

[12] Voir cet article de Christophe Bonneuil, Pierre-Louis Choquet, Benjamin Franta, « Total face au réchauffement climatique (1968-2021) », Terrestres, 26 octobre 2021, .

[13] Voir notamment Marc Milet, Théorie critique du lobbying. L’Union européenne de l’artisanat et des PME et la revendication des petites et moyennes entreprises, Paris, L’Harmattan, 2017.

[14] En ligne (consulté le 18 janvier 2022).

[15] Jeremy K. Ward, Patrick Peretti-Watel, « Comprendre la méfiance vis-à-vis des vaccins : des biais de perception aux controverses », Revue française de sociologie, vol. 61, n° 2, 2020, pp. 243-273.

[16] Emily K. Brunson, « The Impact of Social Networks on Parents’ Vaccination Decisions », Pediatrics, vol. 31, n° 5, 2013, e1397-404.

[17] Voir le sondage « Les Français et la Science ».

[18] Julien Giry, « Étudier les théories du complot en sciences sociales : enjeux et usages », Quaderni, n° 94, 2017, pp. 5-11 ; Julien Giry, Pranvera Tika, « Conspiracy theories in political science and political theory », in Peter Knight, M. Butter (eds.), The Routledge Handbook of Conspiracy Theories, Londres, Routledge, 2020, pp. 108-120.

[19] Les rapports sur ce sujet préexistaient déjà, par exemple celui de mars 2021, intitulé « Éduquer à l’esprit critique. Bases théoriques et indications pratiques pour l’enseignement et la formation », et « rédigé dans le cadre des travaux du groupe de travail “Éduquer à l’esprit critique” du Conseil scientifique du ministère de l’Éducation nationale, de la Jeunesse et des Sports », sous la direction d’Elena Pasquinelli et Gérald Bronner. Ou, sur un thème un peu différent, celui remis au Ministre de l’Éducation en juillet 2021, intitulé « Renforcer l’éducation aux médias et à l’information et la citoyenneté numérique ». La multiplication des rapports sur des sujets aussi proches, et à des dates aussi rapprochées, interroge fortement.

[20] Voir en ce sens la récente enquête de Laurent Mauduit, « Les médias sous la domination de Google et Facebook », Mediapart, 5 janvier 2022.

[21] Dominique Boullier, « Le biais Bronner ou la reductio ad cerebrum », AOC, 9 avril 2021.

[22] Pour être plus précis, le rapport de la commission écrit, p. 18 : « Ceci a toutes sortes de conséquences, mais la plus évidente est l’éclosion d’une concurrence généralisée de tous les modèles intellectuels qui prétendent décrire le monde, des plus frustes aux plus sophistiqués. Aujourd’hui, quiconque dispose d’un compte sur un réseau social peut directement apporter une contradiction, sur la question des vaccins par exemple, à un professeur de l’Académie nationale de médecine. Le premier peut même avoir plus d’audience que le second. Cette concurrence généralisée des points de vue, non hiérarchisés selon les compétences et le savoir de ceux qui les font valoir, peut-elle faire advenir ce monde de connaissance auquel aspiraient nos ancêtres du siècle des Lumières ? ». Dans l’avant-propos d’Apocalypse cognitive, il est écrit : « Cette situation a affaibli le rôle des gate keepers traditionnels (journalistes, experts académiques… toute personne considérée comme légitime socialement à participer au débat public) qui exerçaient une fonction de régulation sur ce marché. Ce fait sociologique majeur a toutes sortes de conséquences mais la plus évidente est que l’on assiste à une concurrence généralisée de tous les modèles intellectuels (des plus frustes au plus sophistiqués) qui prétendent décrire le monde. Aujourd’hui, quelqu’un qui détient un compte sur un réseau social peut directement apporter la contradiction, sur la question des vaccins par exemple, à un professeur de l’Académie nationale de médecine. Le premier peut même se targuer d’une audience plus nombreuse que le second. » Nous soulignons.

[23] On trouvera une critique approfondie dans l’article suivant : Jean-Michel Hupé, Jérôme Lamy et Arnaud Saint-Martin, « Effondrement sociologique ou la panique morale d’un sociologue », Politix, n° 134, 2021, pp. 171-195.

[24] Ibid., pp. 178-180.

[25] Ce rapport est intitulé « Récits et contre-récits, Itinéraire des fausses informations en ligne ». Voir : https://cnnumerique.fr/nos-travaux/recits-et-contre-recits-itineraire-des-fausses-informations-en-ligne

[26] Peter Knight, Michael Butter (eds.), The Routledge Handbook of Conspiracy Theories, Londres, Routledge, 2020.

[27] Plusieurs procès-verbaux des auditions, mis en ligne, sont par ailleurs largement inexploitables. Certains ne différencient pas les propos selon les intervenants et l’audition n’est ainsi restituée que sous la forme d’une synthèse globale (c’est par exemple le cas pour les auditions de Google, LinkedIn, TikTok, Meta, du ministère de la Culture ou du CSA). Certaines vidéos des auditions sont accessibles pour compléter ces documents inégaux qui sont parfois sans date ou sans mention de l’identité des personnes auditionnées. En revanche, pour reprendre la liste déjà citée, le procès-verbal est le seul support qui reste des auditions de Google, LinkedIn, du Ministère de la Culture et TikTok.

[28] Voir Quentin Hardy et Pierre de Jouvancourt, « Y a-t-il un “danger écologique” ? », Socio, n° 12, 2019, pp. 159-185.

[29] Voir Vie publique, « Fausses nouvelles, manipulation de l’information : comment lutter contre les “fake news” ? »

[30] Voir le chapitre 1 de Folk devils and moral panics: The creation of the Mods and Rockers (1972) : « A condition, episode, person or group of persons emerges to become defined as a threat to societal values and interests; its nature is presented in a stylized and stereotypical fashion by the mass media; the moral barricades are manned by editors, bishops, politicians and other right-thinking people; socially accredited experts pronounce their diagnoses and solutions; ways of coping are evolved or (more often) resorted to; the condition then disappears, submerges or deteriorates and becomes more visible. Sometimes the object of the panic is quite novel and at other times it is something which has been in existence long enough, but suddenly appears in the limelight. Sometimes the panic passes over and is forgotten, except in folklore and collective memory; at other times it has more serious and long-lasting repercussions and might produce such changes as those in legal and social policy or even in the way the society conceives itself. »

[31] Arnaud Saint-Martin, « Complotisme », in Antony Burlaud, Allan Popelard, Grégory Rzepski (dir.), Le Nouveau Monde. Tableau de la France néolibérale, Paris, Amsterdam Éditions, 2021, pp. 763-771.

[32] Jack Z. Bratich, Conspiracy Panics: Political Rationality and Popular Culture, Albany, State University of New York Press, 2008.

[33] Voir ce qu’en disent les journalistes Sylvestre Huet et Stéphane Foucart, « La crise sanitaire secoue le journalisme ».

[34] Voir Virginie Tournay, « Pour un Science Media Center à la française ».

[35] Voir Stéphane Foucart, Stéphane Horel, Sylvain Laurens, Les gardiens de la raison. Enquête sur la désinformation scientifique, Paris, La Découverte, 2020.

[36] Voir également la critique en ce sens de Jérôme Santolini, chercheur et administrateur de l’association Sciences citoyennes. Selon lui, « il s’agit d’empêcher toute possibilité de débat citoyen sur les usages de technologies qui restent controversées, de disqualifier et neutraliser tout discours concurrent dans la sphère publique en taxant ceux qui pourraient s’y opposer de radicaux, d’obscurantistes, de populistes… voire d’Amish. » Dans « L’information scientifique comme enjeu politique », Terrestres, 2 novembre 2020.

Julien Giry

Politiste, Chercheur à l'université de Tours/PRIM et membre du programme ANR « VIJIE » (Vérification de l’Information dans le Journalisme, sur Internet et l’Espace Public)

Antoine Hardy

Politiste, Doctorant en sciences politiques au Centre Emile Durkheim, Université de Bordeaux

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)

Emmanuel Kreis

Historien, Chercheur au GSRL-EPHE-PSL

Jérôme Lamy

Historien, Centre d’Etude et de Recherche Travail, Organisation, Pouvoir, Université de Toulouse Jean Jaurès et CNRS

Arnaud Saint-Martin

Sociologue, Chercheur au CNRS, rattaché au Centre européen de sociologie et de science politique de la Sorbonne (CNRS, EHESS, Paris 1)

Notes

[1] Le rapport peut être consulté en ligne.

[2] Voir « Remise du rapport de la Commission Bronner », site de l’Élysée (consulté le 13 janvier 2022).

[3] Voir « Discours du Président Emmanuel Macron à l’occasion de la clôture du 50ème anniversaire du congrès de la Conférence des présidents d’universités », site de l’Élysée (consulté le 14 janvier 2022).

[4] Voir sur les différentes approches des liens entre rationalité et « biais cognitifs » en psychologie : Pascal Wagner-Egger, « Les canons de la rationalité : essai de classification des points de vue dans le débat sur les biais cognitifs et la rationalité humaine », L’Année psychologique, vol. 111, n° 1, 2011, pp. 191-224.

[5] Voir J. I. Krueger, D. C. Funder, « Towards a balanced social psychology: causes, consequences, and cures for the problem-seeking approach to social behavior and cognition », Behavioral and Brain Sciences, vol. 27, n° 3, 2004, pp. 313-27 ; Ulrike Hahn, Adam J. L. Harris, « What does it mean to be biased: motivated reasoning, and rationality », Psychology of Learning and Motivation, vol. 61, 2014, pp. 41-102. Pour un compte-rendu philosophique de cette littérature en français, voir Marion Vorms, « Bayes et les biais. Le “biais de confirmation” en question », Revue de métaphysique et de morale, vol. 112, n° 4, 2021, pp. 567-590. En particulier, l’idée d’une crédulité fondamentale de l’esprit humain, largement défendue par Gérald Bronner depuis vingt ans, commence à être battue en brèche par des études de plus en plus nombreuses ; par exemple, Hugo Mercier, Not Born Yesterday, Princeton, Princeton University Press, 2021 ; Marion Vorms M, « Sommes-nous trop crédules ? », dans Claudia Senik (éd.), Crises de confiance ?, Paris, La Découverte, 2020, pp. 191-212. Il se trouve que Hugo Mercier a été auditionné et son livre est cité, mais pour énoncer que « de même que la désinformation en ligne ne doit pas être surestimée, gardons-nous d’exagérer son influence sur les grands événements sociaux » (p. 41). La disputatio menée par les psychologues sur l’idée même de crédulité native, et à laquelle il contribue, est invisible.

[6] Voir, par exemple, le numéro 297/2021 de la Revue internationale de philosophie consacré à la post-vérité.

[7] Il faut aussi noter que trois membres de la commission Bronner sont membres du fonds de dotation pour la création de la Fondation Descartes, notamment son président qui est le président du conseil scientifique de ce fonds, sans que cela ne soit mentionné dans sa biographie en début de rapport (sur les trois membres de la commission Bronner qui sont membres de ce fonds de dotation, seule la biographie de Laurent Cordonier le mentionne). Le président de ce fonds de dotation est également auditionné. Six autres personnes auditionnées, au-delà des positions sociales qu’elles occupent, ont des liens avec ce fonds de dotation (membres de son conseil scientifique, de son conseil d’administration ou de son cercle des experts). Dommage que, dans un rapport cherchant à trouver des moyens pour lutter contre la désinformation « à l’ère du numérique », une transparence totale ne soit pas faite à ce sujet. Il est également regrettable que les choix des personnes et institutions sollicitées ne soient ni explicités, ni détaillés. Par exemple, dans le cas de l’audition du directeur exécutif du CyberPeace Institute, aucun détail n’est donné quant à cette structure. Un article publié dans Le Monde le 26 septembre 2019, au moment de sa création, signalait que « l’ONG sera financée par trois principaux donateurs : Mastercard, la Fondation Hewlett et Microsoft, ces deux derniers contribuant chacun à hauteur de 5 millions de dollars. Cette ONG permet donc, à nouveau, à Microsoft de s’afficher à nouveau comme porte-parole zélé de la pacification du cyberespace. »

[8] Nikos Smyrnaios, Emmanuel Marty, « Profession “nettoyeur du net”. De la modération des commentaires sur les sites d’information français », Réseaux, n° 205, 2017, pp. 57-90.

[9] L’astroturfing est en effet une technique de manipulation qui consiste à faire passer une information (vidéo, pétition, post de blog) ou une structure (association, collectif) comme si elle venait de citoyens alors qu’elle est en réalité l’œuvre de groupes d’intérêts, économiques ou financiers par exemple. Voir par exemple Sophie Boulay, « Exploration du phénomène d’astroturfing : une stratégie de communication usurpant l’identité citoyenne dans l’espace public ».

[10] Voir en ce sens : « “Islamogauchisme” : la piège de l’alt-right se referme sur la Macronie ».

[11] Shoshana Zuboff, Le capitalisme de surveillance, Zulma, 2020 ; Bernard E. Harcourt, La Société d’exposition, Désir et désobéissance à l’ère numérique, Seuil, 2020 ; Cathy O’Neill, Algorithmes : la bombe à retardement, Les Arènes, 2018 ; Pascal Engel, Les Vices du savoir: Essai d’éthique intellectuelle, Agone, 2019 ; Dominique Cardon, A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Le Seuil/La République des idées ; Mathias Girel, Science et territoires de l’ignorance, Éditions Quae, 2017; Quassim Cassam, Conspiracy Theories, Wiley, 2019 (traduction à venir aux éditions Eliott 2022). Sans compter la publication d’innombrables articles sur les fake news ou la post-vérité.

[12] Voir cet article de Christophe Bonneuil, Pierre-Louis Choquet, Benjamin Franta, « Total face au réchauffement climatique (1968-2021) », Terrestres, 26 octobre 2021, .

[13] Voir notamment Marc Milet, Théorie critique du lobbying. L’Union européenne de l’artisanat et des PME et la revendication des petites et moyennes entreprises, Paris, L’Harmattan, 2017.

[14] En ligne (consulté le 18 janvier 2022).

[15] Jeremy K. Ward, Patrick Peretti-Watel, « Comprendre la méfiance vis-à-vis des vaccins : des biais de perception aux controverses », Revue française de sociologie, vol. 61, n° 2, 2020, pp. 243-273.

[16] Emily K. Brunson, « The Impact of Social Networks on Parents’ Vaccination Decisions », Pediatrics, vol. 31, n° 5, 2013, e1397-404.

[17] Voir le sondage « Les Français et la Science ».

[18] Julien Giry, « Étudier les théories du complot en sciences sociales : enjeux et usages », Quaderni, n° 94, 2017, pp. 5-11 ; Julien Giry, Pranvera Tika, « Conspiracy theories in political science and political theory », in Peter Knight, M. Butter (eds.), The Routledge Handbook of Conspiracy Theories, Londres, Routledge, 2020, pp. 108-120.

[19] Les rapports sur ce sujet préexistaient déjà, par exemple celui de mars 2021, intitulé « Éduquer à l’esprit critique. Bases théoriques et indications pratiques pour l’enseignement et la formation », et « rédigé dans le cadre des travaux du groupe de travail “Éduquer à l’esprit critique” du Conseil scientifique du ministère de l’Éducation nationale, de la Jeunesse et des Sports », sous la direction d’Elena Pasquinelli et Gérald Bronner. Ou, sur un thème un peu différent, celui remis au Ministre de l’Éducation en juillet 2021, intitulé « Renforcer l’éducation aux médias et à l’information et la citoyenneté numérique ». La multiplication des rapports sur des sujets aussi proches, et à des dates aussi rapprochées, interroge fortement.

[20] Voir en ce sens la récente enquête de Laurent Mauduit, « Les médias sous la domination de Google et Facebook », Mediapart, 5 janvier 2022.

[21] Dominique Boullier, « Le biais Bronner ou la reductio ad cerebrum », AOC, 9 avril 2021.

[22] Pour être plus précis, le rapport de la commission écrit, p. 18 : « Ceci a toutes sortes de conséquences, mais la plus évidente est l’éclosion d’une concurrence généralisée de tous les modèles intellectuels qui prétendent décrire le monde, des plus frustes aux plus sophistiqués. Aujourd’hui, quiconque dispose d’un compte sur un réseau social peut directement apporter une contradiction, sur la question des vaccins par exemple, à un professeur de l’Académie nationale de médecine. Le premier peut même avoir plus d’audience que le second. Cette concurrence généralisée des points de vue, non hiérarchisés selon les compétences et le savoir de ceux qui les font valoir, peut-elle faire advenir ce monde de connaissance auquel aspiraient nos ancêtres du siècle des Lumières ? ». Dans l’avant-propos d’Apocalypse cognitive, il est écrit : « Cette situation a affaibli le rôle des gate keepers traditionnels (journalistes, experts académiques… toute personne considérée comme légitime socialement à participer au débat public) qui exerçaient une fonction de régulation sur ce marché. Ce fait sociologique majeur a toutes sortes de conséquences mais la plus évidente est que l’on assiste à une concurrence généralisée de tous les modèles intellectuels (des plus frustes au plus sophistiqués) qui prétendent décrire le monde. Aujourd’hui, quelqu’un qui détient un compte sur un réseau social peut directement apporter la contradiction, sur la question des vaccins par exemple, à un professeur de l’Académie nationale de médecine. Le premier peut même se targuer d’une audience plus nombreuse que le second. » Nous soulignons.

[23] On trouvera une critique approfondie dans l’article suivant : Jean-Michel Hupé, Jérôme Lamy et Arnaud Saint-Martin, « Effondrement sociologique ou la panique morale d’un sociologue », Politix, n° 134, 2021, pp. 171-195.

[24] Ibid., pp. 178-180.

[25] Ce rapport est intitulé « Récits et contre-récits, Itinéraire des fausses informations en ligne ». Voir : https://cnnumerique.fr/nos-travaux/recits-et-contre-recits-itineraire-des-fausses-informations-en-ligne

[26] Peter Knight, Michael Butter (eds.), The Routledge Handbook of Conspiracy Theories, Londres, Routledge, 2020.

[27] Plusieurs procès-verbaux des auditions, mis en ligne, sont par ailleurs largement inexploitables. Certains ne différencient pas les propos selon les intervenants et l’audition n’est ainsi restituée que sous la forme d’une synthèse globale (c’est par exemple le cas pour les auditions de Google, LinkedIn, TikTok, Meta, du ministère de la Culture ou du CSA). Certaines vidéos des auditions sont accessibles pour compléter ces documents inégaux qui sont parfois sans date ou sans mention de l’identité des personnes auditionnées. En revanche, pour reprendre la liste déjà citée, le procès-verbal est le seul support qui reste des auditions de Google, LinkedIn, du Ministère de la Culture et TikTok.

[28] Voir Quentin Hardy et Pierre de Jouvancourt, « Y a-t-il un “danger écologique” ? », Socio, n° 12, 2019, pp. 159-185.

[29] Voir Vie publique, « Fausses nouvelles, manipulation de l’information : comment lutter contre les “fake news” ? »

[30] Voir le chapitre 1 de Folk devils and moral panics: The creation of the Mods and Rockers (1972) : « A condition, episode, person or group of persons emerges to become defined as a threat to societal values and interests; its nature is presented in a stylized and stereotypical fashion by the mass media; the moral barricades are manned by editors, bishops, politicians and other right-thinking people; socially accredited experts pronounce their diagnoses and solutions; ways of coping are evolved or (more often) resorted to; the condition then disappears, submerges or deteriorates and becomes more visible. Sometimes the object of the panic is quite novel and at other times it is something which has been in existence long enough, but suddenly appears in the limelight. Sometimes the panic passes over and is forgotten, except in folklore and collective memory; at other times it has more serious and long-lasting repercussions and might produce such changes as those in legal and social policy or even in the way the society conceives itself. »

[31] Arnaud Saint-Martin, « Complotisme », in Antony Burlaud, Allan Popelard, Grégory Rzepski (dir.), Le Nouveau Monde. Tableau de la France néolibérale, Paris, Amsterdam Éditions, 2021, pp. 763-771.

[32] Jack Z. Bratich, Conspiracy Panics: Political Rationality and Popular Culture, Albany, State University of New York Press, 2008.

[33] Voir ce qu’en disent les journalistes Sylvestre Huet et Stéphane Foucart, « La crise sanitaire secoue le journalisme ».

[34] Voir Virginie Tournay, « Pour un Science Media Center à la française ».

[35] Voir Stéphane Foucart, Stéphane Horel, Sylvain Laurens, Les gardiens de la raison. Enquête sur la désinformation scientifique, Paris, La Découverte, 2020.

[36] Voir également la critique en ce sens de Jérôme Santolini, chercheur et administrateur de l’association Sciences citoyennes. Selon lui, « il s’agit d’empêcher toute possibilité de débat citoyen sur les usages de technologies qui restent controversées, de disqualifier et neutraliser tout discours concurrent dans la sphère publique en taxant ceux qui pourraient s’y opposer de radicaux, d’obscurantistes, de populistes… voire d’Amish. » Dans « L’information scientifique comme enjeu politique », Terrestres, 2 novembre 2020.