Et si nous arrêtions de parler de « biais cognitifs » ?
La psychologie contemporaine aime à débusquer ce que notre esprit fait « mal ». À travers une multitude d’expériences – aujourd’hui devenues classiques – elle a mis au jour toute une série de « biais cognitifs » : erreurs systématiques, déformations du jugement, déviations par rapport à une supposée rationalité idéale. Le succès populaire de ces notions est incontestable. Qui n’a jamais entendu voire évoqué le biais de confirmation, l’effet de cadrage, ou l’effet Barnum ? Des séries dédiées sur France Culture aux décryptages des Youtubeurs les mieux renseignés, en passant par les enseignements dans les écoles de design et de marketing, l’entreprise de démocratisation des expériences révélant les biais cognitifs est un formidable succès.

Mais avons-nous bien mesuré ce que suppose, implicitement, cette terminologie ? Parler de biais, c’est suggérer qu’il existerait une pensée droite, rationnelle, correcte – et que tout écart par rapport à cette ligne serait une faute ou une défaillance. Ce que ces termes véhiculent, en apparence neutres, est en réalité une norme. Et cette norme est morale.
Les sciences cognitives se sont pourtant toujours revendiquées d’un projet descriptif : comprendre comment l’esprit humain fonctionne réellement, en-deçà des illusions philosophiques sur la pure rationalité. Mais en qualifiant certains comportements de « biaisés », elles reconduisent une évaluation : il y aurait une bonne manière de raisonner, et les autres. Humaines, trop humaines… Dès qu’il est question des biais cognitifs, le cerveau est jugé non pas sur ce qu’il fait, mais sur ce qu’il devrait faire.
Prenons un exemple souvent cité : dans l’expérience de Tversky et Kahneman sur « l’effet de cadrage », une majorité significative de participants préfèrent, face à une épidémie, « sauver 200 personnes sur 600 », plutôt que d’en « laisser 400 mourir sur 600 », bien que les deux options soient logiquement équivalentes. Pourquoi cette préférence ? C’est la formulation de la q