Numérique

Rendre sa voix plus souriante : deepfakes et filtres vocaux émotionnels

Chercheuse en sciences cognitives

La possibilité de manipuler l’expression de nos émotions de manière artificielle et réaliste permet d’imaginer un éventail d’applications aussi vaste que clivant. Face à une étonnante acceptabilité des filtres de transformation de voix dans la population générale, il est légitime et même nécessaire de se demander ce à quoi pourrait ressembler un monde au sein duquel il nous serait possible de contrôler algorithmiquement les émotions que l’on montre, afin d’en assurer un usage consenti, et éclairé.

«Hôtel du temps » est la nouvelle émission née de l’imagination de Thierry Ardisson dont l’ambition est de ressusciter des légendes disparues pour leur faire raconter leur vie. Mais comment un tel miracle est-il possible ? Grâce au deepfake ! Plus précisément, à partir du système Voice cloning, qui permet de convertir la voix d’un acteur en celle de la légende disparue avec laquelle le présentateur souhaite dialoguer. L’émission entend utiliser la technique du deepfake pour « spectaculariser la culture et rendre le savoir captivant ». Le premier épisode de l’émission, consacré à Dalida, a suscité un grand nombre de réactions, dont certaines critiques du projet même de l’émission, auxquelles la chaine a opposé un argumentaire rationalisant. Selon l’équipe de production, toutes les paroles prononcées par Dalida sont le fruit d’un travail documentaire minutieux et ont été dites du vivant de la célébrité.

publicité

Finalement, l’unique liberté artistique prise par l’équipe relèverait de ce qu’on peut appeler le « paralinguistique » – les intonations de la voix et les émotions qui s’y laissent entendre. Et c’est bien d’ailleurs ce qui est recherché par le procédé technique utilisé : conférer de l’émotion au propos.

Créer algorithmiquement le contenu émotionnel d’un discours ne serait donc pas sujet à questionnement ?

Les émotions revêtent une fonction particulière pour les êtres humains – c’est d’ailleurs l’objet d’une récente analyse pointue de Louis Quéré dans les colonnes d’AOC. Leurs expressions faciales et vocales procèdent d’une longue évolution et sont étudiées selon une perspective psycho-évolutionniste en tant que signaux, c’est-à-dire des manifestations comportementales ayant pour objet d’informer et manipuler autrui sur l’état interne d’une personne[1]. En modulant continuellement nos muscles faciaux ainsi que les structures phonatoires et articulatoires de notre appareil vocal, nous fournissons un second canal, non linguistique, à nos conversations quotidiennes. Un canal qui communique des informations sur nos états émotionnels tels que la joie ou la surprise[2], nos intentions sociales telles que la bienveillance ou la domination[3], ou des éléments que l’on appelle généralement « métacognitifs », comme la certitude ou le doute[4]. À partir de ces signaux paralinguistiques, et en s’appuyant sur d’autres indices comme le contexte de l’interaction en cours, notre interlocuteur va se faire une idée de notre état émotionnel. Cette théorie d’une véritable construction des émotions[5] est de plus en plus défendue au sein des neurosciences.

Si nos expressions faciales et vocales ont été façonnées par une longue et délicate évolution biologique, elles relèvent également de l’histoire culturelle des individus[6]. Les avancées technologiques considérables de ces dernières années pourraient donc bientôt modifier radicalement leur caractère de signaux, c’est-à-dire la façon dont nous utilisons et vivons ces comportements dans nos interactions quotidiennes. Les progrès récents en matière de techniques de traitement du signal ont en effet rendu possible la manipulation en temps réel d’expressions faciales telles que les sourires[7] et d’indices d’expression vocale tels que la hauteur[8] ou le timbre[9].

Ces hypertrucages sont bel et bien au cœur du débat public et pourtant il semblerait qu’on ne sache pas grand-chose des attentes sociales à ce sujet.

De manière peut-être encore plus radicale, le développement dans ces dernières décennies d’architectures de réseaux de neurones profonds dans le domaine de l’informatique, pour ne pas utiliser le terme très tendance d’intelligence artificielle, a ouvert la possibilité de manipuler de manière paramétrique des actions faciales individuelles[10] ou de convertir une voix en plusieurs variantes émotionnelles[11], ou pour le dire autrement, de créer des deepfakes (ou « hypertrucages » dans la langue de Molière).

En quelques années seulement, il semblerait que nous assistions à une forme d’externalisation de nos émotions – que l’on considérait encore jusqu’à présent comme une réaction intérieure par excellence – dans et par un outil qui permettrait de gagner un contrôle inédit sur celles-ci.

La possibilité de manipuler l’expression de nos émotions de manière artificielle et réaliste permet d’imaginer un éventail de situations de déploiement d’applications aussi vaste que clivant. Entre techno-optimisme et techlash (contraction de backlash et de technology), les opinions de philosophes, chercheurs ou journalistes sur cette question abondent. Ces hypertrucages sont bel et bien au cœur du débat public et pourtant il semblerait qu’on ne sache pas grand-chose des attentes sociales à ce sujet, et on peut légitimement se demander où elles se situent entre ces deux polarités.

S’agissant d’usages proprement malveillants comme celui de la manipulation politique, un des derniers exemples étant le deepfake du président Zelensky exhortant ses troupes à se retirer, on peut déjà imaginer la tendance. Par contre, le cas d’utilisations dans le cadre médical, du divertissement, de la promotion de « causes louables » (exemple du deepfake du président Macron mis en ligne par le mouvement citoyen français « On est prêt » pour sensibiliser à la cause écologique) ou même du travail ne semblent pas justifier des objections morales sans équivoque.

Ainsi, l’usage de technologies émergentes est souvent crédité d’une acceptabilité importante de la population dans le cadre d’une utilisation thérapeutique. Particulièrement, quand on imagine le fait qu’une technologie de transformation de voix qu’on appellera ici filtre vocal puisse être utilisée chez des patients souffrant de sclérose latérale amyotrophique – qui dépendent complètement d’une technologie d’assistance vocale pour communiquer[12] – afin de conférer quand ils le souhaitent un aspect souriant à leur voix. En va-t-il de même pour l’usage dudit filtre-sourire par un patient souffrant de dépression ? Par de jeunes parents en manque de sommeil et qui ne souhaiteraient pas communiquer leur tension à leur nourrisson ? Ces usages de filtres vocaux émotionnels sont-ils moralement acceptables et dans quelles conditions ?

Pour adresser cette question, nous disposons d’un outil éminemment pertinent : celui de l’éthique expérimentale. Cette méthodologie consiste à évaluer le jugement moral d’individus confrontés à différentes situations réelles ou imaginaires. Ces dernières années la méthode a été appliquée dans diverses études pour évaluer la réception par la société de nouvelles technologies telles que les véhicules autonomes[13] ou la stimulation cérébrale[14], de politiques publiques potentielles comme la légalisation des paiements aux donneurs de rein[15], mais également concernant des sujets un peu plus futuristes comme l’usage de robots sexuels[16] ou d’implants cérébraux à visée d’augmentation des capacités cognitives chez l’individu non malade[17].

Nous avons utilisé cette méthodologie pour évaluer l’acceptabilité morale de l’usage de ces nouveaux filtres vocaux de transformations émotionnelles que l’on peut considérer comme le pendant audio des filtres visuels dont l’usage est très répandu sur les réseaux sociaux comme TikTok ou Instagram. Concrètement, nous nous sommes fait passer pour une jeune start-up qui a créé un nouveau dispositif de transformation de voix en temps réel et qui cherche l’avis du public pour définir les meilleurs usages de son produit. Nous avons donc présenté à 300 Français (majoritairement jeunes, urbains et étudiants, c’est-à-dire représentatifs des futurs utilisateurs de ces technologies) différents scénarios hypothétiques d’application de filtres vocaux émotionnels et leur avons demandé d’évaluer dans quelle mesure chaque scénario était moralement acceptable.

Parmi ces scénarios imaginés un peu « à la Black Mirror », on navigue entre celui du serveur qui transforme la voix de ses clients mécontents pour moins avoir à souffrir de leur agressivité, à l’acteur qui gomme le trac dans sa voix, mais aussi des situations thérapeutiques comme un patient dépressif qui rend sa voix plus souriante pour communiquer avec ses proches, ou une personne stressée qui se calme en écoutant une version apaisée de sa propre voix.

Nous avons fait le choix de situations imaginaires probables, qui pour être moins spectaculaires que celle de redonner vie aux morts, n’en sont pas moins intéressantes. Ces usages pouvant se déployer subrepticement, ils charrieraient donc un potentiel de transformation sociétale encore plus important.

Pour créer ces saynètes, nous avons fait varier des paramètres bien précis, comme autant de facteurs qui pourraient faire pencher la balance de l’acceptabilité de l’usage : (i) est-ce que l’utilisateur du filtre est le participant ou un tiers inconnu ? ; (ii) est-ce que les filtres sont utilisés de manière thérapeutique, ou bien pour augmenter les capacités de l’utilisateur ? ; et enfin (iii) quel est le type de transformation opérée par les filtres ? S’agit-il de créer du sourire dans la voix ou d’atténuer l’anxiété ou la colère ? Nous avons manipulé encore bien d’autres facteurs dont un autrement singulier : l’utilisation dissimulée de ces filtres.

Cette méthodologie n’est pas à confondre avec un simple sondage d’opinion. Elle permet par un design factoriel de comparer différentes alternatives d’une même situation qui peuvent faire apparaître dans certains cas de véritables dilemmes. Si on prend l’exemple de la voiture autonome, il a été observé que les participants de ces études peuvent tout à fait changer d’avis quant au comportement qu’ils jugent moralement acceptable de la part de la voiture autonome selon que la situation expérimentale fait d’eux le passager-conducteur ou le piéton qui risque de se faire écraser. Ce type d’étude permet également de mettre en évidence des dimensions proprement individuelles en jeu ici comme la familiarité à la science-fiction dont on sait par exemple qu’elle peut avoir un impact facilitateur sur l’acceptation de l’usage des robots.

Résultats : les personnes testées ont trouvé la majorité de ces scénarios moralement acceptables. Cela vaut pour des situations thérapeutiques, comme nous nous y attendions, mais également pour des situations d’augmentation pure de capacités qui ont pourtant un très fort parfum de transhumanisme. Cela tranche avec les résultats classiquement relevés dans la littérature. Pour diverses formes d’amélioration (par exemple, la mémoire, l’intelligence générale, l’humeur, etc.), il est en effet largement admis que les individus sont plus à l’aise avec les technologies qui augmentent les capacités dans le sens de la norme (c’est-à-dire qui sont utilisées à des fins thérapeutiques) que pour la transcender[18].

Notablement plus étonnant encore pour nous fût le résultat suivant. Pour chaque scénario d’usage potentiel, nous nous sommes intéressés au cas où le dispositif de filtre vocal était utilisé de manière cachée. Et nos données montrent que pour nos participants utiliser ce genre de filtre sans en informer son interlocuteur n’est pas un problème. Ceci que le participant soit mis dans la peau de l’utilisateur de la transformation (donc la personne qui transforme sa voix sans en informer autrui) ou dans la peau de l’interlocuteur, donc de la personne à qui on cacherait cette transformation. Un résultat auquel on ne s’attendait pas du tout. Concrètement, cela veut dire qu’aujourd’hui, si je donnais un cours sur Zoom à des participants de notre étude et que je leur annonçais à la fin de ce cours que j’avais utilisé un filtre vocal pour avoir l’air plus souriante ou moins nerveuse sans les prévenir, ils jugeraient ce comportement moralement acceptable.

C’est d’autant plus surprenant que cela va à rebours du dilemme social observé dans les études sur les véhicules autonomes pour lesquelles les participants jugeaient éthique un véhicule qui sacrifierait le conducteur pour sauver des piétons et pour autant, s’ils devaient choisir entre deux véhicules, choisiraient d’acheter celui qui sacrifierait le piéton.

Au final, la seule situation qui apparaît moralement problématique pour nos participants est celle impliquant de cacher à un individu le fait que sa propre voix est modifiée algorithmiquement. Pour reprendre l’exemple précédent, il s’agirait du cas où je donnerais un cours via zoom et qu’un filtre sourire était installé d’office dans l’application, et appliqué sur ma propre voix sans que je ne le sache. Dans ce cas, le fait de ne pas informer l’utilisateur d’un dispositif que cet outil est en train de modifier sa voix a été évalué comme un cas d’usage non acceptable par nos participants.

Nous avons aussi montré que plus les utilisateurs sont familiers de ces technologies émergentes, via la littérature ou les films et séries de science-fiction par exemple, plus ils les trouvent moralement acceptables, un peu de la même manière que pour l’usage de robots sexuels. Ces résultats prennent à contre-pied deux tendances qui semblaient se dessiner au sein de notre société. Celle au techlash observé ces dernières années, et encore plus curieusement celle du souci de véracité auquel notre société post-moderne serait particulièrement attaché selon le philosophe britannique Bernard Williams[19]. Il semblerait au vu des résultats de notre étude et du contexte particulier d’élargissement de la sphère numérique dans nos vies qu’il n’y ait pas d’obstacle majeur à l’utilisation de ce genre nouveau de deepfake, du moins au sein de la jeune population française.

Depuis le moment où nous avons collecté les données de cette étude (été 2020), l’utilisation des deepfakes s’est largement diffusée. Ce mois-ci, la même semaine, nous avons pu découvrir l’émission « Hôtel du temps » sur une chaîne de télévision nationale française ainsi que le nouveau clip du rappeur américain Kendrick Lamar utilisant le deepfake pour prendre tour à tour l’apparence de personnalités défuntes ou encore bien vivantes telles qu’OJ Simpson, Kobe Bryant ou Will Smith.

Face à cela, peut-être que l’enjeu actuel résiderait alors dans le fait de donner aux usagers la possibilité d’un usage consenti éclairé de ces technologies. C’est-à-dire leur permettre de faire un choix guidé par des éléments de connaissance pertinents quant à ses implications, tant souhaitables que peut être moins désirables. Cette idée de consentement éclairé étant par ailleurs éminemment importante dans le champ de la thérapie relative à la décision de soin par le patient.

En découvrant les résultats de notre étude, la question des clés de compréhension dont disposent réellement les citoyens face à ces technologies m’est apparue cruciale pour interpréter avec justesse nos données. L’étonnante acceptabilité des filtres de transformation de voix s’expliquerait-elle, au moins pour partie, par une méconnaissance des enjeux liés à l’utilisation des filtres impactant notre perception ? Et en particulier dans le domaine des émotions ?

La probable sous-estimation dans la population de l’importance des émotions dans la sémantique du discours relèverait peut-être de l’héritage du dualisme cartésien articulant toujours la pensée moderne occidentale et placerait les émotions en dehors du champ de la raison. L’argumentaire d’Ardisson en faveur de la légitimité de son programme (fidèle aux propos réellement exprimés mais ne jouant que sur les émotions véhiculées pendant l’interview avec la Dalida recréée artificiellement) va en tout cas dans ce sens. La puissance du levier émotionnel s’agissant de communication est pourtant bien connue du domaine de l’informatique, à l’origine de la sous-branche justement appelée « informatique émotionnelle » visant précisément à conférer un contenu émotionnel au discours des différents bots sur le marché.

Sur le plan politique également, ce qui occupe la scène, c’est la mobilisation des émotions[20]. Ce souci d’émouvoir définit d’ailleurs notre régime de post-vérité au sein duquel le rappelle Louis Quéré, « les faits objectifs ont moins d’influence pour modeler l’opinion publique que les appels à l’émotion et aux opinions personnelles ».

Par ailleurs, dans la mesure où notre étude établit une grande acceptabilité des transformations artificielles, il est difficile de ne pas faire de lien avec l’idéologie transhumaniste pour laquelle aucune notion de naturalité ne devrait conditionner l’usage des technologies, dont le but serait justement de nous permettre d’outrepasser les limites de l’être humain. À l’instar de la prise de médicament « anti-amour » défendue dans un article de l’American Journal of Bioethics afin de diminuer l’expérience des affects déplaisants associés à une rupture amoureuse[21].

Il semblerait que concernant ces filtres vocaux émotionnels, les idéaux transhumanistes et les injonctions sociales marchent main dans la main.

Considérant la valorisation par notre société contemporaine du contrôle de nos émotions et plus généralement de notre image, comment ne pas accepter une technologie qui nous permettrait de satisfaire aux exigences d’un individu de maîtriser parfaitement ses manifestations affectives et comportementales ? Ce nouveau filtre apparaît ainsi comme un moyen d’améliorer le contrôle et l’auto-détermination, c’est-à-dire comme un outil anthropotechnique d’auto-personnalisation. Selon Patrick Pajon, « l’avenir qui se dessine est moins celui de la fabrication intégrale et répétitive des corps que celui d’une modulation fine et “personnalisée” adaptée aux exigences des marchés ».

Ce gain de contrôle artificiel sur l’expression de nos émotions pourrait-il rendre anormaux des comportements jugés jusque-là naturels ?

Un autre point de méconnaissance, il me semble, résiderait donc dans ce caractère anthropotechnique de ces outils dont les usagers ont peu ou pas conscience. Nombreux sont les travaux récents[22] soulignant l’incroyable accélération contemporaine des processus anthropotechniques et l’importance des technologies numériques dans ce processus. « Science and Technologies are re-shaping the world and what it means to be humans » comme le scande le très célèbre magazine Wired, toujours à la recherche de signaux faibles de changement ayant un fort potentiel de transformation de nos sociétés.

Une technologie qui corrigerait en temps réel une voix tremblante ou empreinte de colère s’accompagne du risque de « glissement de la norme » et ceci de la même manière d’ailleurs que la majorité des outils d’augmentation. Ce gain de contrôle artificiel sur l’expression de nos émotions pourrait-il en effet rendre anormaux des comportements jugés jusque-là naturels ? Il est légitime et même nécessaire, je le crois, de se demander ce à quoi pourrait ressembler un monde au sein duquel il nous serait possible de contrôler algorithmiquement les émotions que l’on montre. Certaines émotions pourraient-elles devenir inacceptables et peu à peu complètement disparaître ? Il ne s’agit pas d’un scénario de science-fiction, en tout cas, cela ne l’est pas pour les idéologues transhumanistes aspirant à éradiquer toute souffrance qu’elle soit physique ou psychologique.

Le potentiel anthropotechnique de ces outils concerne notre rapport aux émotions mais également celui au réel et l’émergence possible d’une préférence pour le synthétique. Une étude récemment publiée montre que les individus jugent des visages créés par une intelligence artificielle comme étant plus dignes de confiance que de vrais visages, ces visages synthétiques n’ayant pourtant pas été créés pour remplir cet objectif[23].

Transmettre des connaissances précises et pertinentes à la population sur ces sujets changerait-il la manière dont les citoyens appréhendent l’usage des deepfakes ? Une tentative d’éclairage a été faite en parallèle de la diffusion de l’émission TV de Thierry Ardisson. Les concepteurs des effets deepfake vidéo et audio de Dalida ont ainsi été interviewés à de nombreuses reprises et se sont employés à expliquer la technique qu’ils avaient développée pour créer leur filtres. En cela, la démarche m’apparaît semblable à celle d’« ouvrir le code » de divers programmes afin de rendre les algorithmes « transparents ». Bien que louable, cette entreprise ne suffit pas à redonner du contrôle aux citoyens dans leur rapport à la technologie. Cellard[24] en décrit les limites et propose la méthode de « surfacing algorithms » afin, entre autres, de traiter la question de la transparence comme un sujet de design des informations accompagnant les algorithmes et mises à disposition des utilisateurs. Je crois que cette méthodologie expérimentale contribuerait aux efforts à mettre en œuvre afin de permettre aux citoyens un usage consenti éclairé de ces outils technologiques.

Ce qui semble clair enfin, c’est que l’analyse de ces questions nécessiterait de se décentrer légèrement du positionnement habituel des études éthiques sur ces sujets, desquelles on attend qu’elles statuent de manière univoque sur les bons ou mauvais usages de la technologie. L’observation de ces phénomènes gagnerait à se distancier des discours alarmistes qui visent à allumer la peur et l’indignation au sujet des avancées techniques dans un inconscient social collectif déjà bien empreint de diverses craintes (comme celle de se voir complètement remplacés par les machines), sans pour autant apporter beaucoup de matière à la réflexion sur les nécessaires changements à apporter dans nos rapports à la technologie. Au sujet de l’encadrement éthique de l’activité des chercheurs en sciences, Aurélien Barrau souligne dans son dernier ouvrage Il faut une révolution politique, poétique et philosophique (Zulm) que l’enjeu n’est pas de se restreindre mais plutôt de faire un travail de réorientation : il consiste à s’interroger sur ce qui est désirable.

Parmi ces changements d’axe possibles dans nos réflexions sur les deepfakes, plutôt que se demander si ressusciter les morts est une entreprise glauque, ou peu morale, sans juger de la légitimité de ces interrogations, les questions qu’il semble urgent de se poser sont de l’ordre du potentiel de transformation associé à ces néo-usages des deepfakes. Collectivement, à un niveau social mais également sur le plan plus individuel de nos « schémas mentaux », voire même du traitement perceptif des informations dans nos interactions. Ces effets potentiels, après avoir été réfléchis, gagneraient à être testés expérimentalement grâce aux outils notamment des sciences cognitives.

La question des deepfakes s’offre alors à diverses disciplines : sciences cognitives, design critique et sciences humaines. Se permettre cet espace de convergence intellectuelle serait se donner un puissant outil d’intellection de notre société moderne.


[1] Charles Darwin, The expression of the emotions in man and animals, 1872, réédition de Oxford University Press, 1998 ; Mark L. Knapp, Judith A. Hall, et Terrence G. Horgan, Nonverbal communication in human interaction, Cengage Learning, 2013.

[2] Rachael E. Jack, Wei Sun, Ioannis Delis, Oliver GB Garrod, and Philippe G. Schyns, « Four not six: Revealing culturally common facial expressions of emotion », Journal of Experimental Psychology: General, 145(6):708, 2016 ; Anne Bachorowski et Michael J Owren, « Vocal expression of emotion: Acoustic properties of speech are associated with emotional intensity and context », Psychological science, 6(4):219–224, 1995.

[3] Nikolaas N. Oosterhof et Alexander Todorov, « The functional basis of face evaluation », Proceedings of the National Academy of Sciences, 105(32):11087–11092, 2008 ; Emmanuel Ponsot, Pablo Arias et Jean-Julien Aucouturier, « Uncovering mental representations of smiled speech using reverse correlation », Journal of the Acoustical Society of America, 143, 2018.

[4] Pio E. Ricci Bitti, Luisa Bonfiglioli, Paolo Melani, Roberto Caterina et Pierluigi Garotti, « Expression and communication of doubt/uncertainty through facial expression » Ricerche di Pedagogia e Didattica. Journal of Theories and Research in Education, 9(1):159–177, 2014 ; Louise Goupil, Emmanuel Ponsot, Daniel Richardson, Gabriel Reyes et Jean-Julien Aucouturier, « Listeners’ perceptions of the certainty and honesty of a speaker are associated with a common prosodic signature », Nature communications, 12(1):1–17, 2021.

[5] Lisa Feldman Barrett, « Are Emotions Natural Kinds? », Perspectives on Psychological Science, 1(1):28-58, 2006.

[6] Rachael E. Jack, Oliver GB Garrod, Hui Yu, Roberto Caldara et Philippe G. Schyns, « Facial expressions of emotion are not culturally universal », Proceedings of the National Academy of Sciences, 109(19):7241–7244, 2012 ; Lou Safra, Coralie Chevallier, Julie Grezes et Nicolas Baumard, « Tracking historical changes in trustworthiness using machine learning analyses of facial cues in paintings », Nature communications, 11(1):1–7, 2020 ; Ute Frevert, Emotions in history. Lost and found, Berlin, Central European University Press, 2011.

[7] Pablo Arias, Laura Rachman, Marco Liuni et Jean-Julien Aucouturier, « Beyond correlation: acoustic transformation methods for the experimental study of emotional voice and speech », Emotion Review, 2020.

[8] Anita Körner, Roland Deutsch et Bertram Gawronski, « Using the cni model to investigate individual differences in moral dilemma judgments », Personality and Social Psychology Bulletin, 46(9):1392–1407, 2020.

[9] Pablo Arias, Laura Rachman, Marco Liuni et Jean-Julien Aucouturier, Op. cit.

[10] Emmanuel Ponsot, Pablo Arias et Jean-Julien Aucouturier, « Uncovering mental representations of smiled speech using reverse correlation », Journal of the Acoustical Society of America, 143(1):19–24, 2018.

[11] Clément Le Moine et Nicolas Obin « Att-HACK: An Expressive Speech Database with Social Attitudes », Speech Prosody, 2020.

[12] Femke Nijboer, Fabrice O. Morin, Stefan P. Carmien, Randal A. Koene, Enrique Leon et Ulrich Hoffmann, « Affective brain-computer interfaces: Psychophysiological markers of emotion in healthy persons and in persons with amyotrophic lateral sclerosis », dans le rapport de la conference intitulée Third international conference on affective computing and intelligent interaction and workshops, pages 1–11, 2009.

[13] Jean-Francois Bonnefon, Azim Shariff et Iyad Rahwan, « The social dilemma of autonomous vehicles », Science, 352(6293):1573–1576, 2016.

[14] John D. Medaglia, David Bryce Yaden, Chelsea Helion et Madeline Haslam, « Moral attitudes and willingness to enhance and repair cognition with brain stimulation », Brain stimulation, 12(1):44–53, 2019.

[15] Julio J. Elias, Nicola Lacetera et Mario Macis, « Paying for kidneys? A randomized survey and choice experiment », American Economic Review, 109(8):2855–88, 2019.

[16] Mika Koverola, Marianna Drosinou, Jussi Palom ̈aki, Juho Halonen, Anton Kunnari, Marko Repo, Noora Lehtonen et Michael Laakasuo, « Moral psychology of sex robots: An experimental study – how pathogen disgust is associated with interhuman sex but not interandroid sex », Paladyn, Journal of Behavioral Robotics, 11(1):233–249, 2020.

[17] Mika Koverola, Anton Kunnari, Marianna Drosinou, Jussi Palomäki, Ivar R. Han-nikainen, Jukka Sundvall et Michael Laakasuo, « Non-human superhumans-moral psychology of brain implants: Exploring the role of situational factors, science fiction exposure, individual differences and perceived norms » 2020.

[18] Leon Kass, Beyond therapy: biotechnology and the pursuit of happiness, Harper Perennial, New York, 2003 ; John D. Medaglia, David Bryce Yaden, Chelsea Helion et Madeline Haslam, « Moral attitudes and willingness to enhance and repair cognition with brain stimulation », Brain stimulation, 12(1):44–53, 2019.

[19] Bernard Williams, Vérité et véracité, Essai de généalogie, Gallimard, 2006.

[20] Manos Tsakiris, « How should the political animals of the 21st century feel?: Comment on “The sense of should: A biologically-based framework for modelling social pressure” by J.E. Theriault et al. », Physics of Life Reviews, 36:77–79, 2021.

[21] Brian D. Earp, Olga A. Wudarczyk, Anders Sandberg et Julian Savulescu, « If I could just stop loving you: Anti-love biotechnology and the ethics of a chemical breakup », The American Journal of Bioethics, 13(11):3–17, 2013.

[22] Peter Sloterdijk, Règles pour le parc humain, Mille et Une Nuits, Paris, 2000 ; Francis Fukuyama, Our Posthuman future, Consequences of the Biotechnology Revolution, Picador, New York, 2003.

[23] Sophie J. Nightingale et Hany Farid, « AI-synthesized faces are indistinguishable from real faces and more trustworthy », Proceedings of the National Academy of Sciences, 119(8), 2022.

[24] Loup Cellard, « Surfacing Algorithms: An Inventive Method for Accountability », Qualitative Inquiry, mai 2022.

Nadia Guerouaou

Chercheuse en sciences cognitives, Doctorante en neurosciences affectives, Enseignante de neuroéthique à l'Université de Lille

Notes

[1] Charles Darwin, The expression of the emotions in man and animals, 1872, réédition de Oxford University Press, 1998 ; Mark L. Knapp, Judith A. Hall, et Terrence G. Horgan, Nonverbal communication in human interaction, Cengage Learning, 2013.

[2] Rachael E. Jack, Wei Sun, Ioannis Delis, Oliver GB Garrod, and Philippe G. Schyns, « Four not six: Revealing culturally common facial expressions of emotion », Journal of Experimental Psychology: General, 145(6):708, 2016 ; Anne Bachorowski et Michael J Owren, « Vocal expression of emotion: Acoustic properties of speech are associated with emotional intensity and context », Psychological science, 6(4):219–224, 1995.

[3] Nikolaas N. Oosterhof et Alexander Todorov, « The functional basis of face evaluation », Proceedings of the National Academy of Sciences, 105(32):11087–11092, 2008 ; Emmanuel Ponsot, Pablo Arias et Jean-Julien Aucouturier, « Uncovering mental representations of smiled speech using reverse correlation », Journal of the Acoustical Society of America, 143, 2018.

[4] Pio E. Ricci Bitti, Luisa Bonfiglioli, Paolo Melani, Roberto Caterina et Pierluigi Garotti, « Expression and communication of doubt/uncertainty through facial expression » Ricerche di Pedagogia e Didattica. Journal of Theories and Research in Education, 9(1):159–177, 2014 ; Louise Goupil, Emmanuel Ponsot, Daniel Richardson, Gabriel Reyes et Jean-Julien Aucouturier, « Listeners’ perceptions of the certainty and honesty of a speaker are associated with a common prosodic signature », Nature communications, 12(1):1–17, 2021.

[5] Lisa Feldman Barrett, « Are Emotions Natural Kinds? », Perspectives on Psychological Science, 1(1):28-58, 2006.

[6] Rachael E. Jack, Oliver GB Garrod, Hui Yu, Roberto Caldara et Philippe G. Schyns, « Facial expressions of emotion are not culturally universal », Proceedings of the National Academy of Sciences, 109(19):7241–7244, 2012 ; Lou Safra, Coralie Chevallier, Julie Grezes et Nicolas Baumard, « Tracking historical changes in trustworthiness using machine learning analyses of facial cues in paintings », Nature communications, 11(1):1–7, 2020 ; Ute Frevert, Emotions in history. Lost and found, Berlin, Central European University Press, 2011.

[7] Pablo Arias, Laura Rachman, Marco Liuni et Jean-Julien Aucouturier, « Beyond correlation: acoustic transformation methods for the experimental study of emotional voice and speech », Emotion Review, 2020.

[8] Anita Körner, Roland Deutsch et Bertram Gawronski, « Using the cni model to investigate individual differences in moral dilemma judgments », Personality and Social Psychology Bulletin, 46(9):1392–1407, 2020.

[9] Pablo Arias, Laura Rachman, Marco Liuni et Jean-Julien Aucouturier, Op. cit.

[10] Emmanuel Ponsot, Pablo Arias et Jean-Julien Aucouturier, « Uncovering mental representations of smiled speech using reverse correlation », Journal of the Acoustical Society of America, 143(1):19–24, 2018.

[11] Clément Le Moine et Nicolas Obin « Att-HACK: An Expressive Speech Database with Social Attitudes », Speech Prosody, 2020.

[12] Femke Nijboer, Fabrice O. Morin, Stefan P. Carmien, Randal A. Koene, Enrique Leon et Ulrich Hoffmann, « Affective brain-computer interfaces: Psychophysiological markers of emotion in healthy persons and in persons with amyotrophic lateral sclerosis », dans le rapport de la conference intitulée Third international conference on affective computing and intelligent interaction and workshops, pages 1–11, 2009.

[13] Jean-Francois Bonnefon, Azim Shariff et Iyad Rahwan, « The social dilemma of autonomous vehicles », Science, 352(6293):1573–1576, 2016.

[14] John D. Medaglia, David Bryce Yaden, Chelsea Helion et Madeline Haslam, « Moral attitudes and willingness to enhance and repair cognition with brain stimulation », Brain stimulation, 12(1):44–53, 2019.

[15] Julio J. Elias, Nicola Lacetera et Mario Macis, « Paying for kidneys? A randomized survey and choice experiment », American Economic Review, 109(8):2855–88, 2019.

[16] Mika Koverola, Marianna Drosinou, Jussi Palom ̈aki, Juho Halonen, Anton Kunnari, Marko Repo, Noora Lehtonen et Michael Laakasuo, « Moral psychology of sex robots: An experimental study – how pathogen disgust is associated with interhuman sex but not interandroid sex », Paladyn, Journal of Behavioral Robotics, 11(1):233–249, 2020.

[17] Mika Koverola, Anton Kunnari, Marianna Drosinou, Jussi Palomäki, Ivar R. Han-nikainen, Jukka Sundvall et Michael Laakasuo, « Non-human superhumans-moral psychology of brain implants: Exploring the role of situational factors, science fiction exposure, individual differences and perceived norms » 2020.

[18] Leon Kass, Beyond therapy: biotechnology and the pursuit of happiness, Harper Perennial, New York, 2003 ; John D. Medaglia, David Bryce Yaden, Chelsea Helion et Madeline Haslam, « Moral attitudes and willingness to enhance and repair cognition with brain stimulation », Brain stimulation, 12(1):44–53, 2019.

[19] Bernard Williams, Vérité et véracité, Essai de généalogie, Gallimard, 2006.

[20] Manos Tsakiris, « How should the political animals of the 21st century feel?: Comment on “The sense of should: A biologically-based framework for modelling social pressure” by J.E. Theriault et al. », Physics of Life Reviews, 36:77–79, 2021.

[21] Brian D. Earp, Olga A. Wudarczyk, Anders Sandberg et Julian Savulescu, « If I could just stop loving you: Anti-love biotechnology and the ethics of a chemical breakup », The American Journal of Bioethics, 13(11):3–17, 2013.

[22] Peter Sloterdijk, Règles pour le parc humain, Mille et Une Nuits, Paris, 2000 ; Francis Fukuyama, Our Posthuman future, Consequences of the Biotechnology Revolution, Picador, New York, 2003.

[23] Sophie J. Nightingale et Hany Farid, « AI-synthesized faces are indistinguishable from real faces and more trustworthy », Proceedings of the National Academy of Sciences, 119(8), 2022.

[24] Loup Cellard, « Surfacing Algorithms: An Inventive Method for Accountability », Qualitative Inquiry, mai 2022.