Numérique

ChatGPT est-iel un agent moral artificiel ?

Philosophe

La philosophie analytique peut-elle nous aider à comprendre ChatGPT ? Existe-t-il une bonne manière de le programmer moralement ? Ces questions débouchent sur un problème général, celui de l’alignement des IA génératives sur nos valeurs morales. Une solution pourrait consister à les entraîner à répondre comme le ferait une personne vertueuse. Petite introduction à l’éthique de ChatGPT.

Lorsqu’on l’examine avec des lunettes de philosophe, ChatGPT est un drôle de truc. Assurément, on a affaire à un agent conversationnel surpuissant, capable de passer l’examen du barreau américain et semble avoir spontanément développé une théorie de l’esprit[1]. Mais un agent, jusqu’à preuve du contraire, sans personne dedans. Sans émotions, ni intentions. Ni vivant, ni sentient. Comment dès lors traiter ChatGPT ?

D’abord, faut-il dire il, elle ou iel ? ChatGPT n’a pas de sexe. Il n’en demeure pas moins qu’il faut lui attribuer un genre. Spontanément, les gens en font plutôt une entité masculine. Mais rien ne dit que ce soit pour de bonnes raisons. Cette question est beaucoup moins anecdotique et innocente qu’il y parait. Des entités comme ChatGPT, à savoir des systèmes d’IA non sexués, vont de plus en plus être partie prenante du quotidien de nombreuses personnes (utilisatrices ou non) : quel genre leur attribuer ? Dans le cadre de cet article – pour voir ce que ça donne et pour faire mon intéressant – j’ai choisi le neutre[2].

publicité

Mais la question de savoir comment traiter ChatGPT est loin de se réduire à celle de son genre. En éthique de l’intelligence artificielle, une distinction conceptuelle est particulièrement utile pour mieux discerner les enjeux : celle entre agent et patient moral.

Un patient moral est une entité à qui l’on est susceptible de faire du tort et envers qui on peut donc avoir des obligations morales. Les êtres humains, par exemple, sont tous des patients moraux. Mais qu’en est-il de ChatGPT ?

Un agent moral est une entité qui peut respecter des obligations morales envers des patients moraux. C’est le corollaire du patient moral. Les êtres humains adultes en bonne santé mentale sont typiquement considérés comme des agents moraux. Les bébés et les animaux, en revanche, sont des patients moraux sans être pour autant des agents moraux.

Dans les deux premières parties de cet article, je vais soutenir que ChatGPT n’est pas un patient moral, m


[1] Avoir une « théorie de l’esprit » désigne la capacité d’imputer aux autres des états mentaux non observables, bref, de deviner ce qu’ils pensent. cf. Michal Kosinski (2023), « Theory of Mind May Have Spontaneously Emerged in Large Language Models », arXivLabs.

[2] Sur les enjeux philosophiques du neutre, voir le livre de Lila Braunschweig (2021), Neutriser : émancipation(s) par le neutre, éditions Trans.

[3] Gibert Martin, Dominic Martin (2022), « In search of the moral status of AI : why sentience is a strong argument », AI & Soc 37, 319–330.

[4] Je simplifie ; il existe aujourd’hui toute une littérature qui débat de l’agentivité morale des animaux.

[5] Je reprends ici la traduction de Large Language Model (LLM) par « modèles massifs de langage » proposée par Daniel Andler dans son livre Intelligence artificielle, intelligence humaine : la double énigme (Gallimard, 2023)

[6] De même, on peut décider ou non d’utiliser des données provenant de forum réputés pour leurs contenus haineux ou discriminatoires.

[7] Je blague : je ne pense pas que ne pas avoir d’opinion politique est équivalent à être de droite, même pour un chatbot.

[8] Voir l’article de Tom Warren « These are Microsoft’s Bing AI secret rules and why it says it’s named Sydney » dans The Verge publié en février 2023. La faille de sécurité a été corrigée et on ne connait pas les plus récentes instructions de Sydney.

[9] Voir aussi sur le sujet l’article de Kasirzadeh et Gabriel (dec.2022), « In conversation with artificial intelligence : aligning language models with human values », arXivLabs.

[10] Voir aussi Martin Gibert (dec 2021), « Automatiser les théories morales », Giornale de filosa, vol.2 n.2.

[11] On peut aussi bien sûr imaginer qu’on entraîne le modèle sur des « données vertueuses » (première couche) et qu’on procède à de l’apprentissage par renforcement pour favoriser les réponses honnêtes, bienveillantes, courageuses ou liées à une quelconque vertu (deuxième couche).

Martin Gibert

Philosophe, Chercheur en éthique de l’intelligence artificielle affilié au Centre de Recherche en Éthique (CRÉ) et à l’Institut de valorisation des données (IVADO) à l’Université de Montréal

Notes

[1] Avoir une « théorie de l’esprit » désigne la capacité d’imputer aux autres des états mentaux non observables, bref, de deviner ce qu’ils pensent. cf. Michal Kosinski (2023), « Theory of Mind May Have Spontaneously Emerged in Large Language Models », arXivLabs.

[2] Sur les enjeux philosophiques du neutre, voir le livre de Lila Braunschweig (2021), Neutriser : émancipation(s) par le neutre, éditions Trans.

[3] Gibert Martin, Dominic Martin (2022), « In search of the moral status of AI : why sentience is a strong argument », AI & Soc 37, 319–330.

[4] Je simplifie ; il existe aujourd’hui toute une littérature qui débat de l’agentivité morale des animaux.

[5] Je reprends ici la traduction de Large Language Model (LLM) par « modèles massifs de langage » proposée par Daniel Andler dans son livre Intelligence artificielle, intelligence humaine : la double énigme (Gallimard, 2023)

[6] De même, on peut décider ou non d’utiliser des données provenant de forum réputés pour leurs contenus haineux ou discriminatoires.

[7] Je blague : je ne pense pas que ne pas avoir d’opinion politique est équivalent à être de droite, même pour un chatbot.

[8] Voir l’article de Tom Warren « These are Microsoft’s Bing AI secret rules and why it says it’s named Sydney » dans The Verge publié en février 2023. La faille de sécurité a été corrigée et on ne connait pas les plus récentes instructions de Sydney.

[9] Voir aussi sur le sujet l’article de Kasirzadeh et Gabriel (dec.2022), « In conversation with artificial intelligence : aligning language models with human values », arXivLabs.

[10] Voir aussi Martin Gibert (dec 2021), « Automatiser les théories morales », Giornale de filosa, vol.2 n.2.

[11] On peut aussi bien sûr imaginer qu’on entraîne le modèle sur des « données vertueuses » (première couche) et qu’on procède à de l’apprentissage par renforcement pour favoriser les réponses honnêtes, bienveillantes, courageuses ou liées à une quelconque vertu (deuxième couche).