ChatGPT est-iel un agent moral artificiel ?
Lorsqu’on l’examine avec des lunettes de philosophe, ChatGPT est un drôle de truc. Assurément, on a affaire à un agent conversationnel surpuissant, capable de passer l’examen du barreau américain et semble avoir spontanément développé une théorie de l’esprit[1]. Mais un agent, jusqu’à preuve du contraire, sans personne dedans. Sans émotions, ni intentions. Ni vivant, ni sentient. Comment dès lors traiter ChatGPT ?
D’abord, faut-il dire il, elle ou iel ? ChatGPT n’a pas de sexe. Il n’en demeure pas moins qu’il faut lui attribuer un genre. Spontanément, les gens en font plutôt une entité masculine. Mais rien ne dit que ce soit pour de bonnes raisons. Cette question est beaucoup moins anecdotique et innocente qu’il y parait. Des entités comme ChatGPT, à savoir des systèmes d’IA non sexués, vont de plus en plus être partie prenante du quotidien de nombreuses personnes (utilisatrices ou non) : quel genre leur attribuer ? Dans le cadre de cet article – pour voir ce que ça donne et pour faire mon intéressant – j’ai choisi le neutre[2].

Mais la question de savoir comment traiter ChatGPT est loin de se réduire à celle de son genre. En éthique de l’intelligence artificielle, une distinction conceptuelle est particulièrement utile pour mieux discerner les enjeux : celle entre agent et patient moral.
Un patient moral est une entité à qui l’on est susceptible de faire du tort et envers qui on peut donc avoir des obligations morales. Les êtres humains, par exemple, sont tous des patients moraux. Mais qu’en est-il de ChatGPT ?
Un agent moral est une entité qui peut respecter des obligations morales envers des patients moraux. C’est le corollaire du patient moral. Les êtres humains adultes en bonne santé mentale sont typiquement considérés comme des agents moraux. Les bébés et les animaux, en revanche, sont des patients moraux sans être pour autant des agents moraux.
Dans les deux premières parties de cet article, je vais soutenir que ChatGPT n’est pas un patient moral, m