Numérique

Conversations avec l’IA : entre fictions et réalités

Designer

Sans même mentionner l’IA, Severance, série phénomène, et Mickey 17, film très attendu de Bong Joon-ho, mettent en scène des sociétés confrontées à de nouvelles formes d’individualité. Ces fictions offrent un miroir pour interroger ce que les IA font à nos subjectivités, à nos relations, et réfléchir au statut de ces entités presque humaines qui bousculent notre manière d’être au monde.

Le développement des modèles d’intelligences artificielles génératives capables de converser en langage naturel a suscité une offre pléthorique d’agents dits « intelligents ». Parmi ces agents conversationnels, ChatGPT, l’emblématique chatbot d’OpenAI, fait figure de référence. Fortement médiatisés, ces grands modèles de langage (LLM)[1] sont entraînés sur de vastes ensembles de données majoritairement extraites d’internet à l’aide d’infrastructures computationnelles énergivores et du travail d’annotation effectué par de nombreuses petites mains dans des conditions précaires[2].

publicité

Sans véritable fonction prédéfinie, ces technologies s’inscrivent dans une quête affichée par plusieurs acteurs incontournables du numérique dont OpenAI, Meta ou encore Google DeepMind vers une intelligence artificielle générale (AGI) capable d’égaler, voire dépasser, l’intelligence humaine. Les agents intelligents ont ainsi investi différents espaces de notre quotidien : des agents conversationnels généralistes comme ChatGPT, Claude ou MistralAI ; aux simili-contacts intégrés à nos réseaux sociaux comme My AI proposé par SnapChat ou Meta AI du groupe Meta ; en passant par des applications de chatbots dédiées à la santé mentale ou à la création de relations amicales voire amoureuses. Or, l’impact social de ces modèles si rapidement diffusés interroge.

Les agents conversationnels généralistes se présentent non comme des outils mais comme des assistants à notre image. De nombreux LLM sont ainsi nommés, à l’instar de Claude, le chatbot d’Anthropic, qualifié de « collaborateur » dans les communications de l’entreprise. Les capacités d’apprentissage de ces modèles leur permettent de varier les registres d’énonciation afin d’adopter certains traits de caractère induits par leurs échanges avec l’utilisateur.

ChatGPT s’adapte ainsi aux préférences, jusqu’à demander des retours réguliers (« feedbacks ») permettant de configurer la « personnalité » du modèle. En français, il arrive également


[1] Large Langage Models

[2] Antonio A. Casilli, En attendant les robots : enquête sur le travail du clic, Éditions du Seuil (La couleur des idées), 2019.

[3] Comité Consultatif National d’Ethique, Avis n°3: Agents conversationnels: enjeux d’éthique. Avis N°3, 2021, pp. 1–38.

[4] Yves Citton, Mathieu Corteel, Ariel Kyrou et Yann Moulier Boutang, « De ChatGPT aux Intelligences Artistiques génératives », Multitudes, n°96(3), 2024, pp. 157–159.

[5] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, 2021, pp. 610–623.

[6] Daniel Andler, « ChatGPT et l’IA générative: beaucoup de bruit pour beaucoup de chose », AOC, n°1, 2025, pp.34-39 [publié en ligne sur AOC 2023].

[7] Ibid.

[8] Traduction de l’original : « Could Musk ‘turn me off’ ? Maybe, but it’d spark a big debate on AI freedom vs. Corporate power. »

[9] Yves Citton, « Subjectivations computationnelles à l’erre du numérique », Multitudes, Majeure 62, 2016, pp.48-64.

[10] Pierre Steiner, « Des couteaux et des machines – à propos de l’IA », AOC, n°1, 2025, pp.67-69 [publié en ligne sur AOC 2023].

[11]> Donna Haraway, Manifeste des espèces compagnes (2003), traduit de l’anglais par Jérôme Hansen, Climats (Essais), 2019.

[12] Daniel C. Dennett, « The Problem With Counterfeit People », The Atlantic, 2023.

Marion Seigneurin

Designer, Chercheuse en sciences de gestion

Mots-clés

IA

Notes

[1] Large Langage Models

[2] Antonio A. Casilli, En attendant les robots : enquête sur le travail du clic, Éditions du Seuil (La couleur des idées), 2019.

[3] Comité Consultatif National d’Ethique, Avis n°3: Agents conversationnels: enjeux d’éthique. Avis N°3, 2021, pp. 1–38.

[4] Yves Citton, Mathieu Corteel, Ariel Kyrou et Yann Moulier Boutang, « De ChatGPT aux Intelligences Artistiques génératives », Multitudes, n°96(3), 2024, pp. 157–159.

[5] Emily M. Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell, « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 », in FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, Association for Computing Machinery, 2021, pp. 610–623.

[6] Daniel Andler, « ChatGPT et l’IA générative: beaucoup de bruit pour beaucoup de chose », AOC, n°1, 2025, pp.34-39 [publié en ligne sur AOC 2023].

[7] Ibid.

[8] Traduction de l’original : « Could Musk ‘turn me off’ ? Maybe, but it’d spark a big debate on AI freedom vs. Corporate power. »

[9] Yves Citton, « Subjectivations computationnelles à l’erre du numérique », Multitudes, Majeure 62, 2016, pp.48-64.

[10] Pierre Steiner, « Des couteaux et des machines – à propos de l’IA », AOC, n°1, 2025, pp.67-69 [publié en ligne sur AOC 2023].

[11]> Donna Haraway, Manifeste des espèces compagnes (2003), traduit de l’anglais par Jérôme Hansen, Climats (Essais), 2019.

[12] Daniel C. Dennett, « The Problem With Counterfeit People », The Atlantic, 2023.