Conversations avec l’IA : entre fictions et réalités
Le développement des modèles d’intelligences artificielles génératives capables de converser en langage naturel a suscité une offre pléthorique d’agents dits « intelligents ». Parmi ces agents conversationnels, ChatGPT, l’emblématique chatbot d’OpenAI, fait figure de référence. Fortement médiatisés, ces grands modèles de langage (LLM)[1] sont entraînés sur de vastes ensembles de données majoritairement extraites d’internet à l’aide d’infrastructures computationnelles énergivores et du travail d’annotation effectué par de nombreuses petites mains dans des conditions précaires[2].

Sans véritable fonction prédéfinie, ces technologies s’inscrivent dans une quête affichée par plusieurs acteurs incontournables du numérique dont OpenAI, Meta ou encore Google DeepMind vers une intelligence artificielle générale (AGI) capable d’égaler, voire dépasser, l’intelligence humaine. Les agents intelligents ont ainsi investi différents espaces de notre quotidien : des agents conversationnels généralistes comme ChatGPT, Claude ou MistralAI ; aux simili-contacts intégrés à nos réseaux sociaux comme My AI proposé par SnapChat ou Meta AI du groupe Meta ; en passant par des applications de chatbots dédiées à la santé mentale ou à la création de relations amicales voire amoureuses. Or, l’impact social de ces modèles si rapidement diffusés interroge.
Les agents conversationnels généralistes se présentent non comme des outils mais comme des assistants à notre image. De nombreux LLM sont ainsi nommés, à l’instar de Claude, le chatbot d’Anthropic, qualifié de « collaborateur » dans les communications de l’entreprise. Les capacités d’apprentissage de ces modèles leur permettent de varier les registres d’énonciation afin d’adopter certains traits de caractère induits par leurs échanges avec l’utilisateur.
ChatGPT s’adapte ainsi aux préférences, jusqu’à demander des retours réguliers (« feedbacks ») permettant de configurer la « personnalité » du modèle. En français, il arrive également