Numérique

Les grands modèles de langage à la recherche d’une sanction démocratique

Philosophe

La question de l’influence politique des modèles de langage vient d’être ravivée par un article du New York Times documentant l’évolution des réponses de Grok. Les modèles de langage, devenus de nouveaux intermédiaires cognitifs, soulèvent en effet une question cruciale : qui décide de ce sur quoi leur comportement doit être « aligné », et en fonction de quelles considérations ?

Derrière l’objectif de « neutralité » politique, les équipes d’Elon Musk semblent surtout, à en croire un récent article du New York Times, prédisposées à tordre le bâton dans leur sens[1]. Les « tendances de centre-gauche » des grands modèles de langage ont très tôt été identifiées et commentées aux États-Unis[2]. Quoi qu’on puisse penser de ces « biais politiques » et de leur influence possible sur l’opinion, les modèles massifs de langage, qui s’imposent de plus en plus comme des intermédiaires génériques pour la recherche d’information, en plus d’un grand nombre de médiations communicationnelles et cognitives, altèrent par vocation le contexte démocratique.

publicité

Cette intervention souhaite explorer la manière dont les géants de la Tech américains ont posé et imposé les données du « problème de l’alignement[3] », ce que cet état de fait comporte de problématique, et comment on peut espérer y remédier.

L’alignement : d’un problème de maîtrise à une question de finalités

Parmi les initiés de l’éthique de l’intelligence artificielle, dans les équipes de recherche et d’ingénierie du domaine, vous verrez souvent ce mot courir sur les lèvres : l’alignement. Comment s’assurer qu’une technologie si porteuse (le machine learning) entre pleinement au service de la société ? La question devient redoutable une fois admis que l’« intelligence » prêtée aux machines réside ici dans leur (auto-)apprentissage des moyens propres à produire, en sortie, l’effet escompté.

De fait, le problème de l’alignement a d’abord été formulé comme relevant du contrôle. Dans le cas de l’apprentissage par renforcement, quelle structure de récompense est-elle apte à susciter le comportement désiré ? Comment éviter les brèches et autres détournements de la fonction récompense, comme lorsqu’une IA gagne une course en exploitant une faille du jeu, donne simplement l’impression convaincante d’effectuer la tâche assignée ou tend à complaire à l’utilisateur à l’encontre de ses intérêts de long terme


[1] Je remercie Anne Alombert, Manon Berriche et Manon Revel pour leurs retours sur une première version de ce texte.

[2] Par exemple : Fabio Motoki, Valdemar Pinho Neto, Victor Rodrigues, « More human than human: measuring ChatGPT political bias », Public Choice, vol. 198 n°1, 2024, p. 3‑23 ; Shibani Santurkar, Esin Durmus, Faisal Ladhak, Cinoo Lee, Percy Liang, Tatsunori Hashimoto, « Whose Opinions Do Language Models Reflect ? », 2023.

[3] L’expression a été popularisée, notamment, par le best-seller de Brian Christian, The Alignment Problem: Machine Learning and Human Values, W. W. Norton & Company, 2020.

[4] DeepMind a baptisé « Habermas-Machine » une matrice de consensus, apte à prédire sur la base de libres contributions humaines laquelle des synthèses générées par une IA sera susceptible d’être tenue pour la plus satisfaisante par le groupe à l’origine des dites contributions. Le doyen de la démocratie délibérative n’a pas manqué de se désolidariser de ce projet. Car la recherche technique de production d’énoncés consensuels se substitue ici à l’exigeante mise en tension et en question des perspectives les unes par les autres.

[5] D’autres initiatives en Europe et dans le monde, heureusement, sont en cours. Le projet Plurality emmené par Audrey Tang tâche d’ancrer la mobilisation et la vigilance civique dans l’alphabétisation et l’innovation numériques. D’autres appellent à démocratiser de l’intérieur les entreprises pionnières capitalisant les ressources de l’innovation et colonisant le reste du monde. Une coalition pour une « IA inclusive », lancée en février dernier à l’ENS PSL à l’occasion d’une assemblée étudiante, dont j’ai eu l’honneur de participer à la conception, se propose d’organiser des sondages délibératifs à travers le monde, afin de capter les attentes du public.

Théophile Pénigaud

Philosophe, agrégé et docteur en philosophie de l’École Normale Supérieure de Lyon, post-doctorant au CEVIPOF (Centre de recherches politiques de Sciences Po)

Mots-clés

DémocratieIA

Notes

[1] Je remercie Anne Alombert, Manon Berriche et Manon Revel pour leurs retours sur une première version de ce texte.

[2] Par exemple : Fabio Motoki, Valdemar Pinho Neto, Victor Rodrigues, « More human than human: measuring ChatGPT political bias », Public Choice, vol. 198 n°1, 2024, p. 3‑23 ; Shibani Santurkar, Esin Durmus, Faisal Ladhak, Cinoo Lee, Percy Liang, Tatsunori Hashimoto, « Whose Opinions Do Language Models Reflect ? », 2023.

[3] L’expression a été popularisée, notamment, par le best-seller de Brian Christian, The Alignment Problem: Machine Learning and Human Values, W. W. Norton & Company, 2020.

[4] DeepMind a baptisé « Habermas-Machine » une matrice de consensus, apte à prédire sur la base de libres contributions humaines laquelle des synthèses générées par une IA sera susceptible d’être tenue pour la plus satisfaisante par le groupe à l’origine des dites contributions. Le doyen de la démocratie délibérative n’a pas manqué de se désolidariser de ce projet. Car la recherche technique de production d’énoncés consensuels se substitue ici à l’exigeante mise en tension et en question des perspectives les unes par les autres.

[5] D’autres initiatives en Europe et dans le monde, heureusement, sont en cours. Le projet Plurality emmené par Audrey Tang tâche d’ancrer la mobilisation et la vigilance civique dans l’alphabétisation et l’innovation numériques. D’autres appellent à démocratiser de l’intérieur les entreprises pionnières capitalisant les ressources de l’innovation et colonisant le reste du monde. Une coalition pour une « IA inclusive », lancée en février dernier à l’ENS PSL à l’occasion d’une assemblée étudiante, dont j’ai eu l’honneur de participer à la conception, se propose d’organiser des sondages délibératifs à travers le monde, afin de capter les attentes du public.