Numérique

Le monde selon GPT (2/2) Mais de quoi donc parle-t-il ?

Philosophe

Loin des sens, des émotions et sans référents, quel langage ChatGPT parle-t-il au juste ? Comment évaluer son niveau de compréhension et de communication ? Pensée selon un schéma de prédiction basé sur les archives textuelles humaines, la machine semble encore se trouver à des années lumières du langage parlé. GPT retient, mais sait-il pour autant ?

Résultat d’une longue histoire, et présupposant quelques thèses philosophiques majeures, GPT, les grands modèles de langage dont il est le représentant le plus fameux, et les intelligences artificielles génératives en général, habitent un grand hyperespace des intelligences possibles, où elles résident à une grande distance de l’intelligence qui est la nôtre.

publicité

Ceci étant, nous communiquons : GPT nous parle ; mais s’il ne pense pas comme nous, si même il est discutable qu’il pense, de quoi peut-il bien nous parler ? Pour répondre à cette question, nous devrons passer par la théorie dite des mondes possibles, initiée il y a plusieurs siècles par Leibniz mais élaborée au vingtième siècle, qui fit ses preuves pour rendre compte de ce qu’est le référent d’un énoncé. Je défendrai dans ce qui suit une thèse sur le référent des phrases de GPT, qui éclairera certains des paradoxes auxquels cette machine aujourd’hui nous confronte.

Le langage, le monde et les mondes

L’idée d’une étanchéité entre intelligences, supposément conséquence de cette multiplicité d’intelligences, ne va en réalité pas de soi. Nous communiquons avec les chiens, parfois même avec les poulpes, et nous parlons aux IA avec des phrases. Que signifie cette possibilité d’échange, hormis le simple fait que la convolution entre humains et IA, comme la coévolution entre humains et loups, permet en effet une sorte de « langue commune » ?

Dans Investigation Philosophique (1990), Wittgenstein écrivait, en une formule frappante : « Si un lion pouvait parler, nous ne pourrions pas le comprendre. » Il signifiait par là que la compréhension d’un discours, d’une langue même, suppose une communauté de forme de vie. Mêmes traduites en « humain », les phrases du lion ne feraient pas sens pour nous puisqu’elles ne se rapporteraient à rien qui fait « notre » monde.

Il semble que nous comprenons GPT et les IA génératives en général. Il s’ensuivrait que nous partageons avec elles quelque chose comme une forme de vie, que nous habitons une espèce de monde commun. Mais lequel ? Quel est le monde selon GPT ?

Pour y répondre considérons ce simple fait que GPT nous parle. Parler, c’est minimalement « dire quelque chose sur quelque chose à quelqu’un », suppose-t-on souvent dans le sillage d’Aristote. Cette caractérisation montre qu’un discours sensé implique un sens (« dire quelque chose »), un référent (« sur quelque chose ») et un récepteur ou interlocuteur (« à quelqu’un »). Comprendre en quoi ou comment « pensent » les LLM reviendrait alors à déterminer ces trois dimensions de leur discours.

Il semble que le « sens » des énoncés de GPT n’ait rien qui diffère du sens des énoncés des humains. La question de l’adresse ou du destinataire est troublante ; je la laisserai de côté ici, et me concentrerai sur le « référent », le « sur quelque chose ». Cette question nous interpelle au premier chef, en particulier à cause des innombrables cas d’hallucinations des LLM recensés aujourd’hui. On parle en effet d’hallucination lorsqu’un LLM répond à une question en invoquant des faits qui n’ont pas existé, en attribuant par exemple à un auteur des textes qu’il n’a jamais écrits. Il s’agit en effet d’un phénomène hallucinatoire puisqu’en mettant sur le même plan dans une réponse le réel et l’irréel GPT prend pour réel quelque chose qui ne l’est pas. À qui fait donc référence GPT lorsqu’il dit que « Philippe Huneman » a publié « Natural selection as a cause », « Re-thinking the Unity of Living Systems : Organisms as Environments » – dans la revue Studies in History and Philosophy of Biological and Biomedical Sciences en 2016, et le livre collectif Functions : Selection and Mechanisms en 2018, alors que PH a en effet publié le troisième (mais en 2013), mais jamais les deux premiers, quoique leurs titres correspondent à ces travaux (il a bien coécrit un « organisms as ecosystems ? », et le premier titre correspond à l’article d’une proche collègue en discussion avec lui).

(Précisons que le centrage sur moi-même, ici, relève moins d’un accès subit de narcissisme que du soupçon d’un intérêt majeur des LLM, à savoir suggérer des pistes pour notre propre travail, et même plus généralement, faire le point sur nos perspectives[1].)

Avec ces mésattributions imaginaires, GPT commet-il une simple erreur, au sens où, pour nous, un énoncé faux dit d’un référent précis quelque chose qui n’a pas eu lieu ?

On pourrait presque inverser le problème. Le terme d’hallucination est en réalité énigmatique ici, puisqu’une hallucination est un phénomène sensoriel – voir ou entendre quelque chose qui en réalité n’existe pas – alors qu’un LLM n’a pas de capacités sensorielles du tout. Comment alors comprendre que massivement, GPT n’hallucine pas ?

Les LLM vivent dans un environnement particulier : les textes. Ils ne connaissent rien d’autre, ils n’ont aucun accès à la réalité en tant que contenu perceptuel (du moins pour l’instant). Lorsque je pense « pomme », je sais certes que le mot « pomme », s’inscrit dans un réseau de significations, vertical avec les mots « golden », « granny », « pink lady » etc, horizontal avec « abeille », « fleur », « fruit », « graine », « végétal », « poire », « tarte tatin », etc. Mais je sais aussi que ce mot est lié d’une certaine manière à un ensemble d’expériences visuelles, olfactives et gustatives, de sorte que je peux référer plus ou moins correctement (et la plupart du temps, correctement) à des pommes.

Qu’est-ce donc qu’une pomme pour le LLM ? La plupart du temps, il semble référer à « pomme » correctement et pourtant ils n’ont pas cet ancrage perceptif qui, chez moi, assure la fiabilité de l’opération de référence. Deux remarques ici :

a. On ne doit pas confondre le référent et « les références », terme utilisé comme nom de sources auquel un écrit se réfère pour soutenir ses affirmations. Comme on l’a souvent relevé, si GPT utilise des masses énormes de textes pour répondre à des prompts, celles-ci ne sont jamais explicitées. C’est d’ailleurs l’une des différences majeures avec Wikipédia, entreprise encyclopédique qui, elle, mentionne ses références. On a raisonnablement déconseillé de ne pas utiliser systématiquement GPT dans des travaux universitaires, pour ce motif précisément. Car des références peuvent être plus ou moins fiables, et nul ne sait si GPT a conservé une certaine exigence de fiabilité en assemblant des mots dont la probabilité a été calculée à partir de différents textes eux-mêmes plus ou moins fiables.

Références et référent linguistique sont toutefois liés. Les références fiables assurent en effet qu’un discours fait correctement référence à quelque chose. Je n’ai jamais mis les pieds à Goa, mais je peux y faire référence, car j’ai lu sur Goa des choses relativement fiables, ou bien d’autres ont lu ces choses et me les ont enseignées : je peux de manière fiable situer Goa en Inde, mentionner la présence coloniale portugaise, et l’attrait que la ville exerça sur les hippies des années 1970 ; je sais que le magnifique roman d’AntonioTabucchi intitulé Nocturne Indien s’y déroule, et je sais que Tabucchi écrivit plus tard Pereira prétend. Des théories épistémologiques complexes[2] tentent de rendre compte comment la référence fiable permet de faire référence au réel (de parler correctement d’un référent), autrement dit comment elle peut se connecter à l’expérience perceptive de certaines choses.

Mais précisément, sans capacités perceptives, sans références explicites, comment GPT peut-il faire référence à quoi que ce soit, comment ses phrases peuvent-elles avoir des référents – autrement dit, manifester l’équivalent de ce que nous reconnaissons comme un référent – en l’absence de la machinerie qui permet d’expliquer pour nous la référence au réel ?

On mesure ici combien, dans l’espace de l’intelligence, les IA sont malgré tout loin de nous. La distance qui nous en sépare est aussi la distance entre des modalités de référence.

b. Ce qui m’amène à la seconde remarque. Les auteurs intéressés à cette question du rapport des IA au monde parlent de grounding, de fondation. La relation à nos sens constitue le grounding de la phrase « j’aime les pommes vertes ». Il semble bien que GPT n’ait pas de grounding ; ou plutôt, s’il ne fait que traiter d’espaces vectoriels de mots dont les distances relatives sont soumises à des estimations probabilistes, comment fonderait-il ses valeurs de probabilité sur la réalité elle-même ?

Le LLM est une machine à produire des classements selon des probabilités décroissantes. Dans l’article fameux qui valut à Timnit Gebru, éthicienne chez Google, son éviction puis sa célébrité, ils sont des perroquets stochastiques – et « stochastique » se réfère à cet aspect-ci précisément à cet aspect-ci[3]. Les LLM en cela partagent pareille vocation stochastique avec les algorithmes de recommandation tels que ceux qui agencent les contenus sur les réseaux sociaux, ou bien la reconnaissance d’images : à un contenu donné (respectivement un mot donné) on associe le contenu le plus probable en fonction de l’ensemble des données connues. C’est ainsi que Netflix me propose des films ; ou bien que Youtube ou Facebook me proposent infiniment de nouvelles vidéos susceptibles de me plaire[4]. C’est ainsi que les capteurs d’une voiture connectée devant un cycliste à peine visible derrière un bus que l’on s’apprête à croiser prédisent la survenue du vélo, sauf si l’algorithme était mal entraîné, auquel cas la victime percutée fait la une des journaux et l’essor de ces véhicules dont le développement engloutit des sommes pharamineuses est freiné.

Épistémologiquement, la prédiction peut se voir comme une modalité neuve d’approche du monde. On voit comment l’ensemble des technologies algorithmiques de traitement de données massives (LLM, algorithmes de recommandation, reconnaissance d’images) sont, approximativement, des machines à prédire. Les neuroscientifiques aujourd’hui ont un faible pour la théorie de Karl Friston[5] selon laquelle le cerveau est lui-même une machine à prédire, autrement dit, que mes perceptions sont, à grain très fin, des prédictions de ce qui se produira de manière imminente, basées sur la somme astronomique de données sensibles recueillies et traitées par nos sens et notre cortex respectivement[6].

Je n’oublie toutefois pas la différence entre les algorithmes qui construisent une représentation du réel, quitte à nous guider dans nos choix, et les IA génératives produisant quelque chose d’apparemment neuf. J’insiste seulement sur le fait que l’arrangement selon une hiérarchie de probabilité croissante constitue le gros de nombre de modèles scientifiques d’exploration de la réalité. Cela pose d’ailleurs une question philosophique peu traitée : qu’est-ce donc que cet objet, le ranking ou classement ?

Depuis les naturalistes du XVIIe siècle, puis Darwin, les philosophes ont fait un sort à l’idée de classification, parce que les problèmes méthodologiques qu’elle pose rejouent des énigmes métaphysiques majeures : les classes existent-elles ? à quoi font référence des termes généraux comme « coléoptère » ? la réalité se laisse-t-elle découper en boîtes distinctes, chacune incluant de nouvelles boîtes et incluses dans d’autres, et pourquoi donc ? Mais la classification n’est pas le classement. Les classifications sont, logiquement, des hiérarchies, au sens où une sous-espèce est toujours incluse dans une espèce, de sorte qu’espèces et sous-espèces peuvent se voir attribuer un rang, la séquence des rangs étant simplement une séquence d’entiers naturels : le premier (par exemple en biologie la variété), le second (l’espèce), le troisième (le genre), etc. La distance, dans un classement, peut certes donner lieu à des groupements (les 4 premiers, les 5 seconds, etc.) mais ceux-ci n’auront évidemment pas la rigidité des emboîtements que constitue une hiérarchie. Et là où la classification partitionne le monde en classe hétérogènes, le classement introduit au contraire dans un ensemble déjà homogène un ordre hiérarchique. Le statut d’un ranking – dans quelle mesure est-il robuste ? objectif ? conventionnel ? – pose alors des questions qui ne recoupent pas les énigmes métaphysiques que j’évoquais, toutes centrées autour de cette affaire de découpage de la réalité en boîtes emboîtées. Pour l’histoire naturelle et la biologie, la classification était la première prise épistémique sur le monde ; pour les LLM tout commencerait par le classement, et celui-ci opère avant tout sur des textes, sur des mots.

Dans tous les cas un classement par probabilités décroissantes définit l’armature du monde selon GPT et les LLM en général. Supposons qu’un esprit malin confectionne plusieurs milliards de textes contenant au sujet du monde des myriades d’affirmations radicalement fantaisistes (le football se joue avec une enclume, les cônes sont des légumes, les cercles ont 5 côtés etc.) clairement le LLM actualisera ses classements de probabilités, si bien que ses réponses aux questions posées refléteront ce changement dans les données d’entraînement : le LLM racontera continument n’importe quoi. Ce scénario représente évidemment une actualisation du « Malin génie » selon Descartes, un Descartes 2.0, pour reprendre une expression de Le Tellier dans son roman L’Anomalie.

En d’autres termes, un LLM n’a pas de grounding fiable dans la réalité, sans quoi pareil bouleversement démoniaque de son entraînement ne changerait rien puisque le monde n’a pas changé. De quoi parle alors un LLM lorsqu’il me décrit un tennisman argentin ou une mathématicienne iranienne ? Comment peut-il ensuite répondre à peu près correctement à mes questions sur l’histoire du Tadjikistan puisqu’il n’a de rapport ni au Tadjikistan, ni aux Iraniennes, ni à Roland Garros ? Puisque ces mots, pour lui, ne sauraient référer à la réalité, à défaut de grounding dans la réalité ?

Je suggérerais une réponse. Elle passe par la notion familière aux philosophes de « mondes possibles », initiée par Leibniz et développée de façon systématique bien plus tard par David Lewis.

Un monde possible est un ensemble d’événements qui peuvent exister, et qui sont en eux-mêmes compatibles. Pour s’en représenter un, il suffit de considérer notre monde, le monde « actuel » (au sens métaphysique de acte vs. Puissance ou potentiel, non au sens de « actualité présente » vs « le passé »[7]), noté W. Un certain monde possible W’ se définirait par un monde où Nadal joue cette année à Roland Garros. On peut supposer qu’il différerait du monde actuel (noté W) par les résultats du premier tour de ce tournoi, ajoutés à tous les changements requis pour que les événements dans un tel monde soient compatibles avec la présence de Nadal en compétition (les adversaires malheureux de Nadal rentrent chez eux, le tableau initial du tournoi exclut un joueur pour faire place à Nadal, les vies de ces gens sont arrangées en conséquence, d’une manière ou d’une autre).

Avec les mondes possibles vient la notion de « distance entre les mondes possibles ». Pour David Lewis, elle est cruciale, car grâce au passage par la notion de mondes possibles plus ou moins proches nous pouvons définir de manière rigoureuse un ensemble de notions métaphysiques essentielles à notre cadre conceptuel commun. C’est ainsi qu’il peut rendre compte des notions de causalité, de proposition, de nécessité, de lois de la nature, etc. – je n’entrerai pas dans le détail mais ceci suffit à convaincre de la fécondité d’une telle notion[8].

Un autre monde possible W’’ est celui où Macron n’est pas président de la République. Il est plus loin du nôtre que W’, parce que – on s’en convaincra aisément – la quantité minimale de changements requis pour en faire un monde d’événements compatibles est supérieure à celle que requiert W’. Un monde possible W’’’ encore plus lointain est celui où l’évolution biologique n’a pas conduit aux hominidés, par exemple parce que l’astéroïde responsable de la disparition des dinosaures est passé à côté de la Terre, de sorte qu’à l’heure où j’écris, dans ce monde W’’’, des diplodocus broutent et des vélociraptors déchiquètent.

Avec ces exemples on comprend que l’ensemble des mondes possibles pourrait être ordonné, sinon totalement, du moins partiellement, par une métrique. Et on peut de manière au moins compréhensible sinon pleinement formalisable faire une différence entre les mondes possibles les plus proches du nôtre, et les autres. Et là apparaît la pertinence du recours aux mondes possibles pour cette question du référent du discours des LLM.

Rappelons-nous les étranges hallucinations. À la question égocentrée « qui est PH ? », GT répond en m’attribuant, parmi un échantillon de mes publications dans les revues académiques, des articles tels que « Re-thinking the Unity of Living Systems: Organisms as Environments ». Je ne les ai pas écrits, donc c’est indubitablement une erreur, une de ces « hallucinations » dont je parlais, mais j’aurais pu les écrire (en tout cas, c’eût été bien plus possible que si GPT m’eût attribué une biographie de Michel Platini). (J’ai même choisi essentiellement pour cette raison un tel exemple égocentré, puisque je suis le meilleur juge de ce que j’aurais pu écrire.) Et là sera le secret, en quelque sorte, de la question énigmatique du référent.

Lorsqu’il énonce une phrase telle que cette tentative biographique, un LLM ne comprend aucun de ces mots, au sens où ils référent à des choses et des phénomènes en dehors des discours. En revanche il « sait » que ces mots ne peuvent que très improbablement accompagner les mots « Nadine Morano » ou « dodécaphonisme ». Ses valuations de probabilité exploitent cela dans un très grand détail.

C’est pourquoi, selon cette même logique de probabilité, il va m’attribuer des publications académiques que je n’ai pas signées mais que – et tout est là – j’aurais pu en effet rédiger. Non pas parce qu’il me connaîtrait mieux que moi-même, mais parce que la structure même des textes d’entraînement auxquels il fut confronté tend vers des textes ainsi intitulés, plutôt que vers d’autres.

Et du point de vue du LLM, mes « vrais » articles et ces articles de quelque double astral sont sur un pied d’égalité. Ces articles imaginaires ne sont pas n’importe où dans l’ensemble des mondes possibles. En vérité, ils existent tous dans des mondes possibles assez proches. J’en déduirais que les phrases de ChatGPT réfèrent à ces articles irréels, à ces versions de moi-même philosophant à peu près pareillement ; elles sont différentes suites de différentes de circonstances contingentes, mais elles diffèrent toujours à la marge.

Le référent de GPT, ce n’est pas notre monde, c’est un ensemble de mondes possibles proches du nôtre. Et puisque le LLM ne connait pas le monde réel et ne saurait s’y référer – car de son point de vue l’actuel et le possible ne sont pas séparés – alors rien ne distingue mes articles « réels » de ceux qu’il hallucine. C’est pourquoi, comme on l’a constaté régulièrement, GPT n’est pas une source d’information fiable sur le monde actuel. Celui-ci n’est pas son référent. Il peut simplement discourir sur des choses dont nous savons qu’elles existent, et dans le même temps pérorer sur les snarks et les boujums, ces êtres qu’il a rencontrés puisque, même inexistants, ils sont mentionnés dans un fameux poème de Lewis Caroll.

La manière dont les LLM en général se rapportent au monde rend très vraisemblable cette hypothèse. Un texte peut parler du monde actuel, s’y référer plus ou moins. Idem pour des dizaines de textes. Mais il suffit de les prendre dans une bibliothèque qui comprendrait des auteurs de fiction, des livres de fantasy et des dystopies, pour qu’un grand modèle de langage associe les mots selon des valeurs de probabilité qui reflèteraient des événements totalement imaginaires : « pomme » ou « miroir » iraient facilement avec « sorcière », et « renard », « forêt » ou « loup » rendraient très probables des occurrences de « ogre » ou de « cochon », et ainsi de suite.

Néanmoins, si on considère des centaines de milliards de textes, on peut admettre que les références à des mondes très éloignés du nôtre s’avèrent rares ; et que, en outre, elles coexistent avec des références à d’autres mondes imaginaires relativement contradictoires. Au final, les valeurs de probabilité des mots tels qu’elles doivent apparaître en réagissant à un prompt s’ancreraient dans des masses de textes plutôt centrés sur notre monde, et ainsi, induiraient un classement probabiliste qui refléterait notre monde, mais pourvu d’un halo, un flou, issu d’une sorte d’indistinction entre notre monde et des mondes très proches.

C’est pourquoi le LLM aurait des hallucinations : elles témoigneraient du fait que son discours réfère à des mondes possibles proches du nôtre, qui constituent ce « sur quelque chose » auquel renvoie cette expression dans la formule générale de l’assertion : « dire quelque chose sur quelque chose à quelqu’un ». Ne pas faire la différence entre hallucinations et informations se comprend d’autant mieux que tombe à l’eau la différence entre les unes et les autres, du point de vue d’un discours recréant à un ensemble indifférencié de mondes possibles plus ou moins proches.

Une dernière conséquence alors : les LLM sont certes intelligents puisqu’ils « connaissent » (savoir s’ils connaissent au sens où nous connaissons est encore une autre histoire que j’aborderai en conclusion) notre monde et les mondes les plus proches. Mais logiquement parlant il y a une différence fondamentale entre leur manière de se rapporter au monde et la nôtre : ils ne font pas la différence entre le monde actuel et les mondes possibles.

Pour nous, cette différence structure la métrique des mondes possibles. Elle peut être minimale, lorsqu’on modifie un détail de notre monde très isolé, lequel occasionne donc moins de changements que tous les autres, mais elle reste une différence : il y a l’actuel, et il y a le possible, et ils sont (sortons les grands mots) ontologiquement distincts.

Pour le LLM, cette distinction n’a pas lieu. Et même si GPT 5 ou 6 augmenteront en finesse, même si leurs déclarations sur notre monde se rapprocheront progressivement de vérités testables sur notre monde, elles resteront des phrases au sujet d’un ensemble de mondes possibles autour du nôtre (un ensemble certes petit, mais on comprend très bien qu’il est de taille – ou « cardinal », comme disent les théoriciens des ensembles –, infini). Il y a bien ici une différence de nature entre notre intelligence et celle du LLM, saisie au niveau de la référence de son discours.

Savent-ils quoi que ce soit ?

Je n’entends pas célébrer à tout prix l’exceptionnalité humaine, et me (ou nous) rassurer à bon compte devant les prodigieuses performances cognitives des LLM. Il s’agit d’une différence de structure de l’opération de référence chez les LLM et chez nous, même si, très probablement, une bonne partie des tâches cognitives seront bientôt exécutées plus vite est mieux par eux que par nous. Mais si cela est juste, il faut en comprendre les raisons.

J’explore pour finir une piste. Mon collègue et ami John Symons, logicien et philosophe de l’esprit américain, dit récemment une chose toute simple : GPT ne connaît pas le Nord et le Sud, ou le haut et le bas. Or c’est là un symptôme de son absence d’accès à l’actuel en tant qu’il est différent du possible. Dans le monde actuel, je suis tourné vers le nord ; il existe une pelletée de mondes possibles dans lesquels je suis tourné vers le sud, et une minuscule série de choses s’en trouve alors modifiée. Le LLM, disais-je, ne peut pas faire cette différence ; il ne dira donc pas où est le nord, a fortiori où sont le haut et le bas.

Ce qui opère cette différence, pour nous, c’est notre corps. Il est trivial de dire qu’un LLM n’a pas de corps (il contredit une propriété essentielle du corps, à savoir qu’il ne peut pas être en plusieurs lieux à la fois). Dans la perspective de la présente réflexion, cette absence de corps induit l’absence de différence entre l’actuel et le possible pour le LLM. Car le monde actuel, c’est là où est mon corps ; et quand je dis que la perception des choses inclut la fondation (grounding) de notre capacité à produire des énoncés vrais sur le monde, je dis, par extension, que ce grounding a à voir avec mon corps. Les phénoménologues depuis Husserl et Merleau-Ponty ne disent pas autre chose, mais dans d’autres traditions ce point est largement reconnu[9]. En particulier, les sciences cognitives contemporaines ont longuement développé cette intuition, parlant tour à tour de « cognition située », embodied ou enacted ou extended cognition, etc.[10], et à chaque fois afin d’expliquer que la cognition est cognition de quelque chose exclusivement via son passage par un corps localisé dans un monde spatio-temporel. En d’autres mots, par une biologie.

Un LLM n’a ni biologie, ni corps ; il ne saurait relever du grounding qui est le nôtre ; c’est pourquoi la différence structurante entre actuel et possible ne figure pas dans la fondation de la cognition propre à lui.

Il y a probablement d’autres manières de rendre compte de cette situation selon laquelle, au terme de mon analyse, le référent des énoncés du LLM est un ensemble de mondes possibles proches du nôtre, et la modalité de ce référent exclut la différence pour nous structurante entre actuel et possible. Mais l’on accepte celle-ci, et la comparaison rapide faite avec la cognition située ou embedded, alors on saisit une particularité du destin des programmes d’Intelligence artificielle.

L’IA contemporaine, disais-je, a faussé compagnie à l’IA initiale et ses prémisses computationalistes. Elle repose sur la collecte massive de données et sur Internet, elle compute des valeurs de probabilité. Mais les sciences cognitives ont partiellement suivi un chemin fort distinct, à partir de la même faillite ou abandon du programme computationaliste. Elles ont, au contraire, réinvesti le corps et sa biologie, et ont cherché les structures et le fondement de la cognition dans le corps et sa situation, les contraintes sur sa biologie et la co-présence avec le monde. L’IA, elle, est allée au plus loin dans l’élaboration d’une intelligence sans corps.

Au final, entre IA génératives et sciences cognitives contemporaines, nous avons donc deux chemins vers ce qu’est la cognition et l’intelligence, distincts par la place si différente réservée au corps. Et cette différence explique comment la cognition des LLM, en tant qu’elle semble inclure bien une référence à quelque chose lorsqu’elle répond si brillamment à nos questions, la cognition des LLM réfère au réel de façon si différente de nos intelligences de grands et massifs vertébrés.

Il est indéniable que GPT et les LLM exécutent des tâches cognitives, et très souvent, mieux que les humains : plus loin, plus vite, plus fort comme dit Pierre de Coubertin (c’est de saison). Il n’est pas évident qu’ils pensent, et s’ils sont des intelligences, ils le sont en un sens différent de nous, entre autres pour des raisons liées à la structure de la référence, comme j’y ai insisté.

Doit-on pour autant admettre que GPT sait des choses ? C’est peut-être là une question de philosophe, au sens où peu, en dehors des philosophes académiques, se soucient de ce qu’il faut entendre par « savoir » (à la différence de « penser », « croire » ou « tenir  pour  vrai », etc.). Cela reste une énigme intéressante, puisque si ses assertions ont pour objet autre chose que le monde actuel, nous qui ne connaissons ce monde ou du moins l’aspirons à le connaître – qu’il s’agisse de connaissance scientifique ou, plus essentiellement, de connaissance quotidienne, sans laquelle notre action n’aurait aucune prise – dialoguons avec lui.

Très vite dit, Platon nous a, il y a bien longtemps, enseigné à distinguer une croyance vraie (« je crois qu’il y a une sixième extinction ») d’une connaissance, car celle-ci inclut la justification de ladite croyance. Un biologiste évolutionniste sait qu’il y a une sixième extinction, car il peut justifier cette assertion, je ne le peux pas.

Indéniablement, si on prête à GPT des croyances, il entretient une grande majorité de croyances vraies. A-t-il pour autant un savoir ?

En un certain sens, la réponse est non par principe. Si du moins on entend « savoir sur ce monde –, GPT ne saurait donner les raisons du fait qu’un de ces énoncés vaut pour ce monde-ci, puisque, si l’on compare deux des articles qu’il me prête, celui qu’il a détecté et celui qu’il a halluciné, les raisons de ces croyances sont identiques – un ranking de probabilités d’énoncés – mais la croyance vraie a la même justification que la croyance fausse.

Sans doute existe-t-il des sens de « justification » plus faible. Après tout, il nous arrive de justifier des croyances à la façon de ChatGPT, si du moins je considère un cas où je crois que « l’OM est la meilleure équipe de foot de France » sans avoir vu de matches, sans aucun intérêt pour le foot, simplement parce que je l’ai lu dans plusieurs journaux et donc que lorsqu’on me demandera « quelle est la meilleure équipe de foot de France ? » Je répondrai l’OM. Si cet exemple vous semble contrôlé, remplacez « football » par « football américain », et OM par Chicago Bears, sachant que je ne connaissais absolument rien du football américain et que je répondrais ainsi, l’exemple me semble correct.

Au fond, cela relance les débats contemporains d’épistémologie au sujet de la notion de justification, et de ce qui devrait être tenu pour une justification légitime, par laquelle la croyance vraie accède au savoir. Je ne tranche pas, en ce point ; j’affirme seulement qu’on peut trouver des arguments pour dire qu’un LLM sait des choses, et qu’il les sait en un sens assez proche de celui selon lequel nous nous sommes dit connaître.

J’ai voulu explorer quelques-unes des interrogations purement théoriques que l’existence de grands modèles de langage soulève pour un philosophe. Loin de les avoir épuisées, je peux seulement conclure que, au-delà de toutes les controverses sur la perspective de la fin de l’humanité ou sur le passage à un Eldorado humain, sans maladies ni pauvreté ni guerre ni travail ni empoignades sur la réforme des retraites ou les voies cyclables, l’ingéniosité des geeks depuis une cinquantaine d’années nous a offert une belle occasion de scruter encore l’énigme du monde, de celui qui est comme de tous ceux qui peuvent être, et de ce qu’ils contiennent – choses, plantes, vivants, humains ou quasi-humains, s’il y en a[11].

NDLR : Philippe Huneman a récemment publié Les sociétés du profilage. Évaluer, optimiser, prédire aux éditions Payot/Rivages


[1] C’était là l’idée initiale d’une célèbre IA commercialisée sous le nom de Replika, avant qu’elle devienne essentiellement un jouet (auto)érotique.

[2] Le livre fondateur de Kripke a lancé ces débats. (Kripke S., Naming and Necessity, Harvard University Press, 1980). Pour une vision plus large voir Soames S., Philosophy of language, Princeton, University Press, 2010.

[3] Bender E.-M., Gebru T., McMillan-Major A.,Shmitchell S., « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? » in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21), New York, Association for Computing Machinery : 610–623, 2021.

[4] Pour une analyse originale des algorithmes de recommandation voir Reigeluth T., « Recommender systems as techniques of the self ? », Le foucaldien, 3, 1, 2017 : 1-25, ainsi que le livre à paraître de Broadbent S., Forestier F., Khamassi M., Zolynski C. ; Jacob O., Pour une nouvelle culture de l’attention, 2023.

[5] Friston K., Kiebel S., « Predictive coding under the free-energy principle », Philos Trans R Soc Lond B Biol Sci., 364(1521), 1211-21, 2009.

[6] Dans La société du profilage. Évaluer, optimiser, prédire, Payot, 2023, j’ai proposé une approche philosophie très générale d’un glissement épistémique d’une science axée sur la causalité vers la généralisation de prédictions robustes fondées sur des corrélations innombrables saturant l’ensemble de la réalité.

[7] Pour les philosophes professionnels, le texte séminal concernant acte et puissance est le livre Theta de la Métaphysique d’Aristote; mais ici c’est sans importance.

[8] Lewis D., On the plurality of worlds. Princeton UP, 1990 ; De la pluralité des mondes (tr. Commetti), L’Eclat, 2007.

[9] Pour ces auteurs, voir Noë A., Action in Perception. MIT Press, 2005 ; O’Regan, Kevin J. & Noë A., « A sensorimotor account of vision and visual consciousness », In Behavioral and Brain Sciences 24 (5):883-917, 2001 ; Steinbock, Anthony J., Home and Beyond : Generative Phenomenology After Husserl, Northwestern University Press, 1995 ; Evan T., Mind in Life: Biology, Phenomenology, and the Sciences of Mind, Cambridge, Harvard University Press, 2007.

[10] Shapiro L., Embodied Cognition. London, Routledge, 2019.

[11] Je remercie Sylvain Bosselet pour sa lecture sans complaisance et ses judicieuses suggestions.

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)

Notes

[1] C’était là l’idée initiale d’une célèbre IA commercialisée sous le nom de Replika, avant qu’elle devienne essentiellement un jouet (auto)érotique.

[2] Le livre fondateur de Kripke a lancé ces débats. (Kripke S., Naming and Necessity, Harvard University Press, 1980). Pour une vision plus large voir Soames S., Philosophy of language, Princeton, University Press, 2010.

[3] Bender E.-M., Gebru T., McMillan-Major A.,Shmitchell S., « On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? » in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21), New York, Association for Computing Machinery : 610–623, 2021.

[4] Pour une analyse originale des algorithmes de recommandation voir Reigeluth T., « Recommender systems as techniques of the self ? », Le foucaldien, 3, 1, 2017 : 1-25, ainsi que le livre à paraître de Broadbent S., Forestier F., Khamassi M., Zolynski C. ; Jacob O., Pour une nouvelle culture de l’attention, 2023.

[5] Friston K., Kiebel S., « Predictive coding under the free-energy principle », Philos Trans R Soc Lond B Biol Sci., 364(1521), 1211-21, 2009.

[6] Dans La société du profilage. Évaluer, optimiser, prédire, Payot, 2023, j’ai proposé une approche philosophie très générale d’un glissement épistémique d’une science axée sur la causalité vers la généralisation de prédictions robustes fondées sur des corrélations innombrables saturant l’ensemble de la réalité.

[7] Pour les philosophes professionnels, le texte séminal concernant acte et puissance est le livre Theta de la Métaphysique d’Aristote; mais ici c’est sans importance.

[8] Lewis D., On the plurality of worlds. Princeton UP, 1990 ; De la pluralité des mondes (tr. Commetti), L’Eclat, 2007.

[9] Pour ces auteurs, voir Noë A., Action in Perception. MIT Press, 2005 ; O’Regan, Kevin J. & Noë A., « A sensorimotor account of vision and visual consciousness », In Behavioral and Brain Sciences 24 (5):883-917, 2001 ; Steinbock, Anthony J., Home and Beyond : Generative Phenomenology After Husserl, Northwestern University Press, 1995 ; Evan T., Mind in Life: Biology, Phenomenology, and the Sciences of Mind, Cambridge, Harvard University Press, 2007.

[10] Shapiro L., Embodied Cognition. London, Routledge, 2019.

[11] Je remercie Sylvain Bosselet pour sa lecture sans complaisance et ses judicieuses suggestions.