Numérique

Le monde selon GPT ? (1/2) Trois conditions philosophiques et l’espace des intelligences

Philosophe

Les philosophes sont aussi des humains ; et comme les humains, depuis l’ouverture au public de ChatGPT il y a quelques mois, ils se sont lancés dans d’innombrables expérimentations sur la bête. Ils l’utilisent à tour de bras, et – trait un peu plus distinctif – ils se demandent ce que signifie ou qu’induit cette utilisation, s’il en existe de bonnes ou de mauvaises, et comment les distinguerait-on.

Rien au fond de très nouveau ici. Même si – selon le mot fameux de Whitehead – la philosophie apparaît avec raison comme une note en bas de page de Platon, les grands événements dans la science et la technique ont régulièrement rebattu les cartes de la métaphysique et de l’épistémologie – qu’on pense à la révolution darwinienne, ou, au début du XXe siècle, aux événements de la théorie mathématique des ensembles, de la physique quantique et de la théorie de la relativité, ou même, plus loin dans le temps, à la science newtonienne dont est tributaire toute la philosophie ultérieure.

publicité

Aujourd’hui, l’Intelligence artificielle joue ce rôle, essentiellement sous le mode des intelligences artificielles génératives. Celles-ci ont émergé au grand jour avec ChatGPT, membre de la famille des Large language models (ou LLM), et les générateurs d’images Midjourney ou Dall.E, mais les avancées qui les constituent s’accumulèrent pendant quatre ou cinq ans à l’ombre des laboratoires et des instituts de recherche[1]. Épatantes pour le commun des mortels, elles le sont tout autant ou davantage pour le philosophe. Davantage, parce qu’elles relancent de vieilles interrogations sur l’essence du savoir ou de la pensée, sur la spécificité humaine ou sur le langage.

Loin de faire le point sur ce qui s’est dit et discuté depuis quelques mois par les divers philosophes[2], je vais suggérer deux ou trois pistes pour comprendre en quoi GPT fournit l’occasion de penser à nouveau. Mon fil directeur est très simple : dans quel monde vit un LLM ? Que nous en dit-il ?

La base philosophique de GPT

Le compagnonnage de l’Intelligence artificielle et de la philosophie n’a pas attendu les Large langage models. Au contraire, les discussions philosophiques étaient parties prenantes de la naissance de l’IA, puisque ce projet même relève d’un intérêt philosophique pour la compréhension de l’esprit humain. Forgé lors de la Conférence de Dartmouth de 1956 (qui regroupait entre autres Herbert Simon, Claude Shannon ou Marvin Minsky) le vocable « Intelligence artificielle » a clairement joué le rôle de ce qu’on appellerait aujourd’hui un buzzword. Flanqué du plus tardif « artificial life », ce terme permit de grouper des programmes de recherche dont le noyau commun était bien mince, hors une même référence au fonctionnement de la pensée (respectivement, de la vie). Ainsi, Stuart Russell écrivait : « My own motivation for studying AI is to create and understand intelligence as a general property of systems, rather than as a specific attribute of humans.[3] » Certains projets visaient en effet à comprendre la pensée en la reproduisant, selon l’antique adage qui veut que je ne comprenne vraiment que ce que je fabrique moi-même (l’éminent physicien Richard Feynman en faisait une clé de l’union entre science et technique; bien plus tôt Giambattista Vico y voyait une preuve que seule l’histoire humaine pouvait être objet de science…). D’autres, par ces méthodes neuves, entendaient faire autrement et mieux de ce que fait déjà la pensée humaine.

Quoi qu’il en soit, cette galaxie d’entreprises intellectuelles reposait sur des strates de décisions métaphysiques, d’où son attrait pour des philosophes professionnels dans les années 60. Tout d’abord, la très vieille idée proposée par Hobbes, reprise par Leibniz et par des logiciens comme George Boole à la fin XIXe siècle (celui des « variables booléennes », soit les 0 et les 1, les bits de l’informatique moderne), que « penser c’est calculer ». Sans cette assimilation, difficile de voir dans ces calculateurs, dont Blaise Pascal avait déjà fabriqué un des ancêtres (la « pascaline »), quoi que ce soit qui nous informe sur la pensée elle-même, sur l’esprit. Et par calcul, il suffit de penser comme Boole : une proposition peut être vraie (valeur 1) ou fausse (valeur 0). Les opérations logiques élémentaires, « et », « ou », « ne pas » (« ‘p » et « ‘q », « ‘p » ou « q’ », « ‘non p’ ») sont des opérations sur la valeur de vérité de ces propositions (au sens où la vérité ou la fausseté de « p ou q » dépend exclusivement de la vérité des composants « p » et « q »), donc des opérations sur un ensemble à deux valeurs.

Une autre idée fondamentale pour Leibniz se trouve à la source de l’IA – à savoir, sans entrer dans les détails, l’idée qu’un énoncé peut être simplement vrai en vertu de sa forme. Vérité au fond assez triviale : « un boujum est un boujum » énoncé qui semble évidemment vrai même si je ne sais pas ce qu’est le mot boujum – certains philosophes exigeraient qu’il faut que je sache que les boujums existent ou que du moins « boujum » signifie quelque chose sans que je sache forcément quoi, mais c’est une autre question. Leibniz en tirait toutefois la conclusion (moins triviale) que ce que Descartes appelait l’intuition, soit la maitrise intellectuelle d’un contenu de pensée, le fait de voir « clairement et distinctement » (seconde Méditation Métaphysique) ce qu’est quelque chose (ou ce que signifie un mot) n’est pas un ingrédient nécessaire du jugement vrai. Typiquement, les mathématiques de Leibniz seront alors bien plus vastes que celles de Descartes, et intégreront des calculs symboliques bien plus complexes que mon exemple de tautologie sur les boujums. (Elles impliquent explicitement l’infini, dont on n’a pourtant pas l’intuition évidente[4]).

Cet affrontement entre une exigence dite parfois intuitionnisme (i.e., les contenus de pensée doivent être transparents à l’esprit) et le formalisme (i.e. la seule forme peut rendre vrai un énoncé quel que soit le contenu et mon rapport à lui) traverse l’histoire de l’épistémologie et des mathématiques. Ici, je note l’idée formaliste comme réquisit pour la notion même d’Intelligence artificielle. Et de fait, leurs premiers créateurs, Von Neumann, Alan Turing[5], Marvin Minsky ou Hebert Simon, se voyaient comme des héritiers directs de Leibniz ou Frege.

En sus des progrès techniques de la logique, une troisième thèse me semble cruciale pour le développement de l’IA. On l’appelle parfois « fonctionnalisme », ses hérauts furent des philosophes comme Hilary Putnam ou Jerry Fodor[6]. Sans entrer dans les détails, le fonctionnalisme répond à un matérialisme radical pour lequel toute entité mentale, toute pensée ou toute idée, est un état matériel (entre autres, du cerveau). Pareil matérialisme se voit vite objecter que de nombreuses « pensées » sont identiques alors même qu’elles ont lieu en correspondance à des états du cerveau différents (la pensée « je crois que la somme des angles d’un triangle vaut deux droits » n’est sans doute pas avec la même configuration neuronale chez les milliards d’individus qui la pensent ; la vision du rouge chez Milou et chez Tintin est réalisée par des états de cerveau très distincts, etc.[7]). D’où l’idée que ce qui est identique entre, mettons, deux occurrences de la pensée « le gruyère a des trous », ce ne sont pas des états neuronaux, mais bien un certain rapport entre des états matériels de type « états du monde » et d’autres états (par exemple les énoncés verbaux « le gruyère a des trous », et l’ensemble des comportements basés sur cette croyance). Un état mental se concevra donc comme une fonction au sens mathématique d’une relation régulière entre un ensemble d’inputs (des stimulus sensoriels, donc des états du cerveau et du monde) et un ensemble d’outputs (des comportements, ce qui inclut le comportement « proférer » la phrase « le gruyère a des trous »).

D’où (et cela justifie la présente excursion en philosophie de l’esprit) l’idée que, dans la mesure où la fonction est relativement indépendante des éléments sur lesquels elle s’applique, on peut imaginer que ces propriétés fonctionnelles que sont les états mentaux peuvent avoir lieu dans d’autres substances que la substance de notre cerveau. Comme le dit Putnam en manière de provocation, un morceau de gruyère pourrait penser, s’il présentait les bonnes corrélations fonctionnelles inputoutput [8].

Bien évidemment, ce fonctionnalisme autorise à penser que les états mentaux, par exemple la pensée, pourraient être réalisés dans des transistors et du silicone. C’est, si l’on veut, la garantie métaphysique du projet d’intelligence artificielle.

La « vie artificielle », élaborée dans les mêmes années 1970, dans des lieux parfois similaires (le Santa Fe Institute) partage cette même idée[9] : si la vie sur Terre est dépendante de la chimie – elle est essentiellement fondée sur la chimie du carbone lié à azote et oxygène et hydrogène – que veut dire « VIE » indépendamment de ces conditions chimiques ? Voyons donc ce que feraient des programmes d’ordinateur construits en régime darwinien, soit susceptibles de varier, d’être transmis, et d’être plus ou moins habiles à remplir leur tâche, et donc d’expérimenter cette évolution par sélection naturelle à laquelle depuis la première cellule nous devons toute forme de vie sur Terre…

Le fonctionnalisme n’a pas triomphé mais il reste corollaire de nombreux projets d’intelligence artificielle, il est même impliqué dans l’idée que des LLM pourraient en effet penser (mais ne garantit pas du tout que de fait, les LLM pensent). En revanche la version de fonctionnalisme dominante dans les années 80 et qui guida les premières IA n’a plus trop cours. On l’appelait le computationalisme, soit l’idée que, puisque penser peut être réalisé n’importe où et que penser est calculer, un ordinateur saura penser si on lui ordonne des opérations de calcul de plus en plus complexes, ces calculs étant définis par les règles de la logique, autrement dit, définis par les opérations sur les tables de vérité mentionnées plus haut. Ce computationalisme autorisait aussi bien l’IA forte (soit les IA pensent) que l’IA faible (elles peuvent simuler le comportement d’un système pensant).

C’est là où précisément les LLM rompent avec l’IA première manière et la philosophie qui les dominait (fonctionnalisme + computationalisme). Les historiens de l’IA notent en effet classiquement la rupture entre la première phase, qui vit les intelligences artificielles produire des traducteurs et des systèmes de guidage d’avions, résoudre des équations, jusqu’à finalement triompher aux échecs sur les meilleurs joueurs – la célèbre rencontre Deep Blue vs Kasparov en 1997[10]. Traiter des données sensibles de calculs subordonnés aux règles de la logique et de la syntaxe devrait en effet aboutir à des performances aussi notables que celles d’humains, puisque la pensée réalise ce calcul selon les règles de la logique à partir des données sensibles.

Sauf que le projet n’a pas vraiment progressé après ces réalisations spectaculaires. Certains parlent de « Winter of AI ». En tout cas, l’IA a pris son essor bien après l’abandon du computationalisme généralisé. Elle a pu exploser grâce à la mise à disponibilité d’immenses lots de données permise par l’Internet 2.0. Des innovations techniques comme les réseaux de neurones convolutifs, les GAN, ou le deep learning, les Transformers, ont ensuite rendu possible les performances si médiatiques et indispensables aujourd’hui de GPT 4[11].

Capable de créer des choses nouvelles (images, textes) au lieu de sélectionner et piocher parmi les choses existantes, l’intelligence artificielle générative diffère ainsi grandement de ce que le computationalisme eût attendu. Les grands modèles de langage sont entraînés à partir de milliards de textes (pour donner une idée, la totalité de Wikipédia ne représente que 0,2 % des textes d’entrainement de GPT3), à calculer la probabilité des différentes suites de mots possibles à un mot donné, et énonce les plus probables – autrement dit, à prédire. Syntaxe et sémantique, règles logiques d’inférence, ne sont plus l’essentiel du travail.

Si GPT ne dit jamais (sauf dans des contextes très rares où on lui parlera philosophie du langage ou logique) que « le vert est où », ou bien que « les nombres verts rugissent furieusement », exemples canoniques de non-sens syntactique ou sémantique, ce n’est pas que ces énoncés soient proscrits par les règles de la syntaxe ou de la sémantique, c’est que la probabilité de les rencontrer ou de les assembler est quasiment nulle, hors certains contextes d’exception comme la poésie ou la philosophie du langage, et les contextes eux-mêmes se définissent en termes d’assemblage plus ou moins probables de mots. Techniquement, c’est d’ailleurs là où interviennent les Transformers, ces réseaux de neurones qui donnent leurs noms complets à GPT et, qui inventés chez Google en 2017, permettent de travailler les attributions de probabilité en reconnaissant des ensembles de mots, procédant ainsi par topiques plutôt que séquentiellement.

« Penser » demeure une manière de calculer (compute), mais ce calcul est bien différent de celui de l’IA classique. Il ne s’agit plus de calculer les tables de vérité, ces opérateurs logiques ET et OU qui pouvaient directement s’instancier dans des circuits électroniques puisque les bits 0 et 1 correspondent à « porte électrique ouverte » ou « fermée ». On calcule des valeurs de probabilités, et on opère ainsi un classement probabiliste sur l’univers des mots. (Pour ce qui est des LLM, je laisse de côté ici les applications dites text-to-image comme Midjourney).

Quelle intelligence pour l’intelligence artificielle ?

Est-on toutefois en présence de pensée ? Un philosophe déflationniste ou sceptique dirait que la réponse dépend davantage de notre définition de « pensée » que des faits eux-mêmes, conclurait au conventionnalisme radical en la matière, et on ne saurait lui donner totalement tort[12].

Mais a-t-on réalisé une Intelligence artificielle, avec ces LLM dont les versions successives (GOT 2, 3, 4, 5 annoncé à l’hiver 2023) nous stupéfient et poussent certains à craindre que l’humanité arrive au terme de son obsolescence programmée ?

Ici encore, les termes sont trompeurs. D’abord, « artificielle » demeure un attribut tout relatif, comme certains l’ont fait remarquer. Car les LLM, GPT en tête, sont ces bons vieux entrepreneurs capitalistes décrits par Marx : ils exploitent le travail accompli par d’autres, et en tirent une plus-value (amassée ici par Open AI). Ces autres, ce sont les auteurs des milliards de milliards de textes ingérés par GPT4 – ou d’une quantité analogue d’images qui ont nourri ses équivalents dans le domaine iconique. Et ce sont aussi les milliards de petites mains qui se sont occupées d’« aligner » GPT, soit de contrôler que les réactions du LLM ne soient pas totalement hors contexte ou politiquement problématiques – ou bien de calibrer les IA visuelles, en « expliquant » à l’ordinateur que la tour qu’il voyait ronde est en réalité carrée[13]. Le terme désormais consacré de digital labor nomme ces pratiques[14], et on doit souligner l’ironie involontaire du recrutement de centaines de Kényans à peine payés  pour purifier GPT de tout racisme ou sexisme, comme si le colonialisme continué constituait la meilleure barrière à la xénophobie… Du point de vue juridique, évidemment, cet usage d’images ou de textes écrits par d’autres posent des problèmes fascinants ou abyssaux, en particulier de droits de reproduction, poussant à l’extrême le défi à la notion de « création » que constituait déjà en musique la pratique du sampling et en arts plastiques celle du collage…

Mais si GPT n’est pas artificiel est-il pour autant intelligent ? Là encore, au-delà du label, les choses sont complexes. Car enfin, qu’est-ce que l’intelligence ? Sans entrer dans les considérations parfois putrides sur sa mesure, sur le QI, sur le soi-disant facteur g comme noyau de ce que l’on mesure lors de tests dits d’intelligence, on relèvera que les débats sur l’intelligence, même délestés de leur gangue de confit idéologiques, sont sans fin.

D’où l’idée d’une approche différente, qui me paraît utile pour d’autres problèmes philosophiques, à savoir celle des hyperespaces conceptuels.

Un concept, en général, définit des conditions nécessaires et suffisantes (CNS) pour que quelque chose = X tombe sous ce concept. Ainsi, pour reprendre un exemple favori des logiciens, pour que quelqu’un tombe sous le concept ‘célibataire’ il faut et il suffit qu’il soit non-marié. Pour qu’une figure tombe sous le concept de cercle, il faut et il suffit que tous ses points soient équidistants d’un même point. Mais tous les concepts ne sont pas aussi facilement susceptibles de produire ces CNS.

D’abord, certains sont incomplets, au sens où on ne saurait dire que tout ce qui existe tombe soit dans leur extension, soit en dehors. C’est typiquement le cas du concept de sexe : mâle et femelle sont des prédicats biologiques définis par la production d’un certain type de gamètes, mais, quelle que soit l’espèce, tous les individus ne sont pas l’un ou l’autre sexe, et rien dans le concept n’exige qu’il partage en deux l’ensemble des individus vivants.

D’autres concepts sont tels que la recherche de CNS est si vaine qu’il est préférable de penser en termes de gradients : pour un concept A, on ne doit pas dire qu’un x donné est A ou non-A (exclusivement), mais qu’un x est plus ou moins A. Par exemple, les controverses sur la définition de la vie sont sans fin, alors même qu’en général nous savons à peu près reconnaître ce qui est vivant. Or lorsqu’on a voulu expliciter les raisons de cette reconnaissance, on a vite trouvé un ensemble de critères dont aucun n’appartient à tous les vivants : certains ne bougent pas, certains ne se reproduisent pas, ne métabolisent pas, etc. À partir de là, beaucoup s’accordent à penser qu’au lieu de se demander si une chose est vivante ou non, il faut se demander si elle est plus, ou moins vivante, qu’autre chose reconnue comme vivante. C’est ainsi que les virus, qui sont des filaments d’ADN mais n’ont pas de machinerie susceptible de le transcrire et ainsi doivent s’intégrer à des cellules sont « moins » vivants que des bactéries, mais « plus vivants » que des pierres, qui n’ont aucun ADN.

Cette approche est souvent satisfaisante. Mais pour la vie, elle me semble encore insuffisante. Car on s’accorde à voir dans la reproduction, le métabolisme, éventuellement le transfert d’information, l’adaptation au milieu, des caractéristiques de la vie. Comment comparer alors ce qui serait dénué de métabolisme mais reproductif (le virus) ? Ou bien ce qui serait de l’ordre du pur métabolisme mais sans hérédité (les écosystèmes, pour certains) ? On doit alors penser en plusieurs dimensions : non pas une ligne graduée sur laquelle on est plus ou moins vivant – mais un espace, dont les dimensions sont justement les propriétés prêtées au vivant. La reproduction, l’adaptation, le métabolisme, le mouvement, seraient de tels axes dans l’hyperespace conceptuel que constitue le concept « Vie[15] ».

Le projet de la Vie artificielle, alors, se conçoit comme une manière de construire certains « points » à l’intérieur de cet espace, et de voir comment certaines propriétés sont solidaires d‘autres, peuvent en générer d’autres, etc. Pour ce qui est du projet voisin de l’Intelligence artificielle notre question initiale n’est pas alors de décider si elle réalise l’intelligence ou pas, mais où se placent les différents projets d’AI dans l’espace de l’intelligence.

Cet espace admettrait un ensemble de dimensions à déterminer. Prédire son environnement y est essentiel – certaines darwiniens pensent que l’intelligence est avant tout une adaptation aux environnements complexes[16], donc très variables et peu prédictives. Les capacités d’inférence logique semblent aussi caractéristiques de l’intelligence, et, liées à elle, la capacité d’abstraction, donc le maniement de symboles. Abstraction et communication constituent visiblement d’autres dimensions de l’intelligence. De même pour l’adaptabilité, ou souplesse, ou flexibilité ou plasticité, autant de mots différents pour nommer la capacité à modifier son comportement en fonction des variations environnementales. Les capacités sociales, en particulier ce qu’on nomme « théorie de l’esprit »[17], en constitueraient aussi une dimension, si tant est que, pour les darwiniens encore, les environnements dits imprédictibles où évolue l’intelligence sont essentiellement des environnements sociaux – l’hypothèse dite de l’intelligence machiavelienne a largement exploité cette idée, en supposant que l’intelligence a évolué pour manipuler les autres[18]. La thèse récente de Mercier et Sperber[19], quoique très différente de l’idée de Byrne et Whiten, argumente dans le sens d’une explication évolutive de l’émergence de la raison par les avantages sociaux qu’elle procure à ses porteurs.

Cette distribution de l’intelligence en dimensions incommensurables n’est d’ailleurs pas nouvelle ; c’est ainsi que Pascal – pour prendre un exemple fameux – distinguait « l’esprit de finesse » et « l’esprit de géométrie » –, soit respectivement savoir appliquer finement les principes, ou savoir remonter des particularités au principe. L’hyperespace de l’intelligence ne fait que formaliser légèrement l’intuition pluraliste pascalienne.

Vue comme un hyperespace conceptuel, l’intelligence accueille donc différents variants qui ne sauraient se comparer ou s’ordonner. Les intelligences animales telle que celle du poulpe, évolutionnairement et physiologiquement si différentes de la nôtre, se trouvent ailleurs dans cet espace. Certaines espèces sont des capacités de maniement de symbole plus élevées que d’autres mais des capacités sociales moins développées, et ainsi de suite. Les IA sont nettement meilleures que nous au go, d’autres aux échecs, mais peu sont aussi fortes pour (à la fois) inventer des styles de peinture et écrire des sonnets. Il se pourrait même que la différence décisive entre les IA et les humains soit de l’ordre de la différence ente spécialistes et généralistes, comme on dit souvent en écologie : les IA se spécialisent dans certaines dimensions de l’intelligence, les humains font moins bien sur la plupart de ces dimensions prises séparément mais sont capables d’une performance honorable sur chacune d’elles. Et cette différence elle-même s’expliquerait par leurs évolutions distinctes, donc par la différence entre les environnements (en particulier sociaux) où ont évolué les hominidés, et ceux où évoluent les IA – soit, des textes et des utilisateurs humains.

Je ne poursuis pas ici cette spéculation. Dans cette perspective, rien ne garantit qu’il existe quelque chose comme « l’intelligence artificielle ». Les LLM instancient une certaine forme d’intelligence, puisqu’ils prédisent, ils manient des symboles ; ils effectuent des calculs, mais ils n’ont pas ostensiblement de capacités sociales – quoiqu’on discute justement la présence de théorie de l’esprit dans GPT[20]. D’autres IA, en particulier visuelles, constituent une autre forme d’intelligence. Ici aussi, l’idée de devoir intégrer des considérations sur l’intelligence animale à toute réflexion sensée sur les LLM, promue par Jonathan Birch , devient une évidence.

Il s’agit alors de se demander comment des intelligences habitant des zones distinctes de cet espace de l’intelligence peuvent parfois s’entendre. Je traiterai donc de cette question, requise pour comprendre quel monde nous pouvons partager avec GPT, donc à quoi ressemble le monde selon GPT. Ainsi nous verrons un peu mieux de quoi peut nous parler un LLM quand il nous répond.

NDLR : Philippe Huneman a récemment publié Les sociétés du profilage. Évaluer, optimiser, prédire aux éditions Payot/Rivages


[1] Pour une vision synoptique des Large language models, ces grands modèles de langage dont GPT est l’exemple le plus connu pour l’instant, on lira maintenant, d’Alexandre Gefen, Vivre et penser avec Chat GPT (Paris : L’Observatoire), qui propose une explication claire de ces technologies, de leur émergence et des défis qu’elles posent, au travers d’un dialogue avec ChatGPT lui-même.

[2] On aura un bon aperçu de réflexions que suscite GPT chez les philosophes professionnels en lisant les textes consacrés à cet étrange animal dans le Daily Nous, respectable blog de la profession, par huit philosophes très divers motivés par l’événement de sa naissance (« Philosophers on next generation language models ») ; ou bien le texte du blog de Justin Smith, historien de la philosophie et spécialiste de Leibniz comme de quelques autres choses, intitulé « GPT 4 is really quite stupid », comprenant bien entendu un dialogue avec la bête. La chose est plus significative que les réactions certes élaborées de philosophes de l’informatique tels que Luciano Floridi (« AI as Agency Without Intelligence : on ChatGPT, Large Language Models, and Other Generative Models ». Philos. Technol. 36, 15, 2023), qu’on attendait bien évidemment au tournant.

[3] Russell S., « Rationality and Intelligence », Artificial Intelligence, 94: 57–77, 1997.

[4] Voir Belaval Y., Leibniz, Critique de Descartes, Gallimard, 1978.

[5] Davis M., The Universal Computer. The Road from Leibniz to Turing. London: Routledge, 2018.

[6] Fodor J., The Language of Thought, New York, Crowell, 1975 ; Putnam H., « Minds and Machines », 1960, repris dans Mind, Language, and Reality, Cambridge University Press, 362–385, 1979.

[7] Pour cette notion de « réalisation » voir Shapiro, Lawrence A. « Multiple realizations » Journal of Philosophy 97 (12):635-654, 2000 ; et Kistler M. (2016) L’Esprit matériel : réduction et émergence, Ithaque, 2016. La réalisation multiple est une idée néanmoins très discutée, par exemple après la critique de Polger, Thomas W. & Shapiro, Lawrence A,The Multiple Realization Book. Oxford: Oxford University Press UK, 2016.

[8] Putnam H., Mind, Language and Reality, Cambridge, Cambridge University Press, p. 291, 1975.

[9] Par exemple Langton C., « Artificial Life as a Tool for Biological Inquiry », in Artificial Life: An Overview, Christopher G. Langton ed.), 1995.

[10] Voir Kasparov G., Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins, Common affairs 2017. Pour une histoire rapide de l’IA ces vingt dernières années voir Le Cun Y., Quand la machine apprend : La révolution des neurones artificiels et de l’apprentissage profond (qui tente un utile historique), Odile Jacob, 2019, et le chapitre « History of IA » dans Russell S., Norvig P., Artificial Intelligence : A Modern Approach. Saddle River, NJ: Prentice Hall, 2009.

[11] Pour une explication détaillée de comment marche Chat GPT par un mathématicien d’envergure voir le texte de Wolfram, « What is Chat GPT doing… and why does it work ? », 2023.

[12] J’ai développé cette position concernant certains concepts dont « vie », sous le nom de fragilité définitionnelle dans Huneman P. Pourquoi ?, Flammarion / Autrement, 2020.

[13] Gefen A., (op. cit.) démontre à quel point la force d’Open AI parmi ses concurrents.

[14] Voir l’exposé d’Antonio Casii dans Dominique Cardon, Antonio A. Casilli, Quest-ce que le digital labor ? Bry-sur-Marne, Ina, 2012.

[15] J’ai récemment appliqué cette approche aux concepts de biodiversité (Huneman 2018) et d’individu biologique (Huneman 2023), concepts vivement discutés par les écologues et les biologistes ou les philosophes. Elle a l‘avantage de dissiper des controverses.

[16] Voir Larry Shapiro, « Mind the Adaptation », in D. Walsh (ed.), Naturalism, Evolution, and Mind, Cambridge University Press, 23-41, 2001.

[17] On appelle « théorie de l’esprit » la disposition cognitive à prêter à d’autres des croyances sur le monde différentes des siennes propres et éventuellement fausses. Absente chez les humains avant environ trois ans, on n’a pas pu la détecter de manière fiable chez les animaux non-humains pour l’instant, hormis certains primates selon des éthologues.

[18] Byrne, Richard W. Byrne and Andrew Whiten (eds.),Machiavellian Intelligence: Social Expertise and the Evolution ofIntellect in Monkeys, Apes, and Humans I, ClarendonPress, 1988.

[19] Hugo Mercier et Dan Sperber, L’énigme de la raison. Trad. de l’anglais par Abel Gerschenfeld, Odile Jacob, 2021.

[20] Kosinski, « Theory of Mind May Have Spontaneously Emerged in Large Language Models », preprint.

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)

Mots-clés

IA

Berlusconi en moi

Par

« Je ne crains pas Berlusconi en soi, mais Berlusconi en moi » est un aphorisme attribué au chanteur Giorgio Gaber. Comment enterrer Berlusconi ? Plus encore, face à la coalition de droite au pouvoir... lire plus

Notes

[1] Pour une vision synoptique des Large language models, ces grands modèles de langage dont GPT est l’exemple le plus connu pour l’instant, on lira maintenant, d’Alexandre Gefen, Vivre et penser avec Chat GPT (Paris : L’Observatoire), qui propose une explication claire de ces technologies, de leur émergence et des défis qu’elles posent, au travers d’un dialogue avec ChatGPT lui-même.

[2] On aura un bon aperçu de réflexions que suscite GPT chez les philosophes professionnels en lisant les textes consacrés à cet étrange animal dans le Daily Nous, respectable blog de la profession, par huit philosophes très divers motivés par l’événement de sa naissance (« Philosophers on next generation language models ») ; ou bien le texte du blog de Justin Smith, historien de la philosophie et spécialiste de Leibniz comme de quelques autres choses, intitulé « GPT 4 is really quite stupid », comprenant bien entendu un dialogue avec la bête. La chose est plus significative que les réactions certes élaborées de philosophes de l’informatique tels que Luciano Floridi (« AI as Agency Without Intelligence : on ChatGPT, Large Language Models, and Other Generative Models ». Philos. Technol. 36, 15, 2023), qu’on attendait bien évidemment au tournant.

[3] Russell S., « Rationality and Intelligence », Artificial Intelligence, 94: 57–77, 1997.

[4] Voir Belaval Y., Leibniz, Critique de Descartes, Gallimard, 1978.

[5] Davis M., The Universal Computer. The Road from Leibniz to Turing. London: Routledge, 2018.

[6] Fodor J., The Language of Thought, New York, Crowell, 1975 ; Putnam H., « Minds and Machines », 1960, repris dans Mind, Language, and Reality, Cambridge University Press, 362–385, 1979.

[7] Pour cette notion de « réalisation » voir Shapiro, Lawrence A. « Multiple realizations » Journal of Philosophy 97 (12):635-654, 2000 ; et Kistler M. (2016) L’Esprit matériel : réduction et émergence, Ithaque, 2016. La réalisation multiple est une idée néanmoins très discutée, par exemple après la critique de Polger, Thomas W. & Shapiro, Lawrence A,The Multiple Realization Book. Oxford: Oxford University Press UK, 2016.

[8] Putnam H., Mind, Language and Reality, Cambridge, Cambridge University Press, p. 291, 1975.

[9] Par exemple Langton C., « Artificial Life as a Tool for Biological Inquiry », in Artificial Life: An Overview, Christopher G. Langton ed.), 1995.

[10] Voir Kasparov G., Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins, Common affairs 2017. Pour une histoire rapide de l’IA ces vingt dernières années voir Le Cun Y., Quand la machine apprend : La révolution des neurones artificiels et de l’apprentissage profond (qui tente un utile historique), Odile Jacob, 2019, et le chapitre « History of IA » dans Russell S., Norvig P., Artificial Intelligence : A Modern Approach. Saddle River, NJ: Prentice Hall, 2009.

[11] Pour une explication détaillée de comment marche Chat GPT par un mathématicien d’envergure voir le texte de Wolfram, « What is Chat GPT doing… and why does it work ? », 2023.

[12] J’ai développé cette position concernant certains concepts dont « vie », sous le nom de fragilité définitionnelle dans Huneman P. Pourquoi ?, Flammarion / Autrement, 2020.

[13] Gefen A., (op. cit.) démontre à quel point la force d’Open AI parmi ses concurrents.

[14] Voir l’exposé d’Antonio Casii dans Dominique Cardon, Antonio A. Casilli, Quest-ce que le digital labor ? Bry-sur-Marne, Ina, 2012.

[15] J’ai récemment appliqué cette approche aux concepts de biodiversité (Huneman 2018) et d’individu biologique (Huneman 2023), concepts vivement discutés par les écologues et les biologistes ou les philosophes. Elle a l‘avantage de dissiper des controverses.

[16] Voir Larry Shapiro, « Mind the Adaptation », in D. Walsh (ed.), Naturalism, Evolution, and Mind, Cambridge University Press, 23-41, 2001.

[17] On appelle « théorie de l’esprit » la disposition cognitive à prêter à d’autres des croyances sur le monde différentes des siennes propres et éventuellement fausses. Absente chez les humains avant environ trois ans, on n’a pas pu la détecter de manière fiable chez les animaux non-humains pour l’instant, hormis certains primates selon des éthologues.

[18] Byrne, Richard W. Byrne and Andrew Whiten (eds.),Machiavellian Intelligence: Social Expertise and the Evolution ofIntellect in Monkeys, Apes, and Humans I, ClarendonPress, 1988.

[19] Hugo Mercier et Dan Sperber, L’énigme de la raison. Trad. de l’anglais par Abel Gerschenfeld, Odile Jacob, 2021.

[20] Kosinski, « Theory of Mind May Have Spontaneously Emerged in Large Language Models », preprint.