Numérique

ChatGPT et l’IA générative : beaucoup de bruit pour beaucoup de chose

Philosophe des sciences et mathématicien

Que s’est-il passé pour que nous en soyons arrivés à nous demander si l’IA n’est pas sur le point de provoquer un désastre mondial ? Que vaut ChatGPT en tant que tel, comment a-t-il été obtenu, comment expliquer ses étonnantes propriétés ? ChatGPT est-il une personne de synthèse, ou possède-t-il du moins certains traits de la personne humaine, notamment l’intelligence ? Comment est-il perçu par les différentes catégories d’utilisateurs, comment devrait-il l’être et partant, comment devrait-il être utilisé ? Est-il possible – et nécessaire – de formuler à son égard une norme éthique spécifique ?

Depuis que ChatGPT a éclaté, tel un coup de tonnerre, dans l’actualité, l’intelligence artificielle suscite une vraie tempête sous nos crânes – on y pense, on s’en alarme, on s’en émerveille, on s’en méfie, chacun y va de son avis, les experts offrent explications et prédictions, les faiseurs d’opinion proposent leurs synthèses, les instances professionnelles et politiques s’affolent…

publicité

Ce n’est pas le premier épisode de ce genre : il y a un demi-siècle, certains se demandaient comment les citoyens britanniques s’accommoderaient d’avoir un ordinateur pour premier ministre ; et de manière plus générale ce que deviendrait l’humanité lorsque les machines intelligentes verraient le jour, ce qui n’allait pas tarder au rythme où nous allions. Mais ils n’étaient pas très nombreux à s’émouvoir ainsi, et l’opinion publique se rallia bientôt au jugement des esprits rassis : beaucoup de bruit pour pas grand-chose[1].

Les esprits rassis ont aujourd’hui plus de mal à rétablir le calme. Beaucoup d’eau a coulé sous les ponts et les choses ont bougé, certes : la technologie a forcément progressé. Mais que s’est-il passé, plus précisément, pour que nous en soyons arrivés à nous demander si l’IA n’est pas sur le point de provoquer un désastre mondial, ou en tout cas une révolution d’une ampleur sans précédent ? Quelle découverte fondamentale a-t-on faite récemment ? Serait-ce la recette de l’intelligence artificielle, au sens littéral du terme : un système artificiel doué d’intelligence sans guillemets ?

En réalité, ChatGPT a été précédé il y a une dizaine d’années d’une première prise de conscience. Mais elle ne concernait que les gouvernements, les chefs d’entreprise, les responsables de domaines tels que la justice, les transports, la santé. Y a-t-il donc eu deux grands changements ? Ou bien un seul, et alors à quel moment se situerait-t-il ? Ou encore, aucun, et alors, pourquoi le présent brouhaha ?

Pour commencer à y voir plus clair, on peut distinguer trois grands types de questions. Les premières portent sur l’objet de toutes les conversations, à savoir ChatGPT, pris comme représentant de la famille de modèles massifs de langage (MML, en anglais Large Language Models ou LLM), regroupés désormais, avec des modèles produisant des images fixes ou mobiles, sous le label d’IA générative[2]. Que vaut ChatGPT en tant que tel, comment a-t-il été obtenu, comment expliquer ses étonnantes propriétés ?

Les questions du deuxième type concernent le rapport entre ChatGPT et la personne humaine : est-il une personne de synthèse, ou possède-t-il du moins certains traits de la personne humaine, notamment l’intelligence ?

La dernière famille de questions touche à la réception et au déploiement de ChatGPT et consorts. Comment sont-ils perçus par les différentes catégories d’utilisateurs, comment devraient-ils l’être, et partant comment devraient-ils être utilisés ? Quelles conséquences ont ou pourraient avoir leur dissémination et leur emploi à grande échelle ? Est-il possible de formuler à leur égard une norme éthique spécifique ?

On ne trouvera dans les lignes qui suivent que quelques éléments de réponse à toutes ces questions. Il faudrait un format différent pour les traiter en profondeur, et je ne prétends d’ailleurs pas être capable d’y répondre entièrement. Je chercherai surtout à mettre en évidence leurs interrelations.

Comme chacun le sait, ChatGPT est un agent conversationnel capable de soutenir une conversation et de répondre à une variété illimitée de requêtes complexes en produisant un texte généralement pertinent ; il faudrait en dire plus pour donner une idée de ses extraordinaires capacités, notamment en matière d’analyse de contenu de documents et de synthèse, mais le lecteur en a certainement entendu parler, et il a même peut-être lui-même mis ChatGPT à l’épreuve, car l’algorithme est en libre-service et chacun peut le télécharger.

Un premier débat porte sur les performances de ChatGPT. Beaucoup d’attention est donnée à ses défaillances. Il est sujet à des « hallucinations », des erreurs grossières, inventions pures et simples, contrevérités, incohérences manifestes, ainsi nommées parce qu’elles surviennent de temps à autre, au milieu de discours parfaitement sensés. Il professe parfois des opinions offensant la moralité, empreintes de préjugés racistes ou autres ; et peut recommander à l’utilisateur qui le consulte un comportement contraire à la loi, à l’éthique la plus élémentaire, ou à ses intérêts bien compris. Enfin, s’agissant de réponses à des questions de fond (« Cervantes est-il le Dante espagnol ? », « L’intelligence artificielle a-t-elle atteint ses limites ? », « À quoi attribuez-vous l’ascension de la démocratie illibérale dans différents pays ? »), ce que produit ChatGPT est généralement acceptable sans être original, et son style est plat.

Sur un autre plan, on s’en prend aux conditions matérielles dans lesquelles sont produits ChatGPT et les modèles apparentés. D’une part, ils exigent des calculs en quantité phénoménale, qui ne sont à la portée que de méga-entreprises privées et qui consomment beaucoup d’énergie. D’autre part, ils mettent à contribution, outre les milliers d’ingénieurs qui les ont construits, d’innombrables petites mains très mal rétribuées.

Ces observations sont dans l’ensemble exactes et évidemment légitimes. Mais elles s’accompagnent souvent de deux pensées supplémentaires. La première est que les défaillances s’expliqueraient par le fait que ChatGPT ne serait, selon une formule qui a fait mouche, qu’« un perroquet stochastique »[3]. À quoi s’ajoute le fait que ce qui lui permet de faire illusion, c’est tout ce que lui fournissent, aux différents stades de sa construction et de son dressage[4], des agents humains. De là suit la deuxième pensée : loin que ChatGPT soit un miracle jailli de l’ingéniosité humaine, prêt à nous apporter une aide sans précédent, il n’est qu’un tour de prestidigitation certes spectaculaire mais inutilisable du fait qu’on ne peut compter qu’il marche à coup sûr, et que c’est de surcroît un amuse-galerie terriblement dispendieux. Une fois calmée l’excitation présente, ChatGPT sera remisé au magasin des fausses bonnes idées, comme les « systèmes experts » des années 1970-80 ou, dans un autre domaine, le Concorde.

Si ChatGPT ne sait pas de quoi il parle, comment se fait-il qu’il en parle avec une telle pertinence ?

Il est désormais évident que cette conclusion est prématurée : ChatGPT lui-même rend déjà de nombreux services, ce dont attestent les problèmes bien connus du plagiat, de la propriété intellectuelle, du risque d’obsolescence de nombreux corps de métier, pour ne citer que ceux-là. Et les systèmes qui ont déjà succédé à ChatGPT tels que GPT-4 ont moins de défauts et plus de puissance : l’IA générative n’a pas atteint ses limites, même si certains estiment qu’elle s’en approche. En ne s’intéressant qu’à ce qu’elle fait mal et en ramenant ce qu’elle fait à peu près bien à une forme élaborée de copie de l’intelligence humaine emmagasinée dans le Web, on passe à côté de l’essentiel : ce qu’elle fait bien et la capacité que cela manifeste, qui pour n’être pas celle de l’esprit humain n’est pas rien ; comment elle y parvient, qui n’a rien d’une simple copie ; et les véritables risques qu’elle comporte.

En liant les défaillances de ChatGPT à ce que j’appelle sa « cécité sémantique » – au fait qu’il ne « sait pas de quoi il parle » comme on le dit souvent, on se rassure à peu de frais et on se dispense d’une réflexion sur les rapports entre cet objet mal identifié et la personne humaine qui pourrait être productive. Si ChatGPT ne sait pas de quoi il parle, comment se fait-il qu’il en parle avec une telle pertinence ? Ici intervient un second argument qui se veut décisif : il répète (entendez : il ne fait que répéter) ce qu’il a trouvé dans sa base d’apprentissage (qui comprend la quasi-totalité des textes disponibles sur internet, à l’exclusion des moins fiables).

Cet argument manque sa cible doublement. Sur le plan des faits : les réponses de ChatGPT ne reproduisent que rarement un texte disponible sur internet ; et il y a une raison pour cela, à savoir un mécanisme de « brouillage » qui l’en empêche. Il est d’ailleurs capable d’écrire un sonnet courtois dans le style de Tacite ou de Houellebecq, ce qu’on ne trouve probablement nulle part. Mais l’argument confond aussi la question du quoi et celle du comment : il faut d’abord se demander ce que fait ChatGPT avant de chercher à comprendre comment il le fait, surtout si on part d’une idée erronée. Or, ce que fait ChatGPT ne comporte pas que des hallucinations (ce qu’il ne produirait d’ailleurs pas s’il se contentait de copier des textes fiables), mais aussi, en quantité massive, des textes de qualité, en tout cas parfaitement acceptables.

Quant à la question du comment, elle appelle deux remarques. La première est que nous ne savons pas encore comment y répondre complètement. Il y a des principes généraux qui régissent le comportement de diverses sortes de réseaux de neurones, et qui garantissent, dans certaines conditions, leur capacité à repérer des corrélations extrêmement fines entre des éléments de la base d’apprentissage. Il y a également l’idée très profonde de transformer l’espace des significations linguistiques en un espace géométrique de très grande dimension. Il y a enfin la découverte de procédés informatiques permettant de prendre en compte les effets sémantiques à longue distance.

Bien entendu, ces quelques indications sont sommaires. Mais ne vous laissez surtout pas dire que vous ne pouvez tout comprendre parce que vous n’êtes pas spécialiste : le spécialiste lui-même ne comprend pas tout. Par-delà les ingrédients principaux de la solution, celle-ci a résulté de tâtonnements empiriques. La recherche d’une explication complète constitue un défi majeur et une occasion à ne pas manquer d’aborder à nouveaux frais la question des rapports entre langage et pensée, en faisant appel tant aux philosophes et aux spécialistes de sciences cognitives qu’aux informaticiens.

C’est que cette question renvoie à la capacité d’un être humain à émettre des propos cohérents et à entretenir une conversation sur une variété infinie de sujets. Il assemble et reconfigure ce qu’il a lu et entendu à leur propos, en complétant si nécessaire par ce qu’il peut imaginer ou inférer par analogie d’autres cas. Il n’a aucune expérience directe de la plupart d’entre eux, il ne connaît pas les individus concernés, et pourtant il « sait » de quoi et de qui il est question. Comment fait-il ? Que lui apporte ce savoir dont ChatGPT serait dépourvu ? Je ne prétends pas apporter de réponse à ces énigmes classiques. Cette deuxième remarque vise seulement à rappeler que lorsque nous nous référons à certaines capacités humaines dont nous avons l’intuition qu’elles sont hors de la portée des systèmes d’intelligence artificielle, et ultimement des ordinateurs – qui ne sont « que des machines » –, nous oublions opportunément que nous n’avons pas de ces capacités des idées claires et distinctes, que nous ne savons pas de quels mécanismes ou processus elles résultent.

Pour autant, mes propres intuitions ne me conduisent pas à déconstruire ou à dissoudre la différence entre les systèmes d’intelligence artificielle et les êtres humains. Je me range à cet égard à l’opinion commune. Ce que j’ai cherché à cerner[5], c’est ce qui sépare les premiers des seconds en matière d’intelligence. On ne peut se contenter de dire (comme le font non seulement la plupart des non-spécialistes, mais aussi certains spécialistes éminents) que les systèmes d’IA n’ont aucune intelligence, contrairement aux humains. Car nous devons pouvoir distinguer ces systèmes des pierres, des automobiles, des générateurs électriques, etc. ; également sans doute des humbles calculettes, tableurs du genre Excel et logiciels de traitement de texte. Où tracer la frontière entre logiciels « ordinaires » et systèmes d’intelligence artificielle est une question débattue, mais ce qui semble certain c’est que ChatGPT possède à un haut degré une propriété singulière, quelque chose comme un Ersatz d’intelligence, puisqu’il est capable, sans être équipé d’une intelligence humaine, d’accomplir des tâches qui nécessitent de la part d’un agent humain de l’intelligence.

Il manque à ChatGPT tout ce qui fait d’un organisme humain une personne, en particulier un Je dont témoigneraient une certaine cohérence et une certaine cohésion.

Cette caractérisation, loin d’être originale, est celle que défendent la plupart des auteurs, fondateurs de la discipline, chercheurs et philosophes. Elle ne me satisfait pas complètement (dira-t-on d’une pelle mécanique qu’elle a un Ersatz de force, qui ne fait que réaliser sans force ce que permet la force humaine ?). Mais acceptons-la et demandons-nous pourquoi, alors que le public et les commentateurs s’en sont contentés jusqu’à tout récemment, elle soulève dans le cas de ChatGPT et consorts[6] une réticence. Leur activité langagière semble si proche de l’humain qu’on hésite à leur dénier une quasi-humanité : il semble que quelqu’un et non quelque chose nous parle. Tel chercheur a même cru sentir une conscience en conversant avec LAMDA, un MML perfectionné fabriqué par Google (de l’avoir déclaré publiquement lui a coûté son poste)[7], et il n’est sûrement pas le seul. Une manière plus socialement acceptable d’exprimer le même malaise, ou la même excitation – c’est selon – est de voir dans ChatGPT une amorce d’intelligence générale, par quoi il faut entendre ici[8] une intelligence identique en tout point ou presque à l’intelligence humaine.

Ce qui différencie ChatGPT d’autres systèmes d’IA, c’est donc qu’il est un simulacre de personne.

Un simulacre seulement, demanderont certains[9] ? Oui, car il lui manque tout ce qui fait d’un organisme humain une personne, en particulier un Je dont témoigneraient une certaine cohérence et une certaine cohésion tant synchroniques que diachroniques : ChatGPT peut au même instant, et d’un instant à l’autre, avoir deux opinions contradictoires, et ses croyances et préférences – du moins ce qui en tient lieu – ne possèdent aucune unité. Dépourvu d’un Je, il est incapable d’un engagement authentique dans le présent et de projection dans le futur. Dépourvu, de surcroît, d’un corps qui soit le sien[10], l’engagement et la projection qu’il peut simuler ne sont que gestes creux : ChatGPT n’a aucun souci, aucun enjeu. Il résout les problèmes qui lui sont posés, au sens littéral du mot « problème », sans qu’aucun ne soit un problème pour lui, ce qui en l’absence d’un « lui » n’aurait aucun sens. L’être humain au contraire fait face à des situations concrètes, personnelles, et son intelligence consiste à adopter l’attitude qu’il juge la plus appropriée, ce qui souvent l’amène à rechercher la solution d’un problème qu’il aura su formuler, mais qui n’est qu’une modalité de cette intelligence.

Tout cela est bien trop vite dit, mais devra suffire ici et me permettra de proposer des réponses sommaires à deux questions en suspens. La première est de savoir si ChatGPT et l’IA générative constituent une révolution. Ce n’est pas une révolution scientifique ou technologique ; cette révolution a eu lieu en deux temps, dans les années 1980 lors de l’émergence du paradigme connexionniste[11], puis au début des années 2010 lorsqu’à la faveur de progrès techniques sa supériorité a été reconnue et le leadership lui a été concédé par la profession, mettant à sa disposition des moyens colossaux.

L’IA générative, apparue en 2017, s’inscrit dans la continuité de ce mouvement. En revanche, elle a d’ores et déjà bouleversé la perception de l’intelligence artificielle dans le public, dans les milieux politiques et professionnels et chez les intellectuels. Une prise de conscience très générale du potentiel et des dangers de l’IA s’est opérée en très peu de temps. Le potentiel, d’abord. Gagner une partie d’échecs ou de go, piloter un véhicule autonome, concevoir une stratégie commerciale, résoudre un problème scientifique tel que le repliement des protéines – que ces performances soient déjà atteintes ou qu’elles semblent sur le point de l’être – impressionne à juste titre certaines catégories de personnes, mais apparaît comme très éloigné de l’intelligence qui gît en chacun et lui confère son humanité. Parler, converser, en est au contraire la marque, immédiatement perceptible par n’importe qui. Et chacun entrevoit, avec plus ou moins de clarté, ce que peuvent faire des machines qui conversent, parlent, rédigent.

Les dangers qu’elles font courir ne sont pas moins visibles : elles peuvent donner naissance, en quantité illimitée et à très peu de frais, à des simulacres de personnes, qui non seulement peuvent nous induire en erreur de mille façons particulières, mais qui feront perdre à beaucoup d’entre nous leurs attaches sociales, leurs repères anthropologiques fondamentaux. Ce n’est pas un hasard si Daniel Dennett, de tous les principaux philosophes de ce temps celui qui a le plus tôt pris au sérieux l’intelligence artificielle et accompagné son développement, vient d’émettre un appel solennel à criminaliser la manufacture et la propagation de simulacres de personnes[12]. Rappelant que de tout temps les faux-monnayeurs ont été frappés des peines les plus sévères, allant parfois jusqu’à la mort, il voit dans le trafic de fausses personnes une menace plus grave encore que celui de fausse monnaie. À l’heure où se multiplient les chartes d’éthique de l’IA, qui sont surtout des catalogues de recommandations vertueuses, la proscription de ce trafic devrait être érigé en premier commandement.

NDLR : Daniel Andler vient de publier Intelligence artificielle, intelligence humaine : la double énigme aux éditions Gallimard.


[1] « Much ado about not very much » est le titre d’un article de Hilary Putnam de 1988 dans un numéro thématique de la revue Dædalus consacré à l’IA : « Pourquoi tant d’agitation maintenant ? Pourquoi un numéro entier de Dædalus ? ».

[2] Dont les membres les plus récents sont sensiblement supérieurs à ChatGPT, ce qui ne change pas sensiblement la perspective.

[3] Emily Bender et al., « On the Dangers of Stochastical Parrots : Can Language Models Be Too Big? », 2021.

[4] Le terme de l’art est « apprentissage » (ou parfois « entraînement », training en anglais). La technique de base des réseaux (elle est complétée par d’autres procédés) consiste à corriger légèrement la valeur de certains paramètres et en recommençant un grand nombre de fois, en sorte de se rapprocher graduellement de la bonne réponse, ce qui s’apparente à un dressage qui est une forme très particulière d’apprentissage.

[5] Daniel Andler, Intelligence artificielle, intelligence humaine: la double énigme, Gallimard, 2023, ci-dessous abrégé en Double énigme.

[6] Je me limite aux modèles massifs de langage en excluant donc les systèmes qui produisent des images fixes (tels DALL-E et Stable Diffusion) ou des vidéos (tel Synthesia) à partir d’une spécification en langage naturel, systèmes qui ne suscitent pas les mêmes réactions. La raison en est peut-être qu’ils font des choses dont aucun humain n’est capable sans de grands efforts et en passant par une longue suite d’étapes, alors que tout humain parle et converse couramment et généralement sans effort.

[7] Il s’agit de Blake Lemoine ; voir Double énigme, p. 163-164.

[8] Voir Double énigme, chap. 9. Selon un article particulièrement remarqué, devant les performances stupéfiantes de GPT-4 il est impossible de ne pas lui attribuer des « lueurs d’intelligence générale » : Sébastien Bubeck et al., « Sparks of Artificial General Intelligence: Early experiments with GPT-4 », 13 avril 2023.

[9] Cette amorce de discussion éveille certainement chez le lecteur un vieux souvenir, à savoir l’expérience de pensée (dite parfois, abusivement, comme le « test de Turing ») proposée par Alan Turing dans son célèbre article de 1950. Cela n’a rien de fortuit, mais la problématique n’est pas exactement la même.

[10] Brancher un robot sur un système d’IA ne suffirait pas à le doter d’un corps qui joue pour lui le rôle que notre corps joue pour nous ; voir Double Énigme, p. 184-5. Mais c’est là une autre question qui n’affecte pas le statut de ChatGPT tel qu’il est. Voir Double énigme, chap. 8.

[11] En réalité, le connexionnisme a des antécédents qui remontent à l’origine de l’IA, tout comme l’approche symbolique. V. Double énigme, chap. 4, section 4.4.

[12] Daniel C. Dennett, « The Problem With Counterfeit People », The Atlantic, 16 mai 2023.

Daniel Andler

Philosophe des sciences et mathématicien, Professeur émérite de Sorbonne Université, membre de l'Académie des sciences morales et politiques

Rayonnages

Société Sciences

Mots-clés

IA

L’Évasion

Par

Lorsqu’en septembre 2022 Vladimir Poutine décrète la mobilisation partielle, l’artiste Artiom Solntsev décide de quitter le pays au plus vite. Découvrant le chaos qui règne aux frontières, il se voit interdit... lire plus

Notes

[1] « Much ado about not very much » est le titre d’un article de Hilary Putnam de 1988 dans un numéro thématique de la revue Dædalus consacré à l’IA : « Pourquoi tant d’agitation maintenant ? Pourquoi un numéro entier de Dædalus ? ».

[2] Dont les membres les plus récents sont sensiblement supérieurs à ChatGPT, ce qui ne change pas sensiblement la perspective.

[3] Emily Bender et al., « On the Dangers of Stochastical Parrots : Can Language Models Be Too Big? », 2021.

[4] Le terme de l’art est « apprentissage » (ou parfois « entraînement », training en anglais). La technique de base des réseaux (elle est complétée par d’autres procédés) consiste à corriger légèrement la valeur de certains paramètres et en recommençant un grand nombre de fois, en sorte de se rapprocher graduellement de la bonne réponse, ce qui s’apparente à un dressage qui est une forme très particulière d’apprentissage.

[5] Daniel Andler, Intelligence artificielle, intelligence humaine: la double énigme, Gallimard, 2023, ci-dessous abrégé en Double énigme.

[6] Je me limite aux modèles massifs de langage en excluant donc les systèmes qui produisent des images fixes (tels DALL-E et Stable Diffusion) ou des vidéos (tel Synthesia) à partir d’une spécification en langage naturel, systèmes qui ne suscitent pas les mêmes réactions. La raison en est peut-être qu’ils font des choses dont aucun humain n’est capable sans de grands efforts et en passant par une longue suite d’étapes, alors que tout humain parle et converse couramment et généralement sans effort.

[7] Il s’agit de Blake Lemoine ; voir Double énigme, p. 163-164.

[8] Voir Double énigme, chap. 9. Selon un article particulièrement remarqué, devant les performances stupéfiantes de GPT-4 il est impossible de ne pas lui attribuer des « lueurs d’intelligence générale » : Sébastien Bubeck et al., « Sparks of Artificial General Intelligence: Early experiments with GPT-4 », 13 avril 2023.

[9] Cette amorce de discussion éveille certainement chez le lecteur un vieux souvenir, à savoir l’expérience de pensée (dite parfois, abusivement, comme le « test de Turing ») proposée par Alan Turing dans son célèbre article de 1950. Cela n’a rien de fortuit, mais la problématique n’est pas exactement la même.

[10] Brancher un robot sur un système d’IA ne suffirait pas à le doter d’un corps qui joue pour lui le rôle que notre corps joue pour nous ; voir Double Énigme, p. 184-5. Mais c’est là une autre question qui n’affecte pas le statut de ChatGPT tel qu’il est. Voir Double énigme, chap. 8.

[11] En réalité, le connexionnisme a des antécédents qui remontent à l’origine de l’IA, tout comme l’approche symbolique. V. Double énigme, chap. 4, section 4.4.

[12] Daniel C. Dennett, « The Problem With Counterfeit People », The Atlantic, 16 mai 2023.