Numérique

ChatGPT et l’IA générative : beaucoup de bruit pour beaucoup de chose

Philosophe des sciences et mathématicien

Que s’est-il passé pour que nous en soyons arrivés à nous demander si l’IA n’est pas sur le point de provoquer un désastre mondial ? Que vaut ChatGPT en tant que tel, comment a-t-il été obtenu, comment expliquer ses étonnantes propriétés ? ChatGPT est-il une personne de synthèse, ou possède-t-il du moins certains traits de la personne humaine, notamment l’intelligence ? Comment est-il perçu par les différentes catégories d’utilisateurs, comment devrait-il l’être et partant, comment devrait-il être utilisé ? Est-il possible – et nécessaire – de formuler à son égard une norme éthique spécifique ?

Depuis que ChatGPT a éclaté, tel un coup de tonnerre, dans l’actualité, l’intelligence artificielle suscite une vraie tempête sous nos crânes – on y pense, on s’en alarme, on s’en émerveille, on s’en méfie, chacun y va de son avis, les experts offrent explications et prédictions, les faiseurs d’opinion proposent leurs synthèses, les instances professionnelles et politiques s’affolent…

publicité

Ce n’est pas le premier épisode de ce genre : il y a un demi-siècle, certains se demandaient comment les citoyens britanniques s’accommoderaient d’avoir un ordinateur pour premier ministre ; et de manière plus générale ce que deviendrait l’humanité lorsque les machines intelligentes verraient le jour, ce qui n’allait pas tarder au rythme où nous allions. Mais ils n’étaient pas très nombreux à s’émouvoir ainsi, et l’opinion publique se rallia bientôt au jugement des esprits rassis : beaucoup de bruit pour pas grand-chose[1].

Les esprits rassis ont aujourd’hui plus de mal à rétablir le calme. Beaucoup d’eau a coulé sous les ponts et les choses ont bougé, certes : la technologie a forcément progressé. Mais que s’est-il passé, plus précisément, pour que nous en soyons arrivés à nous demander si l’IA n’est pas sur le point de provoquer un désastre mondial, ou en tout cas une révolution d’une ampleur sans précédent ? Quelle découverte fondamentale a-t-on faite récemment ? Serait-ce la recette de l’intelligence artificielle, au sens littéral du terme : un système artificiel doué d’intelligence sans guillemets ?

En réalité, ChatGPT a été précédé il y a une dizaine d’années d’une première prise de conscience. Mais elle ne concernait que les gouvernements, les chefs d’entreprise, les responsables de domaines tels que la justice, les transports, la santé. Y a-t-il donc eu deux grands changements ? Ou bien un seul, et alors à quel moment se situerait-t-il ? Ou encore, aucun, et alors, pourquoi le présent brouhaha ?

Pour commencer à y voir plus clair, on peut distinguer trois grands types


[1] « Much ado about not very much » est le titre d’un article de Hilary Putnam de 1988 dans un numéro thématique de la revue Dædalus consacré à l’IA : « Pourquoi tant d’agitation maintenant ? Pourquoi un numéro entier de Dædalus ? ».

[2] Dont les membres les plus récents sont sensiblement supérieurs à ChatGPT, ce qui ne change pas sensiblement la perspective.

[3] Emily Bender et al., « On the Dangers of Stochastical Parrots : Can Language Models Be Too Big? », 2021.

[4] Le terme de l’art est « apprentissage » (ou parfois « entraînement », training en anglais). La technique de base des réseaux (elle est complétée par d’autres procédés) consiste à corriger légèrement la valeur de certains paramètres et en recommençant un grand nombre de fois, en sorte de se rapprocher graduellement de la bonne réponse, ce qui s’apparente à un dressage qui est une forme très particulière d’apprentissage.

[5] Daniel Andler, Intelligence artificielle, intelligence humaine: la double énigme, Gallimard, 2023, ci-dessous abrégé en Double énigme.

[6] Je me limite aux modèles massifs de langage en excluant donc les systèmes qui produisent des images fixes (tels DALL-E et Stable Diffusion) ou des vidéos (tel Synthesia) à partir d’une spécification en langage naturel, systèmes qui ne suscitent pas les mêmes réactions. La raison en est peut-être qu’ils font des choses dont aucun humain n’est capable sans de grands efforts et en passant par une longue suite d’étapes, alors que tout humain parle et converse couramment et généralement sans effort.

[7] Il s’agit de Blake Lemoine ; voir Double énigme, p. 163-164.

[8] Voir Double énigme, chap. 9. Selon un article particulièrement remarqué, devant les performances stupéfiantes de GPT-4 il est impossible de ne pas lui attribuer des « lueurs d’intelligence générale » : Sébastien Bubeck et al., « Sparks of Artificial General Intelligence: Early experiments with GPT-4 », 13 avril 2023.

[9] Cette amorce de discussion éveille certainement chez le lecteur un

Daniel Andler

Philosophe des sciences et mathématicien, Professeur émérite de Sorbonne Université, membre de l'Académie des sciences morales et politiques

Rayonnages

Société Sciences

Mots-clés

IA

Notes

[1] « Much ado about not very much » est le titre d’un article de Hilary Putnam de 1988 dans un numéro thématique de la revue Dædalus consacré à l’IA : « Pourquoi tant d’agitation maintenant ? Pourquoi un numéro entier de Dædalus ? ».

[2] Dont les membres les plus récents sont sensiblement supérieurs à ChatGPT, ce qui ne change pas sensiblement la perspective.

[3] Emily Bender et al., « On the Dangers of Stochastical Parrots : Can Language Models Be Too Big? », 2021.

[4] Le terme de l’art est « apprentissage » (ou parfois « entraînement », training en anglais). La technique de base des réseaux (elle est complétée par d’autres procédés) consiste à corriger légèrement la valeur de certains paramètres et en recommençant un grand nombre de fois, en sorte de se rapprocher graduellement de la bonne réponse, ce qui s’apparente à un dressage qui est une forme très particulière d’apprentissage.

[5] Daniel Andler, Intelligence artificielle, intelligence humaine: la double énigme, Gallimard, 2023, ci-dessous abrégé en Double énigme.

[6] Je me limite aux modèles massifs de langage en excluant donc les systèmes qui produisent des images fixes (tels DALL-E et Stable Diffusion) ou des vidéos (tel Synthesia) à partir d’une spécification en langage naturel, systèmes qui ne suscitent pas les mêmes réactions. La raison en est peut-être qu’ils font des choses dont aucun humain n’est capable sans de grands efforts et en passant par une longue suite d’étapes, alors que tout humain parle et converse couramment et généralement sans effort.

[7] Il s’agit de Blake Lemoine ; voir Double énigme, p. 163-164.

[8] Voir Double énigme, chap. 9. Selon un article particulièrement remarqué, devant les performances stupéfiantes de GPT-4 il est impossible de ne pas lui attribuer des « lueurs d’intelligence générale » : Sébastien Bubeck et al., « Sparks of Artificial General Intelligence: Early experiments with GPT-4 », 13 avril 2023.

[9] Cette amorce de discussion éveille certainement chez le lecteur un