La pensée à l’ère de sa reproductibilité technique
Si l’intelligence artificielle est revenue à la mode depuis quelques années déjà, elle semblait rester cantonnée à des tâches précises et à des champs d’application limités.
Sur la chaîne de production de l’intelligence, la machine était capable d’occuper un ou deux postes, mais la maîtrise du processus global lui restait inaccessible. Et cela était rassurant : il semblait loin le temps où les robots viendraient défier leurs concepteurs, et réaliser l’angoissante dystopie à l’origine de tant d’œuvres de science-fiction.
Qu’un algorithme puisse identifier le trajet le plus court entre travail et domicile est stupéfiant, pratique aussi, mais n’entame pas pour autant notre orgueil d’espèce intelligente, tant la performance semble limitée par rapport à l’étendue des capacités de notre cerveau. Cependant, l’intelligence artificielle semble s’être récemment émancipée de cette taylorisation avec l’arrivée des premiers outils dits de « large language model », capables de produire une proposition en réponse à toutes les questions que l’on pourrait lui poser. L’engouement pour cette intelligence artificielle multitâche accessible à tous depuis la fin de l’année 2022 marque sans surprise une rupture dans la perception de l’intelligence artificielle, comme en témoigne l’impressionnante quantité de commentaires, technophiles ou technophobes, qui ont émergé à ce sujet depuis.
Le monde académique semble particulièrement concerné par cette nouvelle technologie. Et tout d’abord dans l’une de ses pratiques rituelles : l’évaluation. Cette dernière a une fonction symbolique majeure, elle permet d’attester que les titulaires d’un diplôme maîtrisent un socle de connaissances et de compétences communes, et garantit ainsi la valeur et la réputation du certificat délivré, et par ricochet de la formation dispensée. La médiatisation des succès de ChatGPT à des examens aussi sélectifs que ceux qui sanctionnent les études de droit ou de médecine tient probablement autant de la fascination pour les performances de la machine que du vertige éprouvé par la remise en cause du rituel évaluatif.
Pire, les compétences de la machine ne se limitent pas à ces disciplines où la quantité de connaissances à acquérir est grande, mais permettent également de se débrouiller dans un exercice aussi complexe et raffiné que la dissertation, considérée comme l’acmé de l’évaluation des capacités de raisonnement et d’expression des étudiant·e·s. D’où l’angoisse du monde académique : si les élèves ont accès à ChatGPT, leur réussite aux épreuves, même les plus subtiles, est assurée. Dans ces conditions, quelle valeur attribuer au diplôme obtenu par le succès aux examens ou aux concours ?
À cela existe une réponse radicale, qui consiste à interdire tout simplement l’usage de ChatGPT dans les épreuves évaluatives, comme l’a annoncé Sciences Po Paris en janvier 2023. Notons à ce sujet l’argumentaire surprenant de la direction de l’école, mobilisant la lutte contre le plagiat, que le code de la propriété intellectuelle définit dans son article L335-3 comme « toute reproduction, représentation ou diffusion, par quelque moyen que ce soit, d’une œuvre de l’esprit en violation des droits de l’auteur, tels qu’ils sont définis et réglementés par la loi ». Interdire ChatGPT au nom de la lutte contre le plagiat, n’est-ce pas implicitement lui reconnaitre le statut d’auteur ? L’école semble effectivement s’inscrire dans cette logique, puisqu’elle exige que le recours à l’intelligence artificielle soit explicitement mentionné : comme tout auteur, le robot conversationnel doit être cité. Assimiler ainsi un algorithme dépourvu de créativité et d’affects à un auteur n’est possible qu’en en donnant une définition minimaliste, sur laquelle nous reviendrons plus loin.
De plus, ChatGPT peut être utilisé comme un relecteur, qui propose des améliorations syntaxiques ou stylistiques : en quoi ce type d’usage pose-t-il problème, et ce problème sera-t-il maîtrisé si l’étudiant·e· en mentionne l’usage ? Au-delà de ces interrogations, si l’interdiction est effectivement envisageable pour les examens et concours, demeurera le problème des travaux réalisés hors les murs. Le solutionnisme technologique[1] saura certainement tirer profit des problèmes qu’il a créés en mettant en œuvre des outils techniques pour détecter l’usage frauduleux de l’agent conversationnel… en attendant qu’une nouvelle version de celui-ci produise des contenus indétectables par le gendarme !
Si cette question de l’évaluation est mise au premier plan, il nous semble qu’elle en masque une autre bien plus sérieuse encore. Avec ChatGPT, la maîtrise de la langue savante est désormais à la portée de tou·te·s, et c’est un droit d’entrée symbolique dans le champ académique qui disparait brutalement. En référence aux concepts forgés par Pierre Bourdieu, les examens facultaires peuvent être décrits comme des épreuves de vérification de la conformité des étudiant·e·s à l’habitus du champ, lequel passe notamment par la maîtrise d’un ensemble de règles orthographiques, syntaxiques, stylistiques, etc. En effet, une discipline se définit non seulement par un corpus de connaissances, mais aussi par des pratiques, des usages, des règles de bienséance, qui participent à son autonomie. Intégrer un champ disciplinaire requiert de montrer patte blanche, et nécessite tout un apprentissage (plus ou moins ardu selon la discipline ou le milieu social d’origine) pour en devenir capable. Alors que se passe-t-il le jour où ChatGPT permet à n’importe quel quidam de s’exprimer dans la langue savante, avec élégance, en citant des références appropriées ?
Tout d’abord, les acteurs du champ académique perdent un outil précieux pour identifier au premier coup d’œil celles et ceux qui ne sont pas du sérail, et dont le propos pourrait être facilement délégitimé par ce fait. La production scientifique et critique populaire, qui ne serait plus filtrée par la conformité aux règles de bienséance académique, pourrait-elle alors redessiner les marges du champ académique et réduire l’étendue du monopole du discours savant ? On peut comprendre que cette perspective suscite quelques craintes, car rendre possible la manifestation de l’égalité des intelligences chère à Jacques Rancière[2] ne peut aller sans une redistribution du capital symbolique, et on connait l’amour des capitalistes pour le partage et la redistribution… Mais gageons que ce n’est pas là le principal problème car il existe des précédents : internet a démocratisé l’accès à des connaissances qui autrefois n’étaient accessibles qu’aux initié·e·s : cela a-t-il profondément remis en cause la hiérarchie des sachants ?
Ce n’est donc probablement pas la perspective de l’émergence d’une production populaire du savoir qui se trouve au cœur des inquiétudes. Car plus menaçante encore est la possibilité qu’une partie de la production des professions intellectuelles ne se retrouve nue comme un roi le jour où les attraits du beau style ne suffiront plus à l’habiller, ou, pour filer la métaphore, le jour où le prêt à porter stylistique de ChatGPT habillera tout le monde de la même manière. Combien d’éditoriaux, de discours, d’essais, d’articles contiennent si peu de pensée, de créativité et d’originalité, qu’il n’en resterait presque rien si on les dépouillait de leur seule qualité indiscutable, la maîtrise du style ?
C’est sans doute le sens de la critique lapidaire formulée par Sophie Binet, secrétaire générale de la Confédération générale du travail, après une allocution télévisée du président de la République Emmanuel Macron en pleine crise sociale sur la réforme des retraites, le 17 avril dernier : « Cette allocution aurait pu être faite par ChatGPT ». Autrement dit, la forme est correcte, mais manque l’essentiel, comprendre ici l’intelligence politique, qui pourrait conduire dans une démocratie à respecter la volonté du peuple.
Si le lecteur n’est pas encore convaincu, on ne peut que lui conseiller d’expérimenter lui-même le robot conversationnel, en lui demandant d’écrire à la manière d’un éditorialiste libéral qui officie sur France Inter tous les matins. Il est saisissant de voir combien la production de la machine approche de l’original… Et le problème est précisément là : l’original a-t-il une originalité, ou pour reprendre un concept de Walter Benjamin, une « aura » ? Dans son célèbre essai L’œuvre d’art à l’ère de sa reproductibilité technique[3], dont nous avons paraphrasé le titre, le philosophe montrait comment l’invention de la photographie, en permettant de reproduire mécaniquement les œuvres d’art, avait souligné en creux la valeur cultuelle de la peinture et son inscription dans le hic et nunc du moment de leur création. L’aura est précisément ce qui échappe a la reproduction technique des œuvres d’art : est-ce encore l’aura, cette propriété qui touche à la magie, la beauté, l’humour, et qui manque à la reproduction technique de la pensée humaine (que ce soit par un éditorialiste, un président de la République ou un robot conversationnel) ?
Dans son célèbre article publié en 1950 dans la revue Mind, Alan Turing proposait le jeu de l’imitation comme un test permettant de déterminer si une machine était capable de penser[4]. Le principe en est simple : si au cours d’une conversation un humain n’est pas capable de savoir si son interlocuteur·ice est un humain ou une machine, alors on peut considérer que la machine pense. Malgré ses prouesses, ChatGPT ne passe pas cette épreuve : étant dépourvu d’émotions, de désir ou d’incarnation, ses contributions deviennent de plus en plus stéréotypées et inappropriées à mesure que le sujet de la conversation devient moins technique.
Qu’est-ce que cet·te étudiant·e a produit que ChatGPT n’aurait pas su faire ?
Pour autant, ChatGPT pourrait permettre une autre manière d’utiliser le jeu de Turing, en renversant le jeu de l’imitation. La question devient alors : cette production humaine est-elle le fruit d’une pensée ? Si la machine produit un texte semblable à celui que vous venez d’écrire sur un sujet donné, alors la réponse est négative. Vous avez certainement bien ordonné des connaissances éparses et exprimé des idées complexes dans un style raffiné, mais vous n’avez rien créé. Ce renversement du jeu de l’imitation peut s’avérer contrariant voire cruel pour toute une série de productions intellectuelles, dont la légitimité serait radicalement remise en question.
Mais le renversement du jeu de l’imitation apporte aussi une réponse à l’angoissante question de l’évaluation des étudiant·e·s que nous évoquions au début de cet article. Au lieu d’évaluer la conformité aux attendus du champ académique, on évaluerait leur capacité à produire de la pensée-en-plus. Qu’est-ce que cet étudiant·e a produit que ChatGPT n’aurait pas su faire ? Ce qui résisterait au filtre du robot conversationnel serait le matériel à analyser pour évaluer leur créativité débarrassée des oripeaux des conventions de la discipline. Au lieu de capacités intellectuelles relevant des compétences d’une intelligence artificielle (l’exhaustivité et l’organisation des connaissances) ce sont désormais l’originalité et la créativité qui pourront être valorisées.
L’émoi suscité par l’arrivée d’intelligences artificielles généralistes est parfaitement compréhensible, étant données les conséquences potentielles de ces outils sur des éléments aussi importants que l’évaluation des étudiant·e·s, et la production intellectuelle elle-même. Plutôt que de mobiliser des concepts manifestement inadaptés comme le plagiat, on peut espérer que nous saurons utiliser ces nouveaux outils pour s’ouvrir à l’égalité des intelligences, en percevant comme une chance et non comme un risque les évolutions de la topographie du champ intellectuel qui pourraient en découler. Espérons que ce sera au profit des travaux les plus créatifs, dont l’originalité de la pensée est (encore ?) inaccessible à sa reproductibilité technique.