Un Chat(GPT) dans le moteur, et réciproquement
OpenAI vient d’annoncer le lancement de son propre moteur de recherche, directement intégré à ChatGPT. Pour l’instant uniquement disponible aux abonnés payants, cette fonctionnalité, qui était aussi prévisible qu’attendue, relance l’une des toutes premières questions des grands biotopes numériques : celle du lien entre, d’une part, des bases de connaissances, encyclopédiques ou non, et, d’autre part, des ingénieries calculatoires de restitution, de réponse, et de ce qu’il peut advenir des relations complexes entre les deux.
L’arrivée de ChatGPT et des autres artefacts génératifs en 2022 est une révolution semblable à celle que fut l’arrivée de Google en 1998 et de Wikipédia en 2001. Pour ChatGPT comme pour Wikipédia et comme pour Google, on a d’abord annoncé la mort programmée des bibliothèques et de tous celles et ceux qui faisaient profession de médiation documentaire ou de transmission de connaissances, des bibliothécaires aux enseignants. Bien sûr, il n’en fut rien, même si la manière dont Google et Wikipédia impactèrent nos vies intimes et nos rapports à l’information et à la connaissance eut bien sûr un effet sur nos métiers. Mais, pour le reste, Google a trouvé sa place en bibliothèque et les bibliothèques ont – plus difficilement c’est vrai – trouvé leur place dans Google. Même chose pour Wikipédia, sachant que nombre de wikipédiens et wikipédiennes sont également enseignants ou bibliothécaires.
Les questions posées furent les mêmes qui se posent aujourd’hui avec l’arrivée de ChatGPT et des autres artefacts génératifs et tournèrent principalement autour : de la fiabilité (est-ce que ça ne raconte pas trop d’âneries ?), des usages et de la volumétrie de ces usages (qui va vraiment s’en servir et est-ce que ce n’est pas un problème que tout le monde puisse s’en servir ?) et de la perception que nous avons des contours de certains métiers (est-ce que cela va nous prendre – tout ou partie de – nos emplois ?).
Il est plus que probable que la réponse à ces trois questions, à l’échelle de ChatGPT, soit semblable à celle apportée pour Google et Wikipédia. « Oui », c’est (globalement) fiable, cela le devient en tout cas au fil du temps (même si cela repose sur des conceptions différentes de la fiabilité). « Oui », tout le monde va s’en servir et ce n’est pas un problème (même s’il demeure plein de problèmes à l’échelle de certains usages particuliers et circonscrits). Et « non », cela ne va pas nous piquer nos emplois, mais il est certains aspects de nos emplois que nous devrons envisager différemment.
Pourtant, Google (un acteur économique en situation de prédation attentionnelle) n’est pas Wikipédia (une fondation à but non lucratif rassemblant des millions de contributeurs et contributrices) et Google et Wikipédia ne sont pas ChatGPT.
Alors quel est le problème spécifique que pose chacune des révolutions annoncées et, avant cela, existe-t-il un plus petit dénominateur commun à ces révolutions ? Ce plus petit dénominateur, c’est celui du discours. Toutes ces révolutions, absolument toutes, Facebook, Twitter, Snapchat, TikTok et les médias sociaux en général, sont des révolutions du discours.
Quand nous parlons à ChatGPT, nous parlons à l’humanité toute entière, mais il n’est ni certain que nous ayons quelque chose d’intéressant à lui dire, ni même probable qu’elle nous écoute encore.
Pour trouver la première grande révolution discursive, il faut remonter au XIXe siècle avec l’invention du télégraphe qui vint abolir la distance entre deux locuteurs, mais qui, surtout, par-delà le fait de permettre aux informations de circuler « plus vite », leur permet définitivement de n’être plus jamais limitées par la capacité de déplacement de l’être humain. Et alors, en effet, tout changea, de l’intime de nos conversations à la géopolitique de certaines de nos décisions. Et nous entrâmes dans une ère de « l’instant », qui préfigurait celle du tout instantané.
Puis vint la deuxième grande révolution discursive, celle où « les » médias sociaux ont inventé des formes de discours où, pour la toute première fois à l’échelle de l’histoire de l’humanité, nous nous mîmes à parler, fort, haut et souvent, à des gens dont nous étions totalement incapables de déterminer s’ils étaient présents ou absents au moment de l’échange.
Et puis voici la troisième grande révolution discursive, celle de ChatGPT, celle d’un artefact génératif avec lequel nous « conversons », et ce faisant conversons tout à la fois avec les milliers de travailleurs pauvres qui « modèrent » les productions discursives de la bête, mais aussi avec l’ensemble des textes qui ont été produits aussi bien par des individus lambda dans des forums de discussion Reddit ou sur Wikipédia que par des poètes ou des grands auteurs des siècles passés et enfin avec tout un tas d’autres nous-mêmes et les archives de leurs conversations, qui sont aussi le corpus de ce tonneau des Danaïdes de nos discursivités. Quand nous parlons à ChatGPT, nous parlons à l’humanité toute entière, mais il n’est ni certain que nous ayons quelque chose d’intéressant à lui dire, ni même probable qu’elle nous écoute encore.
Revenons maintenant un peu au triptyque que forment les paradigmes de Google, puis de Wikipédia et enfin de ChatGPT et aux problèmes qu’ils soulèvent.
Le problème posé par Google est celui de la certification de l’attention à l’aune de métriques (algorithmes) de popularité que lui seul maîtrise et détermine et de la mainmise dont il dispose sur une bourse des mots (et donc des idées) sur laquelle, là encore, il est le seul à être en capacité d’organiser la spéculation (voir le « capitalisme linguistique » défini par Frédéric Kaplan).
Le problème posé par Wikipédia est celui des routines de certification de la production de connaissances, avec comme première clé celle de leur vérifiabilité, affirmée comme un critère de vérité (plus cela est vérifiable au travers de différentes sources et plus cela est donc « vrai » et tient une place légitime dans l’encyclopédie collaborative).
Quel est le principal problème posé par ChatGPT ? Ils sont en vérité multiples. Le premier d’entre eux est celui de la certification de la confiance conversationnelle : qui peut (et comment) garantir que les échanges avec ChatGPT sont soit vrais soit à tout le moins vérifiables ?
Le problème de ChatGPT est aussi qu’il se présente et est utilisé comme une encyclopédie, alors qu’il n’en partage aucune des conditions définitoires, et qu’il se prétend et est utilisé comme un moteur de recherche, alors que, là encore, c’est tout sauf son cœur de métier.
Le problème de ChatGPT, c’est également qu’il « interprète » (des connaissances et des informations) avant de nous avoir restitué clairement les sources lui permettant de le faire, à la différence d’un moteur de recherche qui restitue (des résultats) après avoir interprété (notre requête).
Le problème de ChatGPT, enfin, c’est qu’il assigne pêle-mêle des faits, des opinions, des informations et des connaissances à des stratégies conversationnelles, se présentant comme encyclopédiques alors même que le projet encyclopédique, de Diderot et d’Alembert jusqu’à Wikipédia, est précisément d’isoler, de hiérarchiser et d’exclure ce qui relève de l’opinion pour ne garder que ce qui relève d’un consensus définitoire de connaissances vérifiables.
L’autre point qu’il faut prendre en compte pour comprendre l’originalité des révolutions qu’ont amenées ces trois biotopes techniques dans notre rapport à l’information et aux connaissances, ce sont les relations qu’ils entretiennent entre eux. Je m’explique. Lorsque Wikipédia arrive, trois ans après Google, les deux vont entrer dans une relation trouble qui fait émerger un nouveau couple de puissances.
Sur la base initiale de l’application stricte de son algorithme de popularité, Google va rapidement tout faire pour phagocyter les contenus de Wikipédia en choisissant de les afficher quasi systématiquement en premier résultat de l’essentiel des questions que l’on lui pose, avant de s’apercevoir que, faisant cela, il perdait en capacité de fixer l’attention de ses utilisateurs (renvoyés à Wikipédia) et de changer de stratégie en affichant non plus simplement le lien vers l’encyclopédie mais une partie significative de son contenu afin de garder ses utilisateurs dans l’écosystème du moteur.
Il s’agissait de renforcer son propre système attentionnel tout en épuisant le modèle attentionnel concurrent, mais sans y aller en force brute car Google avait parfaitement conscience dès le départ de l’atout que représentait pour lui une telle encyclopédie qu’il pouvait « piller » comme bon lui semblait, mais dont il devenait aussi le premier garant de survie et de développement (y compris, d’ailleurs, en finançant la fondation Wikimédia) et sans laquelle il perdait aussi en confiance attentionnelle. Financeur, donc, mais aussi client ; prédateur, mais aussi garant… longue est l’histoire de l’encyclopédie et du moteur, entre résilience et résistance (titre d’un article déjà vieux de dix ans).
Il y eut donc la révolution Google, puis la révolution Wikipédia, puis la révolution du « Power Couple » Google et Wikipédia. Et avec désormais l’arrivée de ChatGPT, le Power Couple initial vire au triolisme. Car, naturellement, ChatGPT inaugure une relation trouble avec la fonction sociale d’un moteur de recherche (qui est de permettre de répondre à tout type de questions), autant qu’avec la nature profonde d’une encyclopédie (qui est de permettre de comprendre le monde).
Si Google apparaît comme une technologie qui est, au sens littéral, une technologie de concentration (par le monopole institué autant que par l’objectif attentionnel visé), il repose pour autant sur la capacité de la forme antagoniste à celle du bloc monopolistique qu’il incarne et instancie, c’est-à-dire le rhizome et la puissance de l’itinérance des liens qu’il parcourt pour les ramener au figé de sa page de résultats (landing page).
Wikipédia se plie à la même contradiction d’apparence : elle n’est riche que de la diversité des contributeurs et contributrices qui l’alimentent et discutent et modifient en permanence chaque contenu sur le fond comme sur la forme, mais elle n’est puissante que de la capacité qu’elle a d’exister comme entité détachable de tout lien marchand et de tout espace publicitarisable et à figer des dynamiques de construction de connaissances comme autant de révélations au sens photographique du terme.
Pour le résumer d’une formule, Google affiche des liens qui font connaissance, Wikipédia affiche des connaissances qui font lien. ChatGPT fait conversation autant que conservation de connaissances sans liens et de liens sans connaissances. Il est une éditorialisation ivre, en permanence déplacée, déséditorialisée et rééditorialisée comme Guattari et Deleuze parlaient de déterritorialisation et de reterritorialisation.
À ce titre, ChatGPT est un agent (conversationnel) de contamination. Il est bâti, comme le sont Google et Wikipédia, autour de la figure du palimpseste, c’est-à-dire de la réécriture permanente. Mais là où le palimpseste de Google se donne à lire dans les liens affichés sur sa page, là où le palimpseste de Wikipédia se donne à lire derrière l’historique de chaque page, celui de ChatGPT est essentiellement inauditable, intraçable, inaccessible, invérifiable, impossible ; il est l’aporie du palimpseste : pleinement évident et parfaitement intraçable. Telle est la force (et le problème majeur) de ChatGPT et des technologies associées : cette contamination inédite de l’ensemble des espaces d’un marché conversationnel, d’une agora politique et d’une université de tous les savoirs.
À ce jour, ChatGPT demeure la première interface conversationnelle capable de mobiliser à la fois la puissance encyclopédique de Wikipédia et la puissance attentionnelle de Google. Il le fait au prix (d’ailleurs, littéralement, de plus en plus élevé) de différents vertiges et autres hallucinations. Si, comme Balzac l’écrivait, « l’homme est un bouffon qui danse sur des précipices », alors ChatGPT est aujourd’hui sa slackline. Et si chacun peut temporairement s’émerveiller d’un moment suspendu ou d’une perspective nouvelle, nous ne sommes pas toutes et tous, loin s’en faut, préparés à l’exercice de ce funambulisme d’un nouveau genre, ni aux chutes qu’il augure.