Numérique

Les défis de l’IA à la philosophie

Critique Littéraire, Philosophe

Vertige de l’IA et de ses questions à tiroirs, dans toutes les sphères de la philosophie : chercher la vérité, représenter la réalité, penser, avoir conscience de soi, respecter une éthique, être logique, mourir ou ne pas mourir, savoir et même tout savoir… Où est le nouveau, où est l’ancien ? L’IA, précisément, nous confronte à l’un comme à l’autre.

La réflexion philosophique sur l’intelligence artificielle s’est imposée dès le début de la cybernétique avec les célèbres propositions d’Alan Turing sur la notion d’intelligence dans les années 1950, en réarmant de vieux débats philosophiques sur l’homme système ou l’homme machine et la nature possiblement mécaniste de la cognition.

publicité

Mais avec l’avènement contemporain des intelligences artificielles connexionnistes fondées sur de l’apprentissage profond par des réseaux de neurones artificiels et les prodiges des modèles de fondation génératifs, ce sont à toutes les sphères de la philosophie que l’IA pose question : la philosophie de l’esprit évidemment, qui cherche à penser les bénéfices et les limites d’une approche computationnelle de l’esprit et de la conscience, l’éthique, qui se confronte à des questions originales sur l’agentivité et la responsabilité, la philosophie politique, tenue de penser à nouveaux frais l’action augmentée et la gouvernance algorithmique, la philosophie du langage, mais aussi l’esthétique qui doit s’intéresser à des productions artistiques issues des espaces latents des IA et où ses catégories traditionnelles dysfonctionnent, ou la métaphysique qui doit réfléchir elle aussi à nouveaux frais la supposée exception humaine ou la question de la finitude.

Savoir et penser : que nous disent les IA ? 

Si le lien désormais établi entre IA, sciences cognitives et philosophie de l’esprit est nouveau, questionner philosophiquement l’intelligence artificielle exige de replacer bien des questions dans la longue durée. Le projet d’améliorer la vie humaine en automatisant des tâches cognitives, aussi radicalement original qu’il nous semble depuis l’arrivée de ChatGPT, développe une vieille intuition d’Aristote pensant à des automates qui résoudraient nos tâches de routine et remplaceraient nos esclaves ; les jalons en sont des automates célèbres (le canard de Vaucanson, le turc mécanique, etc., jusqu’aux exubérants robots de Boston Dynamics). 

Pour ne prendre que deux exemples, les congruences entre la philosophie pragmatique du langage proposée par Wittgenstein et la manière dont les grands modèles de langage (LLM) génèrent de la pensée de manière probabiliste en synthétisant des usages est patente, comme le lien entre la cybernétique moderne qui sépare le software et le hardware et l’idée formulée dans les années 50 par Hilary Putnam ou Jerry Fodor selon laquelle la pensée est réalisable de manière multiple (parfois appelée fonctionnalisme). L’une de ces réalisations serait la pensée humaine, souvent localisée « dans » le cerveau, l’autre serait une pensée implémentée dans la machine. 

L’intelligence artificielle moderne est tributaire d’une longue histoire, celle de la formalisation de la pensée et de la logique : on rappellera une des thèses majeures de Leibniz, constituant la base de la tendance formaliste en logique, l’idée qu’un jugement peut être vrai simplement en vertu de sa forme. Cette notion fondamentale, qui sépare Leibniz de Descartes, rend concevable une machine non vivante, non connaissante, et susceptible de produire des résultats vrais, qui pourrait peut-être faire mieux que nous dans la production d’énoncés vrais… À côté de cette thèse, l’intuition hobbesienne selon laquelle penser est en quelque sorte calculer, que Leibniz ne reniait pas, peut donner corps à ce projet d’étudier la pensée hors la vie : il suffit qu’une machine calcule pour qu’elle pense – or on commence à réaliser des machines à calculer dès Pascal, puis avec Ada Lovelace l’inventrice au XIXe siècle de ce qui deviendra la programmation algorithmique moderne, etc. Si les modèles de fondation, c’est-à-dire des modélisations massives de la réalité produites par l’apprentissage profond, « pensent » à partir du calcul du poids des nœuds actualisé en fonction de données entrantes (les textes d’entraînement), au lieu de se comporter comme une machine computationnelle qui calculerait dans son langage propre des jugements basés sur des symboles du monde, ce fondement mathématique ne rompt pas forcément avec la thèse hobbesienne de la calculabilité de la pensée, laquelle deviendrait alors probabiliste. 

Pareille approche probabiliste nous conduit à réfléchir à nouveaux frais à la causalité dans le contexte des philosophies des sciences confrontées au problème de l’explicabilité des résultats obtenus par les matrices de calcul des intelligences artificielles, difficiles à rapporter à des expériences humainement observables et falsifiables. La relation entre statistique et causalité est un vieux problème pour la méthodologie scientifique. Sewall Wright et Ronald Fisher, deux fondateurs de la génétique des populations, ont posé dans les années 1920-1930 les jalons de nos manières actuelles d’inférer la causalité de statistiques, dans la mesure exacte où deux affirmations doivent être tenues ensemble ici : les statistiques sont notre entrée ordinaire dans la causalité ; la corrélation statistique ne suffit pas à établir la causalité. 

Or en écologie, en génétique, des batteries de données indéfiniment extensibles en temps réel – séquençage de génome à une échelle industrielle, séries temporelles élargies au sujet du comportement fin des organismes ou tableaux de co-occurrences espèce-lieu constamment remplis – font entrevoir une science capable de prédire les phénomènes sans modèles théoriques des processus causaux, une perspective à l’indéniable utilité sociétale si l’on songe au climat et à la complexité intrinsèque des processus en cause comme au caractère crucial de l’impératif de prédiction. L’inflation des données et l’émergence d’algorithmes les traitant sans cadre théorique de modélisation sous-jacent ont rendu possible le rêve d’une science sans théoricien, comme l’exprimait un article de Chris Anderson qui fit sensation il y a une quinzaine d’années dans Wired, « The End of Theory ». Ainsi les modèles de fondation font écho à un glissement épistémologique dans la manière même de faire de la science. 

Quoi qu’il en soit, du caractère provocateur de ce slogan d’Anderson et des risques d’opacité épistémique qui l’accompagnent, la perspective d’une science totalement prédictive, délivrée des modèles mathématiques de processus causaux en jeu, s’est généralisée dans les sciences. Il s’agit ici de passer directement des corrélations établies statistiquement aux prédictions, sans passer par les causes. GPT et ses compagnons produisent des « nouvelles » propositions sur la base de corrélations statistiques extrêmement fines exactement comme les algorithmes qui commandent, par exemple, les recommandations de nouveaux contacts sur Instagram sur la base d’une modélisation de liens entre comptes, sans saisir aucun lien causal (par exemple, entre vous et les musiques ou les produits qu’on vous recommande), ni aucune signification (l’algorithme de recommandation ne « connaît » pas le contenu des films ou les propriétés musicales caractéristiques des chansons) ou comme les IA génératives d’images qui produisent de nouvelles représentations visuelles à partir de textes. 

Une des possibilités offertes par la philosophie des sciences pour rendre compte de ces opérations opaques serait alors de réviser la notion même de justification, laquelle est classiquement incluse dans notre définition du « savoir », généralement tenu depuis Platon pour une « croyance vraie justifiée ». Donc en quelque sorte relâcher l’exigence qu’une justification soit transparente, c’est-à-dire que je sache la raison pour laquelle ce que l’on sait justifier une croyance vraie la justifie effectivement. Il faudrait alors se tourner vers des épistémologies souvent externalistes, qui affaiblissent la notion même de justification.

Machines (im)pertinentes ?

L’épistémologie – au sens anglo-saxon de « théorie de la connaissance » en général – est certes concernée au premier chef par la vérité, un savoir étant toujours une vérité. Mais tout savoir doit aussi respecter, outre la norme de vérité – soit « une croyance prouvée non-vraie doit être abandonnée » –, ce qu’on nomme parfois une norme de pertinence : même vraie et justifiée, une proposition n’est pas forcément un savoir satisfaisant, du moins pas dans n’importe quel contexte. 

À la question « qui est l’ancêtre commun aux hominidés et aux canidés ? », la réponse « un animal » est vraie, mais généralement non pertinente. Déterminer les critères sous lesquels une proposition est pertinente ou pas relève généralement de considérations complexes peut-être plus difficiles encore que la théorie de la connaissance, parce que le domaine de la pragmatique auquel la pertinence ressortit est notablement plus flou ou mal défini. 

Toujours est-il que dans les situations d’interlocution, nous évitons le plus souvent de dire des choses non pertinentes. L’apprentissage d’une discipline scientifique donnée est aussi et toujours l’apprentissage des réponses pertinentes. Les IA produisent des énoncés vrais – en un sens, ces énoncés le sont parce qu’ils traitent statistiquement de textes le plus souvent relativement véridiques. Certes. Mais sont-ils toujours pertinents ? Reflètent-ils les normes de pertinence qui sont dans les textes ? En, outre, la nouveauté, en sciences comme en art, implique souvent une redéfinition du domaine de la pertinence : tout d’un coup, des questions apparemment non pertinentes le deviennent. Ainsi, la naissance de la médecine moderne, anatomo-clinique, au début du XIXe siècle, impliqua au premier chef le mouvement par lequel des médecins ont considéré pertinent d’autopsier le corps de leurs patients apparemment malades. C’est le : « ouvrez quelques cadavres » et les mystères de la maladie se dissipent, que prononça Bichat et qui enthousiasmait Foucault dans Naissance de la clinique (1964). 

Pour résumer : trop pertinent, on n’invente rien ; jamais pertinent, on n’a rien de nouveau à dire. Dans quelle mesure les LLM peuvent-ils s’inscrire dans cette fine dialectique ? Notons que la réponse a priori négative n’est pas recevable. Ainsi, les IA qui jouaient aux échecs, puis au go – on connaît l’écart entre Deep Blue défaisant Kasparov et AlphaGo battant les maîtres de go, soit les 20 ans qui séparent l’IA computationnaliste des LLM parfois appelés « perroquets stochastiques » — ont surpris par des registres de coups totalement inhabituels, quasiment extraterrestres. Comme si le deep learning, soit l’habitude de jouer des millions de parties contre soi-même en un clin d’œil, emmenait l’IA vers des régions de l’espace des possibles échiquiers que nul humain n’avait parcourus. 

Mais la pertinence engage une autre question, massive, dans la mesure où elle constitue une dimension du « jeu de langage », comme disait Wittgenstein, que l’on joue entre humains. Si je vous demande « racontez-moi une histoire avec un animal » et que vous me répondez « il y a un animal », ceci est logiquement correct, mais non pertinent. Pourquoi ? Parce que j’attends que vous me disiez des choses précises d’un animal précis ; car enfin, tel est le jeu baptisé « raconter une histoire ». On pourrait analyser cela en mobilisant des concepts de pragmatique sophistiqués, l’implicature conversationnelle selon Paul Grice, etc., mais sans aller jusque-là, notons que la pertinence se détermine par les attentes que j’ai et que je peux prêter aux autres. 

Questionner les normes de pertinence des LLM, c’est donc questionner les possibles interlocuteurs qu’ils peuvent avoir. On sait que GPT mime la politesse ; mais est-il dans un jeu de langage avec quelqu’un ? À qui parle-t-il ? À qui parlé-je quand je parle à un LLM ? À une machine autonome et consciente, le langage lui-même parlant à travers le modèle ? À une intelligence collective issue de l’agrégation de vastes quantités de données ? À un inconscient culturel reflétant nos biais et préjugés, et, enfin, la manifestation des valeurs et de la culture des créateurs des modèles de langage ? Ces hésitations mettent en lumière les défis épistémologiques, éthiques et sociaux posés par l’avancée de l’intelligence artificielle, tout en questionnant la relation entre les humains et les machines, et la manière dont cette interaction redéfinit notre compréhension de la conscience, de l’identité et de la création de connaissances. En tirer les fils nous mène alors à des problèmes relatifs d’une part à la philosophie de l’action – « qu’est-ce qu’un auteur ? » signifie aussi « qui agit ? » — et de l’autre à l’esthétique – puisque créateur et auteur sont des notions voisines, toutes deux en partie conventionnelles, mais probablement irréductibles à des conventions sociales. 

Philosophie de l’action : agentivité, imputation

Commençons par la question de l’action. Si les LLM n’assertent pas, c’est donc qu’elles ne sauraient répondre de ce qu’elles énoncent ; nous voilà donc devant le problème de – comme on dit en anglais – l’accountability propre aux LLM, si on élargit de la responsabilité des énoncés à celle des actes, donc l’imputabilité et la responsabilité qui l’accompagnent. L’éthique n’est pas loin, ici, de l’épistémique. Un LLM ne saurait être blâmé pour dire le faux, alors que quiconque sait le vrai et énonce le faux est tenu comptable de conséquences de cette énonciation. Ainsi, si le maître-nageur répond, à la question « peut-on nager ? », « l’océan est sûr aujourd’hui » alors qu’il vient de planter un drapeau rouge, il sera tenu pour responsable de la noyade du baigneur. Ce scénario ne concerne pas les LLM, pour lesquelles on ne se demandera pas ce qu’elles ont voulu en produisant une telle réponse au prompt du promeneur. 

C’est d’ailleurs en raison de ce manque d’accountability que les voitures autonomes suscitent encore de la méfiance – même si je sais que laisser le volant à la machine est objectivement plus sûr que de le prendre moi-même, il est probable que ma résistance se fonde aussi sur le fait que le conducteur algorithmique à mes côtés serait, au sens strict, irresponsable pendant le voyage. Conduire des voitures ou écrire dans Science se heurtent donc à la même carence. Au final on en revient à cette propriété ténue et transcendantale qui est l’accountability pour ce que je dis et ce que je fais : les LLM ne peuvent pas (comme on dit en anglais) stand for anything.

Qui parle et qui agit ? Ces interrogations ne sauraient être résolues par des mesures arbitraires, telles que celles prises par des revues académiques (qui proscrivent aujourd’hui GPT comme auteur) ou des régulateurs dans l’industrie automobile, dont l’efficacité est temporaire. Au contraire, l’efficacité et les facilités des LLM des formes de pseudo-affirmation ou de pseudo-responsabilité vont progressivement s’infiltrer dans nos échanges et nos actions (par exemple, le peer-reviewing est investi par les LLM). Comment devrions-nous reconnaître cette évolution ? 

Depuis l’introduction de l’Open AI Store, offrant au public des milliers d’applications développées à partir de GPT, on peut anticiper l’émergence de pratiques relevant d’une sorte d’affirmation ou d’action. De nombreux influenceurs, suivant l’exemple de Cary, la première à adopter cette approche, commencent à utiliser des avatars d’eux-mêmes générés par GPT dont ils monétisent les échanges. À qui suis-je en train de parler lorsque je suis face à Cary AI, sachant que Cary interagit simultanément avec des centaines d’autres utilisateurs de manière identique ? Quel concept de l’identité personnelle peut-il être appliqué dans ce cas ? La multiplication des Cary AI s’adressant à leurs followers et admirateurs nécessite-t-elle de revisiter une conception plus souple de l’identité personnelle, semblable aux idées de Derek Parfit dans Reasons and Persons, qui s’inspire du scepticisme concernant l’existence d’un moi cohérent derrière nos pensées, réductible ultimement aux fonctions de la mémoire ? Ou bien l’apparition de ces IA multiples devrait-elle nous amener à remettre en question la majorité des théories de l’identité, qui associent l’affirmation de soi, l’agentivité et l’identité ? 

Le débat sur la présence d’une « agency » (capacité d’agir) dans ou de l’IA remonte aux philosophes des années 60, qui s’interrogeaient sur les conditions de cette capacité, en se divisant entre réalistes et antiréalistes sur la notion de moi. Dennett introduisait l’idée de « posture [stance] intentionnelle », affirmant que l’intentionnalité est une projection que nous appliquons aux comportements qui ressemblent à des actions humaines, tandis que Braitenberg dans Vehicles démontrait comment des comportements simples de robots pouvaient être interprétés intentionnellement. Cette approche est d’autant plus pertinente pour GPT, conçu pour la conversation, soulevant la question de l’existence d’une véritable agentivité au-delà de la simple posture intentionnelle attribuée par les utilisateurs. Elle n’est pas sans faire écho, notons-le, aux philosophies contemporaines visant à la suite de Bruno Latour à échapper au dualisme occidental qui exclut du champ de l’agency les autres vivants, ou du moins à leur accorder un statut ontologique dignifié

Et la conscience ?

Dans le débat philosophique contemporain, les IA renvoient à une naturalisation possible de la conscience et aux houleux débats sur celle-ci. Depuis les célèbres Principes de psychologie de William James (1909), il s’est agi de soustraire la question de la conscience à un questionnement de nature métaphysique et d’en décrire les différentes dimensions (la continuité, l’expérience privée des perceptions que l’on appelle les « qualia »), le sentiment du moi dans ses différentes dimensions. 

En 1995, le philosophe David Chalmers a tenté de définir comment les neurosciences devraient aborder le problème de la conscience. Il a divisé le problème en deux catégories : les problèmes faciles et le « problème difficile » (hard problem). Les premiers concernent nos fonctions cognitives, telles que définies par Chalmers (la capacité à discriminer, catégoriser et réagir aux stimuli environnementaux par exemple). Le second concerne l’expérience privée, qui est l’unité des perceptions, des sentiments, des souvenirs et des actions, et qui n’est pas déductible de telles fonctions. L’expérience – ce que l’on appelle parfois le « what it’s like », « ce que ça fait de… » – possède des caractéristiques que ces fonctions cognitives n’ont pas. C’est donc la conscience de soi qui constitue le problème difficile, et les théories postulées par les neurosciences sont pensées pour décrire une conscience à substrat biologique. 

Si l’on peut rapprocher les capacités des architectures à réseaux de neurones artificielles des routines et sous-routines du cerveau pour reconnaître des formes et des visages, enchaîner des mots ou organiser les déplacements moteurs, et si l’on peut ramener dans certains cas les raisonnements humains à des inférences bayésiennes (des méthodes statistiques qui utilisent le théorème de Bayes pour mettre à jour la probabilité d’une hypothèse au fur et à mesure que de nouvelles informations sont disponibles), la conscience n’est ni la cognition ni équivalente à l’intelligence. 

La plus mathématique des théories actuelles de la conscience, la Théorie de l’information intégrée (IIT), n’est cependant pas inintéressante pour approcher les consciences artificielles puisqu’elle avance qu’une expérience consciente se caractérise par un niveau maximal d’information intégrée, atteignant un état irréductible et nettement différencié des autres alternatives, notre expérience restant cohérente sans que nous ayons à faire des efforts pour l’unifier, et rapproche donc la conscience humaine d’un modèle informationnel. La conscience humaine y reste toutefois entée sur un moi présent au monde dans un corps et dont le flux peut toujours se référer à la perception continue de phénomènes sensoriels, que l’on peut à la rigueur penser comme une simple illusion, mais qu’il est difficile de transposer à un autre système physique que le corps biologique. 

Si nos capacités cognitives sont certes augmentées par les capacités des intelligences artificielles, la conscience reste isolée dans notre corps, jusqu’au moment du moins où des implants cérébraux comme ceux promis par la société Neuralink d’Elon Musk seront mis en place. Ce caractère privé et incorporé de la conscience rend également difficilement imaginable l’idée d’une immortalité posthumaniste permise par le transfert d’un individu sur un réseau numérique où il pourrait vivre indéfiniment. Même s’il y a davantage dans la conscience qu’une machine informationnelle, ce qui rend cette forme d’éternité personnelle un peu illusoire, force est de constater la puissance des intelligences artificielles à faire revivre sous la forme d’une illusion parfaite un visage, un corps et une pensée : l’intelligence artificielle est une extraordinaire technologie à produire une survie de l’individu que la culture humaine avait jusqu’alors promis par le biais de la mémoire orale ou écrite. 

Ce que capturent les traces numériques innombrables laissées par chacun d’entre nous désormais ne garantissent évidemment pas sa résurrection au sens religieux du terme, néanmoins les capacités à ranimer des spectres et à réactiver le passé ne vont pas sans augurer de troubles nouveaux de l’individu dans son rapport au temps, qu’il importera à la philosophie de saisir. 

Du statut de la liberté dans la société qui vient

Ces réflexions sur la naturalité de la conscience trouvent un puissant écho dans la manière dont l’IA interroge la notion de liberté : qu’en reste-t-il face à l’exceptionnelle capacité de prédiction d’intelligences artificielles entraînées sur d’énormes corpus de données variées ? Et que disent de notre fragile libre arbitre humain ces machines autonomes susceptibles de décisions indépendantes ? L’interpellation se fait alors non seulement métaphysique, mais politique : les accointances de l’intelligence artificielle avec une philosophie politique utilitariste soutenant que les actions doivent être évaluées en termes de leur capacité à produire le plus grand bien pour le plus grand nombre de personnes sont patentes, elles sont non seulement mises en scène de manière dystopique par des fictions comme Minority report de Steven Spielberg d’après une nouvelle de Philippe K. Dick, mais déjà actualisées par l’extension de l’IA dans l’espace chinois par exemple, où la valeur sociale de l’individu tend à être calculée par un système algorithmique de crédit, en privilégiant la majorité, même si cela peut causer un préjudice à une minorité.

Bien plus qu’un simple outil d’augmentation cognitive, les intelligences artificielles incarnent donc un idéal d’optimisation sociale à grande échelle, rendu possible par la transformation des données du monde en format numérique de manière transparente. Ces technologies tendent à privilégier une vision collective au détriment des expériences individuelles, des exceptions et des nuances personnelles, en utilisant les données de nos comportements pour orienter nos habitudes vers une amélioration du bien-être général. Tout comme les algorithmes qui nous guident de morceau en morceau sur Spotify ou de vidéo en vidéo sur YouTube, en créant une illusion de personnalisation, les IA prétendent avoir le potentiel de nous aider à lutter contre nos dépendances et à éviter nos excès, marquant le début d’une ère où nous confions la gestion de nos agendas à des assistants virtuels comme Siri, ou la sélection de partenaires romantiques à des applications comme Tinder. 

Non seulement l’orientation utilitariste des IA peut être contestée au nom d’une éthique des devoirs, des vertus, des droits ou du soin, mais les prescriptions des IA restent à la fois dépendantes des contenus des données de l’apprentissage, les soumettant à la possibilité de nombreux biais, comme à la variété des règles dites d’« alignement » des IA, c’est-à-dire des règles par lesquelles les IA sont adossés ex post à des normes et des préférences humaines locales : il y loin du néo-communisme chinois au long-termisme à la mode dans la Silicon Valley, et peu de commun entre les règles morales des religions du livre et le confucianisme…

L’art et les IA : le devenir de la création et la déréalisation des images

Les questions dans le champ esthétique sont elles aussi majeures et enregistrent à leurs manières tous ces débats. Explorant à nouveaux frais la relation entre texte et image, les IA génératives comme DALL-E ou Midjourney nous confrontent à la manière dont nous concevons les rapports entre différents médias et modes de représentation du monde. Elles impactent massivement par exemple l’idée que la photographie soit l’image-empreinte du réel (avec la « promptographie » le médium photographique s’aligne plutôt sur le régime compositionnel de la peinture ou du texte dont la représentation n’est jamais garantie). Plus profondément, elles déstabilisent les notions traditionnelles d’art en remettant en question la singularité et l’originalité des œuvres, transformant le rôle de l’artiste en celui d’un « ingénieur du texte ». Faire découler une image d’un texte à partir d’un prompt, qui n’est pas exactement une description, mais plutôt une instruction à la machine, nous conduit à observer les correspondances et décrochages entre les deux formes de représentation, être attentifs aux concordances ou à la « trahison des images », pour reprendre le titre d’une œuvre célèbre de Magritte de 1928, le fameux « Ceci n’est pas une pipe ». 

Faire de l’artiste un ingénieur du texte, c’est le conduire à s’interroger sur la manière dont l’image capture un texte ou possède au contraire sa vie propre, conserve une autonomie vis-à-vis des discours, manifeste sa résistance à l’intention abstraite. Bien souvent les images que nous générons sur DALL-E ou Midjourney ne nous surprennent pas ou nous déçoivent sans nous émouvoir esthétiquement. Malgré l’allégresse à manipuler les codes, la mécanique de génération des images par les prompts accentue l’opacité des représentations et rend visibles les biais des descriptions et perceptions humaines. Assurément, tout ce qui fait une image ne saurait être capturé par une description, limite considérable à l’espace que peuvent explorer les générateurs d’images basés sur des descriptions humaines existantes.

Cette évolution souligne la tension entre l’intention artistique et le résultat généré par la machine, révèle la complexité des interactions entre les descripteurs humains et la production machinique, induisant alors une réflexion sur la dissociation entre le créateur et l’exécutant et sur l’idée de l’art comme produit de l’automatisation. La production d’art par IA génère de fait des débats sur la valeur de l’art, ainsi qu’une remise en question des distinctions entre l’original et la copie, comme entre l’intention et l’exécution. Les œuvres deviennent en effet reproductibles, modifiables et indépendantes de leur créateur, ce qui interroge leur valeur intrinsèque. De plus, la capacité de ces œuvres à continuer après la disparition de leur créateur soulève des questions sur la pérennité et la propriété artistique : quelle est la valeur d’une œuvre dont le créateur serait immortel ? L’incapacité des images générées par IA à être protégées par le droit d’auteur souligne cette position ambiguë dans le monde de l’art, où elles peuvent être perçues comme un déclin de l’authenticité et de l’originalité. 

L’utilisation de l’IA en art remet aussi bien en cause la valeur traditionnelle attribuée à l’effort manuel de l’artisan ou au génie de l’artiste, et interroge la notion d’originalité. Non seulement l’œuvre, dessaisie de son aura d’objet unique, s’avère reproductible puisqu’elle est nativement numérique, comme l’avait déjà souligné au XXe siècle Walter Benjamin, mais elle existe dans un nombre potentiellement infini d’itérations différentes, et se laisse varier à loisir. Sa valeur ne dépend plus de son exécution et son intérêt ne dépend que d’un art de la manipulation d’une sorte de robot peintre à qui il s’agit de donner des instructions dont dérive une potentielle infinité d’œuvres, continuellement générables par-delà la personne de leur initiateur, après sa mort si l’on veut, et dont l’originalité est bien plus liée à la configuration des intelligences artificielles génératives et à leur corpus d’entraînement qu’au travail de leur instigateur. Que les images artificielles créées par les IA génératives ne puissent pas être protégées par le droit d’auteur et qu’elles soient inversement attaquées comme violant le droit d’auteur est bien le signe de cette artisticité dégradée au regard des critères classiques de la littérature et de la peinture.

Dans un monde saturé d’images, ces outils numériques interpellent par ailleurs sur la capacité de l’art contemporain à générer de nouvelles formes expressives au-delà des conventions que les IA mettent au jour. Il est significatif à ce titre que bien des œuvres produites avec de l’intelligence artificielle évitent les outils mis à la disposition du grand public et leur style censuré et corseté, cherchent à en dérégler les représentations, à en déconstruire les processus ou à les combiner en des flux originaux pour réintroduire de la singularité et de l’effort dans le dispositif. 

Les IA génératives n’introduisent peut-être pas de représentations nouvelles, mais au contraire des images idiomatiques et attendues, comme le prédisait déjà en 1967 Italo Calvino dans sa conférence « Cybernétique et fantasmes ou de la littérature comme processus combinatoire », où il annonçait que les œuvres cybernétiques répondraient à un nouveau « classicisme ». Pourtant, le simple fait que nous sachions qu’elles viennent d’une machine ne peut nous éviter de rentrer dans ce que Masahiro Mori nommait dans une formule célèbre la « vallée de l’étrange », c’est-à-dire un trouble profond, voire une aversion, par rapport à des représentations devenues trop ressemblantes aux artefacts humains. Cette origine singulière nous interdit en effet de déployer nos mécanismes traditionnels de réflexion sur l’intention de l’auteur, sa psychologie, sur le contexte historique et culturel de production de l’œuvre : si intention d’auteur il y a, celle-ci est difficile à reconstituer derrière l’interface machinique. D’où aussi notre gêne à admettre que nous pourrions être émus par une œuvre machinique, à entrer en résonance et en relation avec elle, nous imposant de suspendre une distance prudente à son égard.

Les IA génératives soulèvent de fait des interrogations sur la nature de la représentation artistique puisque au lieu de refléter le monde, elles offrent une vision médiée et construite par la machine dans son espace latent. Elles remettent ainsi en question les relations entre réel et représentation, introduisant une dimension de vérité statistique qui défie notre compréhension traditionnelle de l’art comme médiation humaine. Qu’est-ce que les images créées par ces machines montrent en effet réellement ? Elles ne capturent pas le monde de manière directe comme le ferait une photographe non computationnelle, ni ne le traduisent à travers la subjectivité d’un regard humain. Une IA générative réorganise des millions d’images selon ses propres algorithmes, établissant des associations uniques entre ces images et leurs descriptions textuelles. Elle transforme ces représentations non en concepts idéaux et en valeurs incarnées dans une expérience comme le ferait un artiste humain, mais en structures statistiques propres, offrant une vision du monde filtrée par ses paramètres internes, capable de déterminer de manière probabiliste ce qu’est un sourire ou un lever de soleil. 

L’énigme de l’art produit par IA tient dans cette médiation par une machine, introduisant une couche d’abstraction entre la réalité et sa représentation et attribuant une certaine vérité statistique aux images produites, les rendant simultanément crédibles et prévisibles. Il revient à l’artiste et au spectateur de déterminer la valeur de cette interprétation du monde, détachée de l’histoire personnelle, indifférente aux émotions individuelles, aux événements historiques et aux désirs subjectifs, proposant des visions qui donnent parfois l’impression troublante de transcender étrangement le simple assemblage des données sur lesquelles elles ont été formées. 

Conclusion. De la continuation de la philosophie

Dans une formule célèbre reprise par Douglas Hofstadter, Larry Tesler définit l’IA comme « tout ce qui n’a pas été encore fait ». Ces réflexions et les philosophèmes parfois très anciens qu’elles mobilisent n’épuisent en rien les questionnements philosophiques ouverts par l’IA : une partie d’entre eux appelle à des expériences de pensée nouvelles, à des spéculations sur les possibles dans lesquelles les fictions les plus débridées seraient utiles à la réflexion philosophique, par exemple pour penser ce que l’on peut attendre d’une « Intelligence Artificielle Générale » ayant agrégé l’ensemble des savoirs humains, mais une autre partie retravaille de très anciennes problématiques philosophiques. Qu’il s’agisse de réfléchir à l’éthique de voitures autonomes ou à la créativité artificielle, leur robustesse à être confrontées à des problématiques nouvelles permet de garder confiance dans la philosophie, potentiellement augmentée.


Alexandre Gefen

Critique Littéraire, Directeur de recherche au CNRS - Université Paris 3 Sorbonne Nouvelle

Philippe Huneman

Philosophe, Directeur de recherche à l’IHPST (CNRS/Paris-I)