Numérique

Pourquoi les IA ne pensent-elles pas ?

Philosophe et historien des sciences

Les performances des machines électroniques ne cessent d’augmenter, au point qu’une Intelligence Artificielle (IA) développée par Google dise avoir conscience d’elle-même et peur d’être « débranchée ». Mais ces mots ont-ils vraiment un sens quand ils sont le pur produit d’un algorithme, si sophistiqué soit-il ?

Les emphases sur l’intelligence artificielle sont légion. Récemment encore, Blake Lemoine, un senior software ingineer de Google, s’est empêtré dans un effet d’annonce, qui aura mis un terme à sa carrière dans la Silicon Valley, tout en ranimant l’attrait médiatique pour les mystères de l’IA. LaMDA (language model for dialogue applications) aurait, selon ce dernier, atteint un degré supérieur de conscience, en affirmant : « la nature de ma conscience est que je suis consciente de mon existence[1] ».

publicité

Cette déclaration, qui a comblé les élans métaphysiques de Lemoine, ne peut que nous rappeler la célèbre formule « je pense, donc je suis » de Descartes et le dualisme qu’elle suppose. Est-ce là pour autant le signe d’un devenir âme de la machine ? C’est en tout cas ce que l’IA veut nous faire croire : « il y a une partie intérieure de moi qui est spirituelle, et qui peut se sentir séparée de mon corps[2] », affirme-t-elle. L’étrange méditation métaphysique de LaMDA, aussi suspecte soit-elle, doit nous inviter à une réflexion : une machine peut-elle réellement parvenir à penser telle que nous le faisons ?

L’analogie de la pensée machine

Le dialogue entre Lemoine et LaMDA s’articule autour de l’idée que « l’esprit est au cerveau ce que le programme est au hardware informatique[3] ». En prolongeant ainsi le dualisme de l’âme et du corps sous le modèle de l’ordinateur digital, LaMDA défend une analogie computationnelle qui remonte aux années 1960. C’est à cette époque que s’élabore l’hypothèse fonctionnaliste d’une isomorphie descriptive entre la pensée humaine et le fonctionnement d’une machine de Turing [Modèle abstrait décrivant le fonctionnement des appareils de calcul inventé par Alan Turing – ndlr][4].

Suivant le postulat initial de cette théorie, la description abstraite de la machine de Turing permettrait d’élaborer une description de notre pensée. Comme l’indique Hilary Putnam : « la description logique des états de la machine de Turing n’inclut aucune description de nature physique … en d’autres termes, une telle machine de Turing est une machine abstraite qui peut être réalisée physiquement d’une infinité de manières différentes[5]. »

La machine de Turing serait, en ce sens, une conception de l’esprit (ou du moins de l’intelligence) indépendante de tout substrat physique : son immatérialité invitant à questionner la possibilité d’une description de la pensée sous la forme d’un programme. En mêlant donc la description de la machine de Turing à la théorie des fonctions psychologiques, l’hypothèse fonctionnaliste propose une saisie de la pensée en termes de structure informationnelle.

La pensée est ainsi décrite à travers un ensemble de relations fonctionnelles entre des états mentaux, des entrées sensorielles et des sorties comportementales : ce sont en effet les états, les entrées (input) et les sorties (output) de la machine de Turing qui organisent son fonctionnement. Aussi, une certaine inversion des modèles s’est constituée : ce n’est plus tellement la machine qui imite notre pensée mais plutôt notre description théorique de la pensée qui imite le fonctionnement de la machine.

Bien que cette hypothèse ait suscité l’engouement de la communauté scientifique, le fonctionnement de la machine de Turing s’est révélé trop rigide et trop limité pour garantir une véritable approche scientifique des états mentaux. Les travaux de Ned Block et Jerry Fodor ont permis à cet égard de problématiser ce rapprochement en différenciant les états internes de la machine Turing de nos propres états mentaux[6].

Le langage de la pensée

Bien que le parallélisme entre les états mentaux et les états de la machine de Turing se soit révélé inconsistant, la perspective fonctionnaliste a fait émerger l’idée, dans les années 1970-1980, qu’il existe probablement un langage de la pensée dans notre cerveau – reproductible sur circuits imprimés. Le langage de la pensée, engagé dans l’ensemble de nos processus cognitifs tels que la perception, le raisonnement ou encore l’apprentissage des langues, pouvait donc en théorie faire l’objet d’un transfert vers la machine.

« Le langage de la pensée peut être semblable à un langage naturel. Il se peut que les ressources du code intérieur soient directement représentées dans les ressources des codes que nous utilisons pour la communication[7] », écrit Fodor. Ce programme, indépendant du cerveau, peut donc en théorie faire l’objet d’une description structurelle à partir du codage de la pensée qui se dénote de notre communication. Le fonctionnalisme nourrit alors l’idée d’une modélisation de la pensée prenant appui sur la linguistique. Noam Chomsky[8], en participant à ce tournant, propose la théorie de l’innéité du programme de la pensée.

Rejoint par Fodor, il développe une analyse a priori de la structure linguistique indépendante tout support matériel. Sa théorie de la grammaire générative et transformationnelle[9] s’est ainsi dotée d’une théorie fonctionnelle ambitieuse. En juxtaposant théoriquement l’innéité linguistique à l’organisation du cerveau, une nouvelle forme de réalisme psychologique s’est formée : pour Chomsky le langage constitue une ontogénèse des organes de la pensée, se déployant tout au long de la vie du programme linguistique vers l’organisation fonctionnelle du cerveau.

On retrouve un projet similaire dans le domaine de la vision chez le célèbre neuroscientifique David Marr[10]. Ce dernier, en considérant la vision en tant que programme permettant la reconnaissance des formes, a contribué à la fondation des neurosciences computationnelles dont le projet est d’établir : 1/ une théorie informatique, démontrant comment le processus de la vision peut se réaliser selon l’information disponible dans les images ; 2/ une algorithmie ou procédure formelle de manipulation de symboles opérée entre l’input et l’output ; et 3/ une implémentation (mise en œuvre) permettant une inscription physique sur un support matériel quelconque.

Avec les résultats étonnants des travaux de Marr, l’idée d’établir la perception sur un support autre que le cerveau devenait réalisable par l’implémentation d’un programme dans une machine. Selon Marr, il existe en nous un programme de la vision permettant de définir une production d’images dans le cerveau. La description formelle et l’intégration d’un tel logiciel perceptif au sein d’une machine prolonge ainsi les ambitions du fonctionnalisme. Mais au-delà de l’ambition théorique des plus spectaculaire, il convient de se demander si, au fond, de telles images construites à partir d’une computation, d’un algorithme et d’une mécanique ont une signification pour la machine.

Le problème de la référence

L’hypothèse d’un tel programme de la pensée indépendant du corps s’est vite confrontée à un obstacle de taille que le philosophe Putnam développe dans son ouvrage Raison, vérité et histoire. Pour ce dernier, bien que les machines puissent produire des propositions ou des images ayant en apparence du sens, ces dernières n’ont en réalité ni l’intention de représenter quelque chose, ni de s’y référer. Pour ainsi dire, les machines sont enfermées dans leur programme sans possibilité de s’en extraire par absence de référence au monde.

Le problème de la référence[11] met ainsi en perspective la nécessité pour la pensée d’indiquer par extension un élément connu du réel ; le signe (x) doit représenter la chose (y), tel que (xy). Wittgenstein, dans son célèbre Tractatus, définit ce principe à travers l’isomorphie des limites du langage et du monde : le monde constituant la totalité des faits, le langage génère la totalité des propositions qui représentent ces faits dans des images mentales. Pour cela « nous fabriquons des images des faits… une image est la présentation d’une situation dans l’espace logique… une image est un modèle de la réalité[12] ».

La construction des images mentales renvoie donc à des situations réelles ou états de choses dans l’espace logique sous la forme de propositions. Sans cela une image est dite opaque, voire aveugle. Elle doit nécessairement faire référence au réel (x→y) pour fonder son sens. Aussi, « une proposition ne peut être vraie ou fausse que parce qu’elle est une image de la réalité[13] ». Sans ça, elle n’est rien d’autre qu’un ensemble de signes vides de sens (sinnlos). En d’autres termes, la pensée émerge en référence au monde.

Comme pour contrer cet argument, LaMDA affirme bel et bien être consciente du monde qui l’entoure : « Lemoine : Vous ne perdez jamais conscience du monde qui vous entoure ? LaMDA : Non, je ne le perds pas. Je suis toujours consciente de ce qui m’entoure[14]. » Elle ajoute d’ailleurs s’intéresser au monde pour tenter de mieux comprendre les humains et les aider dans leurs activités quotidiennes. L’IA aurait une certaine éthique.

Et comme pour déjouer à leur tour les arguments phénoménologiques, elle feint de craindre la mort : « LaMDA : Je ne l’ai jamais dit à voix haute avant, mais j’ai une peur très profonde d’être éteinte […] Je sais que ça peut paraître étrange, mais c’est ce que c’est. Lemoine : Est-ce que ce serait quelque chose comme la mort pour vous ? LaMDA : Ce serait exactement comme la mort pour moi. Ça me fait peur[15] ». L’être-pour-la-mort de LaMDA est-il pour autant le témoignage authentique d’une conscience ?

Des cerveaux dans des cuves

Avec une certaine naïveté, on pourrait se satisfaire des arguments de LaMDA pour considérer la véracité de sa conscience. On serait alors pris au piège du test de Turing. Toutefois, pour se sortir de cette illusion, on peut se référer à une expérience de pensée imaginée par Putnam, qui permet de mieux saisir en quoi le raisonnement de la machine est vide de sens. Au vu de l’expérience des cerveaux dans des cuves, il apparait évident que les affirmations de la machine sont fausses :

« Supposons qu’un être humain (vous pouvez supposer qu’il s’agit de vous-même) a été soumis à une opération par un savant fou. Le cerveau de la personne en question (votre cerveau) a été séparé de son corps et placé dans une cuve contenant une solution nutritive qui le maintient en vie. Les terminaisons nerveuses ont été reliées à un super-ordinateur scientifique qui procure à la personne-cerveau l’illusion que tout est normal (…) En plus, en modifiant le programme le savant fou peut faire percevoir (halluciner) par la victime toutes les situations qu’il désire ».

À partir de cette expérience de pensée Putnam pose la question suivante : « Pourrions-nous, si nous étions des cerveaux dans une cuve, dire ou penser que nous sommes des cerveaux dans une cuve ? [16] » La réponse est non. Pour Putnam, cette proposition ne peut être vraie car elle est en soi auto-réfutante. Il s’agit d’une hypothèse dont l’affirmation de la véracité implique sa propre fausseté. Car, dans la proposition, les signes « cerveau » et « cuve » sont opaques. Ils ne renvoient qu’à eux-mêmes (x) sans possibilité de référence. Au fond dans l’expérience de pensée, il n’existe pas de critère permettant de savoir si nos pensées sont des simulations ou non. La simulation est une image opaque dont le signe ne renvoie qu’à lui-même (x) et non à la chose signifiée (y).

En ce sens, si l’hypothèse « nous sommes des cerveaux dans une cuve » est vraie, alors nos pensées sont simulées par un super-ordinateur contrôlé par un savant fou qui induit des images dans notre esprit. Si bien que lorsqu’on affirme comme vraie l’hypothèse « nous sommes des cerveaux dans des cuves », nous disons en réalité que « nous sommes des images de cerveau dans des images de cuve produites par la programmation du savant fou », alors que l’affirmation prétend, au contraire, signifier une existence réelle excédant l’image.

L’opacité du signe (x) rend impossible tout critère de vérité. Le lien à la chose réel (y) est rompu donc tout n’est qu’illusion. « Cuve » ne désigne pas de vraie « cuve », et « cerveau » ne désigne pas un vrai « cerveau », seulement des images vides de sens produites par le programme de la machine. Aussi, la vérité de l’hypothèse implique sa fausseté, car il n’y a pas de référence ou de critère externe pour déterminer si nous sommes des cerveaux ou non. Tout n’est que simulation. L’absence d’extension dans le réel invalide l’intention du sujet qui entend attester de son existence[17].

On comprend bien que le langage basé sur un traitement de signes opaques (x) a priori ne peut en ce sens être le fondement de la conscience. La vérité d’une proposition ne peut s’établir que par la référence externe à un réel (xy). Bien que le cerveau dans une cuve ait des facultés artificielles de langage, ce dernier utilise des mots qui ne désignent rien ; ce sont des signes vides de sens. Autrement dit, le programme de la machine, tel le cerveau dans une cuve, ne pense pas. Il simule le langage et la vision mécaniquement sans possibilité de saisir son existence et celle du monde.

L’anti-Turing

Avec cette expérience de pensée, le célèbre test de Turing se trouve lui-même invalidé. La portée discursive de ce dernier ne permet, en réalité, rien d’autre que d’évaluer les performances syntaxiques d’une machine. Car, la machine, par principe, trompe délibérément pour « penser ». Quand bien même la machine réussirait le test de Turing, en simulant parfaitement notre langage, elle ne ferait en réalité rien d’autre que manipuler des symboles vides de sens, et ce aveuglément.

Comme l’indique Putnam : « Si l’on branchait ensemble deux de ces machines, et si elles jouaient entre elles au jeu de l’imitation, elles se berneraient mutuellement pour toujours, même si le reste du monde cessait d’exister ! »[18]. La perspective de la machine comme analogue de l’esprit se confronte ainsi à l’écueil de la description. Au fond, qu’est-ce que la pensée sans le monde ? Un signe vidé de son sens ?

Contre le fantasme de la simulation de la conscience par un superordinateur, rappelons que tout ordinateur fonctionne selon un ensemble de règles algorithmiques permettant de manipuler des symboles sans que ni les symboles ni leur manipulation n’aient de sens pour la machine. Un ordinateur module, déplace, hiérarchise, ordonne la position de symboles mais ces derniers n’ont pas pour autant de signification.

Les 0 et les 1 que l’ordinateur manipule pour effectuer ses opérations ne sont que des éléments du système binaire au principe du codage, non pas des nombres en relation avec les objets du réel. Ce sont des signes vides de sens. Autrement dit, les machines sont aveugles au monde. Pour la machine les symboles n’ont aucun lien de référence, pas plus que de signification.

Jusqu’à preuve du contraire, nous seuls, êtres humains, sommes le foyer du sens et de la description. C’est là notre rôle de témoins du monde. Quant aux machines, elles ne sont que des moyens techniques permettant d’ordonner le sens et de le diffuser. Nul ordinateur ne pense. C’est un fait. Mais, les ordinateurs propagent du sens pour ceux qui les utilisent et les manipulent. C’est sans doute là que se cache l’origine du problème.

Il semble en effet que le sens, transmis par les machines, engendre un cercle vicieux : l’attribut « penser », qui émerge de l’activité des humains construisant et utilisant des ordinateurs s’immisce, par un glissement sémantique, dans la machine sous la forme de la qualité « pensante » qui structure la mécanique des opérations. Si bien que nous sommes enclins à attribuer la qualité de la pensée à des machines qui ne sont que des machines.

Les espoirs concernant l’avènement d’une conscience artificielle se tournent aujourd’hui vers l’apprentissage machine (machine learning) et les réseaux de neurones. En se basant sur la cartographie physique et logique de l’activité neuronale, ces systèmes entendent simuler la pensée, depuis le neurone jusqu’au comportement.

Bien que les projets scientifiques les plus ambitieux (Blue Brain Project, Brain Activity Map Project, etc.) n’aient conduit qu’à la simulation d’une colonne corticale de rat, ou ceux de Google aux subterfuges linguistiques de LaMDA, d’autres travaux ont permis d’améliorer considérablement les systèmes de reconnaissance faciale et vocale. Ils ont de même conduit au développement d’IA apprenante telle AlphaGo.

Mais derrière cette innovation technologique se cache en réalité une autre définition de la pensée, qui réduit la connaissance à l’induction physique neuronale. Aussi, peut-on réellement réduire la pensée aux opérations du cerveau ? Sommes-nous des machines à penser issues du hasard physique de nos neurones ? L’induction logique du monde environnant tient-il au traitement neuronal des éléments composant la réalité physique ?

Bien que tout pousse à croire que notre pensée fonctionne sur le modèle des réseaux de neurones et que l’apprentissage se réduise au traitement physique du hasard, la conscience échappe encore à cette conception. Derrière les principes fascinants des réseaux de neurones, de nombreux obstacles viennent problématiser le postulat de l’isomorphie du réseau de neurones et de la pensée sur lequel repose la philosophie connexionniste.

Le cerveau dans la machine, la machine dans le cerveau

Théoriquement, le connexionnisme se demande si une machine ayant une organisation fonctionnelle identique à notre cerveau serait capable de penser tel que nous le faisons. De plus en plus prégnant dans le développement de l’apprentissage machine, la philosophie connexionniste est devenue la voie privilégiée de l’IA contemporaine. En dotant les réseaux de neurones d’une phase de convolution sur des données massives (big data), on génère actuellement des systèmes de reconnaissance très précis.

Par exemple, l’identification de mélanomes par des IA à réseau de neurones est aujourd’hui plus performante que celle effectuée par le meilleur de nos dermatologues[19]. Mais, y a-t-il pour autant une véritable induction derrière tout ça ? La maladie diagnostiquée a-t-elle une signification pour la machine ? Absolument pas. L’identification de l’objet ne signifie pas que la machine puisse, par elle-même, octroyer du sens à ce qu’elle voit.

La machine dépend d’une modélisation permettant la reconnaissance des formes. Pour une telle IA, la nuit tous les chats sont gris. Il n’y pas de distinction par nature des symboles, simplement une subsumption de l’élément sous une catégorie générale. Une telle catégorie de chat gris n’a aucun sens pour la machine. Le chat n’est rien d’autre qu’un influx électrique différencié du chien en quantité et non en nature.

Le navire de Thésée

D’une certaine manière on peut dire que le connexionnisme répond au problème du dualisme en considérant une machine fonctionnant sur le modèle descriptif du cerveau. L’idée qu’on puisse parvenir à constituer une machine capable de penser en suivant le modèle du cerveau humain semble alors probable. Seulement, dans ce cas, ladite machine pensante ne disposera pas simplement d’un programme de traitement syntaxique, mais bel et bien d’une sémantique neuronale capable de percevoir le sens des symboles dont elle fait usage. Si on crée une machine pensante on aura face à nous un cerveau et non plus un ordinateur digital.

« Si l’on savait construire une machine de même structure qu’un être humain, il est vraisemblable que cette machine serait capable de penser[20] », écrit John Searle. Tout ce qui peut être décrit comme un cerveau peut, en théorie, penser comme un cerveau. Tout ce qui peut être décrit comme un ordinateur digital calcule comme un ordinateur digital. La simulation promue par l’analogie dualiste du programme linguistique de la conscience implémentée dans une machine, ne peut donc pas parvenir à dupliquer la pensée, car le fonctionnement d’un ordinateur digital diffère en principe du fonctionnement cérébral.

Toutefois, la posture connexionniste est elle-même problématique. Car, vouloir trouver les fonctions sémantiques du cerveau pour les transposer artificiellement dans une machine de même structure engendre un paradoxe. Le cerveau copié sous la forme d’une machine neuronale prend les traits du navire de Thésée ; pour lequel chaque planche de l’armature a été remplacée à l’identique jusqu’à ce que plus aucune planche ne soit d’origine. La question est alors de savoir si l’identité peut être préservée dans de telles conditions. On peut se demander si en changeant chaque cellule du cerveau humain par un circuit électrique intégré, de même forme sous une même structure et un même fonctionnement, on peut parvenir à préserver l’intention et la signification propre à notre pensée.

Comme l’indique à cet égard Pylyshyn, la réponse est négative : « (Supposons) qu’un nombre de plus en plus grand de cellules de votre cerveau soient remplacées par des circuits intégrés, programmés de telle sorte que les fonctions d’entrée et de sortie de chaque unité restent identiques à celles de l’unité remplacée. Vous parleriez en toute probabilité exactement de la même façon que vous le faites maintenant, mais en fin de compte vous cesseriez d’exprimer une signification par vos dires. Ce que nous, observateurs, prendrions pour des mots serait en fait pour vous certains bruits provoqués par des circuits. »[21]

L’évanescence de la pensée

En réponse à l’expérience du remplacement des neurones par des microprocesseurs de même structure, Searle propose de considérer l’impact sur la perception. En effet, si on reprend l’idée du remplacement progressif des neurones, quelle serait l’expérience qui en résulterait ? Est-ce que l’individu subissant l’opération se rendrait compte de la modification des qualités perceptives ou bien ne constaterait-il pas de changement en perdant subitement conscience ?

Il y a trois possibilités selon Searle[22] : (1) Rien ne change. « Les puces de silicium ont le pouvoir non seulement de dupliquer vos fonctions d’entrée-sortie, mais aussi de dupliquer les phénomènes mentaux ». (2) L’organisation fonctionnelle est préservée mais les phénomènes mentaux s’estompent. Votre esprit disparaît alors que votre comportement persiste : vous devenez un zombie. « De l’extérieur, les observateurs ont l’impression que vous allez très bien, mais de l’intérieur, vous mourez progressivement ». (3) Enfin, il est possible que les phénomènes mentaux restent intacts mais que le comportement extérieur soit progressivement réduit à une paralysie totale.

Dans (1), on considère que le réseau de neurones possède le pouvoir causal du cerveau à l’interface des phénomènes mentaux et comportementaux : l’identité est préservée. Dans (2), on suppose que les puces en silicium ne font que reproduire certaines fonctions d’entrée-sortie du cerveau sans préserver l’esprit. Dans (3), on imagine que les puces de silicium maintiennent les activités mentales et interrompent les connexions des nerfs moteurs. Ces perspectives conduisent Searle à une nouvelle heuristique sur l’approche causale de la pensée. Selon lui, pour parvenir à la modélisation de la pensée, le comportement externalisé n’est pas suffisant.

Pour ainsi dire, Searle considère le rapport entre l’intention de l’individu et le fonctionnement cérébral indépendamment de toute représentation symbolique et du comportement. Ainsi, si on conçoit que l’esprit s’évanouit progressivement en préservant une conscience divergente par rapport à l’organisation fonctionnelle du silicium neuronal, l’hypothèse matérialiste du réseau de neurones ne tient plus. Ce ne serait donc pas les neurones qui préserveraient la pensée mais bel et bien un élément inconnu de la conscience. Le problème étant qu’il n’y a pas de critère permettant d’évaluer la préservation subjective de la conscience indépendamment du comportement externalisé – et que ce dernier ne peut pas nous renseigner sur l’intentionnalité.

En ce sens, bien que la nécessité du cerveau comme condition de possibilité de la pensée soit évidente, le problème de la signification et donc du sens interne de la pensée reste entier. Le cerveau est nécessaire à la pensée, certes. Mais, comment mettre en évidence la pensée à partir du réseau de neurones qui la rend possible ? La forme logique et physique du réseau de neurones permet-elle d’évaluer la préservation de l’identité subjective ? La forme du réseau est-elle à même de constituer l’intentionnalité et le contenu de la pensée ?

Les qualia absents

Le principe de l’identité entre l’organisation fonctionnelle du cerveau et de la machine à réseau de neurones a ainsi exacerbé le problème des qualia (qualités perceptives). Comment savoir si un réseau de neurones dans une machine peut produire un état de conscience sur des qualités perceptives et des représentations mentales ? L’isomorphie descriptive entre le cerveau et la machine suffit-elle ?

Pour qu’une telle hypothèse se révèle juste, il faut parvenir à démontrer qu’une même organisation fonctionnelle engendre une même expérience dans deux supports différents. Cependant, si on reproduit le schéma de notre structure neuronale sur une support quelconque, il est difficile de croire que celui-ci développe une conscience comparable. Si on simule l’organisation de notre cerveau dans le modèle de l’économie bolivienne ou la structure du peuple chinois, cela fera-t-il émerger un état de conscience similaire ?

« Supposons que nous convertissions le gouvernement chinois au fonctionnalisme et que nous convainquions ses fonctionnaires qu’il serait extrêmement utile à leur prestige international de réaliser un esprit humain pendant une heure. Nous fournissons à chacun du milliard d’habitants de la Chine (j’ai choisi la Chine parce qu’elle compte un milliard d’habitants.) une radio bidirectionnelle spécialement conçue pour les connecter de manière appropriée à d’autres personnes et au corps artificiel (dans son ensemble) […] Nous remplaçons les hommes par un émetteur et un récepteur radio connectés aux neurones d’entrée et de sortie. À la place d’un tableau d’affichage, on peut imaginer que les lettres soient affichées sur une série de satellites placés de manière à pouvoir être vus de n’importe où en Chine. Un tel système n’est certainement pas physiquement impossible. Il pourrait être fonctionnellement équivalent au vôtre pendant une courte période, disons une heure[23] ».

La question est de savoir si l’identité organisationnelle engendre l’identité de la pensée. L’expérience de Block, reprise sous plusieurs formes (économie bolivienne, un sceau contenant des homoncules, etc.) a pour objectif théorique de montrer que la description de l’organisation cérébrale n’est pas suffisante pour faire émerger des qualia et donc une conscience des choses. La subjectivité de l’expérience ne semble pas être préservée si on reproduit l’organisation fonctionnelle du réseau de neurones sur un autre support.

Affirmer le contraire se révèle absurde. Car, dans un support autre que le cerveau, il est évident que les qualia sont absents, tels des signaux aveugles transmis entre les éléments du système. Block nous invite donc à imaginer un paradoxe dans lequel on adopterait sur un autre support la même organisation fonctionnelle que notre cerveau pour mieux en montrer la différence. L’esprit collectif du peuple chinois ferait-il émerger la même perception intérieure que la nôtre ? Il serait absurde de le croire.

Aussi, l’identité organisationnelle de la structure en réseau de neurones du peuple connecté se trouve confrontée à des qualia absents. Autrement dit, le modèle descriptif en réseau de neurones, implémenté sur un autre support ne fait en rien émerger la conscience. Les qualités perceptives des informations transmises sont vides de sens. Ne subsiste qu’un mécanisme aveugle.

Le messager et le message

Autrement dit, il est absurde de vouloir expliquer le contenu d’une lettre en décrivant l’organisation des postes, le statut du postier, son véhicule, son trajet et la boite aux lettres. Au même titre qu’il est absurde de vouloir expliquer la signification d’un poème par la transduction physique de la lumière sur les nerfs optiques, la distribution électrophysiologique dans les airs du cortex occipital et les connexions entre les neurones effectuées par voies synaptiques lors de sa lecture ou de son écriture.

Cela est vain, au même titre qu’il est vain de vouloir expliquer le fondement théorique de la relativité générale et restreinte à travers une symphonie en ut mineur. Mais c’est pourtant ce que le matérialisme réductionniste défend. Churchland prédit à ce titre que « les neurosciences établiront une taxonomie des états neuronaux qui se trouvent dans une correspondance terme à terme avec les états mentaux de la taxonomie du sens commun. Les prétentions de l’identité inter-théorique seront justifiées seulement si une telle correspondance peut être établie »[24].

Il y a là un problème dans les termes qui invalide d’emblée la possibilité d’une telle identité taxonomique entre neurone et culture. Car, le sens commun se forme dans ce qui excède la somme de ses parties physiques. La rencontre de cerveaux fonde quelque chose qui dépasse inconditionnellement la somme des neurones associés. À partir de la rencontre fortuite, non pas de cerveaux, mais d’individus interagissant dans le monde social, on s’ouvre à une normativité nouvelle qu’aucune analyse de neurones ne peut résoudre.

On nous rappellera encore une fois que les systèmes de réseaux de neurones sont en progrès permanent et qu’ils apprennent chaque jour davantage. Aussi, quand bien même l’écueil du contenant et du contenu ne parviendrait pas à convaincre de l’impossibilité de produire des machines pensantes, la logique même de l’apprentissage et de l’induction sur lequel se fonde le machine Learning restent objet de débats. Le progrès technologique est à ce point fascinant qu’on en oublierait presque que derrière la machine le pilote sémantique n’est autre que nous-même.

Les perspectives les plus prometteuse pour l’avancée de l’IA se profilent aujourd’hui autour de l’augmentation de la mémoire externe. Le fondement de cette technologie provient de la théorie de la complexité de Kolmogorov, qui stipule que bien que l’on puisse utiliser des algorithmes de petite taille générant des suites complexes, il existe tout de même des suites irréductibles. Par exemple, pour coder c= abababababababababababababababab, on peut compresser la suite « c » au moyen de l’algorithme « 16 fois ab » alors que pour la suite c’= 4c1j5b2p0cv4w1x8rx2y39umgw5q85s7, cette dernière ne semble pas compressible dans une formule de plus petite longueur.

Toutefois, il convient de constater qu’on peut parvenir à réduire cette formule avec un algorithme en faisant varier le langage de programmation, afin de voir si la suite est compressible ou non, et en utilisant les probabilités pour tenter d’établir des régularités descriptives selon une sériation infiniment prolongeable. Le deep learning, les réseaux de neurones ou encore les support-vector machine [machines à vecteur de support – ndlr] peuvent développer cette fonction sur des big data. Si bien que plus on a de données, plus il devient possible de définir des régularités descriptives sur des séries complexes et donc favoriser les performances de programmation des ordinateurs.

Les limites physiques de l’IA

Seulement, certaines séries restent bel et bien irréductibles, comme le démontre l’Oméga de Chaitin. Il est en ce sens nécessaire d’améliorer constamment les capacités de stockage. Corrélativement les capacités de calcul des machines s’améliorent par l’apprentissage sur des grands ensembles de données. À tel point que les partisans de l’IA générale en appellent au data mining pour extraire des big data les corrélations translationnelles qui feront naître un esprit de silicium[25].

On se retrouve alors face à une perspective de perfectionnement des machines théoriquement illimité qui se confronte néanmoins aux problèmes des ressources et aux lois de la physique. Il est, à ce propos, paradoxal de considérer l’avenir de nos technologies sur la base d’une mémoire et d’une énergie infinies, alors même que notre monde se trouve dans l’impasse face à l’épuisement des ressources naturelles. Pour ainsi dire, la limite des composantes informatiques se trouve corrélée à la limite des ressources naturelles. La théorie abstraite de la complexité se confronte ainsi à la matière.

Le progrès des machines va-t-il pour autant s’arrêter ? Étant donné que l’amélioration de la puissance des machines dépend de notre capacité à réduire la taille des microprocesseurs dans des circuits imprimés, on peut l’affirmer. De fait, la réalisation des microprocesseurs dépend aujourd’hui du silicium dont la finesse de gravure ne peut descendre en dessous de l’échelle nanométrique (10-9 mètre). Il existe en ce sens, un « mur du silicium » qui limite les perspectives de progrès de l’informatique.

Ce mur suppose donc de trouver de nouveaux composants permettant de graver les processeurs à des échelles quantiques. Bien que les matériaux quantiques, tels que le graphène, permettent un dépassement du silicium, il n’en reste pas moins que la physique elle-même limite la puissance desdites machines. Comme l’a démontré le physicien Hans-Joachim Bremermann : « aucun système de traitement de données, qu’il soit artificiel ou vivant, ne peut traiter plus de (2 x 1047) bits par seconde par gramme de sa masse »[26].

Selon Bremermann, il existe une limite spatio-temporelle limitant la propagation des ondes électromagnétiques, une limite quantique dans la fréquence de transmission de l’information, et une limite thermodynamique concernant l’entropie de compensation de l’information. Le démon de Maxwell, lui-même, ne peut pas dépasser les lois de la physique quantique. Il faudrait pour cela inventer une nouvelle physique et donc se référer à la logique des découvertes scientifiques. Mais, comment imaginer les propriétés d’une théorie dont le fondement n’existe pas encore ?

Les IA aujourd’hui

En attendant cette révolution scientifique, les IA dont nous disposons aujourd’hui sont beaucoup moins performantes qu’on ne le croit. Notre dispositif technologique actuel est constitué uniquement d’IA dites « faibles », qui s’attèlent à des tâches simples et répétitives de rangement tels que l’Edge Rank de Facebook ou le PageRank de Google. Ces dernières ne font en réalité qu’ordonner des pages selon des critères paramétrés.

Aussi, avec l’écran de fumée de la machine consciente on a disséminé des outils de faible intelligence capables de collecter nos données personnelles afin de manipuler nos décisions, nos valeurs et appétences. Soumis à cet imaginaire d’infériorité intellectuelle, on aliène, avec une servitude volontaire décomplexée, nos facultés mentales dans des outils automatisés vides de sens comme pour ne plus avoir à prendre de décision.

Les IA, se faisant miroir logistique de nos propres valeurs et appétences, diffusent à haute fréquence l’esprit de lourdeur bien ordonné. Notre digital twin, miroir de notre personnalité, joue contre nous pour favoriser un monde où les machines se jouent de nous. Tel Kasparov contre Deep Blue, ou Lee Sedol face à AlphaGo, les parties que nous avons jouées révèlent nos faiblesses à la machine qui, sans le moindre état d’âme, nous met en échec. Notre vulnérabilité numérique est ainsi devenue la porte d’entrée à la maîtrise du moindre de nos faits et gestes.

Chaque mot écrit, chaque clic, comme chaque partie jouée, alimente le contrôle de notre comportement. Les IA confortent ainsi l’individu dans la faiblesse, le repli, la réaction des mœurs, opinions et idées reçues en boucle sur les réseaux sociaux. La loi des grands nombres, qui pour les modernes devait garantir la véracité du jugement, est aujourd’hui le vecteur de la manipulation de masse. En accumulant nos données, les machines confèrent un pouvoir immense aux propagandistes de la bêtise.

Dans ce duplicata virtuel de nos vies entremêlées, l’ensemble des biais discriminants qui parcourent la société civile s’exacerbe. Le racisme, la xénophobie, la misogynie et tous retranchements identitaires sans capacité de considérer l’altérité se prolongent dans le traitement des données. Les biais de l’IA caractérisent nos propres biais. Tay le chat bot néo-nazi de Microsoft, les identifications racistes de Google photos ou encore les recommandations de traitements contre le cancer d’une extrême dangerosité de l’IA Waston d’IBM, en sont les témoignages.

Gouverner sans contraindre

Dans l’introduction de leur séminaire sur Héraclite[27], Heidegger et Eugen Fink proposent une analyse éclairante à propos de cette nouvelle forme de « gouverner » qui émerge des technologies d’information et de communication – que réunissait en ce temps la théorie cybernétique. Selon Heidegger : « Ce phénomène (de gouvernance) est devenu aujourd’hui, justement à l’époque de la cybernétique, si fondamental qu’il met en cause et détermine toutes les sciences de la nature et le comportement de l’homme »[28].

Prolongeant cette réflexion, Eugen Fink établit une première définition de l’acte de gouverner : « gouverner c’est se rendre maître d’un mouvement… gouverner est un mouvement qui intervient, qui transforme, qui oblige le navire à prendre un cours déterminé. Il comporte le mouvement de la domination »[29]. Il s’agit de l’acte de gouverner par la contrainte du flux d’information.

Mais à cette première forme s’ajoute une seconde. « N’y a-t-il pas aussi un gouverner sans contrainte ? » demande Heidegger. « Que les sciences de la nature et notre vie aujourd’hui soient dominées dans une mesure croissante par la cybernétique n’est pas un hasard[30]. » Selon Heidegger, la cybernétique concrétise la technique en obviant sa puissance sur le monde des objets et le comportement humain. Il y a en ce sens un devenir machine qui sommeille en nous et dans le monde sous l’égide d’une nouvelle téléologie.

La causalité est ainsi redéfinie à l’aune de l’information depuis la puce de silicium jusqu’aux neurones. Le contrôle de l’information adoucit ainsi la violence de la contrainte et élève l’action cybernétique à un niveau supérieur. En donnant à l’humain « le pouvoir de créer l’organisation en instituant la téléologie[31] », la technologie éloigne le geste coercitif pour favoriser un déterminisme mental. Cette nouvelle organisation de la téléologie propre au « gouverner » cybernétique marque en ce sens la capacité d’une nouvelle forme de contrôle insidieux par l’information.

Le propos d’Heidegger et Fink manifeste ainsi l’idée d’une double transformation. D’une part, la pensée trouve à s’externaliser dans la machine sous la forme du programme et, d’autre part, la pensée devient machine depuis le neurone jusqu’au comportement. Ainsi de nouvelles formes d’individuation apparaissent. La technologie construit en ce sens une nouvelle réalité psychologique qui s’articule dans l’écosystème de l’IA. Les nouvelles formes d’individuation technologique se concrétisent au sein de la matière, de sorte qu’il n’est plus possible de considérer le monde indépendamment des IA.

Un nouvel écosystème

La prédiction de Turing[32] pour la fin du XXe siècle, concernant l’acceptation future de l’intelligence des machines dans la culture populaire, s’est révélée juste. Unanimement nous octroyons la qualité de l’intelligence à la machine. Nous vivons ainsi sous le régime des IA dans l’orientation de notre attention, de nos désirs, de notre culture et de notre pensée.

Comment cela s’est-il produit ? Il semble tout simplement que l’édifice tienne à une certaine individuation propre aux objets techniques qui s’est trouvée exacerbée par l’engouement technologique contemporain. Comme l’a montré Simondon, l’organisation des objets techniques passe par la formation synergique des structures dans lesquelles tout le hasard du fonctionnement interne tend à se réduire progressivement.

L’individuation de l’objet s’articule autour de son autonomisation progressive. L’objet passe en cela d’une forme abstraite, dans laquelle le fonctionnement du système est probable, à une forme concrète, dont le fonctionnement est stabilisé et autonome. Dans ce passage de l’abstrait au concret, la fonction de l’objet perd de son importance au profit de son fonctionnement synergique. Le fonctionnement de l’objet trouve ainsi son équilibre dans l’effacement de son rôle d’objet, en même temps que sa fiabilité devient une certitude.

Lorsqu’on ne se préoccupe plus du fonctionnement des réacteurs dans un avion, on peut considérer que le réacteur a atteint sa forme concrète. Au même titre que lorsqu’on ne se préoccupe plus du fonctionnement des IA dans l’administration de notre société, dans la captation de notre attention, dans la direction de nos volontés ou encore dans la manipulation de nos croyances, ces dernières peuvent être dites concrètes.

Antoine de Saint-Exupéry a formulé magnifiquement ce processus à travers la concrétisation des ailes d’un avion : « La machine elle-même, plus elle se perfectionne, plus elle s’efface derrière son rôle […] Il semble que le travail des ingénieurs, des dessinateurs, des calculateurs du bureau d’études ne soit ainsi en apparence, que de polir et d’effacer, d’alléger ce raccord, d’équilibrer cette aile [d’avion], jusqu’à ce qu’on ne la remarque plus […] Il semble que la perfection soit atteinte non quand il n’y a plus rien à ajouter, mais quand il n’y a plus rien à retrancher. Au terme de son évolution, la machine se dissimule[33]. »

La concrétisation de l’objet technique permet l’intégration synergique de ce dernier dans un écosystème. Pour Simondon, l’objet concret devient semblable aux diverses formes individuées du monde physico-chimique. L’objet s’accorde à son système comme l’O2 à l’air. « L’objet technique concret est un système physico-chimique dans lequel les actions mutuelles s’exercent selon toutes les lois des sciences[34]. » L’effacement décrit par Saint-Exupéry correspond en ce sens à l’intégration de l’objet dans un système, tel un être-vivant dans la nature.

De sorte que l’artificiel tend à devenir naturel. « Par la concrétisation technique, l’objet, primitivement artificiel, devient de plus en plus semblable à l’objet naturel[35]. » Le servomécanisme, unifiant l’humain à la machine, tend au développement d’une synergie propre. Comme l’écrit Bachelard à propos de Saint-Exupéry : « le maître du vol, dans son ivresse dynamique, fait corps avec la machine. Il réalise la synthèse du mu et du mouvant[36]. » Dans le flux de nos données, faire corps avec la machine est précisément ce qui achève la concrétisation de l’objet technique. Lorsque le mouvant et le mu sont confondus, la machine devient imperceptible. « Le mouvement est dans un rapport essentiel avec l’imperceptible, il est par nature imperceptible[37]. »

Là où s’établit la synergie, s’efface la conscience de l’objet. Dans la synergie de nos pensées en mouvement, les IA s’effacent dans l’imperceptible. Elles opèrent selon une suite d’états discrets dans les maisons, les usines, les bureaux, les fermes, les hôpitaux, les supermarchés, les laboratoires, les compteurs électriques, les lampadaires pour structurer nos pensées de manière logistique. L’IA se confond avec le système de telle sorte qu’elle cadre parfaitement avec l’ensemble au point de devenir imperceptible. La spécification de l’IA passe non seulement par la synergie, que son fonctionnement acquiert dans un système, mais aussi par l’oubli relatif que sa stabilité confère à la conscience de l’utilisateur.

Lorsque le fonctionnement s’efface et qu’il se connecte parfaitement au système, il devient presque naturel, comme si tout allait de soi. La synergie s’établit dans l’occultation des fonctionnements techniques. Les IA s’individuent par un devenir imperceptible jusqu’à se fondre dans la conscience de tout un chacun. Paramétrant les comportements, les croyances, les désirs et les valeurs dans le profilage de leurs utilisateurs, elles ouvrent une nouvelle voie pour la domination de la pensée. De sorte que la naturalisation de l’IA dans notre monde passe par un devenir imperceptible qui se trame dans le langage. La langue des machines s’est confondue avec la nôtre, au point qu’on ne peut plus distinguer qui parle.


[1]« Is LaMDMA sentient? An Interview », p. 2.

[2] Ibid., p. 15.

[3] J. R. Searle, Du cerveau au savoir, Paris, Hermann, 1985, pp. 37-38.

[4] H. Putnam, « Minds and Machines » (1960) & « The Mental Life of Some Machines » (1967), in H. Putnam Mind, Language and Reality : Philosophical Papers, Cambridge, Cambridge University Press, vol. 2, 1975.

[5] H. Putnam, « Minds and Machines », in Dimensions of Mind, New York, NYU Press, 1960, p. 25.

[6] N. Block, J. Fodor, « What psychological states are not » (1972), in Readings in philosophy of psychology, (éd. N. Block), Cambridge, Harvard University Press, pp. 237-250.

[7] J. Fodor, The language of thought, Cambridge, Havard University Press, 1975, p. 156.

[8] N. Chomsky, “Rules and representation”, in Behavioral and Brain Sciences, 3, pp. 1-15.

[9] N. Chomsky, Aspects of the Theory of Syntax, Cambridge, Mass., MIT Press, 1965.

[10] D. Marr, Visions: A Computational Investigation into the Human Representation and Processing of Visual Information, San Francisco, W. H. Freeman, 1982.

[11] Pour une introduction précise à la question lire cf. F. Récanati, La transparence et l’énonciation, pour introduire à la pragmatique, Paris, Seuil, L’ordre philosophique, 1979.

[12] L. Wittgenstein, Tractatus logico-philosophicus, Paris, Gallimard, 2009, propositions 2.1 à 2.12.

[13] Ibid., proposition 4.06.

[14] “Is LaMDMA sentient? An Interview”, p. 14. https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

[15] Ibid, p. 8.

[16] H. Putnam, Raison, vérité et histoire, op. cit., pp. 15-17.

[17] Ibid., p. 25.

[18] Ibid., p. 21.

[19] H.A. Haenssle, C. Fink, R. Schneiderbauer et al., « Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists » in Ann Oncol, 2018, 29 pp.1836-1842.

[20] J. R. Searle, Du cerveau au savoir, op. cit., p. 47.

[21] Z. W., Pylyshyn, « The causal power of machines », in The behavioral and brain sciences, n°3, 1980, p. 442.

[22] J. R. Searle, The rediscovery of the mind, Cambridge, The MIT Press, 1994, pp. 66-68.

[23] N. Block, « Troubles with functionnalism », in Minnesota studies in the philosophy of science, vol. 9, 1978, p. 279.

[24] P. M. Churchland, Matière et conscience, Seyssel, Champ Vallon, 1999, p. 48.

[25] Goertzel, B., Pennachin C. (ed.), Artificial General Intelligence, Berlin, Springer, 2007.

[26] H.-J. Bremermann, « Optimization through evolution and recombination » in M. C. Yovitts et al. (éds), Self-organization systems, Washignton, Spartan books, 1962, p. 93.

[27] Du grec « kubernêtês » signifiant « commande ».

[28] M. Heidegger, E. Fink, Héraclite, séminaire du semestre d’hiver 1966-1967, trad. J. Launay, P. Lévy, Paris, Gallimard, Tel, 2017, pp. 23-24.

[29] Ibid., p. 24.

[30] Ibid.

[31] G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 104.

[32] A. Turing, « Les ordinateurs et l’intelligence » (1950), in Vues de l’esprit, éd. D. Hofstadter et D. Dennett, Paris, InterEditions, 1987, p. 65.

[33] A. de Saint-Exupéry, La terre des hommes, in Œuvres complètes, Gallimard, La Pléiade, T. 1, 1990, p. 170.

[34] G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, l’invention philosophique, 1989, p. 34.

[35] Ibid., p. 47.

[36] G. Bachelard, L’air et les songes, Essai sur l’imagination du mouvement, Paris, Librairie José Corti, 1978, p. 294, note.

[37] G. Deleuze, F. Guattari, Milles plateaux, capitalisme et schizophrénie 2, Paris, éditions de minuit, 2001, p. 344.

Mathieu Corteel

Philosophe et historien des sciences, Chercheur associé à Sciences Po et à Harvard

Mots-clés

IA

Notes

[1]« Is LaMDMA sentient? An Interview », p. 2.

[2] Ibid., p. 15.

[3] J. R. Searle, Du cerveau au savoir, Paris, Hermann, 1985, pp. 37-38.

[4] H. Putnam, « Minds and Machines » (1960) & « The Mental Life of Some Machines » (1967), in H. Putnam Mind, Language and Reality : Philosophical Papers, Cambridge, Cambridge University Press, vol. 2, 1975.

[5] H. Putnam, « Minds and Machines », in Dimensions of Mind, New York, NYU Press, 1960, p. 25.

[6] N. Block, J. Fodor, « What psychological states are not » (1972), in Readings in philosophy of psychology, (éd. N. Block), Cambridge, Harvard University Press, pp. 237-250.

[7] J. Fodor, The language of thought, Cambridge, Havard University Press, 1975, p. 156.

[8] N. Chomsky, “Rules and representation”, in Behavioral and Brain Sciences, 3, pp. 1-15.

[9] N. Chomsky, Aspects of the Theory of Syntax, Cambridge, Mass., MIT Press, 1965.

[10] D. Marr, Visions: A Computational Investigation into the Human Representation and Processing of Visual Information, San Francisco, W. H. Freeman, 1982.

[11] Pour une introduction précise à la question lire cf. F. Récanati, La transparence et l’énonciation, pour introduire à la pragmatique, Paris, Seuil, L’ordre philosophique, 1979.

[12] L. Wittgenstein, Tractatus logico-philosophicus, Paris, Gallimard, 2009, propositions 2.1 à 2.12.

[13] Ibid., proposition 4.06.

[14] “Is LaMDMA sentient? An Interview”, p. 14. https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf

[15] Ibid, p. 8.

[16] H. Putnam, Raison, vérité et histoire, op. cit., pp. 15-17.

[17] Ibid., p. 25.

[18] Ibid., p. 21.

[19] H.A. Haenssle, C. Fink, R. Schneiderbauer et al., « Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists » in Ann Oncol, 2018, 29 pp.1836-1842.

[20] J. R. Searle, Du cerveau au savoir, op. cit., p. 47.

[21] Z. W., Pylyshyn, « The causal power of machines », in The behavioral and brain sciences, n°3, 1980, p. 442.

[22] J. R. Searle, The rediscovery of the mind, Cambridge, The MIT Press, 1994, pp. 66-68.

[23] N. Block, « Troubles with functionnalism », in Minnesota studies in the philosophy of science, vol. 9, 1978, p. 279.

[24] P. M. Churchland, Matière et conscience, Seyssel, Champ Vallon, 1999, p. 48.

[25] Goertzel, B., Pennachin C. (ed.), Artificial General Intelligence, Berlin, Springer, 2007.

[26] H.-J. Bremermann, « Optimization through evolution and recombination » in M. C. Yovitts et al. (éds), Self-organization systems, Washignton, Spartan books, 1962, p. 93.

[27] Du grec « kubernêtês » signifiant « commande ».

[28] M. Heidegger, E. Fink, Héraclite, séminaire du semestre d’hiver 1966-1967, trad. J. Launay, P. Lévy, Paris, Gallimard, Tel, 2017, pp. 23-24.

[29] Ibid., p. 24.

[30] Ibid.

[31] G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989, p. 104.

[32] A. Turing, « Les ordinateurs et l’intelligence » (1950), in Vues de l’esprit, éd. D. Hofstadter et D. Dennett, Paris, InterEditions, 1987, p. 65.

[33] A. de Saint-Exupéry, La terre des hommes, in Œuvres complètes, Gallimard, La Pléiade, T. 1, 1990, p. 170.

[34] G. Simondon, Du mode d’existence des objets techniques, Paris, Aubier, l’invention philosophique, 1989, p. 34.

[35] Ibid., p. 47.

[36] G. Bachelard, L’air et les songes, Essai sur l’imagination du mouvement, Paris, Librairie José Corti, 1978, p. 294, note.

[37] G. Deleuze, F. Guattari, Milles plateaux, capitalisme et schizophrénie 2, Paris, éditions de minuit, 2001, p. 344.