Numérique

Mais comment en est-on venu à parler d’« intelligence artificielle » ?

Philosophe

D’où vient l’expression intelligence artificielle ? De quoi fut-elle le nom ? Une mise en perspective historique permet de s’émanciper du narratif téléologique univoque imposé par les GAFAM, celui de la victoire, utopique ou collapsologique, de l’IA sur l’être humain. Il en va d’un rapport alternatif aux technologies et à la pensée, libéré des mystifications hégémoniques.

Les discours sur l’IA ont beau ne pas se tarir, un effet de saturation se fait sentir. Tantôt pour se répondre, tantôt pour se confondre, les mêmes thématiques reviennent sans cesse : course à l’IA aux airs de course aux armements, remplacement effectif ou hypothétique du travail humain, crainte de perte de contrôle et désir de toute-puissance, spéculations sur les évolutions possibles, opportunités financières… L’émerveillement face à l’inédit côtoie des peurs et des fantasmes anciens sur fond de business as usual. Le tout s’accommode à merveille avec une approche superficielle du phénomène qui laisse parfois croire à une génération spontanée. La publicité, évidemment, en rajoute et ne manque plus une occasion de nous vanter les mérites de dispositifs et de services estampillés IA, sans qu’il soit nécessaire que nous saisissions de quoi il retourne.

publicité

Les sigles s’accompagnent souvent de brumes. Celles dans lesquelles on s’enfonce ici n’émanent pas de l’ignorance de l’expression dont est tiré l’acronyme. Nul besoin de rappeler qu’« IA » signifie « intelligence artificielle » ! Elles ne dérivent pas non plus de cette mauvaise manie de spécialistes qui consiste à réduire pour mieux jargonner. Le vocabulaire technique du domaine foisonne d’abréviations et de termes plus circonscrits et rigoureux. L’« IA » accentue le flou qui entoure déjà l’« intelligence artificielle ».

Décortiquer la formule ne serait d’une aide que toute relative. Les définitions de l’intelligence ont avant tout conduit à des batailles théoriques ; les multiples mesures, échelles et tests qu’elle a inspirés aussi. L’artificiel ne s’en sort guère mieux. À moins, peut-être, de jeter aux orties tout dialogue critique avec les grandes catégories héritées de l’Antiquité occidentale.

Prendre les deux mots d’un seul bloc risque de ne pas nous satisfaire davantage. On cherchera en vain une définition consensuelle et univoque de l’« intelligence artificielle ». Au reste, la pertinence de l’expression s’est vue maintes fois contestée. Certaines des figures que la postérité retient comme fondatrices du champ refusèrent même de l’employer des années durant. La jugeant imprécise, elles lui préféraient des désignations plus austères comme « traitement de l’information complexe »[1]. C’est pourtant dans ce qui se trouve là critiqué que réside la puissance symbolique de l’« intelligence artificielle », et probablement la clé de son succès. C’est aussi ce qu’il nous faut laisser un instant de côté pour saisir pourquoi et comment cette expression a vu le jour.

Sa première occurrence remonterait à un document daté du 31 août 1955, lequel présente, en vue de son financement par la fondation Rockefeller, l’objectif et les grandes lignes d’un événement scientifique en préparation. Si le texte est signé par quatre auteurs, on attribue généralement la parenté de la formule à un seul d’entre eux : John McCarthy. Ce jeune mathématicien officie depuis peu au Dartmouth College, prestigieuse université du nord-est des États-Unis. C’est là que se tiendra un an plus tard, une fois la subvention accordée, l’atelier que l’on associe communément à la naissance de l’« intelligence artificielle ».

On peut toutefois douter que cette expression et le projet qu’elle portait aient immédiatement fait mouche. L’obtention du financement n’est pas une mince affaire. McCarthy rencontre d’abord Warren Weaver, le directeur de la division des sciences naturelles de la fondation Rockefeller. Il le renvoie vers son collègue de la recherche médicale et biologique, Robert Morison. Celui-ci est tout aussi perplexe à l’égard de la proposition qu’on lui soumet. Il cède finalement, quoiqu’en octroyant une subvention au rabais. La présence, parmi les organisateurs, du mathématicien Claude Shannon l’aurait rassuré. Les deux hommes se connaissent et le sérieux de Shannon n’est plus à prouver depuis ses travaux sur la théorie de l’information[2].

L’objectif affiché et poursuivi lors de l’atelier du Dartmouth College de 1956 se veut pourtant tout ce qu’il y a de plus sérieux : « faire en sorte que des machines utilisent le langage, forment des abstractions et des concepts, résolvent toutes sortes de problèmes pour l’heure réservés aux humains et s’améliorent d’elles-mêmes »[3]. Il permet, aujourd’hui encore, de décrire une partie des desseins de l’intelligence artificielle. À l’heure de sa rédaction, il peut néanmoins susciter certaines interrogations. À commencer par celle concernant le domaine scientifique auquel il se rattache. On pourrait d’ailleurs s’étonner que la demande de financement ait été examinée par les divisions des sciences naturelles et de la recherche médicale et biologique de la fondation Rockefeller.

La chose est toutefois moins surprenante qu’il n’y paraît. Novateur sur certains aspects, le projet qui prend le nom d’« intelligence artificielle » n’est pas absolument original. Dans le fond comme dans la forme, ce qui se passe au Dartmouth College présente un air de famille avec les conférences Macy, la série de colloques qui a rythmé, entre 1946 et 1953, la grande époque de la cybernétique.

L’atelier de 1956 reconduit l’idée d’une science interdisciplinaire à laquelle la formalisation logico-mathématique sert de point de ralliement. Pour reprendre le sous-titre que Norbert Wiener donne à son best-seller scientifique, La Cybernétique, l’approche qui en découle s’attache plus spécifiquement au « contrôle et [à] la communication chez l’animal et dans la machine ». À travers un prisme unique, fondé sur les notions d’information[4] et de rétroaction (le célèbre feedback), il serait possible de rendre compte tant du fonctionnement d’un canon de défense aérienne s’adaptant automatiquement aux mouvements de sa cible que de ce qu’il se passe lorsqu’une personne essaye de porter un verre à sa bouche – et dysfonctionne en cas d’ataxie par exemple. La frontière entre vivant et artefact tombe, celle entre pensée et machine aussi[5].

Éminemment centrée sur les États-Unis, cette affaire n’est pas sans résonances de l’autre côté de l’Atlantique. Au Royaume-Uni, le Ratio Club rassemble de manière informelle, lors de dîners réguliers, des psychologues, des physiologistes, des ingénieurs, etc. pour discuter de cybernétique. Parmi eux, on compte le mathématicien Alan Turing.

Au seuil des années 1950, celui-ci écrit qu’il sent poindre un « intérêt pour les “machines qui pensent”[, lui-même] éveillé par un type particulier de machines généralement appelé “ordinateur électronique” »[6]. Il met ainsi en lumière un objet qui se révélera déterminant dans cette histoire. Sous sa plume, pourtant, comme dans les textes de la cybernétique, rien de tout cela ne s’appelle encore « intelligence artificielle ». On pourrait rétorquer que certaines de ses formules, comme « machine[rie] intelligente », y ressemble à s’y méprendre. Certes, mais l’« intelligence artificielle » va désigner plus qu’une visée, elle va accompagner l’apparition et la structuration d’un champ technoscientifique.

Cela ne signifie pas que les choses se seraient d’emblée imposées aussi clairement aux acteurs ayant contribué à cet avènement. Certaines archives laissent même imaginer que McCarthy a pu être influencé par les mots de Turing, ou à tout le moins que le même bouillon de culture scientifique l’a conduit à des assemblages lexicaux identiques. À partir de 1953, en effet, il s’attelle avec Shannon à un travail de publication scientifique dans la droite lignée des questionnements de la cybernétique de l’époque. Turing est pressenti pour signer un chapitre, mais il décline finalement l’invitation. McCarthy, lui, écrit sur la machine de Turing[7].

De menus désaccords apparaissent toutefois lorsque celui-là envoie à son collaborateur un premier brouillon de préface. On peut y lire que « les différents axes de recherche représentés par les papiers ici inclus pourraient, à terme, contribuer à la conception de machines intelligentes »[8]. Dans la foulée, McCarthy propose d’intituler le volume Vers des automates intelligents. La phrase est biffée, la proposition de titre refusée. Le recueil se nommera Automata Studies. Le projet de l’atelier de 1956 laisse néanmoins penser que Shannon finit par se rallier, ne serait-ce qu’en partie, aux visées de McCarthy et par se montrer plus indulgent à l’égard d’un vocabulaire qu’il jugeait jusque-là grandiloquent[9].

La percée de l’expression « intelligence artificielle » va toutefois au-delà d’une affaire de goût personnel. Elle accompagne l’accentuation d’un clivage entre différentes approches scientifiques. À lire le document de présentation de l’atelier du Dartmouth College, ou encore les témoignages qui nous en sont parvenus, deux perspectives distinctes se proposent en effet d’atteindre l’objectif posé.

La première, dite connexionniste, s’intéresse au niveau « inférieur » des mécanismes sous-jacents à la pensée ; elle a le fonctionnement (supposé[10]) du cerveau pour référence. Sa théorie princeps est directement issue de la cybernétique, et plus spécifiquement des travaux que mènent, dans ce contexte, le neuropsychiatre Warren McCulloch et le logicien Walter Pitts.

Ces derniers proposent d’appréhender l’activité nerveuse au moyen d’outils logiques et mathématiques, dans une abstraction relative, donc, des mécanismes biologiques. Le cerveau pourrait ainsi se voir modélisé comme un réseau de neurones formels, ces derniers opérant chacun à la manière d’un calculateur. Chaque neurone est connecté à d’autres neurones par des axones et des synapses qui lui transmettent un signal excitateur ou inhibiteur. Puis il communique à son tour une impulsion aux neurones suivants si la somme des entrées dépasse un certain seuil. L’ensemble s’apparente donc à une grande machine qui, à partir d’un signal d’entrée, peut produire un signal de sortie dépendant des trajets réalisés au sein du réseau qui la compose. Partant, on peut imaginer de construire des artefacts sur ce modèle. Le passage de la théorie à la pratique n’a toutefois rien de trivial.

La deuxième approche, dite symbolique, se concentre sur les processus mentaux classiquement qualifiés de supérieurs : l’usage du langage, la décision, la planification, la résolution de problèmes, etc. Cette fois, ce n’est plus le cerveau mais l’esprit qui est pris comme référence. La logique est encore mise à contribution, mais sur un autre mode. Condition formelle de l’activité cognitive, elle exprimerait les règles du raisonnement. L’existence de machines capables de réaliser des opérations logiques laisse, en ce sens, conjecturer la possibilité d’une intelligence artificielle. Si les notions d’information et de rétroaction n’ont pas complètement disparu, les analogies avec les organismes vivants, par exemple, perdent de leur intérêt. Seul l’esprit humain et les machines logiques, constamment comparés, sont au centre de l’attention.

Le développement de cette approche va de pair avec l’essor de l’informatique et des langages de programmation. À l’heure des premiers ordinateurs, programmer consiste, en effet, à réaliser des branchements à la main, à activer des circuits définissant les opérations à réaliser, soit la manière dont un signal d’entrée va se voir transformé. Les premiers langages de programmation permettent de simplifier cette activité en introduisant des codes correspondant aux opérations que le processeur peut effectuer. On parle de langage « bas niveau » car les instructions ainsi livrées à la machine correspondent directement à son fonctionnement matériel.

Mais d’autres langages, s’éloignant de ce dernier, et dits, pour cela, de « haut niveau », voient bientôt le jour. S’apparentant davantage aux formalisations logiques et mathématiques, tout en puisant abondamment dans le vocabulaire des langues naturelles (l’anglais principalement), ils permettent par exemple d’exprimer les mécanismes de résolution d’un problème sans se préoccuper des détails d’implémentation ou d’infrastructure. D’où l’engouement pour faire réaliser aux machines des activités dont on conteste rarement qu’elles nécessitent un haut degré d’intelligence. Le Logic Theorist, qu’on retient ordinairement comme le premier programme d’intelligence artificielle, a pour but de démontrer des théorèmes de logique tirés des Principia Mathematica de Bertrand Russell et Alfred North Whitehead. Deux de ses concepteurs, Allen Newell et Herbert Simon, le présentent pendant l’atelier du Dartmouth College en 1956.

Les deux approches exposées ci-avant coexistent donc durant l’événement. Mais l’invitation de quelques figures connues pour leur travail sur les réseaux de neurones vise aussi à séduire le financeur. La fondation Rockefeller n’en est pas à sa première contribution pécuniaire en faveur des recherches dans ce domaine et celui de la cybernétique en général. McCarthy dira cependant avoir refusé de convier Wiener de peur qu’il ne se positionne en « gourou »[11].

La tendance globale de l’atelier penche clairement en faveur de la voie symbolique. Certains, dont John McCarthy, ont déjà pris cette direction depuis quelques temps. D’autres opèrent là un revirement. Marvin Minsky, qui compte lui aussi parmi les organisateurs de l’atelier, change de cap au Dartmouth College et abandonne à jamais les réseaux de neurones, alors même que ceux-ci recevaient, depuis son doctorat, toute son attention. Ce qui se joue là dépasse pourtant les itinéraires individuels. C’est l’affirmation de la spécificité de la perspective symbolique et de ses hypothèses fondatrices que l’expression « intelligence artificielle » vient progressivement nommer. Quelques années plus tard, John McCarthy déclare en ce sens que l’une des raisons ayant présidé à son invention était de se dissocier de la cybernétique, et notamment de son insistance sur la « rétroaction analogique »[12].

La conférence internationale sur la « mécanisation des processus de pensée » qui se tient en 1958 au National Physical Laboratory de Teddington, en Angleterre, illustre plus clairement le clivage en cours. L’ordinateur est au cœur de certaines controverses qui laissent apparaître, en arrière-plan, des désaccords plus profonds. Frank Rosenblatt, tenant des réseaux de neurones, affirme à cette occasion que les ordinateurs ont beau parfaitement « suivre des règles », leur fonctionnement leur interdit de s’approcher de ce que nous appelons « pensée originale ou intelligence »[13]. S’ils peuvent réaliser des calculs plus complexes que ceux que n’importe quel être humain est en mesure d’effectuer, ils s’avèrent incapables de traiter spontanément les informations tirées de leur environnement.

Pour passer ce cap, Rosenblatt plaide en faveur de machines physiques plus comparables au cerveau. Son perceptron, dédié à la reconnaissance de « formes, de sons et autres stimuli qui constituent notre monde physique ordinaire », leur ouvrirait la voie. En pratique, l’implémentation qu’il en a réalisée en 1957, le Mark-I Perceptron, identifie des formes visuelles simples (carrés, ronds, triangles…), dès lors qu’on les place bien en face de son système sensoriel, soit une grille 20 x 20 cellules photosensibles.

Marvin Minsky ne l’entend évidemment pas de cette oreille. Lors de la même conférence, il présente une communication qu’il dit tirée de notes prises à l’atelier du Dartmouth College. Après un long inventaire des perspectives ouvertes à la voie symbolique (résolution de problèmes, planification, géométrie plane et, partant, reconnaissance de formes…), une courte section vient couper l’herbe sous le pied des réseaux de neurones.

Les machines qui ont vu le jour en s’en inspirant ne produiraient que des comportements élémentaires difficilement qualifiables d’intelligents. À supposer qu’elles dépassent ce stade, elles finiraient probablement par arriver au point d’où partent les personnes qui font, grâce aux ordinateurs, abstraction de la dimension physique des machines. Autant alors prendre directement le problème au niveau du raisonnement formel et du langage. La conclusion est sans appel : même pour qui s’attelle à « percer les mystères du cerveau », mieux vaudrait « consacrer davantage d’efforts au développement du type de considérations heuristiques que certains d’entre nous appellent “intelligence artificielle” »[14].

La controverse ne s’arrête pas là. Pendant plusieurs années, Minsky et Rosenblatt trouveront diverses occasions de la rejouer. Le premier va même cosigner avec son collègue Seymour Papert, en 1969, un ouvrage visant à lui porter un terme une bonne fois pour toutes. Intitulé Perceptrons, ce volume prétend démontrer, mathématiques à l’appui, les limites intrinsèques des machines du même nom. Efficace contre leurs versions les plus simples, le caractère insuffisant de cette critique finira par s’imposer avec le temps[15]. À l’heure de la parution du livre, elle fait cependant grand bruit. Il faut dire que le contexte a changé depuis une dizaine d’années.

Au milieu des années 1960 déjà, les financements et l’intérêt pour les réseaux de neurones ont considérablement décrus. Rosenblatt, lui-même, s’est en partie tourné vers d’autres sujets. L’approche demeure laborieuse et ses résultats, bien que réels, n’impressionnent pas toujours. Elle fait ainsi pâle figure face aux programmes informatiques qui commencent à résoudre un nombre croissant de problèmes et, source continuelle d’émerveillement, à jouer à certains jeux – le morpion, les dames, les échecs, etc.

Dans la foulée de l’atelier de 1956, en outre, l’intelligence artificielle s’institutionnalise. Trois principaux centres et quelques personnages en vue, tous croisés au Dartmouth College, donnent le ton et concentrent les ressources computationnelles : le Massachusetts Institute of Technology avec Minsky, le Carnegie Institute of Technology avec Simon et Newell et l’Université de Stanford avec McCarthy. Ils capturent la majeure partie des crédits dédiés au champ.

Sur ce plan, l’invention de l’expression « intelligence artificielle » joue peut-être également un rôle. Car à la suite de la seconde guerre mondiale, la cybernétique perd progressivement de son aura aux États-Unis. Certaines positions de celui qu’on tient souvent pour son « père », Norbert Wiener, en sont en partie la cause. En 1947, il refuse de transmettre à un ingénieur de Boeing la copie d’un travail qu’il avait réalisé, pendant le conflit, pour la Commission nationale de recherche pour la défense. Il ne se contente cependant pas de signifier son refus au requérant. Dans une lettre ouverte, il exprime son opposition catégorique à publier quelque recherche que ce soit qui serait « apte à devenir dangereuse une fois aux mains de militaristes irresponsables » et s’insurge contre la dépendance des sciences aux financements militaires.

Pour en obtenir en pleine guerre froide, comme c’est principalement le département de la Défense qui va subventionner les premières décennies de la recherche en IA, une nouvelle dénomination n’est pas de trop. Surtout que le mot intelligence, en anglais, veut aussi dire « renseignements » ! Et qu’après la mort de Staline, la cybernétique suscite un enthousiasme sans précédent dans une Union soviétique où elle avait jusqu’alors été catégorisée comme une pseudo-science bourgeoise.

L’histoire de l’IA en vient […] à se confondre avec l’histoire tout court, et l’intelligence artificielle à se faire raison dans l’histoire.

Quelque chose de troublant émane de ces vieilles histoires. Une distance manifeste les sépare de ce qu’on nomme aujourd’hui « intelligence artificielle ». Plus aucun des programmes de cette époque ne demeure qualifié de la sorte, sauf à titre historique. De même, si la recherche universitaire continue de jouer un rôle non négligeable dans cette entreprise, ce sont désormais les Big Tech qui mènent la danse. Produits par et pour une informatique ubiquitaire et réticulaire, les systèmes d’IA contemporains sont destinés à un usage massif, et non plus réservés aux quelques personnes pouvant physiquement accéder à des ordinateurs aussi rares qu’imposants. Enfin, si les États-Unis demeurent incontournables dans cette affaire, celle-ci s’est plus que jamais internationalisée.

On pourrait poursuivre l’inventaire de ces différences. D’aucuns y reconnaîtraient, quoi qu’il en soit, une histoire linéaire, placée à peu de frais sous le seul signe d’un progrès attendu. L’IA qui triomphe aujourd’hui n’est pourtant pas le fruit de la voie symbolique, mais d’une tardive « revanche des neurones »[16]. L’approche jadis dominante est désormais largement minoritaire, écrasée par la rivale qu’elle avait pris l’habitude de railler. Celle-là a fini par se distinguer avec fracas dans des domaines qui résistaient un peu trop à sa concurrente. À commencer par la vision par ordinateur ou le traitement automatique des langues – la traduction automatique, le traitement de la parole, la génération de textes etc.

Là encore, les apparences de pleine continuité s’estompent vite. Les systèmes d’IA aujourd’hui à la mode ont bien peu à voir avec les machines qui étaient autrefois construites ad hoc pour implémenter quelque modèle formel de réseau de neurones. Tous reposent sur des ordinateurs et leurs avancées sont en général déliées de la marche des découvertes neurophysiologiques. L’analogie s’est muée en lointaine métaphore.

La seule chose susceptible d’aplanir tout cela, c’est le grand récit de l’IA. Celui qu’appelle la puissance symbolique de son nom. Celui d’un duel constamment reconduit avec l’être humain, où les échecs d’un jour ne rendront que plus grand le triomphe à venir. Celui qui annonce l’arrivée prochaine d’une machine dont l’intelligence, devenue générale, se sera haussée au niveau de celles des êtres humains « les plus intelligents » et qui, se développant alors seule, aboutira à une « explosion d’intelligence » nous reléguant définitivement sur le banc de touche. Celui, enfin, de l’avènement d’une « singularité technologique », d’un point de rupture irréversible qui remettra en question les civilisations humaines tout entières. L’histoire de l’IA en vient ainsi à se confondre avec l’histoire tout court, et l’intelligence artificielle à se faire raison dans l’histoire. Du marketing au transhumanisme, tout un éventail de discours technoprophétiques s’engouffrent dans cette voie. De nombreuses figures scientifiques du champ n’ont pas manqué non plus de verser de l’eau à ce moulin.

Ce récit déterministe, qui ne rechigne pas à adopter des accents religieux, se plaît à faire « comme si les mots avaient gardé leur sens, les désirs, leur direction, les idées, leur logique ; comme si ce monde des choses dites et voulues n’avait pas connu invasions, luttes, rapines, déguisements, ruses »[17]. Ce n’est pas seulement une question de termes. L’évolution des techniques s’opère aussi par des déséquilibres, des tensions, des déphasages et des reconfigurations rarement attendus, et en prise avec un monde et des contextes humains. L’IA n’y échappe pas.

L’enjeu qu’il y a à défaire cette narration uniforme ne se borne pas à une simple question d’exactitude. Il en va de la possibilité d’autres rapports aux techniques et à la pensée, émancipés des mystifications hégémoniques.

NDLR : Vivien García a récemment publié Que faire de l’intelligence artificielle ? Petite histoire critique de la raison artificielle aux éditions Rivages.


[1] Voir Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence, Natick, A.K. Peters, 2004, p. 115.

[2] Sur cette histoire, voir Ronald Kline, « Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence », IEEE Annals of the History of Computing, vol. 33, nᵒ 4, avril 2011, p. 8.

[3] John McCarthy et al., « A Proposal for the Dartmouth Research Project on Artificial Intelligence », 1955, p. 1.

[4] On rappellera cependant que la notion d’information donne lieu, au sein même de la cybernétique, à des théories divergentes. Sur ce point, et sur la cybernétique en général, voir Mathieu Triclot, Le Moment cybernétique : la constitution de la notion d’information, Seyssel, Champ Vallon, 2008.

[5] Sur la manière dont la cybernétique entend bâtir une « science de l’esprit », voir Jean-Pierre Dupuy, Aux origines des sciences cognitives, Paris, La Découverte, 2005.

[6] Alan Turing, « Computing Machinery and Intelligence », Mind, LIX, nᵒ 236, octobre 1950, p. 436.

[7] Machine imaginaire qu’Alan Turing présente dans un célèbre article de 1937 et qui offre un modèle formel de la notion d’algorithme. Voir Alan Turing, « On Computable Numbers, with an Application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, vol. s2-42, nᵒ 1, 1937, p. 230-265.

[8] Nous soulignons. Cité par Ronald Kline, « Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence », op. cit., p. 8.

[9] Si certains travaux de Shannon ont été déterminants pour le devenir de l’intelligence artificielle et s’il a participé aux balbutiements du champ, il ne s’est pas illustré comme un acteur majeur de celui-ci.

[10] Rappelons qu’aujourd’hui encore, le cerveau est loin d’avoir livré tous ses secrets, et que, dans les années 1950, les connaissances scientifiques en la matière étaient pour le moins rudimentaires.

[11] Nils John Nilsson, The Quest for Artificial Intelligence, Cambridge, Cambridge University Press, 2010, p. 53.

[12] Ibid.

[13] Frank Rosenblatt, « Two Theorems of Statistical Separability in the Perceptron », in Mechanisation of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24th, 25th, 26th and 27th November 1958, Londres, Her Majesty’s Stationery Office, 1959, p. 423.

[14] Marvin Minsky, « Some Methods on Artificial Intelligence and Heuristic Programming », in Mechanisation of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24th, 25th, 26th and 27th November 1958, Londres, Her Majesty’s Stationery Office, 1959, p. 25-26.

[15] L’argument le plus souvent rapporté est que le perceptron serait incapable de réaliser l’opération booléenne « OU exclusif ». Ce n’est en fait le cas que pour un perceptron ne comprenant qu’une seule couche de neurones. Minsky et Papert disent ne pas avoir étudié de machines à plusieurs couches car ils n’en ont pas trouvées, en tout cas « aucune dont les principes semblent avoir une relation significative avec ceux du perceptron » (Marvin Minsky et Seymour Papert, Perceptrons: An Introduction to Computational Geometry, Cambridge, MIT Press, 1988, p. 231).

[16] L’expression est reprise de Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières, « La Revanche des neurones », Réseaux, vol. 5, nᵒ 211, 2018, p. 173-220. L’article offre une bonne introduction au long retour sur le devant de la scène, depuis les années 1980, du connexionnisme.

[17] Michel Foucault, « Nietzsche, la généalogie, l’histoire » (1971), dans Hommage à Jean Hyppolite, Paris, Presses Universitaires de France, 1994, p. 145.

Vivien García

Philosophe, Enseignant-chercheur à la Faculté de Médecine de l'Université de Lorraine

Mots-clés

IA

Notes

[1] Voir Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence, Natick, A.K. Peters, 2004, p. 115.

[2] Sur cette histoire, voir Ronald Kline, « Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence », IEEE Annals of the History of Computing, vol. 33, nᵒ 4, avril 2011, p. 8.

[3] John McCarthy et al., « A Proposal for the Dartmouth Research Project on Artificial Intelligence », 1955, p. 1.

[4] On rappellera cependant que la notion d’information donne lieu, au sein même de la cybernétique, à des théories divergentes. Sur ce point, et sur la cybernétique en général, voir Mathieu Triclot, Le Moment cybernétique : la constitution de la notion d’information, Seyssel, Champ Vallon, 2008.

[5] Sur la manière dont la cybernétique entend bâtir une « science de l’esprit », voir Jean-Pierre Dupuy, Aux origines des sciences cognitives, Paris, La Découverte, 2005.

[6] Alan Turing, « Computing Machinery and Intelligence », Mind, LIX, nᵒ 236, octobre 1950, p. 436.

[7] Machine imaginaire qu’Alan Turing présente dans un célèbre article de 1937 et qui offre un modèle formel de la notion d’algorithme. Voir Alan Turing, « On Computable Numbers, with an Application to the Entscheidungsproblem », Proceedings of the London Mathematical Society, vol. s2-42, nᵒ 1, 1937, p. 230-265.

[8] Nous soulignons. Cité par Ronald Kline, « Cybernetics, Automata Studies, and the Dartmouth Conference on Artificial Intelligence », op. cit., p. 8.

[9] Si certains travaux de Shannon ont été déterminants pour le devenir de l’intelligence artificielle et s’il a participé aux balbutiements du champ, il ne s’est pas illustré comme un acteur majeur de celui-ci.

[10] Rappelons qu’aujourd’hui encore, le cerveau est loin d’avoir livré tous ses secrets, et que, dans les années 1950, les connaissances scientifiques en la matière étaient pour le moins rudimentaires.

[11] Nils John Nilsson, The Quest for Artificial Intelligence, Cambridge, Cambridge University Press, 2010, p. 53.

[12] Ibid.

[13] Frank Rosenblatt, « Two Theorems of Statistical Separability in the Perceptron », in Mechanisation of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24th, 25th, 26th and 27th November 1958, Londres, Her Majesty’s Stationery Office, 1959, p. 423.

[14] Marvin Minsky, « Some Methods on Artificial Intelligence and Heuristic Programming », in Mechanisation of Thought Processes: Proceedings of a Symposium Held at the National Physical Laboratory on 24th, 25th, 26th and 27th November 1958, Londres, Her Majesty’s Stationery Office, 1959, p. 25-26.

[15] L’argument le plus souvent rapporté est que le perceptron serait incapable de réaliser l’opération booléenne « OU exclusif ». Ce n’est en fait le cas que pour un perceptron ne comprenant qu’une seule couche de neurones. Minsky et Papert disent ne pas avoir étudié de machines à plusieurs couches car ils n’en ont pas trouvées, en tout cas « aucune dont les principes semblent avoir une relation significative avec ceux du perceptron » (Marvin Minsky et Seymour Papert, Perceptrons: An Introduction to Computational Geometry, Cambridge, MIT Press, 1988, p. 231).

[16] L’expression est reprise de Dominique Cardon, Jean-Philippe Cointet et Antoine Mazières, « La Revanche des neurones », Réseaux, vol. 5, nᵒ 211, 2018, p. 173-220. L’article offre une bonne introduction au long retour sur le devant de la scène, depuis les années 1980, du connexionnisme.

[17] Michel Foucault, « Nietzsche, la généalogie, l’histoire » (1971), dans Hommage à Jean Hyppolite, Paris, Presses Universitaires de France, 1994, p. 145.