Intelligence artificielle

Quelle sera la culture des robots ?

Sociologue

Le développement spectaculaire de l’Intelligence artificielle fait désormais paraître l’humain comme une machine probabiliste bien imparfaite. Mais n’est-ce pas cette nécessaire imperfection qui toujours préservera une place pour l’homme, à côté des machines ?

Les robots algorithmiques de l’intelligence artificielle sont des machines à apprendre. Appliqué au monde du travail, le vocabulaire de l’apprentissage désigne tout à la fois le cœur de nos économies de la connaissance, qui doivent nécessairement investir massivement dans l’éducation et dans la transformation des technologies éducatives, et l’origine de la principale séparation contemporaine entre les emplois dotés des caractéristiques désirables, au-delà de leur valeur simplement rémunératrice, et les emplois simplement utilitaires, ceux dans lesquels le travail est une désutilité et une charge, compensée par un salaire qui permet de se procurer des biens et du loisir. Cette disjonction sépare les emplois routiniers, à faible variabilité d’exercice, et qui apprennent peu à qui les exerce, et les emplois peu ou pas routiniers, qui sont à forte variabilité d’exercice, à forte teneur formatrice et à plus forte valeur expressive.

Les expérimentations se multiplient pour comparer l’intelligence qui opère dans l’apprentissage des humains et l’intelligence que mettent en œuvre les machines, notamment en les opposant par la compétition. Si les capacités cognitives d’anticipation et d’apprentissage humains sont entièrement réductibles à l’apprentissage profond que pratiqueront ces algorithmes et machines sans cesse plus puissants mis au point par l’intelligence humaine, le sort du travail humain sera scellé : la machine sera plus efficace que nous dans une gamme de plus en plus large de tâches. Dans sa version radicale, que j’examinerai dans un instant, l’argument va jusqu’à ne plus rien réserver à l’humain qui ne puisse être réalisé par une machine. Il existe une version plus modérée de l’argument, qui préserve un territoire particulier à l’humain, celui du jugement dans l’exercice de l’action productive, et dans la prise des décisions créées par les situations auxquels chacun fait sans cesse face pour agir et travailler.

Un scénario heureux : la complémentarité

Que dit la version modérée de la complémentarité entre les machines et les humains, qui réserve une part incompressible à l’intervention et à l’intelligence humaine? L’argument est bien exposé dans un ouvrage et des articles récents de Agrawal, Gans et Goldfarb (notamment dans le livre Prediction Machines paru en cette année 2018). L’intelligence artificielle nous procure l’un, mais l’un seulement des composants critiques de l’exercice de l’intelligence, la prédiction. Celle-ci est un élément essentiel du processus de prise de décision face à un problème, dans une situation donnée et à des fins d’obtention d’un résultat aussi efficace que possible. La prédiction exploite des données du passé et du présent pour résoudre des problèmes, et aider à décider. La précision de la prédiction est améliorée par les feedback qu’engendrent la production du résultat et son appréciation. L’apprentissage se compose donc des informations à exploiter, de l’entraînement à résoudre un problème sur la base de ces informations et du contrôle du résultat qui engendre des rectifications (erreurs) et des améliorations. L’apprentissage est un processus en boucles de progression. Au total, l’intelligence utilise donc trois types de données : des données d’entraînement (des programmes) pour s’exercer, des inputs informationnels pour appliquer ses algorithmes et des données de feedback pour augmenter la précision de ses prédictions.

L’humain apprend ainsi, et les machines aussi. Comment au juste, c’est assez mystérieux dans les deux cas, et c’est notamment énigmatique dans le cas des machines, car l’algorithmique de l’IA défie l’épistémologie habituelle de la modélisation statistique. Comble de l’énigme, les machines améliorent très vite la précision de leurs prédictions, si on leur fournit des données en quantité et qualité appropriées, et si les boucles de feedback sont de plus en plus rapides et contrôlées. L’exemple de la reconnaissance du risque de cancer à partir d’images de grains de beauté potentiellement dangereux (mélanomes) sont fameux : les médecins chinois sont battus par les machines. Pourquoi ? Les humains (y compris donc les experts) surestiment des informations saillantes et sont assez mauvais statisticiens. Cela dit, les humains sont plus malins quand il s’agit d’analyser et de résoudre des problèmes pour lesquels les données sont en quantité limitée, et requièrent des stratégies pour produire de la donnée nouvelle.

On voit apparaître dans ce processus une division du travail. Les situations et les réalités qui ont des coefficients de régularité et de routine suffisants permettent d’engendrer des données stables et font converger les algorithmes apprenants vers des prédictions précises et fiables. Ces données ordonnées en routines, et les traitements qu’elles permettent, les machines les prennent en charge avec vitesse, efficacité et sans fatigue, pour livrer leur analyse prédictive. Mais quand les objets ou les événements générateurs de données à analyser par les intelligences artificielles sont plus rares, la capacité prédictive est limitée et l’humain intervient.

En réalité, cette partition indique aussi comment fonctionne l’exercice de la décision. Les décisions que nous prenons sont si nombreuses, et si banalement continuelles que nous en oublions les plus habituelles et routinières, que nous confions à notre pilotage automatique inconscient. La charge mentale du traitement des cas soumis à décision doit être allégée pour être gérable. Le travail cognitif conscient est réservé aux cas qui exigent que le niveau de réflexion et d’analyse s’élève, et que soit suspendu le pilotage automatique : c’est notamment le cas dans les situations surprenantes et inhabituelles. Ces cas sont ceux dont le résultat n’est pas immédiatement probabilisable. Ces décisions opèrent en horizon incertain, soit en raison de la complexité des facteurs et des données de situation à prendre en compte, soit en raison des effets d’interaction vite complexes entre les acteurs de la décision, soit en raison de la rareté des événements considérés.

Les situations de décision en horizon incertain font bien apparaître la part qui revient à l’opération de traitement des données soumises à un calcul de prévisibilité ou à une intuition de prévisibilité, et la part revenant au jugement qui doit être appliqué à l’appréciation probabiliste de la situation, afin d’engendrer une action. Les données ne sont pas celles d’une situation routinière. Le jugement qui s’applique à de telles données doit apprécier les bénéfices et les coûts de chaque solution envisageable. En horizon incertain, le jugement humain est directement nécessaire et irremplaçable, et en même temps faillible. Les erreurs ou les solutions qui se révèleront plus ou moins rapidement défavorables ou moins avantageuses que celles qui auraient pu être prises sont monnaie courante. L’apprentissage est là pour les corriger, mais avec la difficulté de s’appliquer à des cas particuliers, impossibles à probabiliser efficacement. L’accumulation d’expérience est une aide précieuse et, sous une série de conditions (d’aptitudes et de gains d’apprentissage) devient une capacité : ne dit-on pas « il ou elle a du jugement, un bon jugement, fait preuve de jugeote, etc. » ?

Maintenant, réunissons les deux composantes : exercice de la capacité d’interprétation ou d’anticipation prédictive fondé sur des données, et exercice du jugement. Leur relation est dynamique : dans une situation de complémentarité, plus les tâches requérant la production d’une prédiction peuvent être confiées à des machines, plus la valeur de la part non substituable qu’est l’exercice du jugement augmente. Dans l’univers médical par exemple, les machines analysent les clichés radiologiques et déclassent la part routinisable de l’activité du radiologue, et la recomposition des tâches du ou de la radiologue le conduit à se concentrer sur la partie requérant du jugement : l’ajustement de l’information obtenue de la machine aux caractéristiques particulières du patient pour recommander telle ou telle voie d’exploration supplémentaire ou de traitement personnalisé, etc.

Recomposer les actes de travail à partir de leur modularité et des coefficients de substituabilité des humains par des robots pour telle ou telle tâche entrant dans la composition de l’activité, voilà qui s’inscrit dans une dynamique. On demandera : jusqu’où les gains de prédiction peuvent-ils aller pour s’appliquer y compris à des situations complexes à interaction de facteurs multiples ? Jusqu’au point de s’emparer du territoire du jugement qui paraissait réservé aux humains ? La conduite autonome est un chantier d’expérimentation grandeur nature pour un tel questionnement.

Il faut remarquer aussi que la valeur d’incertitude n’est pas attachée à une situation de manière fixe ou univoque. Prenons l’exemple du commerce en ligne d’une enseigne. Ce commerce sera freiné si les délais de livraison des commandes en ligne sont trop longs et trop aléatoires, faute de stocks suffisants. Mais il est difficile de stocker une variété très élevée de produits pour lesquels la demande est très dispersée. On minimiserait certes les délais de livraison, mais les coûts de stockage deviendraient exponentiels. Le vendeur est dans l’incertitude : qu’est-ce qui doit être stocké prioritairement ? L’analyse des données massives de ses ventes et des comportements des consommateurs sur le site de l’enseigne est confiée à une machine, car l’humain ne peut pas modéliser les interactions entre des centaines de variables. Et de fait, la machine transforme l’incertain en probable. Elle prédit ce qui a le plus de chance d’être demandé et vendu, donc efficace à stocker. Les pertes de clientèle dues à des délais trop longs sont réduites.

Avec cet exemple, je viens d’indiquer que la machine franchit la limite entre l’incertain non probabilisable et le probabilisable. D’où la question plus radicale : pourquoi nous limiter à une hypothèse modérée de relations hommes-machines réservant un territoire durablement protecteur au jugement humain ? L’hypothèse modérée convient bien à une phase de transition dans laquelle les évolutions sont apparentes, mais dans laquelle les cas de substitution complètes sont encore limités et s’appliquent aisément aux actes et situations clairement routiniers. Mais on vient de voir que la recherche technologique ne se contente pas des transitions. Elle les traverse.

Un scénario radical : le pouvoir probabiliste des machines. La fin des illusions humaines de supériorité ?

Dans un colloque qui s’est tenu il y a quelques mois aux USA sur l’économie de l’intelligence artificielle, et dont les actes sont publiés dans la collection du NBER par les presses de l’Université de Chicago, figure une courte intervention du Prix Nobel d’économie et également psychologue Daniel Kahneman, qui a consacré l’essentiel de ses travaux aux biais cognitifs dans le comportement et à la psychologie du jugement et de la décision. Celui-ci s’interroge de façon très radicale sur ce qui pourrait rester aux humains, une fois que les machines apprenantes auront acquis suffisamment de données sur tous les aspects de notre comportement qui peuvent être observés, et donc transformés en données, et auront été suffisamment entraînées. Et sa réponse est tranchante : il ne leur restera rien. Le domaine des recherches et des applications en intelligence artificielle n’en est qu’à ses débuts, les progrès sont rapides, les meilleurs mathématiciens, informaticiens et ingénieurs s’y engouffrent, et le plus étonnant, c’est la vitesse à laquelle les progrès se font.

Plutôt que de réfléchir aux limites et aux frontières auxquelles ces machines intelligentes et leurs concepteurs pourraient se heurter, il peut paraître heuristiquement fécond de se demander, très simplement : l’humain n’est-il pas une machine probabiliste bien imparfaite, gênée par de multiples biais cognitifs, et plus généralement par tout ce qui fait du bruit dans l’évaluation des informations disponibles et dans l’exercice du jugement. Il y a trop de variabilité dans les comportements individuels : un même individu exposé au même stimulus à deux reprises ne réagira pas de manière identique.

Une belle mécanique, en somme, le fonctionnement de cette machine humaine, mais plein de bruit aléatoire, de « noise » comme on dit en théorie du signal. La machine apprenante, elle, pourrait bien être formée à éliminer ce bruit, si on lui apprend à procéder de façon régulière et disciplinée dans l’exercice du jugement et du choix. La machine dépasse l’individu là où elle apprend plus vite et là où elle sait explorer un problème dans des dimensions aussi larges et aussi variées que possible, en maniant des centaines de variables.

Et l’interaction ? Et le contact émotionnel ? Les robots des salles de classe des petits écoliers chinois sont conçus pour susciter l’émotion, le rire, la surprise, l’attente de ces écoliers. Et le care ? Dans les EHPAD, on verra des robots bienveillants et communicants assister et peut-être remplacer des personnels débordés et harassés par un travail répétitif et psychologiquement et émotionnellement éprouvant.

Le raisonnement du passage à la limite  l’humain dépassé par la machine intelligente  ne doit pas être pris à la légère comme un exercice plaisant de science-fiction ou comme une nouvelle forme d’hubris prométhéenne. Kahneman souscrit, mais sans tapage excessif, à une hypothèse qui fait les délices de la Singularity University de Ray Kurzweil.

Puissance de l’imperfection ?

Pourtant, le scénario n’est pas aussi simple. Il faut demander : dans quels cas l’incertitude n’est-elle pas du bruit ou une illusion de jugement que subissent les individus quand ils sont paralysés par l’impuissance à probabiliser des situations ou des phénomènes complexes ? Il existe dans les activités humaines des domaines de pratique, que j’ai évoqués plus haut, et qui valorisent l’incertitude et de l’imprévisibilité comme la condition intrinsèque du travail. Ce sont tout particulièrement les activités d’invention et de création. Les mécanismes de la créativité dans les arts et dans les sciences ont bien des parentés, même si les deux mondes se séparent pour ce qui concerne la logique cumulative et la série d’opérations de contrôle et de validation de la qualité et de la valeur des résultats produits. Comment procèdent ces mondes d’activité ? Précisément en écartant comme des repoussoirs, pour les actes les plus décisifs et les plus valorisés, la prescription par les règles, les formules de production de résultats prévisibles, et en maximisant, au moins depuis le 18ème siècle, le principe d’originalité, qui est couplé à la célébration du talent comme force capacitaire d’émancipation individuelle contre les privilèges héréditaires, contre le poids du passé, contre les rentes.

Le perfectionnement de la pratique dans ces activités tire parti non pas simplement de la lente conquête de l’intelligence humaine sur le bruit de sa machinerie cognitive et corporelle, mais aussi de l’épreuve d’incertitude qui s’attache à l’activité de création et d’invention. Et cette marge d’incertitude est reconstituée chaque fois pour dépasser le simple cadre d’un problème algorithmique de résolution de problèmes probabilisables. Ne serait-ce d’ailleurs que pour faire progresser la recherche en intelligence artificielle. Comme nous l’apprennent les travaux de psychologie cognitive, le vagabondage mental nous permet de nous échapper de l’ici et maintenant autrement que selon le protocole de l’anticipation calculatrice des probabilités de survenue d’événements à venir et de résultats recherchés, qui est si chère aux robots. C’est notamment dans ce vagabondage mental, avec ses ressources conscientes et inconscientes, que se logent le jeu et la créativité.

Conclusion

Pour un certain nombre de tâches et de classes de problèmes, les machines sont déjà de meilleurs agents probabilistes que les humains. C’est entendu.

Mais on doit aussi pouvoir retourner l’interrogation de Kahneman, et demander : « qu’est-ce qui fait que l’imperfection est indispensable aux humains ? » Du moins si on suppose que la conscience, ce produit émergent de la relation si complexe entre le corps, sa mémoire, ses émotions, et les facultés du cerveau, nous appartient comme un bien non automatisable, et qui organise le rapport à soi autant qu’aux autres, à travers l’imperfection de tous.

Je voudrais insister un instant sur ce thème de l’imperfection, pour lui donner un ancrage plus sociologique que psychologique.

Si la pente de la perfection est une pente asymptotique, et qu’on promet de nous la faire gravir avec une vitesse exponentielle grâce aux machines intelligentes, nous nous retrouvons à inventer une société de la hiérarchie des perfections dans l’accomplissement de tâches productives (no noise), qui ne tolère pas l’imperfection puisque celle-ci est immédiatement réduite au rang de stade dépassable, ou de technologie perfectible, dans une variété croissante d’activités susceptibles d’être apprises par des machines, moyennant les trois conditions clés de l’avancée de l’IA : la disponibilité des donnés requises, de l’entraînement, et du feedback pour rectifier les erreurs et améliorer les performances.

Ou alors, nous mettons les machines au service d’une égalisation des capacités humaines individuelles, en rendant les robots complémentaires des individus, au point de corriger ou de compenser la variété des capacités plus ou moins avancées dans une population d’individus. Mais cette hypothèse de complémentarité différentielle et égalisatrice a ses limites, si certains peuvent agir pour augmenter pour eux-mêmes la puissance et l’ingéniosité des machines et chercher à en tirer un avantage, et si la rareté des ressources requises pour produire et consommer perpétue la compétition interindividuelle. Quand Marx supposait que les progrès techniques engendrés par le capitalisme seraient tels qu’ils nous feraient accéder à une situation d’abondance de ressources, il commettait deux erreurs : les ressources ne seront jamais abondantes pour une humanité en expansion, et le progrès technique n’est pas auto-entretenu, mais repose sur la virtuosité ou le labeur inventif de certains.

Les machines apprennent, et l’une des leçons de leur efficacité, c’est qu’elles transforment tout ce dont elles se nourrissent pour en faire des données à exploiter en matière à probabilités. Reconnaître que nous vivons dans un monde probabiliste plutôt que déterministe, est un mindset autant qu’une évidence scientifique objective. C’est un mindset dont on peut faire la sociologie, par exemple en examinant l’attitude à l’égard du risque et du changement.

Dans une culture pragmatique, on dira : ce qui est donné, c’est le changement, le caractère perpétuellement mouvant, fluctuant, héraclitéen du monde, et ce qui est à expliquer, c’est l’inertie, la reproduction des réalités durables. Dans une autre culture, on dira : « ce qui est donné c’est la reproduction des structures, et leur stabilité, et ce qui est à expliquer, c’est le changement, la rupture de l’inertie et le déséquilibre comme défaillance plutôt que comme opportunité. » Dans cette seconde culture, on pratique l’extrapolation simple, et sous ce raisonnement, les robots conquièrent tous les territoires possibles du travail. Luddistes et fatalistes peuvent pavoiser. C’est dans la première culture que le savant, l’artiste et l’ingénieur sont à l’aise, car ils ont dû apprendre à se comporter en horizon incertain : c’est eux dont Henri Saint-Simon, le pionnier des doctrines socialistes françaises au 19ème siècle, voulait faire les héros des temps nouveaux. La question peut être posée aux robots : « quelle est votre culture ? »


Pierre-Michel Menger

Sociologue, Professeur au Collège de France