Numérique

Des couteaux et des machines – à propos de l’IA

Philosophe

Le lancement de la version 4 de GPT suscite cette semaine l’occasion de nouvelles paniques à travers les médias. Mais cette actualité devrait plutôt offrir l’occasion d’ouvrir des réflexions sur la vision anthropologique de la technique et la façon dont elle modifie les intentions, les idées, les projets et les imaginaires. Les choix à propos de la technique et de l’IA engagent dès le départ des choix de société essentiels, qui ne doivent pas seulement relever des tech.

L’agitation suscitée par les performances de l’agent conversationnel ChatGPT et, tout récemment, par le lancement de la version 4 de GPT, le programme d’OpenAI ne doit pas nous faire oublier que l’Union européenne est en train de finaliser un ambitieux projet législatif au sujet de l’intelligence artificielle. Initialement proposé par la Commission européenne en 2021 et actuellement débattu au Parlement européen, l’Artificial Intelligence Act vise à davantage encadrer les usages de l’intelligence artificielle sur le sol européen.

publicité

Du tri automatique de CV à la notation sociale « à la chinoise » en passant par la conduite autonome de véhicules ou encore l’identification biométrique, il s’agit d’identifier, de réguler voire d’exclure certains usages « à risque » de l’intelligence artificielle (IA).

Ce projet a aussi de potentielles conséquences pour les géants de la tech et leurs écosystèmes : en amont des usages, il est en effet question que des exigences légales s’exercent aussi sur le recueil et l’exploitation des données massives (Big Data) qui nourrissent les intelligences artificielles génératives, cela au nom de la fiabilité, de la transparence, ou encore de la représentativité et de l’absence de biais.

Il n’est donc pas surprenant que certains représentants et lobbyistes des GAFAM essaient de cantonner cette régulation exclusivement sur l’encadrement des usages. Pas question de réguler ce qui les précède ou les rend possibles ! On doit ainsi à Jason Oxman, directeur de l’Information Technology Industry Council, une belle réactivation de ce que l’on appelle classiquement en philosophie des techniques « l’argument du couteau », visant à démontrer que les techniques, en tant que telles, sont neutres, c’est-à-dire ni bonnes ni mauvaises : tout dépend des usages que nous en faisons. Un couteau ne peut-il pas en effet autant servir à beurrer une tartine qu’à tuer une personne (propos rapportés dans Le Monde du 15 février 2023) ? L’évaluation éthique et la régulation des techniques devraient ainsi se situer au niveau de leurs usages ; il est vain de procéder en amont, dès les activités de conception et de développement.

L’argument permet ici de déresponsabiliser habilement les chercheurs, entrepreneurs, financeurs, et concepteurs de systèmes d’intelligence artificielle : tout dépend de ce qu’en feront les individus et les sociétés, charge aux États de réguler ces usages… quand ils n’y recourent pas eux-mêmes ! Ne venez pas brider le travail les ingénieurs, traquez plutôt les terroristes – nous vous proposons d’ailleurs des outils pour cela !Que cet argument, en réalité éculé, soit à nouveau mobilisé laisse perplexe pour différentes raisons.

On peut tout d’abord remarquer que si l’entrepreneur recourt à cet argument de la neutralité (« la technique n’est intrinsèquement ni bonne ni mauvaise »), il ne peut plus tenir en toute rigueur un discours solutionniste dans lequel l’innovation technique est fondamentalement pourvoyeuse de bien-être et de résultats positifs, les éventuelles conséquences et externalités négatives ne découlant que d’usagers idiots ou mal-intentionnés. Tout comme le mal, le bien, ici, se trouve exclusivement dans les usages, et aucunement dans la technique elle-même. « Demain, grâce au Métavers, nous pourrons… » : il n’est pas certain que l’économie des promesses des géants du numérique et de la tech soit compatible avec cette affirmation plus modeste d’une neutralité des innovations.

Mais cette modestie – à supposer qu’elle ne soit pas feinte – ne repose-t-elle pas sur une forme de naïveté et d’ignorance ? C’est là la deuxième raison de se méfier de l’argument du couteau. Peut-on réellement imaginer un instant que les projets et intentions des concepteurs et des entrepreneurs puissent être neutres, c’est-à-dire indifférents à toute conception spécifique du bien et du mal ? Sans parler des motivations économiques, il n’est jamais neutre qu’une technique soit conçue et développée : une certaine représentation de ce que devrait être le commerce, la santé, le soin, l’enseignement, la communication, l’organisation politique, l’emploi, les relations humaines, la vie privée ou les transports urbains nourrit les intentions et les projets techniques, mais aussi l’implémentation de diverses fonctionnalités.

Cette structuration – pour ne pas dire détermination – de la conception par un imaginaire éthique, social et politique spécifique est bien attestée dans le cas des entreprises de la Silicon Valley : le libertarianisme, le cornucopianisme et le transhumanisme sont des aspects de cet imaginaire, comme le mythe de l’entrepreneur génial et isolé. Au demeurant, cette structuration par un ensemble de valeurs et d’idéaux se retrouve aussi au niveau des usages : les usages ne sont jamais de pures performances individuelles créatives.

La technique demeure en bout de chaîne : elle exprime, cristallise et incarne nos déterminations.

Il existe une antienne concernant les déterminismes sociaux, culturels et économiques à l’œuvre dans les usages. De surcroît, même s’il était souverain dans ses choix, l’individu n’imposerait jamais ses intentions à une technique qui serait sinon inerte et passive : les intentions, préjugés et biais des concepteurs se retrouvent inscrits dans les architectures, les programmes et les configurations par défaut. D’où d’ailleurs l’ambition européenne de réguler les façons dont les données sont récoltées.

Si l’on en reste à ces deux premières remarques, les intentions des usagers et des concepteurs se voient ramenées à un ensemble de déterminations sociales, politiques et économiques. Match nul. Rien ne peut être neutre, y compris les finalités et les imaginaires de concepteurs et des entrepreneurs. Dans les deux cas, la technique demeure toutefois en bout de chaîne : elle exprime, cristallise et incarne ces déterminations. On continue de ne pas voir le plus important : la façon dont toute technique modifie nos intentions, nos idées, nos projets, nos imaginaires et nos façons de faire.

Il existe en effet une troisième raison, à mon sens plus profonde, de se méfier de l’« argument du couteau ». Cette troisième raison, hasard providentiel du calendrier, peut être illustrée par une découverte récente sur nos cousins paranthropes. On sait depuis longtemps que l’usage d’outils n’est pas le propre du genre Homo : le fait technique est présent chez de nombreuses espèces animales non-humaines. Depuis 2015 et les découvertes sur le site de Lomekwi, au Kenya, nous avons également appris que la taille de pierres, et l’usage de ces pierres taillées remonte à plus de 3 millions d’années, bien avant donc l’apparition du genre Homo.

Dans la revue Science du 10 février 2023, une équipe internationale de chercheurs en anthropologie et en archéologie a présenté des résultats nouveaux sur nos cousins paranthropes africains : plus de trois cents artefacts ont été découverts au Kenya, cette fois-ci sur le site de Nyayanga. Ces objets de pierre taillée sont certes postérieurs aux pierres de Lomekwi, mais ont été déterrés à proximité immédiate de squelettes fossilisés d’animaux comprenant des bovidés mais aussi et surtout des hippopotames. Les ossements présentaient des marques nettes de fractures et de découpes causées par les outils.

Cette découverte montre clairement que la fabrication et l’usage de ces outils a ouvert de nouvelles possibilités alimentaires : entailler la peau de grands mammifères comme les hippopotames avant de découper et de débiter leur chair, attendrir la viande, fracturer les os pour aller chercher la moelle, etc. La consommation de tubercules, après coupe et broyage, est aussi attestée. Sans outils, ces pratiques alimentaires et ces projets – indissociables d’un nouveau rapport aux êtres vivants non-humains, et de nouvelles formes d’organisation sociale – sont inconcevables. Il est donc plus que jamais discutable d’asserter qu’un couteau est, en tant que tel, neutre, n’encourageant aucune tendance ou façon de faire. La fabrication et l’usage de pierres taillées est d’emblée solidaire d’usages spécifiques, de voies que nous empruntons – et donc d’autres voies que nous délaissons.

Certes, un couteau ou une pierre taillée ne font rien d’eux-mêmes. Mais ils font faire. Ils transforment la façon dont nous nous rapportons à l’environnement et aux autres êtres vivants.

Comme le remarquait le philosophe John Dewey, avant d’être un objet, la technique est une manière de faire l’expérience du monde. Avec une pierre taillée, un hippopotame m’apparaît comme une source de nourriture, et plus seulement comme un prédateur. Cette transformation de nos pratiques alimentaires, sociales, et environnementales ouverte et contrainte par les pierres taillées, nul ne pouvait l’envisager au départ. Nous empruntons un chemin dont les contours et l’issue ne sont pas déterminés par nos intentions. Étant donné que nos intentions et nos projets sont modifiés par l’usage de la technique, nous ne pouvons en effet pas savoir où cet usage va nous mener.

L’« argument du couteau » et la régulation exclusive par les usages qu’il prétend justifier reposent sur un idéalisme très fruste à propos des pouvoirs de la pensée et de l’imagination : ces dernières pourraient d’avance nous projeter là où nous arriverons si nous utilisons une nouvelle technique ou si nous modifions nos usages. Nous projetons un point d’arrivée en supposant que la technique ne fera pas advenir de nouveaux désirs, de nouvelles dépendances, mais aussi de nouvelles incuries. En réalité, nous nous engageons dans des voies qui ne peuvent être complètement anticipées parce qu’elles sont ouvertes et contraintes par les techniques qui sont à notre disposition.

Pour en revenir à l’AI Act, il est temps d’accepter que le recueil, le stockage, la circulation et la reproduction des données sont consubstantiels aux systèmes numériques et à tout objet connecté, et ouvrent ou amplifient un ensemble d’usages indéterminés qui ne leur préexistaient pas sous la forme que nous connaissons actuellement (tracer, profiler, surveiller, quantifier, corréler, générer par induction…). La régulation et les garde-fous sont-ils dès lors vains ? Nullement. À côté d’une méfiance nécessaire par rapport aux prophéties technolâtres et technophobes, il convient de redoubler de vigilance et d’exigence à propos de l’évaluation des innovations techniques, en rapport avec les pratiques auxquelles nous tenons. Il n’y a décidément pas de raison que les choix techniques soient laissés aux seules mains de la tech au nom d’une fausse neutralité, avec la conviction que nous pourrons ensuite réguler ces usages comme bon nous semble. Ces choix techniques engagent en effet dès le départ des choix de société.

NDLR : Pierre Steiner vient de publier La fabrique des pensées aux éditions du Cerf.


Pierre Steiner

Philosophe, Enseignant chercheur en philosophie à l’Université de Technologie de Compiègne

Mots-clés

IA