Numérique

Des couteaux et des machines – à propos de l’IA

Philosophe

Le lancement de la version 4 de GPT suscite cette semaine l’occasion de nouvelles paniques à travers les médias. Mais cette actualité devrait plutôt offrir l’occasion d’ouvrir des réflexions sur la vision anthropologique de la technique et la façon dont elle modifie les intentions, les idées, les projets et les imaginaires. Les choix à propos de la technique et de l’IA engagent dès le départ des choix de société essentiels, qui ne doivent pas seulement relever des tech.

L’agitation suscitée par les performances de l’agent conversationnel ChatGPT et, tout récemment, par le lancement de la version 4 de GPT, le programme d’OpenAI ne doit pas nous faire oublier que l’Union européenne est en train de finaliser un ambitieux projet législatif au sujet de l’intelligence artificielle. Initialement proposé par la Commission européenne en 2021 et actuellement débattu au Parlement européen, l’Artificial Intelligence Act vise à davantage encadrer les usages de l’intelligence artificielle sur le sol européen.

publicité

Du tri automatique de CV à la notation sociale « à la chinoise » en passant par la conduite autonome de véhicules ou encore l’identification biométrique, il s’agit d’identifier, de réguler voire d’exclure certains usages « à risque » de l’intelligence artificielle (IA).

Ce projet a aussi de potentielles conséquences pour les géants de la tech et leurs écosystèmes : en amont des usages, il est en effet question que des exigences légales s’exercent aussi sur le recueil et l’exploitation des données massives (Big Data) qui nourrissent les intelligences artificielles génératives, cela au nom de la fiabilité, de la transparence, ou encore de la représentativité et de l’absence de biais.

Il n’est donc pas surprenant que certains représentants et lobbyistes des GAFAM essaient de cantonner cette régulation exclusivement sur l’encadrement des usages. Pas question de réguler ce qui les précède ou les rend possibles ! On doit ainsi à Jason Oxman, directeur de l’Information Technology Industry Council, une belle réactivation de ce que l’on appelle classiquement en philosophie des techniques « l’argument du couteau », visant à démontrer que les techniques, en tant que telles, sont neutres, c’est-à-dire ni bonnes ni mauvaises : tout dépend des usages que nous en faisons. Un couteau ne peut-il pas en effet autant servir à beurrer une tartine qu’à tuer une personne (propos rapportés dans Le Monde du 15 février 2023) ? L’évaluation éthique et la r


Pierre Steiner

Philosophe, Enseignant chercheur en philosophie à l’Université de Technologie de Compiègne

Mots-clés

IA