Des couteaux et des machines – à propos de l’IA
L’agitation suscitée par les performances de l’agent conversationnel ChatGPT et, tout récemment, par le lancement de la version 4 de GPT, le programme d’OpenAI ne doit pas nous faire oublier que l’Union européenne est en train de finaliser un ambitieux projet législatif au sujet de l’intelligence artificielle. Initialement proposé par la Commission européenne en 2021 et actuellement débattu au Parlement européen, l’Artificial Intelligence Act vise à davantage encadrer les usages de l’intelligence artificielle sur le sol européen.

Du tri automatique de CV à la notation sociale « à la chinoise » en passant par la conduite autonome de véhicules ou encore l’identification biométrique, il s’agit d’identifier, de réguler voire d’exclure certains usages « à risque » de l’intelligence artificielle (IA).
Ce projet a aussi de potentielles conséquences pour les géants de la tech et leurs écosystèmes : en amont des usages, il est en effet question que des exigences légales s’exercent aussi sur le recueil et l’exploitation des données massives (Big Data) qui nourrissent les intelligences artificielles génératives, cela au nom de la fiabilité, de la transparence, ou encore de la représentativité et de l’absence de biais.
Il n’est donc pas surprenant que certains représentants et lobbyistes des GAFAM essaient de cantonner cette régulation exclusivement sur l’encadrement des usages. Pas question de réguler ce qui les précède ou les rend possibles ! On doit ainsi à Jason Oxman, directeur de l’Information Technology Industry Council, une belle réactivation de ce que l’on appelle classiquement en philosophie des techniques « l’argument du couteau », visant à démontrer que les techniques, en tant que telles, sont neutres, c’est-à-dire ni bonnes ni mauvaises : tout dépend des usages que nous en faisons. Un couteau ne peut-il pas en effet autant servir à beurrer une tartine qu’à tuer une personne (propos rapportés dans Le Monde du 15 février 2023) ? L’évaluation éthique et la r