Le défi d’une régulation de l’intelligence artificielle
«Historique » nous annonçait Thierry Breton ce vendredi 8 décembre au soir, un accord politique a été trouvé sur le règlement européen sur l’intelligence artificielle. La vocation de ce règlement, pionnier s’il en est, est essentiellement de créer un cadre de régulation des risques générés par les usages de l’intelligence artificielle.

Pour ce faire, l’Union européenne a fait le choix d’adopter une législation de type « sécurité des produits » qui repose sur l’analyse de risques, fondée en partie sur des mécanismes de compliance à savoir de responsabilisation des fournisseurs de systèmes d’intelligence artificielle. Le texte propose ainsi une distinction entre différents niveaux de risques, des risques pouvant résulter de l’usage de ces systèmes et non de la technologie elle-même, considérée comme neutre. Ce modèle de législation, bien connu du droit de l’Union européenne, se veut de nature essentiellement économique. L’objectif est d’imposer le respect d’un certain nombre de règles avant la mise sur le marché ou lors de la circulation d’un produit, ici pour établir un cadre de confiance afin de soutenir le déploiement des systèmes d’intelligence artificielle dans l’Union européenne.
C’est la protection des valeurs européennes, et en particulier le respect des droits fondamentaux, ainsi que des exigences fortes en matière de sécurité qui servent de « boussole » pour définir le niveau de risques relatifs à ces différents usages. Divers systèmes présentant des risques considérés comme inacceptables seront donc prohibés, tels le recours à des techniques de manipulation cognitive et comportementale, la catégorisation biométrique utilisant des caractéristiques sensibles, la reconnaissance émotionnelle pour ses applications en contexte professionnel ou éducatif, des pratiques visant à exploiter la vulnérabilité de certains groupes ou encore la notation sociale. L’interdiction de la reconnaissance faciale dans l’espace public à des fins répressives a été âprement