Numérique

Le défi d’une régulation de l’intelligence artificielle

secrétaire général du Conseil national du numérique , Professeure de droit

Le vendredi 8 décembre, les colégislateurs de l’Union européenne ont annoncé s’être entendus sur l’AI Act, un texte destiné à réguler le développement et l’usage de l’intelligence artificielle. Ce texte n’est en vérité qu’un premier pas, certes considérable, mais qui pose des enjeux cruciaux pour d’autres étapes à venir. Outre que les futurs textes doivent balayer le faux débat entre régulation et innovation, ils doivent veiller à protéger certains travailleurs précaires de l’IA, à mieux mesurer la consommation de ressources de cette technologie et à donner plus d’agentivité aux utilisateurs.

«Historique » nous annonçait Thierry Breton ce vendredi 8 décembre au soir, un accord politique a été trouvé sur le règlement européen sur l’intelligence artificielle. La vocation de ce règlement, pionnier s’il en est, est essentiellement de créer un cadre de régulation des risques générés par les usages de l’intelligence artificielle.

publicité

Pour ce faire, l’Union européenne a fait le choix d’adopter une législation de type « sécurité des produits » qui repose sur l’analyse de risques, fondée en partie sur des mécanismes de compliance à savoir de responsabilisation des fournisseurs de systèmes d’intelligence artificielle. Le texte propose ainsi une distinction entre différents niveaux de risques, des risques pouvant résulter de l’usage de ces systèmes et non de la technologie elle-même, considérée comme neutre. Ce modèle de législation, bien connu du droit de l’Union européenne, se veut de nature essentiellement économique. L’objectif est d’imposer le respect d’un certain nombre de règles avant la mise sur le marché ou lors de la circulation d’un produit, ici pour établir un cadre de confiance afin de soutenir le déploiement des systèmes d’intelligence artificielle dans l’Union européenne.

C’est la protection des valeurs européennes, et en particulier le respect des droits fondamentaux, ainsi que des exigences fortes en matière de sécurité qui servent de « boussole » pour définir le niveau de risques relatifs à ces différents usages. Divers systèmes présentant des risques considérés comme inacceptables seront donc prohibés, tels le recours à des techniques de manipulation cognitive et comportementale, la catégorisation biométrique utilisant des caractéristiques sensibles, la reconnaissance émotionnelle pour ses applications en contexte professionnel ou éducatif, des pratiques visant à exploiter la vulnérabilité de certains groupes ou encore la notation sociale. L’interdiction de la reconnaissance faciale dans l’espace public à des fins répressives a été âprement


Jean Cattan

secrétaire général du Conseil national du numérique

Célia Zolynski

Professeure de droit, Professeure à l'École de droit de la Sorbonne de l’Université Paris 1 Panthéon-Sorbonne