Ni ange, ni démon : l’IA au service de l’action publique ?
Avec une régularité de métronome, de nouvelles applications de l’intelligence artificielle font l’objet chaque mois d’une médiatisation mondiale. La dernière en date, ChatGPT, est un robot conversationnel aux performances langagières sans précédent qui fascine grâce à ses créations littéraires et sa capacité de dialogue tous azimuts. Créé par la société Open AI, il aurait avalé 570 gigaoctets de données, puisque c’est ainsi que se construit aujourd’hui l’IA, par l’ingestion massive de paramètres puisés sur le web.
De son côté, Elon Musk met en avant les performances d’Optimus, construction humanoïde de Tesla, capable d’assurer des fonctions jusqu’ici dévolues aux humains et qui, produite par millions, « changerait la civilisation ». Remplacera-t-il bientôt le facteur ou le policier sur un carrefour ? Et on peut parier que la reconnaissance faciale préconisée pour prévenir des incidents lors des JO de Paris sera un prochain sujet de controverse.
Dans d’innombrable organisations publiques ou privées, l’intelligence artificielle prend progressivement une place inimaginable il y a encore dix ans. L’accélération, permise par des apprentissages engloutissant des masses considérables de données et d’images, n’est pas un mythe.
Mais qu’en est-il réellement dans le monde public ? Où trouver les promesses tenues et les expérimentations marquantes ? Et surtout, qui assume la responsabilité d’éclairer et de maitriser le déploiement de ces nouveaux systèmes auxquels beaucoup prêtent un immense avenir sans pouvoir en identifier ni l’agenda, ni les risques ? C’est désormais une question centrale pour nos sociétés. L’enterrer, par haine de la complexité, par indifférence ou pour protéger des intérêts puissants seraient une faute démocratique majeure.
Il importe surtout de comprendre comment les autorités publiques, les développeurs numériques et les entreprises, les citoyens/usagers jouent – ou ne jouent pas – un rôle dans l’histoire de l’IA mobilisée pour la transformation de l’action publique. Quelles responsabilités individuelles et collectives doit-on affirmer pour que cette grande aventure humaine et technologique ne vire pas au fiasco ou au cauchemar ?
À cette heure, l’IA ne révolutionne pas ou pas encore le monde public. Les applications les plus communément expérimentées ou déjà déployées ont pour principaux objectifs l’automatisation de tâches bureaucratiques répétitives, la surveillance ou le diagnostic en santé, l’aide à la décision d’orientation ou de contrôle. Mais qu’en sera-t-il demain ? La conservation d’un musée sera-t-elle assurée par une intelligence artificielle, interrogent Joan Fontcuberta et Pilar Rosado ? La progression des systèmes d’armes létales autonomes (les « robots-tueurs ») viendra-t-elle concurrencer « le métier des armes » ?
L’IA, une histoire chaotique comme toutes les étapes du numérique
Que l’on conteste ses bienfaits ou que l’on redoute ses risques, l’IA contient néanmoins d’immenses potentiels. En cela, l’histoire du numérique est un éternel retour, un perpétuel recommencement. L’IA et les systèmes algorithmiques répliquent les invariants fondamentaux des étapes précédentes de l’évolution du monde numérique. Se sont enchainées des innovations technologiques majeures comme l’« apprentissage profond » (deep learning) et des promesses d’usages disruptifs.
Les décideurs publics cèdent alors à l’illusion technologique avec des applications non matures. La médiatisation s’enflamme. Les financements abondent et des offres viennent du marché : des industriels du numérique, des cabinets de conseil, des start-ups, se livrant à un marketing agressif face auquel les clients (publics) sont plus ou moins armés pour répondre et réagir. Ces années récentes, les applications en santé, sécurité, éducation, gestion des villes ont fait l’objet de ces lobbyings intensifs, alors qu’elles n’étaient sécurisées ni techniquement, ni juridiquement.
S’engage désormais un agenda chaotique fait d’accélérations, mais aussi de faux-plats, de retards de blocages… résultant des erreurs, des tâtonnements techniques, comme de la résistance que provoquent des projets mal ficelés ou potentiellement dangereux. L’agenda de la voiture autonome dans l’espace public est un exemple de grand chantier qui marque le pas. L’écart entre l’IA rêvée et l’IA réelle s’installe. Le temps de la déception n’est jamais loin. Pour autant, des résultats concrets apparaissent et motivent les acteurs.
Les menaces pour les libertés deviennent tangibles au fur et à mesure que l’IA devient moins virtuelle. Elles créent des oppositions citoyennes, syndicales, politiques[1]. Des cultures antagonistes de compréhension de l’IA s’élaborent avec des clivages profonds. Ces moments de confrontation conduisent à l’enterrement des projets ou à leur renvoi sine die, parfois sur injonction de la CNIL. Dans les années récentes, ont connu ce sort le projet de reconnaissance faciale à l’entrée des lycées niçois, ou Alicem, la solution d’identité numérique sécurisée du ministère de l’Intérieur.
Pour toutes ces raisons, émerge une demande intense de maîtrise collective et de régulations, avec un débat récurrent sur les choix à opérer entre l’autorégulation par les acteurs, la mobilisation de l’éthique, l’intervention des autorités administratives indépendantes, ici avant tout la CNIL, les initiatives législatives et les règles européennes.
Les enjeux de l’IA dans le monde public
L’application de l’IA dans le secteur public pose des enjeux particuliers. En effet, au-delà des performances du système et des fonctionnalités qu’il peut offrir, il est nécessaire d’assurer les obligations liées aux services publics, notamment les principes d’égalité, de continuité, d’accessibilité, de transparence, de neutralité et de fiabilité.
De plus, comme le souligne Etalab, les systèmes d’information algorithmiques (SIA) utilisés dans le secteur public sont « censés opérer au service de l’intérêt général et ils servent souvent à exécuter le droit ou à (faire) appliquer la loi ». Facteur aggravant, ils peuvent aussi dans certains cas être « incontournables », c’est à dire sans alternative pour les usagers. Il est donc compréhensible que leur déploiement dans l’action publique, en particulier dans des domaines régaliens comme la justice ou la sécurité, suscite de fortes inquiétudes. Ces inquiétudes expliquent en partie le fait que, si les potentialités de l’IA en matière d’action publique sont très nombreuses, comme le montre le rapport récent du Conseil d’État[2], son déploiement effectif semble nettement moins avancé que dans le secteur privé.
Le principe d’égalité, fondamental en matière d’action publique, peut être difficile à garantir pour des services qui reposent sur l’IA. On sait en effet que certains SIA comportent des biais liés aux jeux de données utilisés lors de leur phase d’apprentissage. Ces biais ne sont pas intentionnels, mais ils peuvent conduire à une généralisation et une amplification de traitements discriminatoires.
Ce risque est accentué par l’opacité de certains systèmes, notamment ceux qui reposent sur l’apprentissage profond ou qui font intervenir un nombre très important de facteurs. Des solutions techniques ont été proposées pour améliorer la compréhension des résultats de systèmes opaques et pour identifier ou réduire les biais mais elles ne peuvent généralement pas fournir des garanties absolues. Ces risques ne sont donc pas rédhibitoires mais ils imposent une vigilance particulière pour tout usage dans un domaine comme l’action publique où il est nécessaire de pouvoir rendre compte des décisions.
Pour cette raison, l’État doit rester maître des codes des SIA qu’il utilise, même s’ils n’ont pas été conçus par ses services. En France, la loi pour une République numérique de 2016 introduit des exigences précises en matière de transparence puisque toute administration doit communiquer à la personne faisant l’objet d’une décision individuelle prise sur le fondement d’un traitement algorithmique, à la demande de celle-ci, sous une forme intelligible les informations essentielles sur ce traitement.
Le rapport de l’IA au principe d’accessibilité est également ambivalent. D’une part, certains SIA peuvent faciliter l’accès aux services publics. C’est le cas par exemple des agents conversationnels qui peuvent répondre à toute heure et sans délai à des questions des administrés ou encore de SIA utilisés pour améliorer le recours aux prestations sociales. Cependant, leur utilisation requiert un accès à internet et suppose un minimum de familiarité avec l’usage des outils numériques. Il est donc nécessaire d’offrir et de maintenir des solutions alternatives sous peine d’aggraver la « fracture numérique », qui est culturelle et sociale, plus encore que territoriale. Il faut également prendre garde au risque de déshumanisation qui peut éloigner encore plus les citoyens de leurs services publics.
L’introduction de SIA peut également avoir un impact majeur sur l’activité des agents eux-mêmes. Selon la manière dont ils sont conçus et introduits dans les services, ces systèmes peuvent soit améliorer les conditions de travail des agents, en leur permettant de se concentrer sur des tâches plus valorisantes, soit les dégrader en réduisant leur autonomie ou en dépréciant leurs compétences. Il est donc essentiel d’associer étroitement les agents publics à la conception et au déploiement des SIA. Cette problématique s’applique également au secteur privé mais elle revêt un caractère particulier dans l’administration, pour des agents qui sont essentiellement motivés par un objectif de service public.
Les relations entre le secteur public et le secteur privé posent également des questions complexes. Ces relations se situent sur des plans très différents puisque l’État peut être à la fois client, partenaire ou concurrent d’acteurs privés mais se trouve également en position de régulateur en tant que source de normes. Il est client ou partenaire lorsqu’il recourt à des SIA ou des services proposés par des acteurs privés. Il est important alors que l’État garde une entière maîtrise de ces SIA comme on l’a déjà évoqué au sujet de la transparence.
Il est également nécessaire que l’État acquière et maintienne une forte compétence en matière d’intelligence artificielle et d’ingénierie de la donnée, soit pour garder la possibilité de développer ses propres systèmes en interne, pour réduire sa dépendance au secteur privé, soit pour être en mesure d’acheter et de contrôler parfaitement ceux qui sont fournis par des acteurs tiers. Il s’agit de compétences rares dans un domaine très compétitif et l’État n’est pas toujours dans la meilleure position pour rivaliser avec les acteurs privés sur ce marché tendu.
Ce souci de « garder la main » est d’autant plus sensible que les grands prestataires (cabinets de conseils, GAFAM, industriels du secteur, etc.) ne se bornent pas à répondre à des demandes exprimées dans les cahiers des charges des clients publics. Ils pratiquent une politique de l’offre vigoureuse, qui propose à la fois des objectifs de politique publique, des savoir-faire et des innovations.
L’État n’est pas seulement un utilisateur des SIA, il possède également le pouvoir d’imposer les « règles du jeu ». Certains secteurs d’activité peuvent édicter leurs propres normes sous forme de chartes éthiques, de règles de bonne conduite ou encore de normes techniques mais, à défaut d’obligation légale, leur adoption et leur respect relève de leur bonne volonté. On parle alors d’autorégulation ou de corégulation, selon le rôle joué par l’État dans l’élaboration ou la validation de ces normes. Ces démarches sont souvent perçues comme des manœuvres des acteurs privés destinées à convaincre le législateur de ne pas leur imposer de normes réellement contraignantes.
S’agissant d’IA, l’État français a fait figure de pionnier avec les mesures de transparence imposées par la loi pour une République numérique. Au niveau européen, le sujet est d’une actualité brûlante puisqu’un règlement dédié à l’IA a été adopté en 2022. Il convient toutefois de souligner que, si certaines de ses dispositions représentent de réelles avancées en matière de droits individuels, ce texte présente de nombreuses lacunes.
Il est notamment très en deçà de ce qu’on pourrait espérer sur le plan de la lutte contre les discriminations, comme l’a pointé la Défenseure des droits, et en matière de transparence. Faiblesse très soulignée, les « citoyens sont quasiment absents de la proposition de règlement alors même que celle-ci prétend promouvoir une IA centrée sur l’humain. Par exemple, quand la transparence est invoquée, c’est toujours à destination de l’organisation, publique ou privée, qui déploie le système : le texte ne prévoit aucun droit d’explication ou de justification pour les personnes affectées par des décisions algorithmiques ».
Il existe à l’heure actuelle très peu de travaux offrant une vision panoramique et critique des usages opérationnels et des enjeux démocratiques de l’IA dans le monde public. Comme souvent, la littérature avait un coup d’avance[3]. Pour rendre des applications de l’IA acceptables par la société française, il importe de s’appuyer en continu sur des connaissances mises en débat.
C’est une discussion que des citoyens exigeants, des chercheurs indépendants et des décideurs lucides doivent poursuivre dès maintenant. Le choix du mode d’organisation de cette discussion et son intégration dans le processus de décision sont des questions complexes, mais qu’il est aussi urgent de mettre sur la table. Aux ruptures numériques doivent répondre, une fois encore, des transformations de nos démocraties.
NDLR : Daniel Le Métayer et Christian Paul ont codirigé l’ouvrage Maitriser l’IA au service de l’action publique, récemment paru chez Berger-Levrault.