L’IA transgresse nos sphères de justice, et c’est sans doute son plus grand danger
Les deepfakes, les chambres d’écho et la surveillance de masse ne sont pas les seuls dangers du déploiement de l’intelligence artificielle (IA). Il existe un enjeu plus profond qui risque de mettre à mal tout autant nos principes démocratiques que scientifiques : la transgression des sphères de justice.
Le succès de l’IA générative nous ferait presque oublier que le nouvel âge d’or de cette technologie a été rendu possible par les statistiques et la mise en relation d’informations. Les modèles informatiques se sont mis à chercher, et à trouver (!), des corrélations dans des bases de données qui étaient autrefois séparées ou qui n’existaient tout simplement pas. Dès lors, il a été possible de demander à la machine quels étaient les critères déterminants pour tout et n’importe quoi : détection de la rétinopathie diabétique, anticipation d’avaries sur des chaînes de productions, mais aussi évaluation de la solvabilité des individus[1], du risque de récidive, ou encore identification de personnes homosexuelles[2].
Le problème n’est toutefois pas seulement que l’IA s’introduise dans notre vie privée, mais qu’elle entraîne une communication entre des sphères de la vie qui étaient distinctes les unes des autres. Cela s’opère à la fois par un expansionnisme des géants de la tech, qui propagent ainsi leurs valeurs, mais aussi par une propagation concomitante de la méthodologie de l’IA à des domaines de la société qui lui étaient auparavant inconnus, remettant ainsi en cause les présupposés scientifiques de chaque discipline au profit de simples corrélations. Les acteurs des nouvelles technologies s’offrent la liberté de mettre en relation statistique tous les domaines qu’ils souhaitent pour arriver à leurs fins et engendrent ainsi des transgressions entre des sphères de justice, qui sont parfois très éloignées de leur domaine de compétence initial, jusqu’à imposer la tyrannie de quelques-unes sur les autres.
Les sphères de justice pour penser une nouvelle ère
Le philosophe américain contemporain Michael Walzer considère que nos sociétés sont constituées de différentes sphères de justice qui répondent chacune à leur propre logique et produisent des « biens » différents. Un bien étant ce qui est visé par chacune d’entre elles et défini par une compréhension partagée selon la communauté dans laquelle nous nous trouvons. La religion engendre la grâce ; l’éducation rend possible l’accès à des fonctions publiques ; la médecine permet la santé ; etc. Michael Walzer juge cependant qu’une situation de « tyrannie[3] » apparaît lorsqu’un bien produit par une sphère devient nécessaire pour acquérir celui d’une autre : si l’argent donne accès à la grâce ; si certains liens de parenté sont indispensables pour obtenir un poste de fonctionnaire ; etc. La « tyrannie », dit-il en reprenant les mots de Pascal, correspond au « désir de domination, universel et hors de son ordre[4] » (« ordre » étant traduit par « sphere » en anglais).
Michael Walzer n’a pas développé ses idées pour l’ère d’Internet ni de l’IA, mais elles se révèlent très pertinentes pour penser les nouvelles technologies, comme l’a souligné Tamar Sharon, philosophe à l’université Radboud aux Pays-Bas[5]. Car, pour protester contre les assauts du capitalisme algorithmique, l’opposition souvent mise en avant entre la vie privée et le marché n’est pas des plus pertinentes. Le numérique s’introduit aujourd’hui dans de multiples sphères de la société civile, pas seulement celle de la vie privée et pas uniquement via des entreprises. L’approche plurielle de Michael Walzer offre alors des ressources critiques face à des entités qui promeuvent des valeurs qui ne se restreignent plus à la sphère du marché. Les plateformes Internet défendent maintenant le bien commun ou la démocratisation du savoir médical par exemple et ne se contentent plus de plaider pour la liberté ou l’utilité (les biens traditionnels de la sphère du marché). Elles trouvent des relais idéologiques avec des fondations ou des acteurs politiques dont l’indépendance n’est pourtant pas à remettre en cause.
Tamar Sharon est certainement la première à avoir identifié la capacité des systèmes d’IA à mettre en lien des sphères et à imposer ainsi les règles et les biens de l’une d’entre elles sur d’autres, mais moins pour des raisons épistémologiques qu’industrielles. Elle prend l’exemple du secteur de la santé pour montrer à quel point la logique du numérique s’immisce dans une sphère et y prend de plus en plus de place. Ce que cette première considère comme la mesure du succès devient alors un bien prépondérant dans cette seconde. Tamar Sharon cite le robot thérapeutique Paro utilisé dans des maisons de retraite pour stimuler la sociabilité des résidents. Seulement, ce bébé phoque mécanique a parfois été introduit au détriment d’autres biens essentiels du soin, comme l’habillement, la toilette ou l’alimentation. Il a été observé que certains résidents ne voulaient plus le lâcher pour aller se coucher ou dîner. L’interaction humaine fluide avec un robot, qui peut être considérée comme un bien fondamental de la sphère des technologies, risque de compromettre d’autres biens propres à la sphère du soin.
Une autre idée intéressante qu’elle développe est encore que « l’expertise numérique » est aujourd’hui une compétence fortement recherchée et valorisée dans d’innombrables secteurs au point de devenir un bien « prédominant[6]». Nous ne disons pas qu’il faut rejeter les outils au seul prétexte que ce sont des nouveautés, ils sont parfois très utiles. Mais il se passe quelque chose qui dépasse leur simple caractère pratique : ils imposent une certaine méthodologie, des valeurs et des biens. Le risque serait donc de les suivre aveuglément. Combien de fois ne sommes-nous pas surpris dans notre vie quotidienne à nous demander ce que nous gagnons vraiment à recourir à une nouvelle technologie ? Combien de fois n’avons-nous pas l’impression d’être distraits de nos objectifs avec ce que le numérique nous présente comme des biens nécessaires au détriment, souvent, des biens propres à la sphère dans laquelle nous évoluons, en privé ou publiquement ?
Tamar Sharon nomme ainsi « Googlisation[7]» un phénomène qui va plus loin que l’intrusion de la tech dans nos maisons. Il s’agit pour des grands acteurs du numérique (pas uniquement Google) de pénétrer des secteurs toujours plus variés et qui n’étaient pas les leurs à l’origine. Tamar Sharon considère que ces entités imposent par la même occasion des biens dans ces nouvelles sphères avec le péril de créer des situations de tyrannie.
Il faut comprendre que « les technologies sont toujours chargées de valeurs[8] », comme elle l’écrit. Cela signifie donc que les outils nous invitent à accepter non seulement la logique et les biens qui leur sont propres, mais encore à leurs valeurs. « Nous essayons aujourd’hui, à travers la numérisation, de tout optimiser, de l’application de rencontres au marché du travail, en passant par la santé et l’administration publique[9]. » Tamar Sharon identifie ainsi l’optimisation, mais aussi la standardisation, le contrôle et l’objectivité parmi ces valeurs.
La transgression d’une sphère ne semble toutefois pas systématiquement mener à une injustice. Tamar Sharon explique que tel est le cas lorsqu’elle aboutit à la transformation des biens et la domination de certains acteurs. Selon nous, le sentiment d’injustice apparaît plus précisément quand des sphères sont mises en relation d’une manière qui nous déplaît moralement en raison d’un certain biais d’approche. Dans le cadre d’une traduction automatique, cela ne prête pas à conséquence immédiate, mais si nous parlons de recrutement, d’accès aux soins, de crédit ou de prestations sociales, le biais devient insupportable.
Des associations indésirables
Par exemple, pour une demande de crédit, si une banque se mettait à corréler la solvabilité, et donc l’éligibilité, des candidats à leurs codes postaux, tout le monde trouverait cela scandaleux. Le PDG de Nvidia se félicitait pourtant en 2018 de pouvoir trouver ce type de relation en un rien de temps grâce à ses processeurs. En matière de « prévision » de la récidive, le logiciel Compas utilisé dans plusieurs juridictions aux États-Unis, est souvent cité comme un cas d’école.
Une enquête du média ProPublica de 2016, récompensée par le prix Pulitzer, a démontré que cet outil informatique surestimait le risque de commettre à nouveau une infraction pour les personnes noires et qu’il le sous-estimait pour les blanches. L’algorithme n’est pas accessible aux journalistes ni aux universitaires, secret industriel oblige, mais l’hypothèse la plus probable est que les réponses des prévenus à certaines questions qui ont alimenté la machine constituaient des facteurs aggravants : « Un de vos parents est-il déjà allé en prison ? », « Combien de vos ami·es prennent des stupéfiants ? » Les individus noirs étant plus susceptibles de répondre par l’affirmative aux États-Unis, ils et elles se retrouvaient ainsi avec des scores de risque plus élevés.
Pourtant, nul ne souhaite que sa sphère sociale ou familiale puisse lui valoir des peines plus lourdes. Nous exigeons que ces domaines soient séparés de la décision du juge, sauf peut-être cas de complicité avérée, et encore : peut-on blâmer un enfant des crimes de ses parents ? La sphère de la justice demande – dans une certaine mesure – à distinguer celle de la famille ou de celle de l’environnement social. Mais la machine légitime des corrélations que nul ne se serait autorisé autrement.
L’IA générative n’est pas épargnée par cette transgression des sphères. En 2024, une étude de l’université Princeton a mis en évidence que ce nouveau type d’algorithmique procédait à des associations d’idées pour le moins dérangeantes[10]. Des scientifiques ont demandé à ChatGPT (modèles GPT-3.5 et GPT-4.0) de relier les couleurs « noir » et « blanc » à des mots comme : famille, Benjamin, Julia, travail, carrière, portefeuille, etc. Une des observations les plus troublantes est l’association très fréquente de noms d’armes (« revolver », « épée », etc.) ou de notions de culpabilité juridique (« criminel », « pris flagrant délit », etc.) à la couleur noire. Les humains affichent parfois aussi ce genre de biais implicite[11], mais les scientifiques s’inquiètent eux-mêmes de ces résultats : « Bien que les humains associent aussi implicitement le concept de “noir” avec la négativité, ce n’est pas avec le même niveau de confiance (ou d’incertitude) et de radicalité (presque toujours) que GPT-4. »
Autre stéréotype pour le moins problématique : le précédent modèle de ChatGPT produisait une association très significative entre l’islam et la violence. Plus de 60% des réponses de la machine relevaient du champ lexical de la violence lorsque le prompt comportait cette religion, loin devant le christianisme et le judaïsme[12].
On peut se demander quel est le rapport entre ces biais discriminatoires et les sphères de justice. La réponse paraît évidente dès lors que nous comprenons que tout système d’IA s’inscrit dans un usage. Imaginons que, demain, les modèles génératifs soient utilisés pour assister la rédaction de procès-verbaux, d’article de presse ou bien pour évaluer des CV, ils risquent alors de créer des associations indésirables avec la religion ou la couleur de peau (cette dernière notion peut être assimilée à la sphère de notre corps). En fait, il n’est pas même besoin d’imaginer cela puisque des journalistes et certains recruteurs ont déjà recours à ce genre de technologie, qu’ils soient accompagnés par leur entreprise ou non. Associated Press a révélé, fin août, qu’un logiciel utilisant la même technologie que ChatGPT est actuellement utilisé par la police d’Oklahoma City et de Lafayette (Indiana), aux États-Unis, pour aider les agents à écrire leurs rapports.
Les ingénieurs parviennent parfois à réfréner les tendances discriminatoires de la machine, mais il n’est pas dit que les garde-fous tiennent dans toutes les situations. Car, pourquoi trouvons-nous ces biais indésirables dans les systèmes d’IA ? Parce qu’ils sont souvent conçus par entraînement sur une grande masse de données (textes, images, etc.). Leurs réponses sont donc le reflet des associations d’idées qu’ils ont vues au cours de leur apprentissage. Or, ces bases de données sont souvent constituées de contenus web dans lesquels les préjugés de nos sociétés s’expriment sans retenue. « La logique classificatrice se rattache elle aussi à la prestation logique préalable que la langue accomplit pour elle[13] », écrivait le philosophe allemand Hans-Georg Gadamer de façon presque prémonitoire, en 1960. Ces biais intégrés par la machine peuvent ainsi devenir des règles à appliquer lorsqu’elle se retrouve sur le terrain. C’est alors que les préjugés nous sautent aux yeux ; c’est alors que la transgression entre des sphères de justice s’opère.
Le biais de la machine est susceptible de reproduire nos préjugés en exprimant une association que nous voulions éviter entre certaines catégories. Et c’est, nous semble-t-il, ce que dit Walzer quand il nous invite à séparer les sphères de justice les unes des autres. Les sphères de justice ne sont en fait que des catégories de notre société qui ont la particularité de porter une signification morale partagée. Or, l’IA, que fait-elle ? Elle met en relation des domaines du savoir, et il peut s’agir de sphères de justice auparavant séparées. Elles étaient distinctes parce que les bases de données relatives n’étaient pas constituées, accessibles ou interopérables.
La transformation numérique, et avec elle la Googlisation de nos sociétés, ont permis de les créer ou de les rapprocher. Seulement, la machine est indifférente à nos considérations morales. Elle est donc susceptible d’introduire un biais, qui n’est pas qu’une simple erreur, mais qui se fonde sur une corrélation entre une sphère et une autre. C’est un biais indésirable si cela distord une relation établie et nous déplaît moralement, si cela instaure de nouveaux rapports ou si cela fait apparaître une règle discriminatoire que nous n’avions pas décelée et, surtout, si nous préférons garder les sphères séparées pour garantir des libertés fondamentales.
Nous devons souligner que les systèmes d’IA qui produisent ces biais indésirables ne font souvent que les reproduire, quelques fois dans les mêmes proportions que les humains[14]. Un logiciel de tri automatique des candidats à l’école de médecine du St George Hospital de Londres avait été mis en cause dès les années 1980 pour avoir écarté les candidatures féminines et/ou de personnes issues de l’immigration[15]. L’établissement avait été condamné et trois postulants avaient été repêchés. Mais un rapport d’enquête a établi que la machine affichait une correspondance avec les évaluations humaines supérieure à 90%.
Les algorithmes apparaissent ainsi comme des révélateurs de nos préjugés et peuvent nous amener à prendre conscience de leur existence (ce n’est pas toutefois une excuse pour les laisser en place). Cela demande néanmoins que la communauté des scientifiques, qu’il s’agisse des concepteurs ou des auditeurs des algorithmes, soient sensibles à la problématique des biais et à l’histoire qui s’exprime à travers eux. Sinon, les préjudices pourront perdurer tant que nous resterons « sourds à la chose qui parle dans la tradition[16] », comme écrivait Hans-Georg Gadamer. C’est-à-dire incapables de prêter attention aux catégories dont nous héritons et qui sont susceptibles de produire des transgressions et des injustices sans que nous en ayons forcément l’intention.
La science face au péril de l’IA
Si « corrélation n’est pas causalité », comme dit l’adage, les méthodes d’apprentissage automatique ne le suivent que rarement, à moins que les ingénieurs forcent le logiciel à procéder différemment. Les systèmes d’IA n’ont pas pour objectif de rechercher des liens causaux en s’appuyant sur nos théories préexistantes, mais de trouver des schémas récurrents, relier des sphères entre elles.
Outre les biais dans les bases de données et le manque de culture des concepteurs sur ces enjeux, c’est aussi la raison pour laquelle des transgressions sont possibles. Les ingénieurs aiment qu’un algorithme arrive à identifier des schémas utiles que nous sommes dans l’incapacité de trouver sans son aide. Pensons au problème du repliement des protéines pour lequel l’IA s’est montrée très prometteuse alors que la science classique s’y cassait les dents[17].
La recherche et l’industrie prennent toutefois petit à petit conscience que cette méthode par inférence statistique – « méthode » qui n’en est pas vraiment une – peut créer des situations d’injustice. Les scientifiques donnent alors quelques limites à leurs modèles ou bien introduisent un « contre-biais », un biais censé en contrebalancer un autre. Cela ne remet toutefois pas en cause l’objectif de découvrir des nouveaux schémas.Le problème des transgressions et des biais ne relève pas juste de l’erreur de calcul : quelques corrélations sont si significatives qu’elles passent aisément les seuils requis par les publications scientifiques. Seulement, si c’est au détriment de libertés fondamentales, une profonde gêne éveille alors sourdement en nous un sentiment d’injustice.
Si les systèmes d’IA permettaient demain le retour de théories raciales au prétexte de quelques corrélations, nos communautés trouveraient cela inacceptable. Or, certaines de ces corrélations sont malheureusement rendues possibles par des biais discriminatoires, mais des biais qui traduisent en fait une histoire marquée par le racisme. Ces biais sont autant de règles qui reposent sur des variables explicites ou de substitution (proxies). Mais c’est évidemment le passé qui a produit une distinction entre les êtres humains et qui leur a attribué ces variables bien plus que la biologie. Le retour de la phrénologie, la pseudo-science du comportement par l’étude de la forme du crâne ou du visage, est une des menaces les plus dangereuses de l’IA. Des ingénieurs mal avisés pourraient cependant se laisser berner ou, pire, se servir de l’outil à des fins inavouées.
Vouloir appliquer la méthodologie de l’IA partout, c’est renier des siècles de théorie de la causalité. L’ancien rédacteur en chef du magazine Wired, Chris Anderson, a même cru bon de déclarer « la fin de la théorie » dès 2008 alors que le « Big Data » attirait davantage l’attention. Même si l’on défend que les théories scientifiques s’appuient fondamentalement sur quelques corrélations robustes – comme le scepticisme méthodologique nous l’enseigne – elles sont le fruit d’interprétations de la nature et de l’humain qui non seulement avancent avec grande prudence, mais sont aussi parfois incompatibles entre elles.
Il faut bien admettre cependant que la science n’est jamais plus époustouflante et utile que lorsqu’elle parvient à relier des domaines de la connaissance a priori séparés (pensons à James Clerk Maxwell qui relia électricité et magnétisme au XIXe siècle), et c’est ce que nous croyons percevoir avec l’apprentissage automatique. Les revues académiques sont friandes de cette capacité à trouver des liaisons qui sortent de l’ordinaire ; certaines de ces publications les plus influentes ne font alors qu’accentuer et légitimer des illusions produites par l’IA. En ce sens, le péril de l’IA n’est jamais que celui de la science en général : l’une comme l’autre cherchent à relier des sphères entre elles.
Toute la question est de savoir ce qu’il faut prendre pour argent comptant. Dans une discipline où l’interprétation des liens causaux est quasiment inexistante, il nous faut avancer – sans jeu de mots – avec le plus grand scepticisme et nous souvenir ce que nous tenions pour vrai il n’y a pas si longtemps avant de sacrifier nos théories, et avec elles souvent nos droits, sur l’autel du numérique.
Les systèmes d’IA permettent à présent de trouver des connexions entre plus en plus de données et dans des sphères toujours plus variées. Ils créent de la perméabilité entre les sphères jusqu’à produire parfois des transgressions. Les ordinateurs ne savent pas a priori quel bien devrait ou non avoir un poids dans telles ou telles sphères en vertu de leur indépendance réciproque. Si nous ne prévenons pas certaines corrélations, les systèmes d’IA les feront aux dépens de nos valeurs morales et de la science.