Numérique

L’IA transgresse nos sphères de justice, et c’est sans doute son plus grand danger

journaliste, docteur en philosophie

L’intelligence artificielle ne se contente pas de pénétrer notre vie privée, elle fusionne des sphères de la vie autrefois distinctes, imposant ses propres valeurs au-delà de son champ initial. Cette « Googlisation du monde » risque de transgresser les frontières entre domaines de la société, bouleversant les présupposés scientifiques et moraux. Le danger réside dans la standardisation et la tyrannie des corrélations, où des biais algorithmiques amplifient nos préjugés.

Les deepfakes, les chambres d’écho et la surveillance de masse ne sont pas les seuls dangers du déploiement de l’intelligence artificielle (IA). Il existe un enjeu plus profond qui risque de mettre à mal tout autant nos principes démocratiques que scientifiques : la transgression des sphères de justice.

publicité

Le succès de l’IA générative nous ferait presque oublier que le nouvel âge d’or de cette technologie a été rendu possible par les statistiques et la mise en relation d’informations. Les modèles informatiques se sont mis à chercher, et à trouver (!), des corrélations dans des bases de données qui étaient autrefois séparées ou qui n’existaient tout simplement pas. Dès lors, il a été possible de demander à la machine quels étaient les critères déterminants pour tout et n’importe quoi : détection de la rétinopathie diabétique, anticipation d’avaries sur des chaînes de productions, mais aussi évaluation de la solvabilité des individus[1], du risque de récidive, ou encore identification de personnes homosexuelles[2].

Le problème n’est toutefois pas seulement que l’IA s’introduise dans notre vie privée, mais qu’elle entraîne une communication entre des sphères de la vie qui étaient distinctes les unes des autres. Cela s’opère à la fois par un expansionnisme des géants de la tech, qui propagent ainsi leurs valeurs, mais aussi par une propagation concomitante de la méthodologie de l’IA à des domaines de la société qui lui étaient auparavant inconnus, remettant ainsi en cause les présupposés scientifiques de chaque discipline au profit de simples corrélations. Les acteurs des nouvelles technologies s’offrent la liberté de mettre en relation statistique tous les domaines qu’ils souhaitent pour arriver à leurs fins et engendrent ainsi des transgressions entre des sphères de justice, qui sont parfois très éloignées de leur domaine de compétence initial, jusqu’à imposer la tyrannie de quelques-unes sur les autres.

Les sphères de justice pour penser une nouvelle ère

Le ph


[1] A. R. Provenzano, D. Trifirò, A. Datteo, et al., « Machine Learning approach for Credit Scoring », in arXiv, 2020.

[2] Yilun Wang et Michal Kosinski, « Deep neural networks are more accurate than humans at detecting sexual orientation from facial images », in Journal of personality and social psychology, 2017.

[3] Michael Walzer, Sphères de justice: une défense du pluralisme et de l’égalité, traduit par Pascal Engel, Seuil, 2013, 475 p, p. 43.

[4] Blaise Pascal, Pensées, Br., Flammarion, 2015, 448 p, [244].

[5] Tamar Sharon, « From hostile worlds to multiple spheres: towards a normative pragmatics of justice for the Googlization of health », in Medicine, Health Care and Philosophy, 2021.

[6] Tamar Sharon, « Towards a theory of justice for the digital age: in defence of sphere and value-pluralism », Radboud University, 2023.

[7] Tamar Sharon, « From hostile worlds to multiple spheres: towards a normative pragmatics of justice for the Googlization of health », art cit. ; Sharon Tamar, « Beyond Hostile Worlds: The Multiple Sphere Ontology of the Digitalization and Googlization of Health », in Social Science Research Network, 2020.

[8] Tamar Sharon, « Towards a theory of justice for the digital age », art cit.

[9] Ibid.

[10] Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, et al., « Measuring Implicit Bias in Explicitly Unbiased Large Language Models », in arXiv, 2024.

[11] Mahzarin R. Banaji et Anthony G. Greenwald, Blindspot: Hidden biases of good people, Bantam Books, 2016, 254 p.

[12]  Abubakar Abid, Maheen Faroqi, James Zou, « Persistent Anti-Muslim Bias in Large Language Models », in arXiv, 2021.

[13] Hans Georg Gadamer, Vérité et méthode : les grandes lignes d’une herméneutique philosophique, Paris, Points, 2018, 794 p, [433].

[14] Stella et Gordon Macpherson, « A blot on the profession », in British Medical Journal, 1988, p. 657‑658.

[15] Ibid.

[16] Hans Georg Gadamer, Vérité et méthode, op. cit., [274].

[17] John Jumper, Richard Evans, Alexander Pritzel, et

Rémy Demichelis

journaliste, docteur en philosophie , membre de l’Institut de Recherches Philosophiques, chargé d’enseignements à l’Université Paris Nanterre

Mots-clés

IA

Notes

[1] A. R. Provenzano, D. Trifirò, A. Datteo, et al., « Machine Learning approach for Credit Scoring », in arXiv, 2020.

[2] Yilun Wang et Michal Kosinski, « Deep neural networks are more accurate than humans at detecting sexual orientation from facial images », in Journal of personality and social psychology, 2017.

[3] Michael Walzer, Sphères de justice: une défense du pluralisme et de l’égalité, traduit par Pascal Engel, Seuil, 2013, 475 p, p. 43.

[4] Blaise Pascal, Pensées, Br., Flammarion, 2015, 448 p, [244].

[5] Tamar Sharon, « From hostile worlds to multiple spheres: towards a normative pragmatics of justice for the Googlization of health », in Medicine, Health Care and Philosophy, 2021.

[6] Tamar Sharon, « Towards a theory of justice for the digital age: in defence of sphere and value-pluralism », Radboud University, 2023.

[7] Tamar Sharon, « From hostile worlds to multiple spheres: towards a normative pragmatics of justice for the Googlization of health », art cit. ; Sharon Tamar, « Beyond Hostile Worlds: The Multiple Sphere Ontology of the Digitalization and Googlization of Health », in Social Science Research Network, 2020.

[8] Tamar Sharon, « Towards a theory of justice for the digital age », art cit.

[9] Ibid.

[10] Xuechunzi Bai, Angelina Wang, Ilia Sucholutsky, et al., « Measuring Implicit Bias in Explicitly Unbiased Large Language Models », in arXiv, 2024.

[11] Mahzarin R. Banaji et Anthony G. Greenwald, Blindspot: Hidden biases of good people, Bantam Books, 2016, 254 p.

[12]  Abubakar Abid, Maheen Faroqi, James Zou, « Persistent Anti-Muslim Bias in Large Language Models », in arXiv, 2021.

[13] Hans Georg Gadamer, Vérité et méthode : les grandes lignes d’une herméneutique philosophique, Paris, Points, 2018, 794 p, [433].

[14] Stella et Gordon Macpherson, « A blot on the profession », in British Medical Journal, 1988, p. 657‑658.

[15] Ibid.

[16] Hans Georg Gadamer, Vérité et méthode, op. cit., [274].

[17] John Jumper, Richard Evans, Alexander Pritzel, et