Société

Les biais algorithmiques, ou comment ne plus penser les discriminations

Doctorante en Sciences de Gestion, Doctorante en Sciences de Gestion

Face à l’accélération des usages du numérique, liée à la crise du Covid-19, la CNIL et le Défenseur des droits se sont inquiétés en juin dernier de l’impact des algorithmes sur les droits fondamentaux. Les « biais » algorithmiques agiraient comme une forme d’automatisation invisible des discriminations. Mais si les algorithmes sont créés pour discriminer, et c’est ce qu’ils font, peut-on en les modifiant attendre d’eux qu’ils remédient aux discriminations ? Techniciser les discriminations est plutôt une façon de ne pas en penser les racines, et donc les moyens de lutter contre.

Depuis les années 2000, une progression fulgurante de la capacité des ordinateurs à collecter, stocker et traiter de la donnée a eu lieu, annonçant un nouveau printemps de l’intelligence artificielle, ou plus spécifiquement des algorithmes d’apprentissage automatique (Machine Learning en anglais, « ML »). Ceux-ci ont pour objectif de permettre à une machine d’accomplir une tâche sans être explicitement programmée, et sont schématiquement le résultat de la convergence des statistiques et de l’informatique. Dans un contexte où internet a permis une massification, fluidification et grande diversification de l’information, ces algorithmes transmuteraient les flux bruts en un savoir de qualité.

publicité

Ainsi, accompagnant ce phénomène, nous observons l’avènement de ceux que l’on appelle les « géants du numérique », pour ne pas les nommer, Google, Amazon, Facebook, Apple, Microsoft, du côté américain, chacun proposant ses propres structures algorithmiques. À titre d’exemple, prenons Google qui se présente comme un système de classement qui trie l’information pertinente grâce, entre autres, à des analyses de flux – flux de clics, flux de liens – et une contextualisation personnalisée. Ou encore Facebook, qui grâce à des chaînes de transformations a rendu public ce qui était privé, a participé à la relativisation du travail journalistique, en particulier en s’appuyant sur des systèmes de ciblage qui déterminent le contenu pertinent pour chacun, à partir de critères décidés algorithmiquement.

Ainsi, les géants du numérique sont ceux qui aujourd’hui seraient en mesure de nous fournir un savoir de qualité. Et comment accomplissent-ils cela ? Grâce à des algorithmes dont l’objectif est de discriminer ce qui est ou n’est pas de qualité, du moins dans un contexte donné. Ceux-ci explorent, capturent et optimisent. Si ces algorithmes peuvent tenir une telle promesse dans le périmètre ardu de l’information accessible sur internet, il n’est pas étonnant qu’ils éveillent les fantas


[1] Ici, deux idées sont imbriquées : d’une part sa condition sociale est juste puisqu’elle est le résultat de l’effort de chacun ; d’autre part, dans un ancrage plus religieux, elle est aussi l’incarnation de la prédestination.

[2] À ce propos, voir par exemple les travaux des Pinçon-Charlot tels que Les Ghettos du Ghota (Le Seuil, 2007) ou les travaux de Thomas Piketty.

[3] bell hooks développe cette idée dans son ouvrage De la marge au centre – théorie féministe, Cambourakis, 2017.

[4] En effet, celle-ci explique qu’elle espère que son combat ruissellera vers les femmes entrepreneures, qui n’obtiennent souvent pas des financements aussi importants que ceux des hommes ou les victimes d’un conjoint abusif ; cette vision s’inscrit dans celle d’un philanthrocapitalisme donc nous discutons par la suite.

[5] Plus précisément, ce n’est qu’exclusivement aux personnes de sa classe qu’il le serait, car le reste de la population subit bien les problèmes sous-jacents que nous avons décrits.

[6] Cela s’inscrit aussi dans la notion de philanthrocapitalisme. À ce propos, voir l’article d’Edouard Morena et Tate Williamspublié publié dans AOC

[7] Pour une réflexion sur l’influence de la modification du langage sur la capacité de penser nos sociétés, voir l’article d’Emmanuelle Pireyre publié dans AOC.

[8] Voir le livre fondateur de Stuart Russell et Peter Norvig, Artificial Intelligence: a modern approach (3rd ed), Pearson, 2010.

Élise Berlinski

Doctorante en Sciences de Gestion

Marianne Strauch

Doctorante en Sciences de Gestion

Notes

[1] Ici, deux idées sont imbriquées : d’une part sa condition sociale est juste puisqu’elle est le résultat de l’effort de chacun ; d’autre part, dans un ancrage plus religieux, elle est aussi l’incarnation de la prédestination.

[2] À ce propos, voir par exemple les travaux des Pinçon-Charlot tels que Les Ghettos du Ghota (Le Seuil, 2007) ou les travaux de Thomas Piketty.

[3] bell hooks développe cette idée dans son ouvrage De la marge au centre – théorie féministe, Cambourakis, 2017.

[4] En effet, celle-ci explique qu’elle espère que son combat ruissellera vers les femmes entrepreneures, qui n’obtiennent souvent pas des financements aussi importants que ceux des hommes ou les victimes d’un conjoint abusif ; cette vision s’inscrit dans celle d’un philanthrocapitalisme donc nous discutons par la suite.

[5] Plus précisément, ce n’est qu’exclusivement aux personnes de sa classe qu’il le serait, car le reste de la population subit bien les problèmes sous-jacents que nous avons décrits.

[6] Cela s’inscrit aussi dans la notion de philanthrocapitalisme. À ce propos, voir l’article d’Edouard Morena et Tate Williamspublié publié dans AOC

[7] Pour une réflexion sur l’influence de la modification du langage sur la capacité de penser nos sociétés, voir l’article d’Emmanuelle Pireyre publié dans AOC.

[8] Voir le livre fondateur de Stuart Russell et Peter Norvig, Artificial Intelligence: a modern approach (3rd ed), Pearson, 2010.