L’IA, l’éthique et la théorie des baïonnettes intelligentes
Ces dernières années, les nombreux scandales et controverses algorithmiques ont mis en évidence auprès du grand public les risques inhérents à des technologies d’intelligence artificielle (IA) mal pensées, mal conçues et/ou mal utilisées[1]. On peut citer le cas des premiers algorithmes de reconnaissance faciale dans les années 2010 qui ne reconnaissaient pas les visages à peau foncée[2], l’algorithme test de recrutement d’Amazon en 2018 qui écartait systématiquement les CV de femmes pour un poste d’ingénieur en informatique, ou encore l’algorithme de l’application Apple Card (développé par la banque d’affaires Goldman Sachs) en 2019 qui proposait des lignes de crédit jusqu’à vingt fois plus élevées pour des hommes que pour des femmes aux mêmes revenus et aux mêmes conditions fiscales.

À ces cas de discrimination technologique, on peut ajouter les nombreux cas de fuites ou de mauvais usages de data, comme l’affaire Cambridge Analytica en 2018, et l’emploi des données à caractère personnel de millions d’utilisateurs de Facebook à des fins de manipulation politique.
La plupart de ces scandales auraient pu être évités par la mise en place d’une meilleure gouvernance et le partage des leçons à tirer sur l’origine de ces erreurs[3]. Au contraire, les acteurs les plus puissants et dont les erreurs sont les plus préjudiciables portent un discours qui tend à les déresponsabiliser. En 2024, le patron d’OpenAI, Sam Altman, affirme craindre ce qu’il nomme des « désalignements sociétaux », à l’origine selon lui des nombreux problèmes rencontrés, comme pour se désengager d’un quelconque rôle dans les tests à réaliser sur les jeux de données et les algorithmes une fois entraînés mais aussi pendant leur entraînement. De son côté, Mark Zuckerberg réaffirme régulièrement la difficulté de détecter algorithmiquement la propagation virale de fausses nouvelles alors même que la solution se trouve en grande partie dans la modification de ses algorithmes de recommandation tout e