En finir avec la neutralité de l’IA
La vague de l’IA générative (IAg) a amené dans de nombreuses arènes de débat la discussion sur l’attitude à adopter face à cette nouvelle technologie. L’espace public en général et les différents milieux professionnels s’interrogent sur les risques et les opportunités qu’elle pourrait représenter.

Dans ce cadre, une idée revient régulièrement : l’IA ne serait qu’un outil, et comme chacun sait, les outils sont neutres ; ils ne sont ni bon ni mauvais, tout dépend de la manière dont on s’en sert. Une comparaison accompagne souvent le raisonnement : prenez un couteau, il peut aussi bien servir à couper une pomme de terre qu’à menacer des braves gens. CQFD : le couteau lui-même est neutre, c’est l’usage qu’il faut juger.
Problème : aussi convaincant que paraisse ce raisonnement au premier abord, il est faux. Du moins, il invisibilise une myriade de questions cruciales qu’il faudrait se poser pour saisir la complexité des rapports entre technique et société. En effet, la philosophie des techniques, et les nombreuses disciplines des sciences sociales qui s’en inspirent, nous apprennent que les outils ne peuvent pas être considérés comme « neutres ». Plus précisément, leurs effets sur les individus et la société dépassent largement la question de leur bon ou de leur mauvais usage.
Laisser penser le contraire nuit à la qualité du débat public et peut même s’avérer dangereux dans le cas des discussions sur le déploiement de technologies aussi puissantes que l’IA. C’est pourquoi, dans les sections qui suivent nous rappelons de manière synthétique les principaux arguments permettant de comprendre que les techniques, même les plus « innocentes », sont « plus que leur simple usage ». Nous y insistons à chaque fois sur les implications à tirer pour les débats sur l’IA.
1. Les techniques reposent sur une infrastructure matérielle
Tout d’abord, rappelons que les techniques ont une composante matérielle : elles utilisent certains matériaux, consomment de l’énergie à la fabr