Face à la dérive autoritaire, sortons de l’illusion de l’IA
À peine le méga-feu qui a ravagé Los Angeles en janvier dernier était-il éteint que le california dream réanimait son hégémonie culturelle grâce à la désormais immanquable intelligence artificielle. Les enchères sont lancées ! 500 Milliards par-ci, 200 milliards par là. L’argent magique coule à flot sur des marchés endiablés, au moment même où les dettes s’envolent et où le populisme d’extrême droite se métastase aux États-Unis et en Europe. Chaque pays essaie de séduire à sa manière les investisseurs. La France se veut en première ligne du progrès avec le Sommet pour l’action sur l’IA organisé les 10 et 11 février dernier à Paris.

Mais, que signifie cet engouement pour une technologie qui trop souvent – à l’instar de l’amour lacanien – donne quelque chose qu’elle n’a pas à quelqu’un qui n’en veut pas ? Il est important de s’interroger sur le pourquoi d’une telle frénésie, alors que certains spécialistes estiment à 80% le taux d’échec d’implémentation des IA dans les organisations[1]. La RAND corporation indique même qu’une partie notable du problème provient du fait qu’avec l’IA, on fait des promesses intenables, et que cette technologie ne répond que trop peu souvent à des besoins concrets[2]. Quel est donc ce mauvais amour de nous-mêmes, appelé à chambouler 60% des emplois des pays développés[3], pour un gain de productivité global espéré de 10% ? Sur quoi repose le miracle (mirage) de l’IA ?
La martingale de l’IA
Récapitulons. Le metaverse et la Sillicon Valley Bank s’effondrent en mars 2023, on annonce au même moment la révolution des LLMs (Large Language Models) pour enflammer les marchés avec l’intronisation de ChatGPT en tête. Alors que la dette publique américaine s’envole et devrait dépasser le seuil des 40 000 milliards de dollars d’ici 2027, le gouvernement Trump lance StarGate avec 500 milliards d’investissement pour l’IA en réduisant drastiquement ses dépenses publiques et l’aide humanitaire internationale. La France qui connait actuellement une hausse vertigineuse de sa dette et de son déficit budgétaire nous promet le miracle, 109 milliards d’euros pour développer l’IA avec l’implantation de 35 data centers que l’on branchera sur nos centrales nucléaires, alors qu’au même moment le gouvernement coupe drastiquement dans les budgets de l’écologie, de l’éducation, de la santé, de la recherche et de la culture.
Il faut dire que l’espérance calculée est tellement grande avec l’IA qu’elle dépasse de loin le risque de la ruine, qu’elle évince à grands coup d’annonce toutes les critiques, qu’elle écrase toute opposition. Bien que la possibilité d’une explosion de la bulle soit bien réelle, la martingale de l’IA apparaît aux dirigeants du monde entier comme le meilleur moyen d’éponger les dettes au motif d’une espérance incommensurable. C’est une stratégie classique. D’ailleurs, toute personne souffrant d’addiction au jeu nourrit en secret ce genre d’espérance. Le joueur commence par parier 1€ ; s’il perd il parie 2€ ; s’il perd encore il parie 4€ ; s’il perd toujours il parie 8€ ; et ce de manière exponentielle en doublant sa mise jusqu’à se ruiner ou empocher le gros lot tant espéré qui essuiera ses dettes. Comme le soulignait le philosophe pragmatiste Charles S. Peirce, en jouant ainsi « nous tombons sur un paradoxe célèbre selon lequel, bien que le joueur soit certain d’être ruiné, la valeur de son espérance calculée (…) est immense[4] ».
En jouant ainsi à la martingale sur les marchés, on en oublierait presque les externalités négatives qui impactent les conditions réelles de l’économie politique ; dans un monde où nos vies et activités sont menacées par le changement climatique et l’augmentation des inégalités. La course à l’IA pourrait en effet générer une dévaluation de nos activités en même temps qu’une augmentation exponentielle des dépenses énergétiques par la démultiplication des usages dans tous les domaines[5]. Une étude de McKinsey & Compagny[6] estime que l’alimentation électrique des data centers aux États-Unis pourraient ainsi passer de 3.7% à 11.7% de la dépense énergétique du pays d’ici 2030, alors que le Lawrence Berkeley National Laboraty[7] annonce quant à lui, qu’elle atteindra 12% d’ici 2027. Avec le « drill baby drill ! » de Trump, le développement de ces data centers alimentés aux énergies fossiles (80% d’entre eux) constitue un coup de grâce pour l’environnement. Et même si on branche en France nos IA sur centrales nucléaires, une telle croissance aura un impact néfaste quoi qu’il arrive.
Il me semble donc urgent de dissiper l’écran de fumée et les promesses intenables. Car, telle qu’envisagée, la course à l’IA ne fera qu’exacerber l’augmentation des inégalités, le populisme d’extrême-droite, les tensions géopolitiques, tout en polarisant toujours plus les richesses entre les mains d’une minorité d’actionnaires off-shore. La martingale de l’IA a engagé une bataille contre l’intelligence collective et la société civile en rêvant d’atteindre l’IA générale ou forte (inatteignable en l’état actuel de nos connaissances). Elle a rompu le contrat social en expropriant et en exploitant la propriété intellectuelle et notre choix social pour un monde durable. Quel est donc ce processus dans lequel nous sommes engagés à notre insu ? Comment éviter la catastrophe ?
Extension du domaine cognitif de la lutte
Avec l’émergence du travail en réseau connecté au moyen d’ordinateurs, la hausse de la capitalisation de la connaissance a pris une dimension prépondérante sur le marché à travers la captation des immatériels[8]. Dès les années 2000, des penseurs tels que Yann Moulier Boutang[9] ont analysé le tournant, maintenant bien engagé, du capitalisme cognitif. Selon ce dernier, là où les hyperstructures industrielles prélevaient le surtravail à partir des efforts musculaires non rémunérés des travailleurs, le capitalisme cognitif prélève actuellement le surplus « d’immatériels » générés par notre activité cérébrale en réseau. En effet, ce qui compte dans le marché actuel ce sont les immatériels, c’est-à-dire tout ce qui relève de la connaissance, qu’elle soit formelle ou informelle. Lorsque vous achetez un vêtement à 100€, que le coût de fabrication est de 2€ et de transport 3€, les 95% du prix relèvent de l’immatériel, c’est-à-dire qu’ils relèvent non pas de la matière mais du symbole, de la mode, du style, de l’inventivité, de l’innovation ou encore de la tendance. C’est là ce qui pèse dans la balance de la valeur d’échange. Le reste est marginal.
Pour bien comprendre ce qui nous est exproprié, il faut comme l’indique Yann Moulier Boutang distinguer deux types d’immatériels : les immatériels « 1 » protégés par le droit de propriété intellectuelle (comme le droit d’auteur et les brevets), et les immatériels « 2 » (attention, interprétation, contextualisation, inventivité, créativité etc.) qui échappent à la protection formelle du droit. C’est d’ailleurs grâce à ce vide juridique que les géants du numérique sont parvenus à prendre des places dominantes dans le marché. Les immatériels « 2 », produits en permanence par notre activité en ligne (likes, commentaires, publications, clics, posts, temps d’attention etc.), font depuis plusieurs décennies l’objet d’une expropriation par les géants du numérique. En les stockant dans des data centers et en les exploitant au moyen de l’IA, les géants du numérique sont parvenus à se hisser à la tête du marché mondial de la connaissance ; engageant ainsi une première rupture du contrat social.
La protection de la propriété privée n’est plus concrètement assurée. On nous exproprie en permanence notre propriété intellectuelle sous la forme de données. En capitalisant ainsi sur des activités cognitives non-protégées par le droit d’auteur, les géants du numérique ont changé le système d’exploitation pour mieux nous dévaluer. Dans le dispositif numérique actuel, force est de constater que tout ce qui peut être stocké dans des data centers, l’est ou le sera afin d’être exploité par nos IA. Tel est le nouveau crédo du capitalisme cognitif. Aussi, tout ce qui n’est pas protégé par le droit d’auteur et la propriété intellectuelle peut en principe vous être volé sous la forme de données pour mieux vous dévaluer.
Une grande partie des salariés risque dorénavant de devenir membre du cognitariat[10]. Une fois que votre compagnon algorithmique prendra place à vos côtés sur votre ordinateur, les cadences augmenteront mais votre valeur ajoutée, quant à elle, diminuera. C’est devenu une évidence pour tout travailleur qu’elle qu’en soit la qualification : l’IA, telle qu’imaginée par les géants du numérique, repose sur le vol de notre activité cognitive et une dévaluation étendue des activités humaines non protégées par le droit d’auteur. Quelle ironie ! Alors que les libertariens de la Silicon Valley, dénoncent à gorge déployée l’impôt fédéral qu’ils considèrent comme une forme d’esclavage – à la manière de Robert Nozick[11] – ces derniers nous exploitent impunément en captant l’activité de nos cerveaux connectés pour asseoir leur impérialisme numérique.
L’exploitation de niveau 2
On vous offre des outils et des usages dont vous ne pouvez plus vous passer, vous acceptez les conditions d’utilisation et on exploite votre temps de cerveau disponible, votre intelligence. La captation de nos activités en ligne favorise ainsi l’accumulation de la survaleur, c’est-à-dire du travail cognitif non-rémunéré. Ce processus a d’ores et déjà fait émerger de nouvelles formes de travail peu réjouissantes : (1) le travail à la demande ubérisé, (2) le microtravail améliorant les algorithmes des IA, (3) le travail social en réseau des influenceurs, (4) le travail hors travail des usagers[12] et (5) le travail créatif assisté par IA. Dans tous ces cas d’exploitation, on peut remarquer un même schéma de captation de l’activité des individus par les usages desquels sont expropriées les données. Mais, ce n’est pas tout. Ce mécanisme de captation engage un processus de dévaluation de l’activité même du travailleur. Le prélèvement d’immatériels « 2 » non-protégés par la propriété intellectuelle est la voie ouverte à la réduction des effectifs comme des salaires.
Dans (1) le travail à la demande ubérisé, il y a une exploitation à l’œuvre qui se manifeste à travers le statut social infériorisé des travailleurs. Ce qu’on a appelé l’ubérisation caractérise un processus de dévaluation du travail exogène, c’est-à-dire des personnes faisant partie des minorités ethniques ou de la main d’œuvre étrangère à partir d’un statut d’autoentrepreneur dont les conditions d’exploitation, externes au droit du travail salarié classique, profitent de leur vulnérabilité ; on trouve d’ailleurs plusieurs sous-classes d’ubérisés. Cette infériorisation favorise ainsi une double exploitation de la part d’Uber. Il y a d’abord une exploitation de niveau 1 extorquant 30% des recettes pour l’usage de la plateforme, une exploitation de niveau 2 qui vole l’activité cognitive du chauffeur pour à terme le remplacer par une voiture autonome[13].
La dégradation ne s’arrête pas là. Comme le montre le récent documentaire Les sacrifiés de l’IA, l’entraînement de ces dernières nécessite (2) un microtravail qui consiste à étiqueter des images ou à vérifier de données dans des conditions d’exploitation qui relèvent de la pure et simple maltraitance. La plateforme Mechanical Turk d’Amazon en est le prototype. Elle vise à améliorer les algorithmes en utilisant des turkers, cette « armée de réserve » dont le taux horaire médian représente 2 dollars. La plateforme prétend ainsi permettre à des familles pauvres d’obtenir un complément pour leur fin de mois. Mais, elle constitue également un salariat bridé exogène, notamment en Inde où se trouvent environ 19% des turckers[14]. Le pire dans tout cela, c’est la maltraitance cognitive des employés. Quand on sait qu’on les utilise par exemple pour repérer des vidéos ou des photos de viols, le dressage des IA donne la nausée.
Avec (3) le travail social en réseau, c’est la vision la plus claire de l’autoentreprenariat de soi qui prend forme. On se pavane sur Linkedin en faisant valoir ses promotions et activités. Bien qu’en apparence enrichis par le jeu de la visibilité, on nous vole notre influence sur le réseau pour mieux cibler les recommandations et les publics. D’ailleurs, les influenceurs ne sont pas épargnés. Leur économie est à durée de vie limitée. Des IA influenceuses telles que Lil Miquela, faisant des pubs pour Calvin Klein et Prada et impactant plus de 3 millions de followers sur TikTok, se substituera bientôt à eux sur les plateformes. Mais, dans ce système nous sommes nous-même sous emprise. Car l’influence s’alimente du (4) travail hors travail que nous faisons vous et moi à notre insu, en cliquant, en naviguant sur le net, en se divertissant, en partageant nos données personnelles, en regardant des vidéos ou en écrivant. Cette exploitation insidieuse de notre activité cognitive est devenue la forme d’expropriation la plus communément admise ; notre nouvelle servitude volontaire qui fait que « lorsque c’est gratuit, c’est vous le produit (enfin votre activité cérébrale) ».
Plus récemment, on a vu apparaître avec l’irruption des IA LLM, une exploitation portant sur (5) le travail créatif ou émancipateur. La grève des scénaristes de la Writers Guild of America de 2023 en témoigne. Le capitalisme cognitif avancé hybride toujours plus l’activité de l’intelligence humaine avec la computation de la machine pour happer l’activité cérébrale et produire des contenus à notre place. Il s’agit au fond d’un jeu de dupes, qui ne fait que spolier le droit d’auteur et la propriété intellectuelle en proposant de nouveaux usages ou applications sur nos ordinateurs. En générant une dépendance aux moteurs d’IA génératives, on crée un monopole des géants du numérique pour le travail en réseau, en même temps qu’une expropriation de la propriété intellectuelle des métiers créatifs. Les auteurs, les scénaristes, les monteurs du cinéma, les stylistes, les architectes, les photographes, les traducteurs, les musiciens, les compositeurs etc. qui utilisent l’IA alimentent malgré eux l’outil de leur dévaluation, au point de s’annuler progressivement. Quant aux grands journaux, en passant des accords avec les géants du numérique pour survivre, leur indépendance est compromise. Ce « contre-pouvoir » du passé accompagne ainsi de plus en plus le processus de transformation réactionnaire d’une partie de la société aux prises de la nouvelle internationale populiste d’extrême-droite.
La peste brune 2.0
C’est un fait notoire, la captation des données issues des quelques 87 millions de comptes utilisateurs Facebook spoliées par Cambridge Analytica a favorisé le vote en faveur du Brexit, de l’élection de Donald Trump et de Jair Bolsonaro. Seulement, qu’est-ce qui a été fait pour contrer cette ingérence ? Le droit européen semble démuni face à ce fléau, et même si l’AI Act et le Digital Service Act ouvrent une dynamique juridique d’opposition qu’il faut encourager et renforcer, les prochaines élections en Europe s’annoncent périlleuses. L’exploitation des données personnelles par Cambridge Analytica a d’ores et déjà révélé au monde la puissance réactionnaire des IA, en même temps que la fragilité de nos institutions démocratiques. L’algorithme prédictif de Cambridge Analytica, qui avait à l’époque identifié des électeurs cibles pour l’élection présidentielle américaine de 2016, a tourné à son avantage l’amplification des effets négatifs en chambre d’écho des contenus qui circulent sur les réseaux sociaux. Cette machine psychologique instrumentalisée par Steve Bannon, alors conseiller de Trump, a ainsi conduit à l’introduction d’une nouvelle manière de diriger le vote en faveur de l’internationale populiste d’extrême-droite.
Maintenant, qu’Elon Musk est à la tête des opérations, en réunissant à lui seul plus du double de followers et en contrôlant le réseau social X, la conquête du pouvoir par l’extrême-droite est devenue un projet politique servie par une technologie dont il faut se méfier comme de la peste. Les recommandations algorithmiques, les bots et l’IA Grok qui alimentent X nous font entrevoir des pratiques d’ingérence dans les élections en Europe dont le Digital Service Act ne nous protège malheureusement que trop peu ; même si des procédures sont en cours[15]. Seulement, là où Cambridge Analytica contrôlé par Steve Bannon a établi des stratégies d’influence des parties décisives du scrutin au moyen de Fake News et autre memes diffusés par des bots pour favoriser le vote en faveur du Brexit, de Trump et de Bolsonaro, X de Musk soutenu par le gouvernement américain, a lancé une véritable « guerre culturelle contre l’Europe » ouvertement déclarée par le vice-président américain J.D. Vance. Cela constitue une véritable mise à l’épreuve de l’AI Act et du DSA. Serons-nous à la hauteur du moment ? La robustesse de nos sociétés démocratiques pourra-t-elle tenir face à l’influence exercée par ces technologies ? Doit-on tolérer l’influence numérique des partis d’extrême-droite qui usent massivement de ces technologies pour asseoir leur pouvoir ? Comment l’Europe peut-elle affronter cela ?
Sortir de l’illusion de l’IA
Dans mon dernier livre Ni dieu ni IA, une philosophie sceptique de l’intelligence artificielle, je fais le pari que l’on peut inventer de nouveaux agencements émancipateurs avec l’IA ; encore faut-il s’en donner les moyens et surtout déjouer les paradoxes pragmatiques dans lesquels on s’embarque. En complément des réflexions que je mobilise dans le livre sur la réforme du choix social (en considérant notamment l’intérêt du modèle du jugement majoritaire de Michel Balinski et Rida Laraki[16] pour préserver les principes de d’universalité, d’unanimité, d’indépendance et de non-dictature du vote démocratique), il me semble aujourd’hui essentiel d’encourager le renforcement des instances européennes contre la montée des nationalismes high tech. Contre le délitement du contrat social sur le plan de la propriété intellectuelle et du choix social dans le vote, le fédéralisme européen et notamment de l’Europarlement a un rôle historique à jouer.
Pour l’heure, on peut se réjouir du pont établi entre l’AI Act et le DSA, qui permet de poser une première pierre à l’édifice de la régulation de l’IA en Europe par le contrôle des IA à haut risque et des contenus en considérant leur impact systémique. Mais, entre le droit abstrait et son application, un ensemble de problèmes pragmatiques ne se résoudront que dans le temps long, à partir d’un travail minutieux de jurisprudence à même de nous prémunir du risque de l’ingérence étrangère qui pèse actuellement sur les élections en Europe. Mais, malheureusement, peut-être qu’il sera trop tard. Il faut donc d’ores et déjà s’autoriser une anticipation, en sortant des principes trop abstraits de hiérarchisation des IA pour favoriser une législation des agencements entre humains et IA. Il me semble en ce sens crucial de sortir des logiques de gain espéré d’une IA forte ou générale totalement hypothétique qui nous conduit vers un futur écologiquement insoutenable. Il faut contre le rêve américain d’une IA transcendant les lois de la pensée (qui n’est que pur fantasme) favoriser le discernement entre ce qu’il est nécessaire de préserver dans l’activité humaine, et ce qu’il est possible d’automatiser et de déléguer à l’IA ; ce qui recoupe également le souci de la sobriété technologique en vue de limiter l’impact environnemental.
Dans Ni dieu ni IA, j’analyse l’incomplétude fondamentale de l’IA justement par souci de pragmatisme, ce afin d’éviter les pièges qui se trament dans nos décisions et actions assistées par IA. Des mathématiques à la morale en passant par l’écriture ou encore la cognition humaine, ces zones de non-sens générés par IA engendrent des paradoxes pragmatiques que l’on peut anticiper et déjouer. Car, une chose est certaine, tant qu’on n’aura pas résolu l’incomplétude et les paradoxes qui en découlent (celui de l’induction de Hempel ou de la prédiction de Goodman), les prouesses de l’IA ne seront rien d’autre que de la poudre aux yeux. La distinction épistémologique que je développe en m’inspirant de la théorie des immatériels de Yann Moulier Boutang, établit une distinction claire entre des connaissances de niveau 1 formelles (calcul, syntaxe, combinatoire, ordination, logistique etc.) et des connaissances de niveau 2 informelles (sémantique, contextualisation, perception, attention, apprentissage, soin, création et conscience) pour éviter la confusion entre l’IA et l’humain.
Il me semble important d’implémenter dans notre droit européen des limites claires entre les usages pragmatiques de l’IA et les spéculations afin de distinguer la part d’intelligence collective qu’il convient nécessairement de préserver et la part de formalisme que l’on peut déléguer à l’IA. Outre cet aspect, il est urgent de considérer les réalités organisationnelles dans lesquelles on entend intégrer l’IA, en vue d’identifier en quoi cette dernière peut, ou non, nous être utile au travail quotidien et favoriser une plus ample aptitude à créer, innover et inventer ensemble. Plutôt que d’imposer des pratiques infécondes, des cadences délirantes, voire des outils trop éloignés des besoins réels des organisations et de développer des IA vouées à abêtir par la captation de l’attention, je crois qu’en Europe on peut parvenir à définir les modalités du travail assisté par IA qui n’aliène pas l’intelligence humaine. En se demandant sérieusement ce qui doit être nécessairement préservé et valorisé dans l’intelligence collective, on peut éviter la dévaluation majeure d’un ensemble d’activités essentielles à nos sociétés.
L’Europe pourrait ainsi se placer à l’avant-garde du développement pragmatique de l’IA et sortir du piège américain, en valorisant la part des activités humaines qui attirerait ainsi les plus brillants cerveaux du monde entier. Les chercheurs américains qui reçoivent actuellement, de Harvard à Stanford en passant par la NASA des ordres « Stop Work ! », qui sous l’autorité de la Doge de Musk, coupent les financements fédéraux alloués à leurs recherches, pourraient trouver un asile politique propice à l’épanouissement de l’intelligence collective en Europe. L’heure est sans aucun doute à l’investissement massif dans l’écologie, l’éducation, la santé, la recherche et la culture pour attirer les cerveaux du monde entier en Europe en rompant l’absurde débat identitaire sur l’immigration et surtout en valorisant le modèle européen du développement humain, écologique social et technologique que nous attendons tous.
NDLR : Mathieu Corteel publie ces jours-ci Ni dieu ni IA, une philosophie sceptique de l’intelligence artificielle aux éditions La Découverte. Il présentera cet ouvrage à la librairie L’Atelier ce vendredi 4 avril, en écho à la parution du premier numéro du magazine AOC, auquel il a également contribué.
[1] Jeremy Kahn, « Want Your Company’s AI Project to Succeed? », Fortune, 26 Juillet 2022
[2] James Ryseff, Brandon F. De Bruhl, Sydne J. Newberry, The Root Causes of Failure for Artificial Intelligence Projects and How They Can Succeed, Avoiding the Anti-Patterns of AI, Rand Corporation, 2023.
[3] IMF, Gen-AI: Artificial Intelligence and the Future of Work, Janvier 2024.
[4] Charles S. Peirce, Chance, Love, and Logic. Philosophical Essays, New York, George Braziller, 1956.
[5] Alex de Vries, “The growing energy footprint of artificial intelligence”, Joule, Volume 7, Issue 10, 2023, pp. 2191-2194.
[6] McKinsey & Company, « How data centers and the energy sector can state AI’s hunger for power », 2024
[7] Arman Shehabi, Sarah Josephine Smith, Alan Hubbard, Alex Newkirk, Nuoa Lei, . A. B. Siddik, Billie Holecek, Jonathan Koomey, Eric Masanet, Dale Sartor, United States Data Center Energy Usage Report, Lawrence Berkeley National Laboratory, Berkeley, 2024.
[8] Ibid., pp. 94-95.
[9] Yann Mouilier Boutang, Le capitalisme cognitif, la nouvelle grande transformation, Paris, éditions Amsterdam, 2007.
[10] Prolétariat du capitalisme cognitif qui comprend toute activité pouvant être en partie automatisée par une intelligence artificielle.
[11] Robert Nozick, Anarchie, état, utopie, Paris, Puf, Quadrige, 2016.
[12] Antonio Casilli, En attendant les robots, Paris, Seuil, 2019.
[13] Alain Damasio, Vallée du Silicium, Paris, Albertine Seuil, 2024, p. 47.
[14] Antonio Casilli, op. cit., pp. 142-145.
[15] Anastasia Iliopoulou-Penot, « L’interférence d’Elon Musk dans les élections en Allemagne : quel rôle pour le Digital Services Act ? », Le Club des juristes, 2025
[16] Michel Balinski, Rida Laraki, Majority judgement, measuring, ranking and electing, Cambridge, MIT Press, 2010. Le vote proposé par ces deux chercheurs, se déroule en un seul tour durant lequel chaque votant doit noter indépendamment chaque candidat à partir d’une appréciation allant de la mention « excellent » à la mention « à rejeter ». Ce système permet de déjouer le paradoxe de Condorcet ainsi que le théorème d’impossibilité de Kenneth Arrow qui conduit à la dictature.