Numérique

Nick Srniček : « On peut imaginer un agenda radical en matière de nouvelles technologies »

Philosophe

Peut-on imaginer un agenda radical en matière de nouvelles technologies ? C’est là la ligne de fond du travail de Nick Srniček, co-auteur en 2013 du Manifeste accélérationniste, pamphlet qui avait secoué la gauche radicale, aujourd’hui professeur à UCL, essayiste, et l’un des plus fins connaisseurs du capitalisme numérique. Entre économie politique de l’IA, stratégie politique et fin du travail domestique, il renouvelle la critique des technologies numériques et œuvre à formuler un agenda émancipateur.

En 2013, deux doctorants londoniens secouaient la gauche radicale en publiant le Manifeste accélérationniste, texte dans lequel ils incitaient la gauche à sortir de l’impasse politique et écologique en se réappropriant les technologies et les formes d’organisation capitalistes à des fins d’émancipation. Accusés de techno-utopisme par leurs détracteurs, qui lisaient dans le Manifeste une invitation à accélérer le techno-capitalisme global pour en provoquer l’effondrement ; attaqués par les partisans de la décroissance qui ne voyaient dans leur proposition qu’une énième variante du productivisme, Nick Snriček et Alex Williams défendaient que c’est précisément à l’échelle du capitalisme que ce dernier peut être dépassé. Sortant de son passéisme et de son refus des techniques et des organisations, la gauche peut réorienter l’infrastructure matérielle du capitalisme, se réapproprier le progrès scientifique et technologique et doit penser la stratégie et les institutions pour ce faire.

publicité

Dix ans après le Manifeste, Nick Srniček compte parmi les plus fins économistes politiques du capitalisme numérique. Capitalisme de plateforme, publié en 2017, conceptualisait les plateformes comme les nouvelles formes d’organisation du capitalisme dont la singularité tient aux moyens sociotechniques d’intermédiation par le biais des données. Par-delà les promesses de l’économie numérique, il insérait ce modèle dans la longue histoire du capitalisme post-fordiste. Il travaille aujourd’hui sur l’économie politique de l’intelligence artificielle et, loin des discours imprégnés de craintes et de promesses, en avance une critique qui souligne l’importance du travail et des infrastructures dans la production de l’IA et en illustre les implications géopolitiques.
Son dernier ouvrage, écrit avec la théoricienne féministe Helen Hester, After Work : A History of the Home and the Fight for Free Time, porte sur les technologies domestiques et leur fausse promesse de libérer du temps de travail. Si, au fil des innovations, la charge de travail domestique n’a pas diminué, c’est qu’il faut interroger la culture domestique et parvenir à transformer l’organisation matérielle de la vie quotidienne. Des plateformes aux technologies domestiques, de l’IA à ses infrastructures, Nick Srniček renouvelle la critique des techniques et œuvre à formuler un agenda émancipateur. MBB

Après le Manifeste accélérationniste et Inventing the future (Verso, 2015), deux essais politiques et programmatiques sur l’avenir de la gauche, les technologies et la fin du travail, vous avez recentré vos recherches sur l’économie politique du numérique, du capitalisme de plateforme à l’industrie de l’IA. Quel fil relie ces différents travaux ?
L’économie politique est arrivée dans mon travail en même temps que le Manifeste. Je m’occupais auparavant de philosophie et j’aurais pu rester un deleuzien si la crise de 2008 n’était pas arrivée. Tous les théoriciens critiques que je lisais n’avaient rien à dire de pertinent sur la crise financière, la plus grande crise du capitalisme global depuis la Grande Dépression. C’est alors que je me suis tourné vers l’économie politique. Le Manifeste a eu la même genèse : il est né de la frustration qu’Alex Williams et moi ressentions à l’égard de la gauche de l’époque, incarnée notamment par le mouvement Occupy Wall Street, né en réponse à la crise financière. Son horizontalisme à tout prix, sa démocratie directe à tout prix, sa peur farouche de tout leadership, tous ces éléments nous semblaient absolument contre-productifs pour la construction d’un mouvement de gauche efficace. Les arguments du Manifeste n’étaient en fait que les réponses aux questions : que devrait faire la gauche ? Quelle est l’alternative à la situation actuelle ? Devrions-nous affirmer de grandes revendications ? Y compris sur la question technologique.
Le discours qui entoure les technologies est aujourd’hui imprégné de craintes au sujet des IA génératives. En 2008, les craintes se concentraient autour de l’automatisation. Notre position consistait alors à dire que les technologies ne doivent pas être craintes : elles peuvent être réappropriées et constituer des opportunités émancipatrices. Il en va de même aujourd’hui. La question est de savoir comment il est possible de contrôler le développement technologique et l’orienter vers des possibles libérateurs.

L’intelligence artificielle a largement défrayé la chronique ces derniers mois. Le succès de modèles comme ChatGPT ou DALL·E, rendus accessibles au grand public, a suscité d’importantes craintes autour de l’automatisation du travail. Leurs performances impressionnantes ont relancé les débats autour de l’intelligence des machines, ses risques et son éthique. Vous étudiez depuis longtemps l’économie numérique et ses innovations : quelle est votre lecture du phénomène ?
Par-delà l’engouement médiatique, ce que je propose est d’opérer un geste marxiste tout à fait classique : plutôt que de se concentrer sur les craintes et les conséquences de l’usage de l’intelligence artificielle, il faut s’intéresser à ses conditions de production. Lorsque l’on s’intéresse à l’IA non pas à partir de ses conséquences, mais de sa production, on s’aperçoit qu’il s’agit d’une longue chaîne de travail qui peut être décomposée en quatre étapes : (1) la collecte des données, (2) l’étiquetage de ces données et leur nettoyage, (3) la construction du modèle ; ce n’est qu’alors qu’advient (4) le déploiement de l’intelligence artificielle comme produit pour les utilisateurs. Du côté des chercheurs comme des politiciens, toute l’attention critique s’est concentrée ces derniers temps sur les deux premières étapes, notamment sur la collecte massive de données. Elle requiert beaucoup de travail de nettoyage et de vérification des données et engendre d’importants problèmes de surveillance. Mais cela ne représente qu’une partie de la chaîne de production. Prenez par exemple l’entraînement des modèles : c’est une étape qui requiert énormément de ressources de calcul. L’entraînement d’un seul modèle d’IA requiert un équipement de calcul massif, des dizaines de milliers de cartes graphiques et des ingénieurs très bien formés, qui sont d’ailleurs une ressource très rare pour les entreprises. Une entreprise comme Deep Mind[1] consacre d’ailleurs une très large partie de son budget pour garder ses meilleures têtes, avec des salaires qui se chiffrent en centaines de milliers de dollars. Tant que l’on ne change pas le regard sur l’IA et que l’on ne considère pas toutes les étapes de sa production, on ne pourra prendre en compte que les problèmes de données et de surveillance, alors que de nombreux enjeux se concentrent autour des équipements de calcul et des infrastructures (énergétiques, hydriques) qui permettent de les approvisionner.

Si l’on s’intéresse aux producteurs d’IA, du moins du côté de la production des modèles, on s’aperçoit que les acteurs sont à peu près les mêmes qui, de l’économie du web au capitalisme de plateforme, ont été au cœur du capitalisme numérique : Google, Amazon, Microsoft, Facebook. L’industrie de IA que l’on voit prospérer aujourd’hui est-elle une ramification du capitalisme de plateforme ?
Il y a une continuité claire entre le capitalisme de plateforme et l’industrie de production de l’intelligence artificielle. OpenAI, l’entreprise au cœur de l’engouement autour de l’IA, dépend de Microsoft, qui l’a récemment renflouée à la hauteur de 10 milliards de dollars[2]. L’intelligence artificielle aujourd’hui, c’est Microsoft, c’est Google, c’est Facebook en moindre mesure, et c’est Amazon. Ce sont des entreprises qui ont acquis leur pouvoir comme plateformes, en recueillant les données des utilisateurs, ce qui leur permettait à l’époque de cibler leurs services, mais l’enjeu crucial aujourd’hui est ailleurs. Ce ne sont plus des plateformes au sens strict : ce sont désormais des fournisseurs d’infrastructures de calcul. C’est pour ça qu’Amazon est en passe de devenir l’un des acteurs les plus importants de l’IA. En matière d’IA, Amazon n’a développé que quelques petits modèles, rien qui puisse concurrencer l’état de l’art ; ce qui importe c’est qu’elle fournit aujourd’hui la majeure partie des ressources de calcul via Amazon Web Services, son service cloud. Même Facebook ne possède pas suffisamment de data centers et doit s’appuyer sur Amazon pour entraîner ses modèles. Les ressources de calcul, le cloud et leur infrastructure sont devenues le nerf de la guerre de l’IA et leur propriété est de plus en plus concentrée. On peut observer une dynamique semblable à celle des chemins de fer au siècle dernier : en raison des investissements massifs à pourvoir en amont, le secteur tech tend au monopole. Un processeur graphique de pointe coûte aujourd’hui autour de 40 000 dollars et il en faut des centaines, voire des milliers, pour entraîner les modèles d’IA. Cela signifie que c’est hors de portée pour la plupart des entreprises et pour la recherche publique, qui doivent nécessairement s’appuyer sur les GAFAM.

Est-ce cette concentration qui fait le pouvoir des GAFAM ? Paradoxalement, c’est une position que pourraient défendre une théoricienne libérale comme Shoshana Zuboff dans son travail sur le capitalisme de surveillance ou les commissaires européens, lorsqu’ils incitent à démanteler les géants du secteur tech.
Il y a deux manières de considérer les monopoles. La première, qui est celle de la Commission européenne, est une approche anti-trust classique, selon laquelle la libre concurrence est le but ultime de la politique économique. L’objectif est donc d’avoir plusieurs Facebook, plusieurs Google, plusieurs de ces entreprises en compétition les unes avec les autres, avec l’idée que quelques bénéfices finiront par émerger d’un système compétitif. Je ne pense pas que ce soit vrai. Au contraire, c’est bien la concurrence qui produit des dégâts. Ces entreprises rivalisent pour accaparer les données, les utilisateurs et les financements. Cela les conduit à renforcer la surveillance, élargir la collecte massive de données, à chercher à affiner le profilage et les techniques pour garder leurs utilisateurs captifs, comme les dark patterns[3]. Cela n’a rien à voir avec la taille de ces entreprises. Dans ce contexte, la concurrence n’est en rien une solution : c’est au contraire une partie du problème qui consiste à laisser ces plateformes dans les mains du marché. Ce n’est pas de concurrence dont on a besoin, mais de contrôle démocratique et populaire sur le développement et sur le déploiement de ces technologies. Le contrôle est aujourd’hui dans les mains d’un type comme Sam Altman, le co-fondateur avec Elon Musk de OpenAI.

Certains, comme l’économiste français Cédric Durand, soutiennent que l’essor des plateformes a fondamentalement changé le capitalisme, au point d’en marquer la fin. La captation de valeur par l’accumulation de données et le contrôle des infrastructures par une poignée de puissantes entreprises rapprocheraient l’économie numérique d’un système féodal, ou plus précisément : techno-féodal. Quelle est votre lecture des transformations de l’économie numérique ?
Sans être un spécialiste des travaux de Cédric Durand, il me semble que sa thèse s’appuie sur la prémisse selon laquelle la dynamique du système économique serait portée non plus par le profit mais par la rente[4]. Je suis en désaccord avec cette prémisse : la rente n’est pas un phénomène extérieur au capitalisme. Marx n’aurait jamais été d’accord : il y a des centaines de pages dans le volume III du Capital sur la rente, sur les manières dont elle s’intègre à un système capitaliste. Évidemment, la dynamique d’une entreprise qui dépend de la rente diffère d’une entreprise plus classique qui dépend de l’extraction de profit. Malgré ces différences, toutes deux font partie du système capitaliste. C’est d’ailleurs l’un de mes principaux arguments au sujet du capitalisme de plateforme. De nombreux auteurs ont voulu voir dans les GAFAM de nouveaux modèles économiques, voire de nouveaux modèles d’ordre social. Les optimistes avaient affirmé que l’on allait vivre dans une nouvelle économie du partage. Les pessimistes, comme McKenzie Wark, que l’on était sortis du capitalisme pour entrer dans une techno-dystopie. Ce que j’ai essayé de montrer avec Capitalisme de plateforme, c’est que c’est toujours du capitalisme, mais avec une dynamique propre, gouvernée par la capacité d’intermédiation des plateformes.
L’économie globale ralentit depuis plusieurs décennies, tout particulièrement à son centre. Des pays comme l’Inde et la Chine ont rapidement rattrapé les États Unis, mais ils ne font que se rapprocher de cette frontière du capitalisme. Tous ralentissent. En ralentissant, ces économies stagnent et avec la stagnation les entreprises œuvrent moins à créer de la valeur qu’à la capter. Là où la thèse techno-féodale oppose rente et profit, je vois une opposition entre création et captation de valeur – mais cette captation de valeur demeure fondamentalement capitaliste. Il y a évidemment une économie de la rente et le capitalisme de plateforme en fait partie, mais ce n’est pas hors capitalisme. Les caractéristiques saillantes du capitalisme, notamment l’accumulation, n’ont pas disparu. On assiste plutôt à une lutte acharnée pour s’emparer d’une mise de plus en plus maigre. Voilà typiquement l’une des manières dont le capitalisme s’est transformé, sans pour autant changer fondamentalement la nature du système productif. Tout cela influence les politiques industrielles et détermine le retour de la concurrence géopolitique.

Dans quel sens ?
La période néolibérale a été marquée par l’abandon de la politique industrielle et de ses implications géopolitiques. Elle n’a évidemment jamais complètement disparu, mais elle était déconsidérée de manière idéologique et peu discutée. Aux États-Unis, c’est le capital-risque qui a pris le relai pour financer le secteur technologique, au moment du retrait du financement de l’État. C’est devenu le premier canal de financement des entreprises tech, à partir de l’ère « dot.com[5] ». Il s’agissait à l’époque de grands fonds d’investissement qui consacraient leur surplus à des investissements risqués par le biais de angels investors. Aujourd’hui, le capital-risque est une ramification des plus grandes entreprises technologiques comme Google et Amazon ; il a permis leur essor et elles ont désormais chacune leurs propres fonds.
C’est tout à fait différent en Chine, où l’industrie est massivement soutenue par l’État. La politique industrielle volontariste de la dernière décennie a mené au développement de l’industrie des semi-conducteurs et des plateformes domestiques. Huawei est un excellent exemple : c’est un leader mondial en standards technologiques. On les oublie souvent, mais ce sont des dispositifs cruciaux, qui permettent d’asseoir une influence géopolitique majeure. Les États-Unis ont dû en réponse entrer dans la danse et le Chips Act[6] en est l’exemple le plus flagrant. La première entreprise productrice de semi-conducteurs, TSMC, est basée à Taïwan, qui est actuellement une poudrière géopolitique. Le Chips Act était une tentative de s’assurer une forme d’autonomie sur la chaîne de production, surtout après avoir vu pendant le Covid-19 la fragilité des chaînes d’approvisionnement. Actuellement, la maigre politique industrielle américaine est entièrement portée par la concurrence géopolitique.

Et en Europe ?
L’Europe voudrait avoir une industrie de l’IA qui puisse concurrencer les États Unis et la Chine. C’est impossible pour plusieurs raisons, et le vieux continent s’est concentré sur le secteur applicatif. Du point de vue de la chaîne de valeur, c’est un secteur qui capte très peu de valeur. Si l’on accepte l’hypothèse de la centralité croissante des infrastructures, on peut conclure que les fournisseurs cloud vont en ressortir les plus puissants et aucun n’est en Europe. Cela ne signifie pas qu’aucune application utile ne pourra émerger de l’Europe. Mais contrairement aux promesses, le retard technologique européen ne pourra pas être comblé.

En 2013, le Manifeste accélérationniste faisait controverse en prenant à contrepied les positions sociales-démocrates autant que décroissantes en matière de nouvelles technologies, accusées d’être « impuissantes et inefficaces ». Il y avait dans la partie programmatique du Manifeste un passage énigmatique, une invitation à œuvrer pour une « hégémonie sociotechnique de gauche ». Qu’est-ce que cette proposition ?
L’hégémonie est le gouvernement par le consentement plutôt que par la coercition. C’est ce qui permet d’inclure les personnes dans un ordre social particulier et de leur faire accepter par différents moyens. Traditionnellement, l’étude de l’hégémonie se concentre sur ses aspects sociaux et discursifs du système, sur l’idéologie et sur tous les systèmes d’incitation qui permettent de convaincre les personnes à demeurer loyales à un système social existant. L’aspect sociotechnique de l’hégémonie concerne au contraire sa dimension matérielle et technique, la manière dont toutes les infrastructures, les outils, les technologies construisent autour de nous un ordre social. Pour donner un exemple très simple : la maison familiale individuelle construit la cellule familiale nucléaire en la naturalisant. Elle répartit les personnes en petites maisons mono-familiales et les sépare de fait en petits foyers nucléaires. Cela fait partie de l’hégémonie, car l’architecture naturalise le système familial et social. Lorsque Alex Williams et moi invoquions une hégémonie sociotechnique de gauche, c’était pour dire qu’il faut prendre cette infrastructure très au sérieux. Il faut aussi s’intéresser à la conception de ces technologies et à leur déploiement. Tous ces aspects techniques doivent faire partie d’un agenda de gauche, on ne peut pas se limiter à des arguments théoriques ou à de meilleurs programmes de politiques publiques. La gauche doit investir la culture matérielle autant que la sphère des idées. Et cela concerne bien évidemment les nouvelles technologies.

En quoi consisterait un agenda émancipateur en matière d’IA ?
C’est très difficile de proposer un agenda émancipateur en matière d’IA, telle qu’elle est développée aujourd’hui. Il y a actuellement deux approches dominantes, toutes deux insuffisantes. La première propose de « démocratiser » l’IA en garantissant l’usage à tout le monde : le fait de pouvoir accéder librement à ChatGPT depuis un ordinateur équivaudrait à la démocratisation de ces technologies. Cela n’a évidemment aucun sens, car la propriété et la conception des modèles demeure dans les mains de Microsoft et de OpenAI, qui captent toute la valeur issue de ces systèmes. Le fait que tout le monde puisse y accéder ne change ni le développement des technologies ni les structures de pouvoir desquelles elles sont issues.
L’autre alternative, plus intéressante, est celle du développement en open source de plus petits modèles. Les modèles dits « larges » comme GPT4 ou DALL-E sont des modèles propriétaires, au sens où ils sont la propriété des entreprises qui les ont développés. Il existe au contraire d’autres modèles librement accessibles, qui peuvent être librement employés et modifiés. L’architecture des modèles, leurs données d’entraînement, les poids de leurs variables, tout est à disposition et utilisable pour quiconque souhaite s’en servir. Et cela pourrait représenter un vrai changement : les modèles actuels ont coûté des centaines de milliers de dollars pour être entraînés. Tant que c’est la seule manière de produire de l’IA de pointe, la recherche publique ne pourra jamais suivre. L’open source montre que l’on pourrait s’en tirer de manière beaucoup plus économique. S’il est possible de ré-entraîner des modèles sur une poignée de cartes mères, s’il est possible de répliquer ChatGPT pour quelques centaines de dollars, le modèle économique de OpenAI peut être entièrement détruit. L’open source peut en ce sens encore représenter une menace pour le pouvoir de l’industrie technologique.
Le problème, c’est que cet open source dépend à son tour des GAFAM. Dans le domaine de l’IA, il s’appuie sur les gros modèles entraînés par Facebook, ce qui signifie qu’il n’arrive qu’en bout de course pour rectifier quelques petits aspects une fois que le gros du développement a été fait. L’open source nous permet ainsi de ralentir la concentration de l’IA, mais non de s’autonomiser à l’égard des GAFAM. Difficile de dire, dans les deux cas, quel serait un scénario émancipateur.

Ces technologies numériques – et l’IA n’en est qu’un exemple – s’appuient sur la collecte massive de données des utilisateurs, donc sur une forme de surveillance. Plus fondamentalement, elles requièrent une grande quantité de ressources naturelles et énergétiques pour leur fonctionnement. Dans un contexte d’urgence climatique, un agenda technologique de gauche est-il compatible avec le maintien de telles technologies et infrastructures ?
Les ressources et l’énergie que l’on peut employer sont évidemment limitées à un temps t, mais le développement technologique peut permettre de repousser ces limites. Notre capacité à employer l’énergie et les ressources de manière soutenable s’améliore, surtout si l’on encourage le développement technologique dans cette direction. D’autre part, ce n’est pas parce qu’une technologie exige une quantité importante de ressources qu’il faut automatiquement y renoncer. C’est là l’une des questions que devra se poser la société future. Les ressources requises pour le fonctionnement de l’IA valent-elles les bénéfices qu’elle peut fournir ? Je renvoie la question aux générations futures parce que les bienfaits de l’IA vont avant tout les concerner. Il faut évidemment baisser la consommation de ressources naturelles, mais si l’on jugeait raisonnable d’allouer, mettons, 10 % de la consommation énergétique mondiale aux nouvelles technologies, on pourrait alors s’interroger pour savoir si les bénéfices de l’IA sont suffisants pour leur consacrer une part du budget énergétique.
Cette position peut sembler opposée à la plupart des réflexions écosocialistes, mais ce n’est pas mon point de vue. La vraie question – c’est là notre point commun – est de savoir comment on peut acquérir le contrôle collectif sur la direction du développement technologique, comment on peut en contrôler démocratiquement le déploiement et l’usage. Le problème n’est pas celui de la high tech en opposition à la low tech. Il est possible, par exemple, de faire de l’agriculture locale et à petite échelle de manière très high tech. L’enjeu est à chaque fois de savoir comment choisir les technologies appropriées à un contexte donné et de garantir qu’elles soient efficaces du point de vue des ressources consommées. Dans un monde où l’on essaie simultanément de réduire l’impact environnemental et le temps de travail, c’est toute une série de contraintes complexes qu’il faudra prendre en compte dans l’imagination d’une société future et de ses technologies. L’important est que nous puissions choisir collectivement. 

Mais de quelles institutions disposons-nous pour décider collectivement sur la culture matérielle et technique ?
Les approches dominantes pour gouverner la culture technique sont aujourd’hui celles de la démocratie représentative et de la technocratie. Dans la première des configurations, les politiciens élus lors des élections prennent des décisions en vertu de leur fonction de représentation politique. L’autre approche est celle d’inspiration technocratique, de plus en plus répandue, selon laquelle les experts techniques sont les plus à même d’en gouverner l’usage. Les ingénieurs en machine learning sauraient, en vertu de leurs compétences de calcul, gouverner le développement technique de manière éclairée. Le problème étant qu’ils ne sont pas forcément compétents pour saisir les biais sociaux et économiques de leurs propres systèmes. Je ne veux pas dire par là que l’expertise technique n’a pas d’importance, le problème n’est d’ailleurs pas là actuellement. Aujourd’hui, les gouvernements laissent les entreprises dicter les grandes lignes de régulation, comme c’est le cas de l’IA, ou bien décident de réguler les technologies en faisant fi de toute expertise technique. Les tentatives d’encadrement du chiffrement bout à bout en sont un excellent exemple : les gouvernements cherchent à tout prix à imposer l’insertion de back doors[7], alors que les experts expliquent qu’une porte d’entrée annule tout le principe du chiffrage bout à bout…

Il existe cependant de nombreux exemples d’initiatives politiques en matière de culture technique, autant du côté des institutions (conventions citoyennes, autorités indépendantes et de régulation) que du côté des ONG et des mouvements sociaux, où se mélangent expertise technique et savoir-faire politique. Ne peut-on pas s’appuyer sur ce déjà-là pour imaginer les institutions pour gouverner la culture technique ?
Je vais devoir botter en touche : je ne sais pas faire du design d’institutions. Je peux donner quelques grands principes qui pourraient guider ce genre d’initiative, mais c’est quelque chose qui va devoir être inventé par-delà le capitalisme. Le problème avec le capitalisme, c’est que tous les problèmes importants sont hors de portée, le changement climatique en premier. Le développement technologique est guidé par des impératifs structurels. On a beau savoir ce qu’il faut faire pour arrêter le changement climatique, le capitalisme ne va pas le permettre. Peu importe que les PDG eux-mêmes le souhaitent du fond de leur cœur : les actionnaires ne le permettront pas.

Un raisonnement maximaliste de ce genre ne risque-t-il pas de passer sous silence la pluralité de pratiques qui existent déjà, tant du point de vue de la lutte contre la crise climatique que des pratiques de réappropriation des techniques ?
Nous ne sommes évidemment pas dans un moment révolutionnaire. Le mieux que nous puissions faire actuellement est probablement de cultiver ces pratiques et de les institutionnaliser, de sorte à leur garantir une vie par-delà leur immédiateté. C’est ce qu’Alex Williams et moi appelions dans Inventing the Future une « politique anti-localiste » (anti-folk politics). L’idée n’est pas de critiquer le localisme ou l’horizontalisme en soi, mais de rappeler qu’ils sont insuffisants pour soutenir un mouvement sur le long terme. Chaque mouvement a ses pratiques et ses innovations, mais lorsque l’on refuse de construire des systèmes, comme c’était le cas de Occupy Wall Street en 2009, on risque de perdre tout ce qui a été inventé lorsque la ferveur retombe. J’insiste sur Occupy Wall Street parce que c’est l’un des mouvements les plus importants de la gauche occidentale anglophone et probablement celui où cette limite était la plus flagrante. Mais cela pourrait s’appliquer aux mouvements anti-globalisation des années 2000 et probablement à de nombreux autres mouvements.

Vous avez récemment publié un nouveau livre avec Helen Hester, After Work : A History of the Home and the Fight for Free Time, qui revient sur l’histoire des technologies domestiques et la lutte pour la fin du travail.
Notre livre part du paradoxe mis en avant par la théoricienne féministe Ruth Schwarz Cowan au sujet du travail domestique. Dans More Work for Mother ?, elle démontrait que malgré la révolution domestique, malgré les lave-linges, les lave-vaisselles, les aspirateurs et tous les autres équipements ménagers, les femmes au foyer accomplissaient toujours autant de travail en 1970 qu’au début des années 1900. La technologie n’a pas beaucoup changé le temps de travail à la maison. La grande question étant : comment est-ce possible ? Dans le livre nous nous intéressons aux structures sociales et matérielles qui continuent de nous faire faire tout ce travail.
Aujourd’hui, il en va de même des objets connectés et tous les gadgets domestiques que nous accumulons dans nos maisons, qui ne font que déplacer la charge de travail domestique qui nous incombe. Je pense fondamentalement que les technologies peuvent nous libérer du travail. Historiquement, elles ont dégagé énormément de temps libre. La question est toujours celle de savoir qui contrôle le développement et le déploiement de ces technologies, pourquoi et comment elles ne réduisent pas le temps de travail de production et de reproduction.

Et dans le livre, vous mettez en avant un véritable programme politique.
Nous essayons de dégager trois grands principes de réorganisation du travail domestique et de ses technologies. Le premier principe est celui de soin communautaire (communal care) : en s’éloignant du modèle de la famille nucléaire comme lieu du soin, on peut mutualiser la charge de travail qui pèse individuellement sur chaque famille. Cela signifie évidemment développer des crèches et des gardes d’enfants publiques, ouvertes sept jours sur sept – et je sais qu’en France c’est un système bien mieux développé que dans nombreux autres pays – ainsi que d’autres efforts pour partager la charge du travail reproductif. Le second principe est celui du « luxe public » (public luxury), qui consiste à garantir l’accès à des services de luxe, trop chers pour des familles individuelles, mais dont on peut mutualiser les coûts et la dépense énergétique. L’exemple le plus simple est celui d’une piscine : c’est un bien insoutenable de tous points de vue pour une famille individuelle, mais qui peut avoir un sens s’il est partagé. Il en va de même pour les bibliothèques, les ludothèques et tous les espaces récréatifs. Enfin, le troisième principe est celui de prise de décision démocratique en matière de développement de la culture matérielle et technique. Cela concerne notamment la conception des espaces de vie et de la manière dont ils peuvent permettre la diminution de la charge de travail domestique.
La plupart de ces initiatives existent déjà, nous proposons de les potentialiser. Souvent, des initiatives locales qui essaiment un peu partout ne se conçoivent pas comme reliées par un projet politique. L’une des manières de leur donner de la force est de leur permettre de se reconnaître dans une lutte plus large. Se battre pour sauver une bibliothèque municipale, est-ce une initiative locale ou une lutte plus large pour garantir le bien-être public ? Le nôtre est un travail d’articulation de pratiques, au sens de Ernesto Laclau[8] et c’est ce à quoi nous essayons de participer avec ce livre.

NDLR : parmi les livres traduits en français de Nick Srniček figurent le Manifeste accélérationniste. Accélérer le futur : Post-travail & Post-capitalisme (Cité du design IRDD, 2017) et Capitalisme de plateforme (Lux, 2018).


[1] La branche d’intelligence artificielle de Google.

[2] Voir au sujet de OpenAI l’article de Valentin Goujon, « OpenAI, une histoire en trois temps », AOC, 23 mai 2023.

[3] Les dark patterns sont les interfaces conçues pour solliciter les utilisateurs et les faire rester plus longtemps sur un service, par exemple en rendant moins visible les boutons pour refuser les cookies ou la publicité.

[4] La rente est un revenu perçu pour la propriété d’une terre, d’un actif ou d’une infrastructure, en opposition au profit généré par l’exploitation du travail. La proéminence de la rente dans l’économie numérique (brevets, captation de données, contrôle sur les technologies) marquerait ainsi la fin du capitalisme défini par l’exploitation du travail et l’extraction de profit.

[5] Cela correspond au développement de l’économie du web dans les années 1990, porté par Ebay, Google, Amazon, etc.

[6] L’acte américain qui vise à soutenir la production domestique de semi-conducteurs aux États-Unis.

[7] Autrement dit, une « porte dérobée », une clef secrète qui déjoue le chiffrement.

[8] Théoricien néo-marxiste, dont la stratégie politique consiste à articuler différentes luttes, dans une identité politique qui en préserve les singularités.

Maud Barret Bertelloni

Philosophe, Doctorante en philosophie des techniques

Notes

[1] La branche d’intelligence artificielle de Google.

[2] Voir au sujet de OpenAI l’article de Valentin Goujon, « OpenAI, une histoire en trois temps », AOC, 23 mai 2023.

[3] Les dark patterns sont les interfaces conçues pour solliciter les utilisateurs et les faire rester plus longtemps sur un service, par exemple en rendant moins visible les boutons pour refuser les cookies ou la publicité.

[4] La rente est un revenu perçu pour la propriété d’une terre, d’un actif ou d’une infrastructure, en opposition au profit généré par l’exploitation du travail. La proéminence de la rente dans l’économie numérique (brevets, captation de données, contrôle sur les technologies) marquerait ainsi la fin du capitalisme défini par l’exploitation du travail et l’extraction de profit.

[5] Cela correspond au développement de l’économie du web dans les années 1990, porté par Ebay, Google, Amazon, etc.

[6] L’acte américain qui vise à soutenir la production domestique de semi-conducteurs aux États-Unis.

[7] Autrement dit, une « porte dérobée », une clef secrète qui déjoue le chiffrement.

[8] Théoricien néo-marxiste, dont la stratégie politique consiste à articuler différentes luttes, dans une identité politique qui en préserve les singularités.