Numérique

Verdir l’IA : un cheval de Troie pour étendre son usage ?

Sociologue, Juriste

Si les problèmes publics qui entourent le développement de l’Intelligence Artificielle (IA) font souvent les gros titres (discriminations raciales, surveillance de masse, automatisation des emplois, etc), la conjonction du mouvement critique contre la tech et des activistes du climat pointe, depuis quelques années, de manière plus discrète, les effets néfastes de l’IA sur l’environnement.

Les préoccupations écologiques concernant ChatGPT – et, avec lui, la génération automatique de code informatique ou d’images à l’aide d’une IA – ont largement suivi les critiques sociales et économiques à l’égard des grandes entreprises technologiques.

publicité

En effet, bien avant que l’IA dite « générative » (dont ChatGPT est l’usage le plus connu) fasse les gros titres et que la start-up OpenAI ne devienne le nouvel enfant terrible du capitalisme numérique, ces critiques écologiques ont été publicisés depuis 2018 par ce que l’on a appelé le « techlash », littéralement un clash contre la tech qui aura fait émerger en réponse le domaine de recherche interdisciplinaire connu sous la bannière vague et contestable de « l’éthique de l’IA ».

Depuis les grèves pour le climat de 2019, une petite vague d’actions de la part des travailleurs de la tech et d’activistes a amené à problématiser les impacts environnementaux des technologies numériques en général, et en particulier du type d’IA le plus répandu : l’apprentissage automatique (machine learning, ML) connu pour ses capacités à faire apprendre des choses à un algorithme à partir d’un grand ensemble de données. Lorsque l’on parle d’applications de l’IA, on veut bien souvent parler en réalité de produits numériques qui utilisent de l’apprentissage automatique – avec un degré plus ou moins fort d’interventions humaines qui permettent d’ajuster les résultats des algorithmes.

L’accent de cette critique a d’abord été mise sur les responsabilités climatiques de l’industrie informatique dans son ensemble[1]. Puis elle s’est resserrée sur le calcul de l’impact carbone de l’apprentissage machine[2] et plus récemment sur la consommation d’eau démesurée des data centers qui facilitent à la fois le stockage « cloud » des données, l’entraînement de l’apprentissage automatique, la réalisation de calcul et le déploiement de cette technique auprès des usagers finaux[3]. En ce sens, des appels publics ont été lancés pour mener des analyses du cycle de vie complet de l’impact environnemental de grands modèles d’IA afin de cartographier les effets directs, indirects et systémiques de l’ensemble de la chaîne d’approvisionnement depuis l’extraction de minéraux critiques en passant par la fabrication du matériel informatique jusqu’aux inévitables déchets électroniques issus de cette activité industrielle[4].

La vitesse et l’ampleur de l’adoption de l’IA générative — et en fer de lance ChatGPT — suscitent d’autres commentaires, contestations et justifications autour de son impact écologique, qu’il soit d’ailleurs nuisible ou bénéfique. En effet, les défenseurs de l’IA produisent un ensemble de récits prometteurs selon lesquels l’adoption de l’IA sera bénéfique pour les activités d’atténuation du climat telles que l’optimisation des réseaux électriques des villes avec des énergies renouvelables ou la création de connaissances et technologies utiles aux pratiques de la conservation et protection de la biodiversité.

Étant donné que seuls quelques pays du Nord bénéficieront des applications de l’IA et en particulier des applications utiles à l’atténuation du changement climatique, les inégalités en matière de politique de réduction des effets du changement climatique avec les pays du Sud sont susceptibles de s’accroître, et ce malgré les tentatives pour éliminer les barrières à l’entrée dans la course à l’IA des petites et moyennes entreprises du Sud et malgré l’adoption de stratégies politiques prônées par l’OCDE pour renforcer et anticiper les besoins en Intelligence Artificielle de ces pays[5].

Il est opportun d’étudier dans ce contexte la façon dont les impacts écologiques négatifs de l’IA deviennent un problème public que ces promoteurs pensent pouvoir résoudre grâce à des méthodes qui quantifient son besoin en ressources. En effet, les approches à venir en matière d’éthique et de gouvernance « sûres » et « responsables » de l’IA affirment désormais qu’il faut tenir compte de ces impacts environnementaux. Par exemple, les travaux de l’OCDE sur la politique de l’économie numérique mettent désormais en avant la nécessité de mesurer les impacts à la fois bénéfiques et néfastes de l’IA sur l’environnement, ce qui est essentiel à la fois pour la politique climatique et pour l’élaboration de principes pour une IA éthique[6].

Le très attendu grand projet de loi sur l’IA de l’Union européenne[7] — dont le texte définitif devrait être disponible sous peu — stipule qu’en plus de garantir que les systèmes d’IA soient « sûrs, transparents, traçables et non discriminatoires », il est également prioritaire qu’ils soient « respectueux de l’environnement »[8]. Plus encore, les exigences proposées dans le projet de loi comprennent une évaluation des risques de dommages environnementaux potentiels (article 9.2a) et une obligation pour les développeurs d’IA de fournir une capacité de journalisation des systèmes d’IA pour enregistrer la consommation d’énergie (tracking logs) et mesurer les niveaux d’utilisation des ressources (article 12.2a).

Le texte a aussi spécifié des éléments relatifs à l’IA générative : les fournisseurs de grands modèles de langues (large language models, LLM) seraient également tenus de s’appuyer sur ces normes pour réduire la consommation d’énergie, l’utilisation de ressources, la génération de déchets tout en trouvant des moyens pour accroître l’efficacité globale de leurs systèmes (article 28b).

Alors que l’IA fait couler beaucoup d’encre pour son utilisation dans la surveillance de masse, la perpétuation de discriminations racistes et sexistes ou l’accentuation des inégalités, l’intégration d’une responsabilité environnementale dans la régulation de l’IA est susceptible de créer des défis particuliers en matière de quantification, de normalisation de la mesure et de gestion des impacts environnementaux. S’il n’est déjà pas facile de se mobiliser contre des systèmes techniques sur lesquels nous avons peu de prises et de rendre public de manière lisible des effets néfastes de l’IA, la prise en compte de son impact environnemental a malheureusement des chances de se dérouler derrière les couloirs feutrés des consortiums et institutions de standardisations.

En conséquence, se pose la question de savoir ce qui sera inclus et exclu dans ces mesures et normes environnementales et qui décidera des méthodes de quantification, et standardisation, ou encore de la validité et robustesse des audits. Cet enjeu soulève également des questions plus larges sur la manière dont les objectifs politiques et les cadres d’éthique et de régulation entourant l’IA imaginent les futurs de l’enchevêtrement social, technologique et écologique de cette technologie. Quelles visions de l’avenir sont promues et lesquelles sont sapées par des élites technologiques et climatiques toujours enclines à faire appel à plus de quantification, d’audits et de benchmarks afin d’asseoir leurs pouvoirs sur le monde et continuer à développer des industries extractivistes. Revenons sur les modalités de quantification des impacts environnementaux de l’IA.

Quantifier le besoin en énergie de l’IA

Le secteur des technologies de l’information et de la communication (TIC) n’a pas toujours été un lieu majeur d’activisme et de critique environnementale en raison de son impact perçu comme limité par rapport à d’autres secteurs industriels comme la voiture ou l’aviation. Par exemple, la contribution totale du secteur des TIC à la crise climatique est faible : elle ne représente actuellement qu’une petite proportion des émissions mondiales de gaz à effet de serre, peut-être autour de 1,4 % ou 700 Mt d’équivalent CO2 en 2020, la proportion attribuable à l’IA/ML n’étant pas connue[9]. Cependant, les attentes concernant la croissance des TIC en tant que composante majeure des économies mondiales incitent également à accorder une plus grande attention à leur impact environnemental, une étude largement cité suggérant que 23 % des émissions de gaz à effet de serre seraient imputables au secteur des TIC d’ici 2030[10].

L’accent récemment mis sur les promesses du développement de l’apprentissage automatique et de l’IA générative devrait accroître et intensifier à la fois les dégâts environnementaux, mais également les utilisations potentiellement bénéfiques des TIC pour l’environnement. Dans ce contexte, la quantification de l’impact environnemental de l’IA (générative ou non) et les options d’atténuation sont en train de devenir un sous-domaine de recherche scientifique et industrielle important et un sujet de préoccupation publique.

En raison de l’urgence de la crise climatique, l’attention a été en priorité accordée à l’augmentation probable de la demande de consommation d’énergie (combustibles, renouvelables et fossiles) et aux émissions de gaz à effet de serre qui résultent de la croissance du développement et de l’utilisation de l’IA.

Dans une étude récente sur les émissions de carbone de 95 modèles différent de ML effectuant différentes tâches de traitement du langage naturel et reconnaissance d’image, deux informaticiennes ont mis en évidence que la majorité des modèles (61) utilisaient des sources d’énergie à haute teneur en carbone telles que le charbon et le gaz naturel, alors que moins d’un quart des modèles (34) utilisaient des sources d’énergie à faible émission de carbone comme l’hydroélectricité et l’énergie nucléaire[11].

Les principales sources de variation de la quantité d’émissions associées à l’entraînement des modèles d’apprentissage automatique sont dues à l’intensité carbone de la source d’énergie primaire et au temps d’entraînement nécessaire pour faire apprendre quelque chose à l’algorithme de manière satisfaisante. La consommation électrique du matériel (en particulier les puces de types GPU[12]) ayant moins d’influence dans le calcul global.

Par exemple, entraîner le modèle GPT3 de la firme Open AI équivaudrait à conduire 112 voitures à essence pendant un an[13]. Le long des phases de conception de l’IA, l’inférence d’un modèle (le calcul réalisé pendant le temps d’utilisation d’un usager) plutôt que l’entraînement reste l’activité la plus intensive en carbone. La consommation d’énergie de l’inférence est plus élevée car si l’entraînement est effectué plusieurs fois pour maintenir les modèles à jour et performants, l’inférence est effectuée plusieurs fois pour potentiellement des millions d’utilisateurs – comme c’est le cas pour ChatGPT ou peut-être bientôt pour de nombreux usages dans nos ordinateurs et smartphones.

Selon un data scientist danois, l’estimation de l’empreinte carbone annuelle totale de l’adoption à grande échelle de l’IA générative depuis la fabrication du matériel, l’entraînement des modèles et les étapes du cycle de vie du déploiement des modèles, est estimée à environ 47 338 952 tonnes d’équivalent CO2, ce qui équivaut aux émissions de 4 303 541 Danois.

Le caractère distribué de l’IA générative par rapport à d’autres types d’infrastructures – le fait que le « moteur de raisonnement » de produits comme ChatGPT soit progressivement accessible via différentes versions – augmentera les besoins en ressources informatiques et donc en énergie consommée dans les navigateurs, les applications mobiles et de nombreux autres services et machines. Ces évolutions rendent l’impact climatique de l’IA plus saillant et urgent à mesure que son impact s’amplifie.

Un sujet sous-jacent qui suscite de plus en plus d’enquêtes et de préoccupations publiques est l’expansion attendue du nombre de data centers en particulier les installations de calcul intensif pour l’entraînement et l’inférence des modèles d’IA. Selon une série d’articles du magazine spécialisé Data Center Dynamics[14], l’essor de l’IA générative est susceptible de transformer la gestion des centres de données de plusieurs manières : trouver de nouveaux terrains immobiliers pour construire de nouveaux data centers va s’avérer difficile ; l’augmentation de la consommation électrique et les besoins de refroidissement des serveurs va complexifier l’activité bien qu’elle devrait stimuler les innovations dans ce domaine ; l’aménagement intérieur des installations devra être transformé ou modernisé pour densifier le nombre de GPUs ; différents types de centres de données devront être regroupés (par exemple, un centre de données conçu pour entraîner des modèles d’IA à côté d’un autre pour effectuer des inférences et servir les utilisateurs finaux).

Étant donné que les centres de données génèrent une quantité massive de chaleur, l’utilisation de l’eau pour le refroidissement est un problème crucial pour l’environnement et pour les communautés locales[15]. Les chercheurs de l’université Riverside emmenés par Pengfei Li ont constaté la chose suivante :

« L’entraînement de GPT-3 dans les centres de données américains ultramodernes de Microsoft peut consommer directement 700 000 litres d’eau douce propre, soit suffisamment pour produire 370 voitures BMW ou 320 véhicules électriques Tesla… De plus, l’entraînement de GPT-3 est également responsable d’un coût supplémentaire en eau hors site de 2,8 millions de litres due à la consommation d’électricité. Ainsi, ensemble, cela porterait l’empreinte hydrique totale du GPT-3 pour la formation à 3,5 millions de litres s’il était entraîné aux États-Unis. »[16]

Outre l’électricité et l’eau, parmi les autres impacts écologiques néfastes identifiés dans la littérature scientifique et industrielle et attribués à la croissance du développement et de l’utilisation de l’IA citons en particulier : l’utilisation des matières premières y compris l’extraction et le raffinage des métaux rares ; l’utilisation des terres et du bâti industriel ; et enfin la circulation des données dans les câbles sous-marins, leur emplacement, entretien et implication pour la biodiversité.

Ces impacts deviendront plus critiques avec l’augmentation du réchauffement climatique, la pression plus aigüe sur l’extraction et l’approvisionnement en minéraux essentiels, et les attentes croissantes des consommateurs, du public et des entreprises selon lesquels les économies des pays du Nord s’orienteront vers une économie verte entièrement circulaire.

IA et politique de la quantification

La quantification des besoins en ressources de l’IA est nécessaire pour soutenir des formes de standardisation en réponse aux évolutions politiques et de gouvernance telles que les engagements des entreprises en matière de climat dans le cadre de l’Accord de Paris, et de plus en plus, dans le cadre des nouveaux cadres politiques en cours d’élaboration tels que la loi de l’UE sur l’IA mentionnée précédemment.

De manière problématique, en raison de la complexité à comparer des modèles d’IA présentant des caractéristiques différentes (par exemple, la taille des volume de données d’entraînement, le temps nécessaire à l’entraînement du modèle), des spécifications matérielles (les types de data centers utilisés et les modèles de GPUs) et situés dans divers endroits (avec des différences incommensurables en terme de mix énergétique et de régulation local des marchés de l’électricité et de l’eau), un calcul robuste de l’empreinte carbone de l’IA restera très probablement contesté à l’échelle mondiale.

Dans une étude sur l’empreinte carbone d’Internet[17], les chercheurs•euses Anne Pasek, Hunter Vaughan et Nicole Starosielski ont proposé un ensemble de facteurs méthodologiques qui conduisent à ce type d’impasse dans les tentatives de quantification des impacts. D’abord, l’accès aux données des industries participant à la chaîne de création de l’IA reste difficile voire impossible pour des auditeurs indépendants des pouvoirs économiques.

Un manque de consensus sur les méthodes de calcul des impacts limitent la fixation d’une manière commune apte à comparer différentes IA – par exemple, faut-il utiliser des modèles mathématiques d’évaluations et d’estimations ou agréger des données plus fiables depuis les pratiques ? Un flou dans la délimitation des frontières de ce qui est entendu par IA produit de la confusion : où commence et où finit une IA ? Le vague terminologique a des implications concrètes pour savoir quoi mesurer.

Ensuite, une certaine tendance dans les calculs à la moyennisation géographique est inhérente à ce type de démarche. En effet, par manque de données, il est souvent observé une extension inappropriée de données régionales pour représenter toutes les parties d’un ensemble géographique plus vaste. Pour finir, la question non résolue de la réelle amélioration des taux d’efficacité énergétique des modèles d’IA et data centers (établie grâce à des mix énergétiques plus verts et des techniques de refroidissements des serveurs innovantes) ne permet pas de savoir si les impacts négatifs seront compensés.

Les difficultés de calculs s’aggravent si nous cherchons à prendre en compte les impacts environnementaux au-delà des émissions de gaz à effet de serre, en évaluant les interactions et tensions entre différents impacts environnementaux — par exemple les tensions entre la demande de minéraux essentiels pour les énergies renouvelables et les impacts sur la biodiversité des infrastructures minières et d’énergies renouvelables.

Pour compléter ce tableau des tentatives de calculs de l’impact carbone de l’IA, rappelons que la littérature à ce sujet est très récente et que de nombreux sujets ne sont pas encore entièrement couverts par les efforts de quantification. Il manque notamment trois éléments.

D’abord, nous n’avons pas de comparaison solide entre l’analyse de l’empreinte écologique de l’IA en phase de conception et en phase de déploiement auprès des utilisateurs. Ensuite, une analyse robuste de la contribution des systèmes physiques (en particulier les puces GPU) à l’empreinte globale de la chaîne d’approvisionnement de l’IA reste manquante. Enfin, pour coller aux contextes locaux il serait important d’avoir une évaluation claire des compromis et stratégies concernant la planification et la temporalité de l’entraînement d’une IA dans un data center.

Comme l’évoque Clive Thompson : « Si vous vouliez que votre IA émette le moins de CO2 possible, vous effectueriez l’entraînement en plein jour, lorsque l’énergie solaire est disponible et la plus abondante. […] pour réduire le CO2 vous « suivez le soleil » ; [mais] pour réduire la consommation d’eau, vous « ne suivez plus le soleil » [puisque qu’en plein jour la demande en eau est plus importante] »[18].

Greening or Greenwashing IA ?

L’appel à quantifier les impacts écologiques de l’IA s’accompagne également d’une tentative de « verdir » l’entrainement des modèles d’IA en réduisant différents paramètres comme le volume de données, le nombre de paramètres, le nombre de puces énergivores (calcul parallèle, CPU et GPU), et le temps d’exécution de l’entraînement[19].

Pour aller dans ce sens, les concepteurs de ML ont esquissé un ensemble de bonnes pratiques pour réduire les impacts directs et matériels de leur activité : choisir un fournisseur de cloud « durable » ; sélectionner l’emplacement du centre de données doté d’un mix énergétique peu énergivore ; réutiliser des modèles d’IA pré-entraînés ; choisir des serveurs et puces qui consomment le moins ; utiliser un calculateur d’émissions pour évaluer les impacts avant d’exécuter le modèle ; et enfin partager publiquement les émissions associées aux résultats d’un modèle de ML[20].

De notre point de vue, le développement d’une « IA verte » est une réponse réductrice des entreprises aux crises environnementales qui comme toujours ont de multiples facettes : l’évaluation actuelle des impacts écologiques de l’IA se concentre presque uniquement sur un processus de quantification prenant en compte leur empreinte carbone, limitant ainsi fortement l’éventail des impacts écologiques et dimensions étudiées tel que la pollution, l’accès à l’eau ou les implications pour la biodiversité.

La quantification croissante des impacts écologiques de l’IA au moyen de mesures, leur normalisation, leur certification et leur publicisation constituent une réponse technique typique. Elle est encline aux formes de réductionnisme (qu’est-ce qui est laissé de côté dans les mesures ?) et à l’exclusion d’une participation démocratique au développement des infrastructures car bien souvent les métriques de calculs et la manière de les standardiser seront décidés par les entreprises elles-mêmes. Le discours de l’écologie par l’industrie de l’IA est capté de manière artificielle dans un contexte où le domaine de la Green AI est avant tout une tentative d’autorégulation du secteur privé face aux pressions du techlash.

En effet, l’exploitation du potentiel de « l’IA verte » en tant que nouvelle rhétorique séduisante au sein de l’économie plus large des vertus éthiques de l’IA doit être appréciée de manière critique puisque la plupart des auteurs principaux et secondaires de cet effort de quantification sont affiliés à des entreprises comme Google, Microsoft, Facebook, Hugging Face – ou naviguent entre des cabinets de conseil comme BCG ou Accenture et des consortiums professionnels comme la Green Software Foundation. Alors que les GAFAM jouent des coudes pour fournir des modèles toujours plus grands et performants, on peine à croire qu’ils puissent simplement revoir leurs désirs de grandeur après une simple conversion aux enjeux climatiques.

À la lecture des travaux de ces promoteurs d’une IA verte, limiter sa consommation énergétique peut se voir comme un cheval de Troie afin de mieux démocratiser et naturaliser son usage : en limitant son besoin en ressources, l’IA consommera moins d’énergie et sera donc moins onéreuse à développer tout en étant plus « durable ». En effet, le discours porté par Sasha Luccioni – en charge des question climatiques chez Hugging Face, dans le leader de l’IA en source ouverte – est le suivant : si l’IA coûte moins cher en énergie, davantage de pays du Sud et d’entreprises de taille moyenne peuvent bénéficier de ces usages[21].

En tant que data scientists soudain ralliés à la cause environnementale, Luccioni et ses suiveurs•euses doivent accompagner leur travail scientifique d’un effort de publicisation de cet enjeu – à l’image de l’informaticien Abhishek Gupta, tour à tour directeur du Montreal Ethics Institute, consultant pour BCG et membre actif de la Green Software Foundation. La responsabilité environnementale devient pour ce type de travailleurs de la tech une distinction importante dans un marché toujours prêt à revendiquer la supériorité morale du capitalisme et qui dans le même temps pousse à la professionnalisation du métier de tech ethicist. Il y a toujours un intérêt (symbolique et pécunier) au désintéressement (un décentrement du soi et de son milieu exprimé ici par un souci pour l’environnement).

L’IA verte pourrait finir par être principalement un programme visant à promouvoir le solutionnisme environnemental de l’IA, dans lequel la minimisation de l’impact environnemental nocif est replacée comme un « plat d’accompagnement » dans le « plat principal » de l’application bénéfique de l’IA dans la résolution de problématique climatique (tel que l’optimisation des réseaux énergétiques des villes). Bien des promoteurs de l’IA restent persuadés que les coûts environnementaux de l’IA seront compensés par ses bénéfices pour le climat : un simple jeu d’équilibre (ou on pourrait dire, d’équilibriste ?) qui s’avère difficilement vérifiable.

La crise climatique est entendue ici par le capitalisme vert comme une crise de l’inefficacité de la technologie : l’IA va nous permettre de faire mieux, plus vite, plus fort – telles sont les croyances qui perdurent. Rappelons pour finir que la plupart des avantages environnementaux de l’IA sont surestimés car ils sont potentiels et non réels et la plupart des évaluations d’impact sont sous-estimées car comme nous l’avons montré leurs méthodes de calcul ne sont pas toujours très fiables et n’évaluent pas les implications écologiques au-delà du calcul de l’impact carbone.


[1] Nathan Ensmenger, « The Environmental History of Computing », Technology and Culture, 59 (4S): S7‑33, 2018.

[2] Emma Strubell, Ananya Ganesh, and Andrew McCallum, « Energy and Policy Considerations for Deep Learning in NLP », ArXiv:1906.02243 [Cs].

[3] Pengfei Li, Jianyi Yang, Mohammad A. Islam, and Shaolei Ren, « Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models », arXiv, April 6, 2023.

[4] Pour une récente revue de la littérature lire : Lynn H. Kaack, Priya L. Donti, Emma Strubell, George Kamiya, Felix Creutzig, & David Rolnick, « Aligning Artificial Intelligence with Climate Change Mitigation », Nature Climate Change, 12, no. 6: 518–27, 2022.

[5] OECD, « A blueprint for building national compute capacity for artificial intelligence », Documents de travail de l’OCDE sur l’économie numérique, n° 350, Éditions OCDE, 2023.

[6] OECD, Measuring the Environmental Impacts of Artificial Intelligence Compute and Application, The AI Footprint, 2022.

[7] European Parliament, Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, (COM(2021) 206 final), (« proposed EU AI Act »).

[8] European Parliament, Draft compromise amendments on the draft report: proposal for a regulation of the European Parliament and of the Council on harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative Acts, disponible en ligne, consulté le 26 septembre 2023.

[9] Lynn H. Kaack, Priya L. Donti, Emma Strubell, George Kamiya, Felix Creutzig, & David Rolnick, « Aligning Artificial Intelligence with Climate Change Mitigation », Nature Climate Change, 12, no. 6: 518–27, 2022.

[10] Anders Andrae, Tomas Edler, « On Global Electricity Usage of Communication Technology: Trends to 2030 », Challenges, 6, no. 1 (April 30, 2015): 117–57, 2015.

[11] A.S. Luccioni, A. Hernandez-Garcia, « Counting carbon: A survey of factors influencing the emissions of machine learning », arXiv preprint arXiv:2302.08476, 2023.

[12] Les GPUs ou Graphics Processing Units (processeur graphique ou carte graphique en français) servent à l’origine au rendu graphique, en particulier dans l’industrie du jeu vidéo. Le GPU Computing consiste à utiliser des processeurs graphiques en complément pour accélérer le calcul des applications de Data Science et Machine Learning.

[13] David Patterson, Joseph Gonzalez, Quoc Le, Chen Liang, Luis-Miguel Munguía, Daniel Rothchild, David So, Maud Texier, and Jeff Dean, « Carbon Emissions and Large Neural Network », Training.doi:10.48550/arXiv.2104.10350, 2021.

[14] Voir en ligne.

[15] Mel Hogan, « Data flows and water woes: The Utah Data Center », Big Data & Society, 2(2), 2015.

[16] Pengfei Li, Jianyi Yang, Mohammad A. Islam, and Shaolei Ren, « Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models », arXiv, April 6, 2023.

[17] Anne Pasek, Hunter Vaughan, Nicole Starosielski, « The World Wide Web of Carbon: Toward a Relational Footprinting of Information and Communications Technology’s Climate Impacts. », Big Data & Society, 10, no. 1:: 20539517231158990, 2023.

[18] Thompson, Ibid.

[19] Roy Schwartz, Jesse Dodge, Noah A. Smith, and Oren Etzioni, « Green AI. », Communications of the ACM, 63, no. 12: 54–63, 2023.

[20] Alexandra Luccioni, Alexandre Lacoste, and Victor Schmidt, « Estimating Carbon Emissions of Artificial Intelligence [Opinion]. », IEEE Technology and Society Magazine 39, no. 2: 48–51, 2021.

[21] Lire à ce propos Sasha Luccioni, dans AlgorithmWatch, Digging deeper: AI’s environmental report card, SustAIn Magazine, mars 2023.

Loup Cellard

Sociologue, Membre du Centre of Excellence for Automated Decision-Making and Society de l'Université de Melbourne

Christine Parker

Juriste, Professeure à l’école de droit de l’Université de Melbourne

Notes

[1] Nathan Ensmenger, « The Environmental History of Computing », Technology and Culture, 59 (4S): S7‑33, 2018.

[2] Emma Strubell, Ananya Ganesh, and Andrew McCallum, « Energy and Policy Considerations for Deep Learning in NLP », ArXiv:1906.02243 [Cs].

[3] Pengfei Li, Jianyi Yang, Mohammad A. Islam, and Shaolei Ren, « Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models », arXiv, April 6, 2023.

[4] Pour une récente revue de la littérature lire : Lynn H. Kaack, Priya L. Donti, Emma Strubell, George Kamiya, Felix Creutzig, & David Rolnick, « Aligning Artificial Intelligence with Climate Change Mitigation », Nature Climate Change, 12, no. 6: 518–27, 2022.

[5] OECD, « A blueprint for building national compute capacity for artificial intelligence », Documents de travail de l’OCDE sur l’économie numérique, n° 350, Éditions OCDE, 2023.

[6] OECD, Measuring the Environmental Impacts of Artificial Intelligence Compute and Application, The AI Footprint, 2022.

[7] European Parliament, Amendments adopted by the European Parliament on 14 June 2023 on the proposal for a Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, (COM(2021) 206 final), (« proposed EU AI Act »).

[8] European Parliament, Draft compromise amendments on the draft report: proposal for a regulation of the European Parliament and of the Council on harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative Acts, disponible en ligne, consulté le 26 septembre 2023.

[9] Lynn H. Kaack, Priya L. Donti, Emma Strubell, George Kamiya, Felix Creutzig, & David Rolnick, « Aligning Artificial Intelligence with Climate Change Mitigation », Nature Climate Change, 12, no. 6: 518–27, 2022.

[10] Anders Andrae, Tomas Edler, « On Global Electricity Usage of Communication Technology: Trends to 2030 », Challenges, 6, no. 1 (April 30, 2015): 117–57, 2015.

[11] A.S. Luccioni, A. Hernandez-Garcia, « Counting carbon: A survey of factors influencing the emissions of machine learning », arXiv preprint arXiv:2302.08476, 2023.

[12] Les GPUs ou Graphics Processing Units (processeur graphique ou carte graphique en français) servent à l’origine au rendu graphique, en particulier dans l’industrie du jeu vidéo. Le GPU Computing consiste à utiliser des processeurs graphiques en complément pour accélérer le calcul des applications de Data Science et Machine Learning.

[13] David Patterson, Joseph Gonzalez, Quoc Le, Chen Liang, Luis-Miguel Munguía, Daniel Rothchild, David So, Maud Texier, and Jeff Dean, « Carbon Emissions and Large Neural Network », Training.doi:10.48550/arXiv.2104.10350, 2021.

[14] Voir en ligne.

[15] Mel Hogan, « Data flows and water woes: The Utah Data Center », Big Data & Society, 2(2), 2015.

[16] Pengfei Li, Jianyi Yang, Mohammad A. Islam, and Shaolei Ren, « Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models », arXiv, April 6, 2023.

[17] Anne Pasek, Hunter Vaughan, Nicole Starosielski, « The World Wide Web of Carbon: Toward a Relational Footprinting of Information and Communications Technology’s Climate Impacts. », Big Data & Society, 10, no. 1:: 20539517231158990, 2023.

[18] Thompson, Ibid.

[19] Roy Schwartz, Jesse Dodge, Noah A. Smith, and Oren Etzioni, « Green AI. », Communications of the ACM, 63, no. 12: 54–63, 2023.

[20] Alexandra Luccioni, Alexandre Lacoste, and Victor Schmidt, « Estimating Carbon Emissions of Artificial Intelligence [Opinion]. », IEEE Technology and Society Magazine 39, no. 2: 48–51, 2021.

[21] Lire à ce propos Sasha Luccioni, dans AlgorithmWatch, Digging deeper: AI’s environmental report card, SustAIn Magazine, mars 2023.