Géopolitique(s) de l’intelligence artificielle
Le 20 janvier dernier, l’arrivée de DeepSeek-R1 a laissé pantois le monde de la Tech. La start-up technologique chinoise DeepSeek a annoncé la sortie de deux grands modèles de langage (LLM) qui rivalisent avec les performances des outils dominants développés par les géants technologiques américains, notamment OpenAI et son célèbre ChatGPT… mais construits, en principe, avec une fraction du coût et de la puissance de calcul nécessaires à ce dernier.
S’il y en avait encore besoin, le « tremblement de terre » DeepSeek a montré que l’intelligence artificielle est (géo-)politique. Les enjeux de cet ordre sont multiples, de plus en plus centraux dans la vie de nos sociétés et de nos systèmes politiques, et touchent à la fois à la souveraineté technologique, à la sécurité nationale et à la domination économique. De plus en plus, l’argument est acquis que la maîtrise des modèles de fondation de l’IA, des données qui l’alimentent, et des semi-conducteurs et autres matériaux qui « construisent » nos objets informatiques façonnera l’ordre mondial de demain, avec des tensions croissantes entre les grandes puissances pour imposer leur vision et leurs intérêts.

Les modèles culturels et géopolitiques qu’on peut voir en Europe, aux États-Unis, en Chine, en Russie, influencent les développements de l’IA et la régulation qui est mise en place, par une variété de moyens, dans ces différentes régions. Cet article se propose de faire un rapide (et donc, nécessairement, un peu schématique par endroits…) tour d’horizon de ces différences régionales, avant de tirer quelques conclusions sur les principaux « bras de fer » entre grandes puissances autour de l’IA.
Russie : l’IA comme « bras armé » d’un autoritarisme récent
En Russie, l’IA est actuellement de plus en plus utilisée comme un des outils dans l’arsenal à disposition du pouvoir pour renforcer son contrôle sur internet. À partir du début des années 2010 notamment, la Russie a mis en œuvre un certain nombre de mesures afin de rendre son système de censure beaucoup plus performant et beaucoup plus ciblé par rapport à certains profils de citoyens, avec l’idée de rendre ce système de plus en plus sophistiqué et automatisé. Notamment, un certain nombre de mesures de filtrage automatisé ont été mises en place ; il s’agit d’un ensemble de mesures que l’IA peut faciliter, grâce à une analyse massive des flux d’informations en temps réel. Cela peut aider à identifier et à supprimer rapidement les contenus qui sont jugés « illégaux » ou « subversifs ». Le pouvoir russe a fait en sorte que ces termes englobent de plus en plus de pratiques et contenus au fil des années, et a parfois entretenu délibérément un flou sur son périmètre exact ; de facto, l’illégal et le subversif correspondent très largement, pour le gouvernement russe, avec la critique de l’État et le soutien aux oppositions.
Par le biais de certains algorithmes, il est possible pour l’État de détecter des contenus sensibles, même s’ils sont en train de contourner les mécanismes classiques de censure. Par exemple, même si les participants à une communication utilisent des euphémismes ou des codes, l’IA peut pointer ou reconnaître des mots-clés et des contextes. Il s’agit d’une partie du marché de la surveillance russe qui est en fort développement.
Les agences gouvernementales russes utilisent l’IA également à des fins de reconnaissance d’images, de mèmes et de vidéos pour y repérer des éléments problématiques pour le pouvoir, ce qui rend encore plus difficile le contournement de la censure de la part des activistes et plus largement des citoyens, puisque, parfois, le recours à ces moyens-là a lieu pour passer des messages qui seraient trop facilement repérés en « plain text ».
L’IA sert aussi des objectifs de reconnaissance faciale. Cette technique est discutée – et est largement controversée – dans les pays dits démocratiques, et dans les pays dits autoritaires elle s’applique largement à l’identification des opposants politiques sur différentes plateformes. Certaines plateformes, en Russie notamment, sont souvent pleinement coopératives avec le gouvernement et elles deviennent des instruments de mise en œuvre d’algorithmes de surveillance et de profilage de certains utilisateurs qui se seraient exprimés de façon dissidente. De plus, les technologies de reconnaissance faciale permettent d’identifier des participants à des manifestations, notamment des opposants au régime. Ces images sont croisées avec d’autres données, par exemple celles qu’on peut repérer sur les réseaux sociaux, ce qui facilite l’agrégation et le ciblage et ce qui permet au gouvernement, et plus largement à l’État, d’être plus performants dans le repérage des profils qu’ils considéreraient problématiques.
Un aspect largement traité dans les médias concernant la Russie et l’IA concerne l’utilisation de la désinformation et notamment de deepfakes. L’IA est ici mise au service de la fabrication de contenus pro-régime ; par exemple, pour la génération de narratifs ou de deepfakes manipulés dans le but de discréditer les oppositions, ou promouvoir des discours qui sont favorables au pouvoir ou parfois, tout simplement semer la confusion sur les fakes liés à certains aspects. L’IA permet non seulement de créer de la désinformation, mais aussi de la diffuser massivement, par des techniques d’inondation.
Dans le cas russe, il faut aussi noter des aspects de résistance aux technologies évoquées jusqu’ici et à leur mise en œuvre ; ces résistances peuvent à leur tour être amplifiées ou conduites par le biais de l’IA. De plus en plus, les espaces pour cette lutte se réduisent en Russie, notamment après le début de l’invasion de l’Ukraine ; cependant, il reste possible pour les citoyens – au moins certains citoyens dont les compétences techniques sont plus poussées – de mobiliser l’IA pour contourner la surveillance et la censure, par exemple contourner les blocages avec des réseaux privés virtuels (VPN) et optimiser leurs performances pour échapper aux techniques de blocage. Il est possible de mettre en œuvre des solutions relevant de l’IA qui détectent et évitent automatiquement au moins certains points de censure sur les réseaux, qui se marient souvent à des techniques de chiffrement avancé utilisées par certaines messageries sécurisées, comme Signal ou Telegram (la qualité du chiffrement bout-à-bout de ce dernier est par ailleurs critiquée). Enfin, un certain nombre de techniques de fragmentation de contenu peuvent être utilisées pour masquer les contenus sensibles en les faisant circuler avec des formats plus difficiles à détecter automatiquement.
Un dernier aspect à souligner en ce qui concerne la Russie est le contrôle centralisé des infrastructures. Roskomnadzor, le « gendarme » des télécoms russe, a vu ses pouvoirs augmenter de façon très importante au cours de la dernière décennie ; il a donc été le principal bras armé du gouvernement russe pour imposer des lois telles que la « loi sur l’Internet souverain » qui ont obligé, par exemple, un certain nombre d’entreprises technologiques nationales russes à coopérer très étroitement avec le gouvernement.
Pour résumer, la trajectoire de la Russie concernant les technologies numériques, y compris l’IA, va dans le sens d’une souveraineté accrue qui pourrait aller jusqu’à l’isolement de l’internet national du reste du monde ; l’IA peut jouer beaucoup dans ce processus en détectant et en bloquant des connexions extérieures, par exemple pour aider à centraliser les serveurs sous un contrôle gouvernemental, renforcer la cybersécurité nationale, ou encore contrôler les « ingérences étrangères », omniprésentes dans la législation russe sur le numérique de la dernière décennie.
Chine : le « centralisateur » numérique de longue date
La Chine est souvent présentée dans les discours politiques et médiatiques comme un deuxième grand exemple, à côté de la Russie, d’un gouvernement autoritaire qui mobilise de façon importante les technologies et les infrastructures numériques pour renforcer son autorité politique.
Pourtant, contrairement à la Russie, la Chine a vécu une très longue période de centralisation à plusieurs niveaux. Si la Russie a connu une période de dérégulation du marché, et de semi-liberté politique, qui a été importante et prolongée jusqu’à la fin des années 2000 (de facto, la plus grande poussée vers l’autoritarisme a commencé seulement au début des années 2010), en Chine, la centralisation est en œuvre depuis plusieurs décennies, et c’est dans ce cadre qu’un plan de développement de l’IA de nouvelle génération a été promulgué en 2017.
L’idée centrale de ce plan est de faire de la Chine le leader mondial de l’IA d’ici 2030, avec une priorité accordée explicitement aux applications de l’IA dans des secteurs comme la surveillance à large échelle, et aussi ce que les pouvoirs chinois appellent le maintien de la stabilité sociale.
De facto, des outils comme la reconnaissance faciale ou le système de crédit social vont être déployés à grande échelle, encore plus qu’ils ne le sont actuellement. Ce déploiement s’effectue dans un cadre réglementaire qui est très centralisé et destiné à favoriser le contrôle par l’État, ce qui implique aussi un ensemble important d’obligations, pour les entreprises, à partager leurs données avec les autorités.
Un accent très important est mis sur le contrôle de l’information et la censure algorithmique.
Pour la Chine, les questions d’expansion et d’exportation des technologies d’intelligence artificielle sont fondamentales, notamment vers des pays en développement. En particulier, la Chine a jeté son dévolu sur le continent africain, et a aussi des relations très importantes avec d’autres régimes autoritaires concernant l’exportation de technologies de reconnaissance faciale, de drones, de surveillance. Une industrie chinoise très florissante se développe pour ces technologies, notamment l’initiative appelée les « nouvelles routes de la soie numériques ».
Au niveau de la gouvernance internationale, la marque de fabrique de la Chine est de proposer des normes et des standards qui visent à aligner l’adoption de l’IA sur son modèle centralisé, et de remettre en avant un modèle multilatéral au détriment du modèle « multi-parties-prenantes » qui structure plusieurs institutions de gouvernance de l’internet. Parfois elle chapeaute des propositions à la limite de la provocation, comme le « New IP », un projet par le biais duquel la Chine proposait de reconstruire tabula rasa l’Internet Protocol, le protocole fondateur de l’internet. Si cette proposition n’avait pas beaucoup de « chair » pour la soutenir et si son déclin a été rapide, elle est représentative du positionnement international de la Chine en ce qui concerne le numérique.
Les États-Unis : peu de régulation, pour ne pas freiner l’innovation
Les États-Unis sont à l’avant-garde dans la recherche que sous-tend le développement de l’IA. C’est un écosystème très largement dominé par des entreprises technologiques privées, notamment de la Silicon Valley, qu’on connaît très bien sous les acronymes de GAFAM ou MAGMA. Ces grandes entreprises, telles que Google, Microsoft, Meta ou Amazon, se positionnent dans l’innovation, le développement et l’adoption de l’IA grâce à leur avantage technologique sur l’internet « classique ». Le gouvernement états-unien a traditionnellement eu un rôle de soutien substantiel mais discret, en investissant même de façon importante dans la recherche, mais en limitant la régulation, stratégie soutenue par le mantra – classique du rapport entre gouvernement et innovation technologique aux États-Unis – qu’une régulation limitée ne va pas freiner l’innovation.
Quelques initiatives naissantes, comme l’AI Bill of Rights de 2022, montrent néanmoins que, même dans ces systèmes relativement dérégulés, il peut exister une volonté de protéger les droits humains et les droits des individus face à l’IA. Cette question n’est donc pas complètement absente des débats liés à la gouvernance de l’IA aux États-Unis, même si, contrairement à l’Europe, les États-Unis n’ont pas encore de cadre réglementaire global pour l’IA, mais plutôt des ensembles de règles qui sont définies au niveau des États. D’autres tentatives de régulation naissantes se passent au sein de secteurs stratégiques plus spécifiques, par exemple les données de santé ou la finance.
Bien sûr, on ne peut pas terminer ce bref voyage dans l’IA d’outre-Atlantique sans mentionner les bouleversements profonds qui sont en train de se passer à l’heure où l’on écrit, du fait des débuts de l’administration Trump et de l’émergence (à laquelle on est en train d’assister) d’une forme de pouvoir inédite jusque-là dans les démocraties occidentales, qui fusionne autoritarisme politique, puissance technologique et manipulation algorithmique des émotions collectives.
L’Europe : Le régulateur qui se pose en modèle, mais souffre de dépendances
Pour se distinguer dans ce paysage compliqué, l’Europe a essayé de construire une approche réglementaire stricte, liée à son positionnement historique, presque philosophique, de protection des droits humains. L’idée centrale que sous-tendent les différentes initiatives de régulation européenne des dix dernières années est que le numérique, et plus récemment l’IA, doivent être encadrés pour être au service des individus, avec une dimension éthique forte.
Dans ce cadre, les initiatives réglementaires ont proliféré, du Règlement général pour la protection des données (RGPD) entré en vigueur en 2018, jusqu’à l’IA Act qui en est actuellement à ses prémices, en passant par le Digital Services Act et le Digital Markets Act (DSA/DMA). L’IA Act pose les bases d’une régulation ambitieuse qui prévoit un système de classification des risques et l’interdiction d’emblée de certains usages ; l’hypothèse d’un système de crédit social « à la chinoise », par exemple, est mis hors périmètre du faisable, ou encore certaines pratiques de surveillance de masse.
L’approche de l’IA « de confiance » est beaucoup promue, y compris dans les programmes qui sont ou seront amenés à financer des recherches sur l’IA. Une partie d’Horizon Europe, le programme-cadre actuel du financement de la recherche européenne, met en avant des mots-clés comme IA « éthique » ou « inclusive ». La position stratégique de l’Europe dans la gouvernance mondiale du numérique inclut des tentatives d’établissement de standards au niveau plus global, au-delà du niveau régional européen.
Par ailleurs, l’Europe souffre cruellement (ce qui s’inscrit également dans l’histoire) d’un manque de champions technologiques européens et d’une série de dépendances techniques et économiques, à la fois de fournisseurs de services (notamment des entreprises américaines comme Microsoft Azure, Google Cloud, OpenAI) et de fabricants de matériel informatique (surtout des acteurs chinois de l’industrie des chips, comme Enflame, MetaX ou Aivatech).
L’influence européenne s’appuie donc davantage sur la régulation que sur le marché et l’innovation – ce qui l’expose à des vulnérabilités mais peut aussi fournir des modèles de policy pour d’autres régions du monde.
Les « bras de fer » géopolitiques de l’IA
L’IA est devenue un levier stratégique de puissance et de souveraineté. Derrière la compétition technologique se joue une guerre d’influence géopolitique qui porte à la fois sur les normes, sur les infrastructures et sur les usages de ces technologies, et qui se « décompose » en quelques batailles cruciales que je résume en conclusion de cet article.
Les grandes puissances, notamment les États-Unis et la Chine, investissent massivement dans le développement des modèles de fondation de l’IA. Cette course vise à obtenir un avantage stratégique en matière de traitement de l’information, d’innovation industrielle et d’applications militaires. Les États-Unis dominent actuellement avec OpenAI, Google DeepMind et Meta, mais comme on l’a vu avec DeepSeek, il s’agit d’un secteur aux évolutions subites et parfois surprenantes. L’Europe est en retrait à ce sujet, mais tente de développer une alternative avec des initiatives comme Mistral AI ou des collaborations à l’échelle de l’UE.
L’entraînement des modèles de fondation repose par ailleurs sur d’énormes quantités de données, ce qui pose la question de la souveraineté numérique. Les États-Unis disposent d’un avantage stratégique grâce aux GAFAM, qui captent d’énormes volumes de données globales ; la Chine protège ses données en imposant des restrictions strictes sur l’exportation des informations utilisées pour entraîner ses modèles. L’Union européenne tente d’établir des règles avec des régulations comme le RGPD et l’AI Act, pour garantir un contrôle sur les flux de données et protéger ses citoyens.
Les modèles d’IA nécessitent des composants ultra-performants, notamment des puces spécialisées. Les États-Unis et leurs alliés contrôlent les technologies clés, avec Nvidia, AMD et Intel qui dominent la production de processeurs d’IA, alors que des entreprises de Taiwan et de Corée du Sud fabriquent les puces les plus avancées. L’Europe possède à cet égard l’un de ses rares fleurons, avec ASML, basé aux Pays-Bas, qui détient le monopole sur la lithographie EUV, essentielle pour produire les semi-conducteurs les plus performants. La Chine cherche à réduire sa dépendance mais rencontre des difficultés, notamment à cause des sanctions américaines qui empêchent Huawei et les autres entreprises chinoises de pointe d’accéder aux technologies de pointe.
L’IA est un enjeu militaire et sécuritaire majeur pour les puissances mondiales. Les États-Unis et la Chine développent des IA pour la cybersécurité, la surveillance et la guerre autonome (drones, armes guidées par IA). Les cyberattaques assistées par l’IA deviennent une menace majeure : la désinformation et le hacking « dopés à » l’IA, dans lesquels la Russie est en première ligne, sont des armes géopolitiques. L’UE et d’autres pays cherchent à encadrer les IA militaires mais peinent à imposer des règles face aux grandes puissances.
Enfin, pour ce qui est des tentatives de régulation et de coopération internationale, l’UE est en première ligne avec l’AI Act, qui vise à encadrer les usages des IA à haut risque. Les États-Unis et la Chine adoptent des approches plus souples, privilégiant l’innovation au détriment d’une régulation stricte. Le G7 et l’ONU tentent d’instaurer un cadre global, mais les divergences entre les grandes puissances compliquent l’émergence d’un consensus.
Cet article s’est, et trop rapidement sans doute, concentré sur les « grandes puissances » de l’IA et leurs relations de pouvoir. Il semble nécessaire, à cette époque de Sommet pour l’IA en France, et des grandes proclamations qui s’ensuivent, de mentionner – là aussi, trop rapidement – les « coulisses » de la fabrication, de la production et de la maintenance de ces technologies, qui reposent très souvent sur des mécanismes de capitalisme et de travail numérique dont l’éthique et la durabilité sont plus que douteuses – et qui accroissent souvent les inégalités géopolitiques. Un très récent documentaire produit par France 2 (Les Sacrifiés de l’IA d’Henri Poulain), ainsi qu’un ensemble de travaux de spécialistes du digital labor, comme Antonio A. Casilli, et des politiques environnementales du numérique, nous révèlent ces réalités de la production de l’IA, mais passent trop souvent sous le radar alors qu’ils sont essentiels pour une vision complète de la géopolitique de ces technologies émergentes.
L’IA est en passe de devenir l’une des principales arènes de tensions géopolitiques du futur proche, et plusieurs indicateurs semblent montrer que c’est déjà le cas. Une course à la maîtrise des modèles de fondation, des données et des semi-conducteurs qui construisent l’IA contribuera à façonner l’ordre mondial de demain, avec des tensions croissantes entre les grandes puissances pour imposer leurs visions et leurs intérêts.