Quand fragmentation d’Internet rime avec profits
Les prises de parole mettant en garde contre une possible fragmentation d’Internet se sont multipliées ces dernières années. Des États autoritaires – comme la Russie, la Chine et l’Iran – tentent de longue date de couper leurs citoyens d’un accès à l’Internet mondial, ou de le réduire fortement. Récemment, des États démocratiques ont également adopté des mesures qui reviennent techniquement à la même chose, quoique pour des motivations diverses. C’est ainsi que la France a coupé l’accès à TikTok en Nouvelle-Calédonie en mai 2024, et que, plus tard dans l’année, la Cour suprême fédérale du Brésil a ordonné le blocage de X (ex-Twitter) dans le pays.
Internet est-il donc vraiment menacé d’explosion ? Dans un récent ouvrage intitulé L’avenir d’Internet : unité ou fragmentation ?, nous tentons de répondre à cette question d’actualité en nous appuyant sur des travaux récents, qui analysent l’effet de certaines pressions économiques et politiques sur la survie de l’unité d’Internet. Alors qu’à l’origine, Internet devait se construire sur un modèle distribué, sans centre (le fameux modèle de la Toile), sa structure s’est modifiée progressivement pour ressembler de plus en plus à une constellation d’étoiles. Autrement dit, des ensembles construits autour de nœuds centraux cohabitent toujours, mais sont de moins en moins bien reliés entre eux. Si aujourd’hui Internet reste encore un espace public transnational à peu près uni sur le plan technique, nous observons dans le même temps l’émergence d’un nombre croissant de blocs nationaux et de silos commerciaux, certains explicites, mais d’autres beaucoup moins visibles, voire inconnus.
Le rôle des États est le plus souvent pointé du doigt lorsque l’on évoque ces risques de fragmentation. Ainsi de nombreux articles de presse se sont fait le relais de telles craintes depuis 2022, année marquée par l’offensive militaire d’ampleur menée par la Russie en Ukraine, et le ravivement des rivalités géopolitiques autour du détroit de Taïwan. Des débats ont même eu lieu pour savoir s’il fallait à travers de nouvelles sanctions, couper l’accès des segments russes d’Internet au reste du réseau mondial.
Il est en revanche moins commun d’étudier ce processus de fragmentation à travers le prisme des acteurs technologiques dominants – souvent qualifiés de big tech – comme Google, Meta, Huawei, ou des acteurs moins connus mais tout aussi importants comme Cloudflare. C’est donc de cet aspect de la fragmentation d’Internet, développé dans l’un des chapitres de notre ouvrage L’avenir d’Internet, dont il sera question ici.
Ce que sont les entreprises de la big tech pour Internet
Si l’on associe généralement la « big tech » aux GAFAM étasuniens – à savoir Google, Apple, Facebook, Amazon et Microsoft – il s’agit en fait d’une catégorie d’acteurs relativement nébuleuse – faite de groupes technologiques américains, mais aussi chinois, russes et européens. Ces entreprises se caractérisent par leur position dominante, dans des marchés très variés, où les oligopoles sont souvent devenus la norme. On peut penser aux plateformes de réseaux sociaux, au secteur du cloud, mais aussi aux navigateurs et moteurs de recherche.
Si nos consommations (libres ou contraintes) de leurs services peuvent parfois donner à penser qu’Internet se réduit désormais à ceux proposés par Meta, Alphabet (Google) ou ByteDance (Tiktok), il faut souligner ici qu’Internet est la matrice technique qui leur a permis de prospérer, mais les dépasse dans une très large mesure.
Cette relation entre big tech et Internet a été marquée par un changement crucial au cours des deux dernières décennies. Il s’agit pour Internet de la transition d’un réseau ouvert, décentralisé et « proactif » à un système largement concentré entre les mains de quelques oligopoles, ressemblant à plusieurs égards au système de l’audiovisuel qui l’avait précédé. Cette ère est, pour l’essentiel, celle où nous vivons toujours, souvent appelée l’« ère des GAFAM ». Cette domination économique devient souvent de facto politique, et pose un certain nombre d’importants défis : les effets sociotechniques pervers de l’économie de l’attention, l’omniprésence de la publicité en ligne, la prédiction et la personnalisation algorithmiques, ou encore le statut d’intermédiaires incontournables de l’accès à l’information assumé par ces plateformes.
Comprendre la recrudescence des débats autour de la fragmentation d’Internet
De nos jours, la fragmentation d’Internet commence à se structurer comme problème public à l’agenda politique aussi bien au niveau national, européen et dans le cadre des discussions internationales, notamment au sein de l’ONU. Ainsi, le Pacte numérique mondial adopté par l’Assemblée générale des Nations Unies en septembre 2024 prévoit l’engagement des États à « promouvoir la coopération internationale entre toutes les parties prenantes afin de prévenir, de recenser et de contrer en temps utile tout risque de fragmentation d’Internet ». Le discours de l’industrie du numérique dans les débats autour de la gouvernance d’Internet a lui aussi le plus souvent été celui d’un soutien quasi-inconditionnel à l’ouverture et unité du réseau… dès lors qu’il s’agit de s’opposer à l’ingérence d’autorités publiques.
Le spectre de la fragmentation est mobilisé régulièrement par l’industrie lors de l’émergence de nouvelles normes juridiques, susceptibles d’interférer avec la vision d’un Internet perçu comme universel et unifié. C’est à ce titre que certains grands groupes technologiques, comme Meta et Alphabet, se positionnent régulièrement comme des défenseurs de l’unité d’Internet, face à ces logiques réputées « fragmentaires ». Comme nombre d’acteurs internationaux, ces acteurs souhaiteraient éviter un morcellement des règles nationales et régionales visant Internet et les marchés numériques dans lesquels ils s’inscrivent.
Pour ces organisations, la notion de fragmentation, entendue au niveau politique, est ainsi un outil rhétorique pour dénoncer un horizon politique dans lequel la nature globale des plateformes ou la fluidité de l’accès à l’information et du partage de données serait en danger. Pourtant, bien que de façon parfois moins manifeste que les États, les entreprises technologiques peuvent aussi être d’importants moteurs de la fragmentation de l’Internet.
Les grandes entreprises technologiques comme catalyseurs de fragmentation
Internet, puis le Web, devaient permettre la concrétisation du projet d’un « village global » sans frontières. Il devait donner naissance à un espace public libéré de la mainmise des mass media sur la fabrique de l’opinion ou de celle des États sur l’agenda médiatique. Si une partie de cette promesse initiale de renouveau démocratique de l’espace public a été bien été tenue, notamment grâce à des projets comme Wikipedia, Félix Tréguer, dans son livre intitulé L’Utopie déchue, montre la manière dont, à partir des années 2000, ces espoirs ont peu à peu été trahis. De nombreux travaux de recherche contemporains décrivent abondamment le pouvoir et le contrôle accumulés par les grandes entreprises technologiques sur l’Internet. Certains les comparent aux régimes politiques médiévaux en Europe occidentale, dont l’ordre reposait sur une captation des richesses par les « seigneurs » en échange de la protection offerte au peuple. Cette métaphore de la « féodalisation » est par exemple au cœur de l’ouvrage Technofeudalism de Yanis Varoufakis.
Toute une série d’exemples soulignent comment des acteurs du secteur privé, souvent en raison de leurs modèles économiques, représentent de véritables défis pour l’unité de l’Internet, en œuvrant à sa fragmentation aussi bien au niveau des infrastructures de l’Internet, que de sa couche applicative. On peut penser à l’émergence des bulles de filtre sur les plateformes de réseaux sociaux, aux choix délibérés d’entreprises d’utiliser des standards incompatibles pour empêcher toute interopérabilité entre services, au fait que le mail soit graduellement remplacé par des messageries propriétaires qui fonctionnent en silo, ou encore à la vive résistance du secteur privé face au droit à la portabilité des données personnelles pourtant garanti en principe par le Règlement général de protection des données (RGPD). Parmi ces exemples, le cas des réseaux sociaux est d’ailleurs particulièrement éclairant.
L’exemple des bulles de filtre et de l’enrôlement souvent forcé des utilisateurs
Pour favoriser les taux d’engagement, certaines grandes plateformes commerciales n’hésitent pas, selon Eli Pariser, à nous enfermer dans des « bulles de filtre » : nous ne voyons plus, sur les grandes plateformes, que des contenus dont les algorithmes de ces plateformes estiment qu’ils sont capables de capter notre attention.
Ces techniques peuvent amplifier les contenus « toxiques » (pour reprendre le terme employé par David Chavalarias dans Toxic Data), désagréables mais sûrs de provoquer une réaction : discours de haine, désinformation… Cela crée aussi de la fragmentation, puisque je ne vois pas le même contenu que mon voisin, dont le profil, calculé à partir de ses données à caractère personnel, n’est pas le même que moi.
Enfin, les grandes entreprises, comme Alphabet (Google), ByteDance (TikTok), Meta (Instagram, Facebook), ou encore Microsoft (LinkedIn), qui opèrent ces services, peuvent avoir intérêt à limiter la possibilité que des utilisateurs d’un service concurrent ont de communiquer entre eux. L’auteur d’un e-mail dont les courriers sont hébergés par Microsoft peut sans aucun souci écrire à quelqu’un dont l’adresse électronique se termine par @yahoo.fr ou @gmail.com. Mais un utilisateur de Facebook ne pourra pas envoyer de message à quelqu’un qui utilise la messagerie de LinkedIn. C’est le résultat de choix commerciaux, et non de contraintes techniques. En 2015, Facebook a par exemple pris la décision de casser la compatibilité entre son service de messagerie instantanée et les autres messageries utilisant le standard XMPP (pour extensible messaging and presence protocol), comme Jabber ou Google Talk. Avant, de tels échanges étaient possibles.
Nous vivons en des temps difficiles pour les utilisateurs d’Internet. Nous sommes « enrôlés » au quotidien par un ensemble de plateformes numériques ; cette tendance s’est d’autant plus accentuée avec le développement des smartphones, qui contraignent le « choix » d’une suite complète de services, tellement intégrés dans le dispositif qu’ils ne peuvent pas en être retirés. Nous fréquentons des réseaux sociaux qui érigent des barrières en fonction de leurs modèles économiques et de leur objectif principal sous-jacent, qui est non pas de nous présenter un portrait fidèle de la réalité, mais de nous faire passer plus de temps en ligne et de monopoliser notre attention. Ces barrières incluent par exemple les contraintes à ne partager que certains types de contenus ou les modalités de ce partage, des obligations à ne pas insérer des liens vers d’autres plateformes, et surtout des décisions prises sur la base d’algorithmes propriétaires et secrets, sur ce que chaque utilisateur doit se voir proposer en priorité.
Sans surprise, la concentration progressive des marchés et infrastructures numériques dans les mains d’une fraction d’entreprises globales n’est pas sans conséquence y compris pour le bon fonctionnement de la couche technique d’Internet. Les pannes répétées de certains services cruciaux et hégémoniques (panne mondiale de Windows en juillet 2024 ; des services de Meta en décembre 2024…) en sont l’illustration visible.
Alors que l’ouverture d’Internet est sans doute, à l’origine, l’une des raisons du succès de ces mêmes entreprises, on observe désormais une tendance à la fermeture sur divers fronts. Ces mouvements de fond se traduisent par une double consolidation et privatisation de l’Internet.
La progressive consolidation d’Internet comme facteur indirect de fragmentation
La concentration de pouvoir, de connaissance et de richesse qu’a fait naître le succès d’Internet au profit de certaines grandes entreprises leur donne une prééminence considérable dans la gestion de l’une des infrastructures les plus essentielles pour nos sociétés. Le contrôle croissant de l’infrastructure et des services Internet par un petit ensemble d’organisations, souvent décrit comme le processus de consolidation de l’Internet, apparaît ainsi comme une grande menace.
D’un état originel qui était appelé à favoriser une grande diversité d’usages et d’acteurs, Internet évolue vers un état où une fraction toujours plus importante du trafic implique un ensemble toujours plus restreint de fournisseurs de contenu, de réseaux sociaux et de plateformes.
Certaines entreprises semblent même en passe de façonner une infrastructure technique indépendante, devenant une véritable alternative à l’Internet public. Dans le cas de Google, cela se traduit par la construction de leurs propres câbles sous-marins (évitant donc pour partie les infrastructures d’opérateurs télécoms), connectés à des centres de données privés, mobilisant des protocoles et logiciels souvent propriétaires, et bénéficiant d’un accès direct aux services et données des utilisateurs.
Le chercheur Bernhard Rieder avance qu’à lui tout seul Google serait un véritable « système technique » à part entière, et non plus seulement une simple entreprise en situation de monopole dans divers marchés numériques. On pense par exemple au marché des moteurs de recherche, dans lequel Google Search occupe la première place avec plus de 90 % des recherches au niveau mondial. Cette conceptualisation peut s’étendre à l’ensemble des big tech, à mesure que s’intègrent leurs logiciels et infrastructures physiques propriétaires. À titre d’exemple, Google conçoit depuis 2016 ses propres puces électroniques destinées à faire fonctionner sa plateforme de machine learning TensorFlow.
La transversalité de ce système technique est le fruit, non seulement d’investissements colossaux dans ces infrastructures ou du génie des googlers, mais également d’une stratégie d’expansion, visant à progressivement extraire Google des pesanteurs propres au réseau des réseaux.
Ce processus de consolidation économique et technique a conduit la littérature académique à qualifier les entreprises bénéficiant de cette tendance comme des hypergiants, des hyper-géants technologiques. Netflix, Google ou encore le réseau de diffusion de contenus Akamai fournissent en effet quotidiennement du contenu à des milliards d’utilisateurs. Cinq de ces géants sont à l’origine de plus de la moitié du trafic Internet, alors qu’en 2009 il fallait réunir les 150 plus grands réseaux connectés à Internet pour atteindre cette même proportion.
Les effets du régime « privé » de gouvernance de l’Internet
Cette consolidation se manifeste donc sur le plan matériel, mais aussi dans la gouvernance de l’Internet. Prenons le cas des organisations responsables de la standardisation de l’Internet, comme l’Internet Engineering Task Force (IETF). Historiquement, on sait que ces organisations ont été créées pour favoriser un Internet ouvert et universel, dans une gouvernance dite multi-parties-prenantes, éloignées du contrôle d’acteurs étatiques, et fonctionnant sur la base du consensus. Pourtant, au sein de l’IETF et d’autres organisations similaires, il est courant de voir de grandes entreprises technologiques faire pression pour que leurs propres solutions techniques deviennent la norme. Nous pouvons ainsi souvent constater que seules quelques entreprises technologiques ont la capacité d’élaborer des propositions techniques suffisamment sophistiquées (et soutenues par le reste de l’industrie, et donc le marché) pour qu’elles puissent devenir une réalité pour l’ensemble du réseau.
Cet état de fait souligne la structure actuelle du régime privé de la gouvernance d’Internet, qui donne structurellement aux grandes entreprises technologiques un pouvoir prédominant dans la formulation de la plupart de ces normes.
Il convient également de souligner que les affrontements qui se jouent entre acteurs privés autour des standards ne se déroulent pas seulement pendant la phase de conception, mais aussi dans le cadre de leur mise en œuvre et de leur déploiement. Les grandes entreprises technologiques peuvent être incitées à soutenir la formulation et l’adoption de standards ouverts, pour ensuite les forker, c’est-à-dire pour les dupliquer en ajoutant des extensions, souvent propriétaires, que les concurrents ne pourront pas mettre en œuvre, dans le but d’étouffer la concurrence et le standard d’origine.
Des acteurs en situation dominante peuvent même être tentés de renoncer aux processus formels de standardisation, qui requièrent souvent de participer à l’élaboration d’un consensus relativement fastidieux. Il arrive que des acteurs ayant un poids économique significatif soient tentés d’imposer leurs décisions de façon unilatérale. En 2017, Apple, un acteur clé du marché des navigateurs mobiles, a décidé d’abandonner la prise en charge d’Adobe Flash initiée en 2010, précipitant la fin de cette technologie propriétaire. Plus récemment, Apple a décidé de bloquer toute prise en charge et connectivité pour le protocole PPTP (Point-to-point tunneling protocol), l’un des protocoles utilisés pour établir des connexions VPN. Même lorsqu’elles sont prises pour des raisons de sécurité informatique – comme ce fut le cas pour PPTP – ces décisions unilatérales peuvent créer des formes de fragmentation du point de vue de l’utilisateur, qui se voit privé d’accès à certains services ou contenus.
Cette situation est encore amplifiée par le contrôle quasi-total que certaines grandes entreprises exercent sur des pans entiers de l’infrastructure d’Internet, en raison de la consolidation croissante de ses nombreux marchés et services, tels que réseaux de diffusion de contenus, plus communément connus sous leur dénomination en anglais, CDN, pour content delivery networks.
Ouverture d’Internet vs intérêts industriels
De nombreux experts de l’Internet s’inquiètent des conséquences d’un Internet dominé par des intérêts purement industriels et commerciaux.
Selon Ben Tarnoff, un auteur américain, cette évolution est à l’origine de nombre des dysfonctionnements de l’Internet d’aujourd’hui :
« Comprendre comment la privatisation a donné naissance à l’Internet moderne est essentiel pour tout mouvement qui cherche à le refaire. Les mouvements doivent connaître leur ennemi. S’ils concentrent leur énergie sur la mauvaise cible, ils perdent toute chance de changement significatif. L’histoire montre pourquoi la privatisation est la bonne cible, car elle constitue le fondement commun des divers dysfonctionnements et déprédations de l’Internet moderne. »
Cette privatisation est parfaitement illustrée par d’autres évolutions plus structurelles méritant aussi notre attention, telles que le processus de plateformisation d’Internet et la montée des pratiques de zero-rating, illustrée par l’offre Free Basics de Facebook, déployée dans des pays en voie de développement.
Cette pratique, mise en œuvre par divers fournisseurs d’accès et opérateurs de télécommunications, vise à fournir un accès à Internet sans coût financier direct pour les consommateurs lorsqu’ils accèdent à des sites Web et à des plates-formes spécifiques (tels que Facebook). Comme l’a fait valoir le chercheur en droit Luca Belli, en raison de ces tendances, « les utilisateurs sont activement dissuadés de s’aventurer au-delà des applications présentées comme gratuites, et orientés vers un environnement de type Minitel, favorisant ainsi la fragmentation de l’internet en sous-ensembles de services prédéfinis par un seul opérateur ».
Comme nous l’avons vu, Internet a donc considérablement évolué au cours des dernières années, du fait de ces processus conjoints de consolidation et privatisation du réseau. Ces développements sont des moteurs importants de la fragmentation de l’Internet en favorisant à la fois la fermeture et la segmentation de l’espace virtuel des utilisateurs d’Internet, tout comme la privatisation de parties importantes de son infrastructure.
Si cela se traduit par des améliorations significatives pour la qualité des performances techniques des services les plus utilisés, il n’en va pas de même pour l’Internet dans sa globalité. La perspective d’un Internet fragmenté en « îlots » déconnectés du reste du réseau et opérant selon leurs propres règles pose question. Internet a été conçu pour mettre en réseau des systèmes autonomes, fonctionnant de façon distribuée et indépendante, donnant ainsi naissance à un espace public transnational et global. Or, les dynamiques identifiées montrent que des tendances sont à l’œuvre, qui commencent à fracturer ce réseau de réseaux mondial en un ensemble de réseaux séparés selon des lignes géopolitiques – ce que nous évoquions en introduction – mais aussi selon des frontières crées en raison d’intérêts commerciaux privés, correspondant à des offres de services propriétaires.
La prise de conscience de ces menaces qui pèsent sur l’unité d’Internet peut nous inciter à agir. Au lieu de favoriser l’usage de réseaux sociaux et autres plateformes propriétaires qui enferment leurs utilisateurs dans des jardins clos, il est possible d’utiliser des réseaux sociaux fédérés, comme Mastodon, qui permettent une circulation plus libre de l’information. De même, s’assurer que les services numériques (sites web, applications, etc.) fonctionnent sur tous les navigateurs – et pas seulement sur Google Chrome – et sur tous les systèmes d’exploitation, réduit aussi la capacité des géants du numérique à imposer leurs choix aux utilisateurs et les oblige à continuer à jouer le jeu de l’interopérabilité.
Bien entendu, de même que compter uniquement sur les actions des individus pour lutter contre le réchauffement climatique est illusoire, il n’est pas réaliste d’attendre des internautes qu’ils se portent au secours de l’unité d’Internet sans qu’il y ait des politiques publiques (cohérentes) qui agissent aussi en ce sens, et qui font hélas pour le moment largement défaut.
NDLR : Lucien Castex, Francesca Musiani, Clément Perarnaud et Julien Rossi ont récemment publié L’avenir d’Internet : unité ou fragmentation ? aux éditions Le Bord de l’eau.