Alternatives aux réseaux anti-sociaux
Depuis la réélection de Donald Trump à la présidence des États-Unis le 5 novembre 2024, et la nomination consécutive d’Elon Musk à la direction du Département de l’Efficacité gouvernementale, de nombreux médias, parmi lesquels The Guardian, La Vanguardia ou encore Ouest France ont annoncé leur départ de la plateforme X (ex-Twitter)[1]. En à peine deux ans, l’entrepreneur milliardaire est en effet parvenu à transformer l’un des principaux réseaux sociaux planétaire en une véritable machine d’influence et de propagande au service du candidat républicain.

La dernière campagne électorale américaine s’est caractérisée par la diffusion massive de fausses informations, la circulation virale de contenus truqués et le ciblage publicitaire mensonger – phénomènes auxquels le propriétaire de X s’est allé-ègrement livré, postant des centaines de messages quotidiens à ses centaines de millions d’abonnés, amplifiant l’audience des influenceurs pro-Trump à travers les algorithmes de recommandation automatique ou diffusant de manière ciblée des messages biaisés au sujet de Kamala Harris. Elon Musk a par exemple financé le comité d’action public Future Coalition PAC, qui a lui-même acheté plusieurs centaines de milliers de dollars d’encarts sur Snapchat, Google, Instagram et Facebook afin de diffuser des contenus décrivant la candidate démocrate comme un soutien indéfectible d’Israël auprès des électeurs musulmans ou, à l’inverse, la dépeignant comme « dans la poche des Palestiniens » auprès des électeurs juifs[2].
Les réseaux sociaux commerciaux : de la publicité à la propagande
Ces manœuvres ne surprendront que ceux qui croyaient encore qu’un réseau social planétaire, aux mains d’une entreprise privée elle-même détenue par un libertarien milliardaire, pouvait demeurer « neutre » à l’égard des contenus diffusés… Il faudrait être bien naïf, en particulier quand on sait qu’indépendamment des idéologies de leurs propriétaires, les réseaux sociaux commerciaux (comme X, Facebook ou TikTok) fondent leurs modèles d’affaire sur l’économie de l’attention[3] : ces services ont pour objectif de nous maintenir connectés le plus longtemps possible (ce qu’on appelle, dans la novlangue du smart-marketing, « maximiser l’engagement des usagers ») pour capter nos attentions et collecter nos données, afin de les revendre à des annonceurs à des fins de ciblage publicitaire ou à des partis en vue de propagande politique.
Ainsi, en 2016 déjà, l’affaire Facebook-Cambridge Analytica avait témoigné des risques que les réseaux commerciaux faisaient courir au bon déroulement des processus électoraux : les données de 87 millions d’utilisateurs de Facebook, exploitées par l’entreprise Cambridge Analytica, avaient alors permis au comité de campagne de Trump d’influencer les votes des électeurs indécis, auxquels des informations ciblées avaient été envoyées.
Pour ceux à qui cette affaire aurait échappé, quelques années plus tard, en 2021, les Facebook Files révélés par Frances Haugen venaient confirmer les dangers que les plateformes numériques privées font courir aux régimes démocratiques : ces documents révélaient que les journalistes et les politiciens européens s’étaient plaint auprès de l’entreprise de Mark Zuckerberg du fait que l’algorithme de recommandation de Facebook les obligeaient à adopter des positions clivantes et haineuses pour survivre financièrement et médiatiquement sur le réseau. Rien de tel en effet que la recommandation massive de contenus choquants, sensationnels ou polarisés pour « maximiser l’engagement des usagers » : de tels contenus provoquent des réactions immédiates et impulsives très profitables pour l’entreprise. Nul ne devrait donc s’étonner du soi-disant revirement de Mark Zuckerberg, qui annonçait le 7 janvier dernier vouloir se débarrasser des équipes de fact-checkers de Facebook et simplifier les règles de modération sur la plateforme, en vue de favoriser une prétendue « liberté d’expression ». En adoptant la rhétorique et les pratiques de Musk et de Trump, à rebours de tous ces précédents discours, le propriétaire de Facebook poursuit néanmoins une ligne politique cohérente avec celle de son modèle économique.
Une telle décision intervient à peine deux mois après que Facebook a été mis en cause dans le contexte des élections présidentielles en Roumanie, pour avoir accordé un traitement préférentiel au candidat prorusse et ultranationaliste Calin Georgescu : une vingtaine de pages Facebook plaidant pour la candidature de Georgescu auraient dépensé entre 140 000 et 220 000 euros pour donner de l’audience à leurs publications. Mais Facebook n’est pas le seul réseau concerné dans cette affaire : TikTok est également soupçonné d’avoir favorisé le candidat d’extrême droite à travers ses algorithmes, ce qui a conduit la Cour constitutionnelle de Roumanie à annuler, en novembre dernier, le second tour des élections présidentielles dans le pays.
Les « ingénieurs du chaos » : vers un techno-libertariano-autoritarisme
Autrement dit, on aurait tort de limiter le problème aux personnalités de Musk ou Zuckerberg : la disruption des processus électoraux par les algorithmes des géants du numérique constitue un problème structurel, qui implique de questionner le fonctionnement même de nos environnements numériques informationnels. Les récentes élections présidentielles américaines et roumaines ne sont que le sommet d’un immense iceberg : deux symptômes, parmi beaucoup d’autres, du profond bouleversement traversé par les régimes démocratiques sous l’effet des logiques d’influence, de manipulation et de propagande algorithmiques.
Comme l’a montré le chercheur Giuliano da Empoli, dans le cas du Brexit comme dans celui de la première élection de Trump aux États-Unis, dans le cas de celle de Bolsonaro au Brésil ou de celle Salvini en Italie, des équipes de spin doctors experts en data marketing œuvrent dans l’ombre pour façonner l’image des leaders libertariens sur les réseaux afin de les conduire au pouvoir, en influençant la circulation des informations et le déroulement des élections[4]. Les entreprises numériques quasi monopolistiques ont tout intérêt à ces manipulations, dans la mesure où une fois au pouvoir, les partis ultralibéraux favorisent la dérégulation. Les « ingénieurs du chaos » ont de nombreuses techniques à leur disposition. Il peut s’agir d’algorithmes de recommandation biaisée, de ciblage politique personnalisé, mais aussi d’« astroturfing » – technique qui consiste à simuler un mouvement populaire spontané dans les intérêts d’un groupe politique ou industriel, à travers la création massive de faux comptes permettant de faire gonfler la présence d’un candidat, d’une idée ou d’un produit sur les réseaux.
Les faux comptes servent à cliquer de manière massive sur des contenus qui seront ensuite viralement amplifiés par les algorithmes de recommandation automatique. En 2019, l’entreprise Meta aurait ainsi supprimé 6,5 milliards de faux comptes sur Facebook. En décembre 2023, elle avait annoncé la suppression de plusieurs milliers de faux comptes chinois au service d’une campagne liée à la politique intérieure américaine et aux relations entre la Chine et les États-Unis[5]. En mai 2024, elle avait communiqué sur la suppression de plusieurs centaines de faux comptes utilisés dans le cadre d’une opération d’influence pro-israélienne, menée par l’intermédiaire d’une société privée israélienne spécialisée dans les campagnes de communication en ligne et dans les technologies d’intelligence artificielle générative[6].
Des démocraties aux « algocraties »
Qui sait si de telles campagnes pourront être entravées quand les équipes de fact-checkers de Facebook auront été licenciées ? D’autant que le déploiement à grande échelle desdites « intelligences artificielles génératives » ne devrait rien arranger. Lesdites « intelligences artificielles génératives », dont on nous vante les performances et les mérites, permettent en effet de générer des images truquées de n’importe quelle personnalité, en s’appuyant sur les photos enregistrées dans les bases de données, ou de simuler artificiellement n’importe quelle voix humaine, à partir de quelques secondes d’enregistrement – si bien qu’il est désormais relativement aisé de faire faire ou de faire dire tout et n’importe quoi à la personnalité publique de son choix.
L’équipe de Donald Trump ne s’est d’ailleurs pas privée de mobiliser les IA génératives d’images lors de la campagne présidentielle, notamment pour produire des vidéos parodiques de ses adversaires politiques. Des images générées par IA figurant Trump entourés de (faux) supporters afro-américains ont également été propagées sur les réseaux, avant d’être identifiées comme truquées. Quelques mois plus tôt, dans le New Hampshire, certains électeurs démocrates avaient reçu un appel simulant la voix de Joe Biden leur déconseillant d’aller voter lors des primaires.
Outre la génération industrielle de contenus informationnels trompeurs ou truqués, les IA génératives permettent également d’alimenter des quantités massives de faux comptes (en textes, en images, en sons), au service des industries de la désinformation. Voilà ce que provoquent aujourd’hui ce qu’on nous présente comme les plus brillantes innovations : loin des promesses futuristes de l’« intelligence artificielle générale », la combinaison entre les algorithmes de recommandation et les algorithmes de génération s’avère particulièrement efficiente, quand il s’agit de manipuler les citoyens.
D’un bout à l’autre de la planète, des « algocraties » semblent ainsi se substituer aux démocraties, court-circuitant la formation des opinions publiques par les recommandations automatiques et l’expression des points de vue par la production automatique de contenus. Ces mécanismes d’influence ne sont évidemment pas nés avec les technologies numériques. Edward Bernays, spécialiste américain des « relations publiques » et de la propagande politique, identifiait déjà ce type de manipulations à l’époque de la presse imprimée : il évoquait par exemple la technique qui consiste à envoyer en masse de (faux) courriers des lecteurs à un journal pour l’influencer[7]. Le philosophe Bernard Stiegler, quant à lui, parlait déjà de « télécratie » au siècle dernier, pour souligner l’emprise des chaînes de télévision privées sur les consciences des citoyens devenus un marché d’audience à capturer[8]. Désormais, c’est la « dictature des algorithmes[9] »qui semble régner, le pouvoir des géants du numérique et de leur propriétaires techno-libertariens s’exerçant de manière subreptice sur les comportements de citoyens, devenus un marché de profils à influencer.
Mais compte tenu de la vitesse de circulation des informations numérisées, des quantités massives de données collectées, de la précision à laquelle le profilage algorithmique peut conduire et du développement fulgurant des « intelligences artificielles génératives », les « algocraties » pourraient se révéler bien plus dangereuses que les formes de propagandes passées, en particulier dans le contexte de l’alliance entre gouvernements nationalistes ultralibéraux et entrepreneurs milliardaires libertariens que le couple Trump-Musk permet de révéler.
Trois propositions pour renverser la situation
De quels leviers disposons-nous pour faire face à ces nouveaux dangers ? La réglementation européenne sur les services numériques (Digital Services Act) votée en octobre 2022 et entrée en application en février 2024 a certainement un rôle à jouer : l’interdiction des dark patterns et de la publicité ciblée sur mineurs, l’obligation de fournir des outils de signalement aux usagers (pour repérer les fausses informations) et l’obligation de transparence sur les algorithmes de modération et de recommandation apparaissent comme autant de leviers pour lutter contre les mécanismes d’influences algocratiques des géants du numérique. Mais compte tenu des récentes positions prises par les directeurs généraux des plus puissants réseaux sociaux commerciaux, l’Europe devra sans doute s’affirmer avec plus de vigueur si elle veut promouvoir d’autres valeurs que celles du techno-libertarianisme américain ou du crédit social chinois.
Afin d’envisager des solutions qui ne soient pas superficielles, il est d’abord nécessaire de proposer une analyse structurelle du problème, sur lequel nous avons fermé les yeux depuis trop longtemps : avant de subir lesdits « revirements » de Zuckerberg ou de Musk, nous subissons les conséquences de nos propres aveuglements. En effet, les réseaux sociaux numériques sont longtemps apparus comme des vecteurs de décentralisation et d’horizontalité, dans la mesure où, contrairement aux médias analogiques (presse, radio, télévision), ils permettent à chacun de publier un contenu individualisé. Nous découvrons aujourd’hui, pour ceux et celles qui ne l’avaient pas déjà compris, que cette apparence de décentralisation et d’horizontalité masque en fait une extrême centralisation et une extrême verticalité. Si tout un chacun est libre de publier du contenu, seuls les contenus recommandés par les algorithmes sont vus, les autres demeurent invisibilisés : ce sont les algorithmes de recommandation élaborés en toute opacité par une poignée d’acteurs privés qui effectuent le tri entre les contenus visibles et ceux que personne ne verra jamais.
Est-il bien légitime de laisser aux géants du numérique le soin de décider ce qui doit être vu ou ce qui doit être invisibilisé ? Est-il bien raisonnable de leur laisser tout pouvoir sur les systèmes de recommandation régissant la circulation des contenus en ligne, alors que leurs plateformes sont aujourd’hui devenues l’une des principales sources d’informations des plus jeunes générations ? À partir du moment où les entreprises propriétaires des réseaux sociaux n’assument pas le statut d’éditeurs de contenu, pourquoi devraient-elles nous imposer leur ligne éditoriale par l’intermédiaire de leurs algorithmes ? Leur pouvoir hégémonique sur les recommandations algorithmiques n’entre-t-il pas en contradiction avec leur prétention à la neutralité comme avec nos prétentions à la démocratie ? Dans des sociétés à prétention démocratique, qui promeuvent la liberté d’expression et de pensée, les décisions concernant la visibilisation et l’invisibilisation des informations ne devraient-elles pas être prises collectivement par les citoyens en vue de leurs intérêts communs, et non de manière centralisée par quelques entreprises californiennes (ou chinoises) en vue de leurs intérêts privés ?
En effet, l’exercice démocratique suppose la protection minimale des libertés d’expression et de pensée, qui implique elle-même un espace de publication permettant à la diversité des points de vues de coexister. Comment permettre une circulation démocratique de l’information dans l’espace du publication numérique ? Telle doit être notre question, celle qui n’a jamais été posée. La réponse tient dans trois leviers, qui se situent entre régulation et innovation : imposer le dégroupage des réseaux sociaux commerciaux (1) ; investir dans la recherche et le développement de systèmes de recommandation collaboratifs, qualitatifs et citoyens (2) ; développer et soutenir les réseaux sociaux alternatifs non-commerciaux et décentralisés (3). Revenons rapidement sur ces trois propositions.
Dégroupage et recommandations collaboratives
Il faut rappeler tout d’abord que la situation actuelle d’hégémonie des géants du numérique sur les algorithmes de recommandation n’a rien d’une fatalité : si nous le voulons, nous pouvons la changer. C’est ce que rendrait possible le « dégroupage » des réseaux sociaux, une mesure soutenue par de nombreux acteurs de la société civile (comme l’ONG Article 19, le Conseil national du numérique, l’association Tournesol, etc.).
Cette mesure conteste l’hégémonie des plateformes sur toutes les fonctions et services qu’elles regroupent (recommandation, modération, suspension des comptes, stockage des données, messagerie instantanée, etc.) et affirme le droit d’autres entités à assumer certaines de ces fonctions ou à fournir d’autres services sur les plateformes elles-mêmes. Le dégroupage permettrait d’obliger les réseaux sociaux commerciaux à renoncer à leur hégémonie sur la fonction de recommandation et de s’ouvrir à d’autres services de recommandation, laissant aux utilisateurs la liberté de choisir quel système leur recommande les contenus, selon quels critères et dans quel but. Dès lors, se connecter sur X, sur TikTok ou sur Facebook n’impliquerait plus nécessairement de se soumettre aux recommandations de ces plateformes et aux choix idéologiques implémentés dans leurs algorithmes.
Des systèmes de recommandations alternatifs pourraient alors voir le jour, qui se fondent sur les jugements de groupes de pairs et non sur le nombre de vues. Comme le montre les travaux de l’association Tournesol, il est en effet possible de développer des algorithmes de recommandation collaboratifs, dont l’objectif n’est pas de recommander les contenus les plus vus, mais ceux qui ont été jugés d’une grande utilité, d’une grande qualité ou d’une grande fiabilité par les citoyens qui les ont évalués, selon des critères partagés. Au-delà de la proposition de Tournesol, pionnière dans ce domaine, différents systèmes de recommandation de ce type pourraient être développés, par des médias, des institutions académiques, des acteurs associatifs, qui se verraient ainsi dans la capacité de recommander des contenus selon des critères diversifiés et transparents, qui s’appuient sur les avis de différentes communautés de pairs et non sur des calculs purement quantitatifs arrimés à des objectifs commerciaux ou politiques.
De tels algorithmes de recommandation qualitatifs et certifiés permettraient de recréer de la confiance dans les contenus diffusés car les individus sauraient qui les leur recommande et selon quels critères. Dès lors, ce ne seraient plus les recommandations algorithmiques des entreprises privées qui influenceraient la diffusion des informations et les opinions des usagers mais ce seraient les évaluations de différents groupes de pairs qui influenceraient les algorithmes et qui décideraient des contenus recommandés. Pour voir le jour dans le contexte actuel, la conception et le développement de tels systèmes de recommandation qualitatifs et certifiés devraient être soutenus aux échelles nationales et européennes, à la fois politiquement, juridiquement et économiquement : les régulateurs et les gouvernements pourraient s’engager à sanctionner économiquement les modèles extractifs fondés sur la publicité, à interdire les systèmes non sécurisés (vulnérables aux faux comptes ou aux bots) et à soutenir « l’adoption de systèmes de recommandation (…) orientés vers l’intérêt public » ainsi que « les initiatives émanant de la société civile, du monde universitaire ou d’autres acteurs à but non lucratif [10] »
La conception et le développement des systèmes de recommandations collaboratifs, qualitatifs et certifiés, constitue par ailleurs un champ de recherches passionnant, articulant mathématiques, algorithmique, théorie des médias, sciences politiques, etc. Plutôt que d’investir massivement dans l’IA générative (en nous lançant dans une course que nous savons déjà ne pas pouvoir gagner), sans doute devrions-nous nous intéresser à ces technologies véritablement innovantes, à la fois scientifiquement et socialement. Scientifiquement, la conception et le développement de tels systèmes de recommandation présente des intérêts majeurs, car ils supposent d’articuler les calculs algorithmiques avec les évaluations et jugements humains (et non seulement d’effectuer des calculs probabilistes sur des quantités massives de données). Par ailleurs, de telles innovations sont soutenables sur le plan environnemental, contrairement aux IA génératives, extrêmement coûteuses en matières premières, en eau, en électricité, en raison des infrastructures de stockage des données et des puissances de calcul nécessaires pour l’entraînement des large language models.
Vers des réseaux vraiment sociaux ?
« Utopie ! » – nous dira-t-on. Sauf que ces propositions sont déjà sur le point de se concrétiser. Par exemple, sur des réseaux comme Bluesky ou Mastodon, la recommandation n’est pas entre les mains de l’entreprise propriétaire du système. Sur Bluesky, il est possible pour des entités tierces (citoyens, médias, organisations diverses et variées) de proposer à l’ensemble des utilisateurs des algorithmes de recommandation[11], et réciproquement, les individus peuvent paramétrer les algorithmes ou avoir recours à des applications tierces. Sur Mastodon, plateforme de micro-blogging décentralisée et conçue sur la base du logiciel libre, il n’y a pas d’algorithme de recommandation, les contenus sont classés chronologiquement en fonction des comptes suivis par les individus, mais les usagers peuvent aussi configurer leurs fils d’actualité. Sans surprise, les techniques d’influence et de propagande des ingénieurs du chaos ne fonctionnent pas sur ces réseaux. Contrairement à ce que l’on voudrait nous faire croire, les réseaux sociaux commerciaux ne sont pas les seuls réseaux sociaux : des alternatives existent, qui ne se fondent pas sur le modèle de l’économie de l’attention et qui n’exercent pas de pouvoir hégémonique sur la fonction de recommandation.
Alors que les réseaux anti-sociaux commerciaux suscitent de plus en plus de méfiance partout dans le monde (l’Australie les a interdits aux moins de 16 ans, l’Albanie interdit TikTok dans le pays), de tels réseaux sociaux non-commerciaux attirent de plus en plus de citoyens. Entre l’été et l’hiver 2024, le nombre d’utilisateurs de Bluesky a triplé. En 2022, lorsque le réseau Twitter était devenu la propriété d’Elon Musk, une vague de départs lui avait déjà bénéficié, ainsi qu’à Mastodon, au point que Musk avait alors empêché le partage de liens renvoyant vers Mastodon sur X, et fermé le compte officiel de Mastodon, pour éviter tout succès potentiel de ce qu’il considère certainement comme un concurrent.
Si l’Union européenne veut fournir des alternatives aux réseaux anti-sociaux et permettre aux citoyens de reprendre la main sur leurs espaces informationnels quotidiens, elle a tout intérêt à investir dans et à soutenir de telles plateformes indépendantes et non lucratives, en expérimentant de nouveaux modèles économiques et technologiques. La puissance publique a un rôle essentiel à jouer pour réguler les grands acteurs dominants et pour soutenir le développement de systèmes de recommandation collaboratifs et qualitatifs de réseaux sociaux non commerciaux et alternatifs. De telles alternatives devraient par ailleurs être présentées et proposées aux jeunes générations, et même élaborées avec elles, dans le cadre de larges programmes d’éducation aux nouvelles technologies et aux médias numériques, essentiel à la formation de l’esprit critique.
Dès lors, un véritable « pluralisme algorithmique » pourrait voir le jour dans l’espace informationnel numérique, comme le recommande le récent rapport des États généraux de l’information, ainsi que de nombreuses personnalités, associations, et entreprises françaises et internationales[12]. Le « pluralisme algorithmique » apparaît désormais comme la principale condition de possibilité matérielle et technologique de la vie démocratique, comme l’étaient en leur temps le pluralisme de la presse et des médias. Dans un contexte où la concentration médiatique bat son plein dans le champ de la presse imprimée et des médias audiovisuels, et où la toxicité des réseaux anti-sociaux ne cesse de s’accentuer, cette transformation de l’espace informationnel numérique s’avère plus que jamais nécessaire. Les algocraties contemporaines pourraient peut-être alors retrouver le chemin de la démocratie, renouant ainsi avec l’idéal qui était à l’origine du web – à savoir, la libre circulation des idées dans un espace médiatique partagé.