Numérique

La démocratie à l’épreuve de l’IA

Philosophe

Dans un monde numérique dominé par des intelligences artificielles génératives, la diversité et la fiabilité des opinions est en péril. Les algorithmes renforçant les contenus stéréotypés et menant à une uniformisation dangereuse, il apparaît vital de réinventer les systèmes de recommandation pour privilégier la qualité et les perspectives citoyennes, préservant ainsi notre espace médiatique comme un véritable bastion de la démocratie.

Le jeudi 15 février 2024, l’entreprise OpenAI annonçait l’arrivée imminente de Sora, un nouveau logiciel capable de générer automatiquement des vidéos ultraréalistes sur la base de commandes écrites. Cette annonce faisait suite à la diffusion massive, un an auparavant et par la même entreprise, du dispositif nommé ChatGPT, logiciel de génération automatique de texte qui agence de gros modèles de langage (large langage models) comme GPT-3 ou GPT-4 avec une interface interactive permettant aux usagers de produire automatiquement des textes très standardisés ressemblant à s’y méprendre à des textes écrits par des humains. Depuis presque deux ans, le développement fulgurant desdites « intelligences artificielles génératives » promet de transformer en profondeur l’espace médiatique numérique, dans lequel circulent aujourd’hui les contenus informationnels et culturels.

publicité

En effet, contrairement à ce que leur nom indique, les « intelligences artificielles génératives » constituent des automates computationnels et statistiques visant à prédire et à produire les suites les plus probables de signes ou de pixels en fonction des requêtes effectuées. Tous les contenus improbables, originaux ou singuliers sont donc éliminés car les calculs probabilistes des algorithmes ne prennent pas en compte les expressions idiomatiques, originales et inattendues, peu représentées dans les masses de données, et qui disparaissent dans les moyennes une fois les calculs achevés. Les expressions majoritaires se voient donc renforcées au dépend de la diversité – d’où l’amplification de certains préjugés et de certains biais (racistes, homophobes, sexistes etc.) dans les textes et les images automatiquement générés, qui semblent la plupart du temps très stéréotypés.

Tout se passe comme si le mythe de la « singularité technologique » masquait l’élimination systémique des singularités par les calculs statistiques sur des quantités massives de données, alors même que ce sont de telles singularités qui sont à l’origine du renouvellement des cultures et de l’évolution des sociétés. Qu’il s’agisse des savoirs théoriques, scientifiques, artistiques, pratiques, techniques, sportifs etc., la nouveauté, quand elle émerge dans un champ culturel donné, semble toujours produire un écart par rapport à la norme ou à la moyenne en allant à l’encontre des préjugés dominants.

En éliminant systémiquement tout germe de nouveauté, c’est le renouvellement culturel que les automates computationnels tendent à menacer. D’autant que les textes automatiquement générés ne tarderont pas à devenir dominants sur la Toile : ils intégreront de fait les données d’entraînement des algorithmes, qui opéreront leurs calculs probabilistes sur des textes qui ont déjà été automatiquement produits. Cette probabilité au carré ne peut conduire qu’à une homogénéisation et une uniformisation progressive des contenus générés en ligne : à quels types de textes aurons-nous à faire quand les chatbots se citeront les uns les autres de manière auto-référentielle, répétant en boucle leurs propres bêtises artificielles ?

Outre ce premier risque de destruction progressive de la diversité culturelle en ligne, les dispositifs de génération automatique de textes, d’images ou de vidéos permettent aussi et surtout de générer des fausses informations en quantité industrielle et de manière parfaitement indiscernable des informations certifiées. Elles permettent aussi d’alimenter des quantités industrielles de faux comptes, qui servent ensuite à tel ou tel contenu à accumuler les vues, afin d’être viralement amplifié par les algorithmes de recommandation automatique, qui valorisent systémiquement les contenus les plus cliqués. En effet, les réseaux sociaux principaux conçus par les entreprises de la Silicon Valley fondent leurs modèles d’affaire sur la captation de l’attention et la collecte des données, toutes deux revendues à des publicitaires ou à des annonceurs en vue du ciblage personnalisé, pouvant servir le marketing et la publicité de certaines entreprises comme la propagande politique de certains gouvernements ou partis.

Afin de « maximiser l’engagement des utilisateurs » et que ceux-ci demeurent connectés le plus longtemps possible à leurs services, les géants du numérique s’appuient sur les algorithmes de recommandation automatiques, qui permettent de suggérer aux usagers des contenus sur la base de leurs comportements et préférences passées ainsi que d’amplifier les contenus les plus « aimés » ou les plus « suivis », quand bien même cela supposerait de renforcer des tendances grégaires ou mimétiques. En effet, les contenus les plus viraux sont souvent aussi les plus courts, les plus provocants, les plus choquants ou les plus violents, qui déclenchent des réactions immédiates (d’indignation ou d’enthousiasme) poussant ainsi les usagers à réagir compulsivement et à rester sur le réseau plus longtemps. Ce type de contenu se voit donc privilégié au détriment des contenus plus longs, plus complexes, plus approfondis et plus nuancés, qui requièrent une plus grande attention et une interprétation sur le long terme, qui ne se convertit pas directement en profit pour alimenter le « business de la haine ».

L’espace numérique n’a aujourd’hui plus rien de démocratique.

Ces mécanismes algorithmiques sont au cœur des stratégies des leaders nationalistes et autoritaires, dont les équipes de spin-doctors et de data scientists, experts dans la communication et l’astroturfing numériques, profite de la recommandation automatique pour s’affirmer dans l’arène politique : qu’il s’agisse de l’affaire Facebook-Cambridge Analytica en 2016, durant laquelle les données de 87 millions de citoyens américains sont aspirées, vendues et utilisées par le comité de campagne de Donald Trump pour influencer les électeurs, qu’il s’agisse de l’entreprise de commerce électronique Casaleggio Associati et des spécialistes de marketing numérique au fondement de la montée du mouvement Cinq Etoiles en Italie ou qu’il s’agisse des milliers de faux comptes Twitter créés par l’équipe de campagne d’Eric Zemmour durant les élections présidentielles françaises de 2022, les réseaux numériques tendent à devenir une « arme de destruction massive de nos démocraties » comme le suggérait en novembre 2023 la maire de Paris.

En effet, contrairement aux promesses initiales du Web, créé pour concrétiser des idéaux d’ouverture, de liberté et d’horizontalité, l’espace numérique n’a aujourd’hui plus rien de démocratique. Si tout un chacun demeure encore libre de s’exprimer ou de publier, ce sont les entreprises propriétaires des réseaux sociaux qui décident de la visibilité ou de l’invisibilité d’un contenu, à travers leurs algorithmes de recommandation élaborés en toute opacité. L’apparence de décentralisation et d’horizontalité masque une extrême centralisation ou une extrême verticalité, qui devient d’autant plus puissante qu’elle demeure cachée.

L’espace numérique peut-il constituer un espace démocratique dans de telles conditions ? Est-il légitime de laisser uniquement à des entreprises privées le soin de décider ce qui doit être vu ou de ce qui doit être invisibilisé, quand on prétend défendre les libertés d’expression et de pensée ? À quoi sert-il d’avoir le droit de s’exprimer dans l’espace public numérique si ce qu’on exprime est d’emblée invisibilisé ? L’amplification des contenus les plus suivis ou les plus aimés peut-il valoir de critère de choix universel, en particulier quand les contenus peuvent être produits automatiquement et quand les clics peuvent provenir de faux comptes robotisés ?

Avec l’arrivée des « intelligences artificielles génératives » sur le marché, la question sera de moins en moins celle de la production ou de la modération des contenus, désormais générés en masse et de manière automatisée, mais de plus en plus celle de la sélection des contenus produits et publiés : si nous voulons avoir une chance de nous repérer dans l’environnement informationnel à venir, nous devons faire en sorte que les contenus jugés pertinents soient les contenus les plus vus, sans quoi, il ne faudra pas longtemps avant que la surcharge (dés)informationnelle détruise à jamais l’idéal de partage des savoirs qui était à l’origine du web.

L’alternative qui se présente à nous aujourd’hui ne consiste pas à se demander si ce sont les humains ou les machines qui produiront les textes et les images de demain (cette question n’a aucun sens, puisque les deux sont toujours co-impliqués dans la production de contenus numériques), mais à se demander si nous voulons que les contenus sélectionnés dans la masse soient choisis en fonction des intérêts d’une poignée d’acteurs privés (au dépend de la santé psychique des individus et du débat public des sociétés) ou en fonction des évaluations diversifiées des citoyens, qui pourraient ainsi exercer une nouvelle forme de citoyenneté, en participant à la structuration de leurs espaces informationnels quotidiens.

Pour ce faire, il suffit de donner aux citoyens le pouvoir d’agir sur les algorithmes de recommandation, en articulant ces derniers avec les interprétations, les évaluations et les jugements humains. Il s’agit d’inverser la tendance : au lieu de laisser aux algorithmes de quelques entreprises privées le pouvoir de téléguider les choix des citoyens, il semble nécessaire de donner aux citoyens la possibilité d’influencer les recommandations algorithmiques afin de valoriser les contenus qui leur semble les plus appropriés.

Ce passage de la recommandation automatique et privée (fondée sur les choix des entreprises et la quantification des vues) à la recommandation herméneutique et citoyenne (fondée sur les interprétations des citoyens et la qualité des contenus) est tout à fait possible. C’est ce dont témoignent les travaux de l’association Tournesol, présidée par Lê Nguyen Hoang, mathématicien et spécialiste de cybersécurité, qui propose une plateforme de recommandation collaborative de vidéos : il s’agit de construire un algorithme de recommandation qui ne se fonde pas sur des critères quantitatifs et mimétiques, mais sur les évaluations et les contributions des citoyens, qui ont regardés les contenus et qui les évaluent en fonction de leur utilité publique (clarté et fiabilité de l’information proposée, pertinence et importance du sujet abordé, certification de(s) producteur(s) ou de(s) auteur(s), etc.).

Des outils existent pour contester l’hégémonie des plateformes.

Dès lors, la recommandation ne s’effectue plus en fonction des seules quantités de vues, c’est-à-dire, en fonction des intérêts financiers des propriétaires du réseau ou des objectifs électoraux de tel ou tel parti, mais en fonction des jugements des citoyens sur la base de critères explicités et partagés. Il devient très probable que des contenus plus exigeants, mieux sourcés, plus originaux ou plus nuancés se voient recommandés, car les individus et les groupes qui votent n’ont aucun intérêt à « maximiser l’engagement » des usagers, à capter leurs attentions ou à collecter leurs données. Avec de tels algorithmes de recommandations qualitatives, les créateurs de contenus, quant à eux, ne seraient pas obligés de se conformer aux formats stéréotypés : ils pourraient expérimenter de nouvelles formules et oser l’originalité, en visant le goût et l’intelligence du public, et non les seuls calculs statistiques.

La question qui se pose, dès lors, est celle de savoir comment obliger les plateformes et les réseaux sociaux dominants à s’ouvrir à ce type de systèmes de recommandations algorithmiques qualitatives, fondés sur les interprétations et les évaluations des citoyens – ce qui les contraindrait à renoncer à leur hégémonie sur la fonction de recommandation. Tel est précisément le but du « dégroupage » des réseaux sociaux, que de nombreux acteurs de la société civile appellent aujourd’hui de leurs vœux (ONG, associations, organismes, chercheurs et chercheuses, etc.), parmi lesquels Maria Luisa Stasi, directrice « Law & Policy des marchés numériques » chez l’ONG Article 19, ainsi que le Conseil National du Numérique, dans une récente note publique.

Le dégroupage des réseaux sociaux implique de contester l’hégémonie des plateformes sur toutes les fonctions et services qu’elles regroupent et à affirmer le droit d’autres entreprises ou d’autres entités à assumer certaines de ces fonctions ou à fournir d’autres services en implémentant leurs systèmes sur les plateformes elles-mêmes. Si le dégroupage entrait en vigueur, les réseaux sociaux comme Facebook, TikTok ou Twitter seraient obligés de s’ouvrir à des applications, services et acteurs extérieurs pour assurer certaines fonctions, notamment la recommandation. Les utilisateurs pourraient ainsi choisir entre différents systèmes de recommandation ceux qui leur semblent les plus pertinents : si certains souhaitent s’abandonner aux algorithmes de TikTok ou de Twitter, pourquoi pas, mais tout le monde ne serait pas obligé de se plier à ce choix, certains pourraient préférer se fier à d’autres tiers de confiance plus pertinents – par exemple, à des médias, à des institutions, à des associations ou à des groupes de chercheurs ou d’amateurs développant leurs propres systèmes de recommandation singuliers en fonction de critères explicités.

Le dégroupage des réseaux sociaux donnerait aussi aux utilisateurs la capacité de savoir qui leur recommande quoi et pourquoi (selon quels critères) : dans un contexte où l’IA générative brouille les frontières entre le faux et le vrai et nous oblige à nous méfier de tous les contenus reçus, de tels systèmes permettrait de recréer de la certification et du crédit dans l’espace numérique. Les utilisateurs pourraient à nouveau faire confiance aux contenus qui leurs sont recommandés, car ils sauraient que ceux-ci ont été évalués et choisis en fonction de certains critères par des groupes de pairs.

Si la recommandation citoyenne en est encore à ses balbutiements, plusieurs réseaux sociaux ont déjà opté pour le dégroupage : c’est le cas de Bluesky (le réseau social alternatif créé par Jack Dorsey, alors fondateur de Twitter) ou de Mastodon (le réseau social libre, distribué et décentralisé au sein du Fediverse). Sur ces réseaux, la fonction de recommandation peut être assurée par des applications tierces ou même configurée par les utilisateurs. Comme le rappelle Jean Cattan, secrétaire général du Conseil National du numérique, « sur Bluesky, les utilisateurs les plus chevronnés, des médias ou autres tiers de confiance peuvent proposer à l’ensemble des utilisateurs des algorithmes de recommandation de leur cru » alors que sur Mastodon, « le principe même du logiciel libre permet à l’administrateur comme à l’utilisateur de développer les fonctionnalités de curation de contenus qu’il souhaite ». Sans surprise, de tels réseaux n’ont pas les mêmes effets nocifs sur les esprits de leurs utilisateurs et ne contribuent pas à la propagation des fausses informations ou à la polarisation des opinions : pourquoi ne pas obliger les autres à suivre l’exemple et à se transformer ?

Une telle transformation semble en effet nécessaire, si nous ne voulons pas laisser la surcharge (dés)informationnelle détruire à jamais l’idéal de partage des savoirs qui était à l’origine du web et les principes de la liberté d’expression et d’opinion qui sont au fondement de nos démocraties. Seules les perspectives de la recommandation collaborative et du dégroupage des réseaux sociaux peuvent aujourd’hui permettre d’implémenter concrètement ces principes dans les architectures numériques. Les régulations en cours à l’échelle européenne (DMA et DSA) rendent cela possible et la récente résolution du Parlement européen appelant à agir contre les « interfaces addictives » nous y invite.

Ces deux leviers constituent par ailleurs les meilleurs moyens de lutter efficacement contre les désastres psychiques et politiques que constituent l’économie de l’attention et l’industrie de la désinformation, sans tomber dans l’écueil de la censure ou dans le vœu pieu de la modération. Enfin, loin de représenter des idéaux utopiques, la recommandation citoyenne et le dégroupage des réseaux sociaux constituent les traductions, dans le champ des technologies numériques, du service public audiovisuel (qui permet de valoriser sur les chaînes publiques des contenus jugés non rentables par les chaînes privées) et du dégroupage du réseau téléphonique (qui permet d’ouvrir le réseau téléphonique à des services concurrents).

Ce sont de telles mesures qui ont permis aux démocraties libérales d’adopter les nouvelles technologies de l’information et de la communication que constituaient à l’époque les médias audiovisuels et les réseaux téléphoniques. Les réseaux numériques opèrent la convergence entre l’audiovisuel et les télécommunications : il serait donc pertinent leur appliquer les principes que nous avons appliqué aux informations télévisuelles et aux télécommunications, si nous ne voulons pas les abandonner entre les mains des « ingénieurs du chaos ». Alors que les « IA génératives » menacent de renforcer l’industrie de la désinformation et l’économie des données, il est temps d’implémenter les libertés d’expression et de pensée dans l’architecture des réseaux numériques, pour sauver la vie démocratique.


Anne Alombert

Philosophe, maîtresse de conférences en philosophie contemporaine à l’Université Paris 8 et membre du Conseil National du numérique

Mots-clés

DémocratieIA