Numérique

Viginum, à quoi bon ?

Sociologue

Le 26 septembre 2021 se tiendront les élections fédérales allemandes. La France entend faire de l’événement un galop d’essai pour Viginum, une structure créée cet été pour lutter contre les « menaces informationnelles » et les tentatives d’ingérences étrangères sur Internet. Le service devrait se rôder d’ici le troisième référendum d’auto-détermination en Nouvelle-Calédonie et les élections présidentielles. Mais de quelle menace parle-t-on vraiment et comment lutter contre un ennemi sans visage ?

Au plus fort de la guerre froide, la rumeur courait dans chacun des deux blocs que le bloc antagoniste s’était doté d’une arme si puissante – la Doomsday machine – qu’elle menaçait d’avaler le monde. De Dr. Strangelove aux Simpsons, la fiction s’est chargée de tourner en ridicule ces fantasmes de destructions qui conduisent les belligérants à s’armer toujours davantage. 

La guerre s’étant considérablement transformée, ce sont aujourd’hui les risques d’ingérence numérique malveillante qui font trembler les services secrets. Les piratages peuvent cibler le secteur public[1], des entreprises à des fins d’intelligence ou d’espionnage économique, ou des moments d’exercice de la démocratie comme les élections présidentielles. Symptôme du fait que la menace d’une déstabilisation par une propagande numérique préoccupe le gouvernement français : la création de Viginum, service de vigilance et de protection contre les ingérences numériques étrangères, le 13 juillet dernier.

publicité

L’organe remplit quatre missions, une de surveillance, trois d’assistance : détecter les contenus douteux accessibles publiquement sur les plateformes numérique ; assister le secrétaire général de la défense et de la sécurité nationale en matière de protection contre les ingérences numériques étrangères ; fournir toute information utile au Conseil supérieur de l’audiovisuel dans l’accomplissement des missions ; contribuer aux travaux européens et internationaux. 

Rien d’étonnant à ce que Viginum s’adosse ainsi à de nombreux autres services et officie surtout comme une instance de support. Jean-Baptiste Jengène Vilmer relève, à la fin d’un récent ouvrage collectif consacré aux guerres de l’information, un point commun aux différents organes de lutte contre les ingérences numériques en Europe : « […] face à une menace “hybride”, en ce qu’elle mêle et parfois confond le civil et le militaire, l’étatique et le non-étatique, et plusieurs domaines (non seulement la défense et la diplomatie mais aussi la culture, la justice, etc.), la priorité était d’adopter une approche globale et donc de transversaliser, décloisonner des services qui travaillent généralement en silos. » C’est de « design organisationnel[2] » que la création du service de vigilance procède. La transversalité de la cybermenace et son caractère éminemment volatil appellent une réponse concertée des services de l’État, un partage de compétences. 

S’il n’est pas question de nier, ici, les risques bien réels que font peser les menaces informationnelles sur les démocraties[3], il demeure important de relativiser leurs effets. On voudrait aussi montrer pourquoi faire trop grand cas de ces menaces, les agiter dans un grand barouf, risque bien de mûrir des effets détournés, délétères dans un espace public déjà fort abîmé. 

Ce que pirater veut dire

En dehors des échéances électorales, les mondes numériques forment un théâtre d’opération où surviennent une myriade d’escarmouches d’État à État[4]. Parfois, une actualité brûlante, comme le projet Pegasus cet été, braque les projecteurs sur cette situation de conflits numériques larvés, inconnue du grand public. Les préjudices commis demeurent souvent faibles et les responsabilités étatiques ou individuelles difficiles à établir précisément dans un pandémonium de mercenaires sans valeurs, de cyber-militants, d’électrons-libres, et, parfois, d’idiots utiles[5]. 

Des pressions différentes entrent en jeu dans les périodes électorales, s’appuyant sur des dispositifs plus collectifs et concertés que les simples piratages. Les Macron Leaks, cette rumeur du 3 mai 2017 selon laquelle le candidat détenait un compte offshore aux Bahamas, et la publication de documents de campagne deux jours suivants, sont le fruit d’une construction médiatique complexe, qui implique les nombreuses petites mains qui produisent les informations – un piratage « simple et générique[6] » –, les hérauts qui les diffusent sur les réseaux, les conseillers en communication qui trouvent bon que Marine Le Pen y fasse allusion le soir du débat présidentiel. Voilà de quoi il est question lorsqu’on parle de menace informationnelle. De façon évidente, le souvenir cuisant des Macron Leaks traverse Viginum : François Hollande avait en effet sollicité en février 2017 l’attention du Conseil de défense et de sécurité nationale pour se prémunir contre pareilles menaces[7]. L’épisode annonçait donc une époque nouvelle où une campagne calomnieuse pouvait frapper une figure publique, sans même que l’équipe de calomniateurs n’aient à en répondre devant les tribunaux. 

Les cybermenaces qualifient également un second lot de risques, qui pèsent cette fois-ci directement sur les électeurs et sur leur discernement. La manœuvre la plus répandue consiste à surcharger les réseaux sociaux de contenus problématiques, en utilisant des comptes automatisés capables de publier énormément de contenu, les « bots », pour espérer hisser les fausses nouvelles dans le top des tendances Twitter et leur donner beaucoup de visibilité dans l’agora[8]. 

Une menace fantôme ?

La création de Viginum révèle, d’une certaine manière, l’attention des pouvoirs publics à ces opérations de saturation de l’espace public en ligne. Quelques éléments de sociologie du numérique suffisent pour réévaluer la dangerosité de ces menaces. Il n’est pas jusqu’au plus rationnel des internautes qui n’a pas été un jour tenté de partager des contenus franchement douteux. La plupart de ces informations à la véracité non établie circulent de manière lâche, comme par capillarité entre les utilisateurs, ceux-ci les adoptant sur le mode de l’ironie, gardant leur distance avec elles, ou les publiant de façon opportuniste dans le flux de leur vie numérique.

Seule une partie de ces textes, images ou vidéos mensongers s’enracine dans des groupes localisés mais plutôt actifs, alimentant des discussions et des débats. En général, ces groupes présument la culpabilité de tout ce qui paraît d’officiel, de public, de tout ce sur quoi ils n’ont pas eu leur mot à dire. Le trafic lié à la désinformation concerne donc un nombre faible d’internautes responsables de la plupart des partages en ligne, dans une formation en vase clos. À titre d’exemple, on sait désormais que la mouvance QAnon, loin d’avoir fait planer une grande panique morale sur l’Amérique, a beaucoup agité les milieux évangélistes, qui trouvèrent un énième moyen d’autoconfirmation de quelque chose que ces milieux défendaient déjà : que la réalité « officielle » ne tient pas debout. 

Les discours conspirationnistes s’étoffent localement bien plus qu’ils ne percolent dans l’espace public. Le bot, instrument central des campagnes de désinformation, en constitue aussi la faille principale. Les comptes automatisés, sur Facebook, Twitter ou Instagram, paraissent souvent factices au premier coup d’œil parce qu’une image de profil leur fait défaut ou que leurs prises de parole tiennent davantage du charabia en plusieurs langues que du discours argumenté. Presqu’aucun internaute humain ne s’abonne à ces comptes fantoches ou n’en relaie l’activité sur les plateformes.

D’une manière générale, nuancer la puissance de feu des campagnes de désinformation revient à mesurer la portée d’une information – son reach dans le lexique de la publicité digitale – de sa naissance sur le web, à son oubli relatif. À ce sujet, Divina Frau-Meigs, professeure en sciences de l’information et de la communication, écrit, dans un chapitre issu de l’ouvrage collectif mentionné plus haut et consacré à l’influence de la désinformation : « La portée des sites de désinformation en lien avec la population en ligne est très faible (1 % en France, par contraste avec le site du Figaro dont la moyenne mensuelle est de 22,3 %). En outre, le niveau des interactions sur Facebook (nombre de clics, de commentaires, de partages et de réactions) est généré par un petit nombre de sites de désinformation et reste très inférieur à celui produit par les médias de référence en matière d’actualités[9]. »

Une étude intéressante, bien que légèrement datée désormais, synthétise toutes ces limites aux manipulations informationnelles en contexte électoral par un chiffre éloquent : « Si une fausse nouvelle était à peu près aussi persuasive qu’une publicité de campagne télévisée, les fausses nouvelles dans notre base de données auraient changé les parts de vote d’un montant de l’ordre du centième de point de pourcentage. C’est beaucoup moins que la marge de victoire de Trump dans les États pivots dont dépendait le résultat[10]. »

Clavardage assourdissant

On l’aura compris, l’hypothèse d’un grand hack des élections présidentielles à venir, qui en bidonnerait complètement l’issue, n’a rien de vraiment crédible. Viginum consiste davantage en une réorganisation préventive des moyens de lutte contre les menaces informationnelles, une mise aux normes, qui prend exemple sur nos voisins européens et baltes.

Le véritable risque que les réseaux sociaux font peser sur le scrutin présidentiel tient plus du bruit parasite que de la sape. Twitter, Facebook, Instagram amplifient des polémiques vaines, des simulacres de débats qui occultent et minimisent les discussions pourtant capitales sur les questions écologiques, les problématiques migratoires, la situation sanitaire. La forme des prises de parole en ligne, la frivolité de certains formats ou l’agressivité des échanges obèrent quelque chose du fonctionnement démocratique et participent de cette dépolitisation de l’espace public de plus en plus étudiée par les sciences sociales.

La menace informationnelle, extérieure, se ramifie dans les distorsions et pathologies de l’espace public qui, elles, sont bien intérieures.

Les travaux ne manquent pas qui développent une étiologie des pathologies de l’espace public ; ainsi des livres de Christian Salmon, qui pointent la misère des styles politiques dans lequel s’illustrent les dirigeants du XXIe siècle depuis Georges W. Bush, un style de gouvernement qui verse dans la fiction, qui emprunte les détours du storytelling et s’épanouit dans le clash ; ainsi encore de Myriam Revault d’Allonnes[11], qui montre comment, dans la post-vérité, s’effritent les institutions de la démocratie, notamment les organes destinés à produire du vrai et des données pour nourrir des arguments, condition nécessaire à tout débat authentique.

La responsabilité des médias ne fait ici aucun doute. On connaît bien les jeux de vases communicants qui s’instaurent entre les réseaux sociaux, les chaînes d’information en continu, les talk-shows et autres foires d’empoigne. Cet écosystème médiatique complexe est une construction sans architectonique, sans circuit prédéfini et sain pour l’information et l’intelligence critique. 

Donald Trump savait utiliser cet écosystème à merveille. On trouve, par exemple, dans le dernier essai du philosophe Dork Zabunyan, une analyse de la maestria de l’ancien président consistant à bousculer l’agenda médiatique par ses tweets, à observer les émissions de télévision réagir en direct à ses messages, puis à retweeter à nouveau ; tout cela ne devait jamais générer que de la conversation sur de la conversation, situant le travail médiatique à un niveau métapolitique, jamais en prise avec les débats de fond. À quelques mois des élections présidentielles, les succès des chaînes d’information en continu, les places de choix conquises par les polémistes, éditorialistes, et autres petits soldats de l’écosystème pathologique décrit ci-dessus, augurent mal de la qualité des débats[12].

Sur de pareilles braises, il n’est pas simple de trouver son équilibre. Peut-on attendre d’un espace public aussi turbulent qu’il s’assagisse alors qu’on en fait la proie potentielle de manipulations étrangères et qu’on craint publiquement qu’une main ennemie ne puisse le façonner ? La menace informationnelle, extérieure, se ramifie dans les distorsions et pathologies de l’espace public qui, elles, sont bien intérieures. On a aussi coutume de russifier cette menace, ou d’en exagérer le facteur russe. Or, nous l’avons vu, les choses sont bien plus complexes que ne le laisse penser la légende noire des hackers russes : souhaitons donc à Viginum, cette vigie numérique toute jeune, de ne pas trop s’aveugler à la grande lueur à l’Est.


[1] Ce que l’on appelle une attaque par déni de service, et qui a ciblé la ville de Liège cet été.

[2] L’expression est celle utilisée par Jengène Vilmer.

[3] Un rapport très récent suggère que les cyberattaques d’État à État ont doublé en trois ans.

[4] Ibid.

[5] On se réfère ici aux travaux de Nicolas Vanderbiest, qui retracent la trajectoire virale de certaines fausses nouvelles. Celle-ci doit bien souvent à l’action de ces fameux « idiots utiles », qui font exploser, souvent malgré eux, des contenus douteux dans l’espace public.

[6] Voir à ce sujet l’article de Martin Untersinger, « “MacronLeaks” : l’enquête pointe vers un piratage “simple et générique” », Le Monde, 2 juin 2017.

[7] « Présidentielle : pourquoi François Hollande redoute des cyber-attaques », Numerama, 15 février 2017.

[8] Le phénomène porte le nom d’« astroturfing ».

[9] L’auteure cite la source suivante : Richard Fletcher, Alessio Cornia, Lucas Graves et Rasmus Kleis Nielsen, « Measuring the reach of “fake news” and online disinformation in Europe », Reuters Institute/University of Oxford, Factsheet, février 2018.

[10] Les entreprises du numériques, auxquelles incombe la responsabilité de la salubrité de l’espace publique, ne savent pas tout à fait sur quel pied danser. D’un côté, Marc Zuckerberg annonçait en février 2020 que 35 000 personnes surveillaient les contenus litigieux sur Facebook et qu’un million de comptes factices étaient supprimés par jour. De l’autre, les plateformes rechignent à appuyer les arguments ici développés sur l’esprit critique des internautes. Dans l’article pour Harper’s Magazine, cité ci-dessus, Joseph Bernstein argumente ainsi : comment une entreprise comme Facebook, qui tire ses revenus de la publicité digitale, peut-elle laisser dire que les usagers ne sont que faiblement influencés par les contenus qu’ils lisent sur la plateforme, ces contenus fussent-ils des annonces publicitaires ou des fausses nouvelles ? Tout l’intérêt, pour convaincre les annonceurs, consiste en effet à présenter les plateformes comme suffisamment influentes et capables de façonner l’opinion sur les vertus de tel ou tel bien de consommation comme sur la véracité de telle ou telle information. Or c’est bien sûr l’idée largement exagérée de la crédulité des internautes que les campagnes de désinformation prospèrent.

[11] Myriam Revault d’Allonnes, La Faiblesse du vrai. Ce que la post-vérité fait à notre monde commun, Paris, Seuil, 2018.

[12] Voir « Rentrée télé : polémistes partout, journalisme nulle part ? », Adrien Franque, Libération, 25 août 2021.

Benjamin Tainturier

Sociologue, Doctorant au médialab de SciencesPo

Notes

[1] Ce que l’on appelle une attaque par déni de service, et qui a ciblé la ville de Liège cet été.

[2] L’expression est celle utilisée par Jengène Vilmer.

[3] Un rapport très récent suggère que les cyberattaques d’État à État ont doublé en trois ans.

[4] Ibid.

[5] On se réfère ici aux travaux de Nicolas Vanderbiest, qui retracent la trajectoire virale de certaines fausses nouvelles. Celle-ci doit bien souvent à l’action de ces fameux « idiots utiles », qui font exploser, souvent malgré eux, des contenus douteux dans l’espace public.

[6] Voir à ce sujet l’article de Martin Untersinger, « “MacronLeaks” : l’enquête pointe vers un piratage “simple et générique” », Le Monde, 2 juin 2017.

[7] « Présidentielle : pourquoi François Hollande redoute des cyber-attaques », Numerama, 15 février 2017.

[8] Le phénomène porte le nom d’« astroturfing ».

[9] L’auteure cite la source suivante : Richard Fletcher, Alessio Cornia, Lucas Graves et Rasmus Kleis Nielsen, « Measuring the reach of “fake news” and online disinformation in Europe », Reuters Institute/University of Oxford, Factsheet, février 2018.

[10] Les entreprises du numériques, auxquelles incombe la responsabilité de la salubrité de l’espace publique, ne savent pas tout à fait sur quel pied danser. D’un côté, Marc Zuckerberg annonçait en février 2020 que 35 000 personnes surveillaient les contenus litigieux sur Facebook et qu’un million de comptes factices étaient supprimés par jour. De l’autre, les plateformes rechignent à appuyer les arguments ici développés sur l’esprit critique des internautes. Dans l’article pour Harper’s Magazine, cité ci-dessus, Joseph Bernstein argumente ainsi : comment une entreprise comme Facebook, qui tire ses revenus de la publicité digitale, peut-elle laisser dire que les usagers ne sont que faiblement influencés par les contenus qu’ils lisent sur la plateforme, ces contenus fussent-ils des annonces publicitaires ou des fausses nouvelles ? Tout l’intérêt, pour convaincre les annonceurs, consiste en effet à présenter les plateformes comme suffisamment influentes et capables de façonner l’opinion sur les vertus de tel ou tel bien de consommation comme sur la véracité de telle ou telle information. Or c’est bien sûr l’idée largement exagérée de la crédulité des internautes que les campagnes de désinformation prospèrent.

[11] Myriam Revault d’Allonnes, La Faiblesse du vrai. Ce que la post-vérité fait à notre monde commun, Paris, Seuil, 2018.

[12] Voir « Rentrée télé : polémistes partout, journalisme nulle part ? », Adrien Franque, Libération, 25 août 2021.