Numérique

Facebook : par-delà le like et la colère

Chercheur en sciences de l'information et de la communication

Les révélations récentes de la lanceuse d’alerte Frances Haugen, ancienne employée de Facebook au sein du département d’« intégrité civique », montrent que la circulation sur le réseau social de contenus extrêmement clivants et polarisés résulte de choix consciemment effectués par l’entreprise pour maximiser sa rentabilité économique plutôt que d’une logique algorithmique aveugle. D’où l’importance de créer les conditions d’une supervision démocratique et d’une recherche publique indépendante qui puisse étudier sans entrave les mécanismes de circulation des données au sein de la plateforme.

Il ne fait aujourd’hui aucun doute que l’industrie du tabac fut toujours consciente de la dangerosité des produits qu’elle écoulait. Comme il ne fait aucun doute que cette même industrie, de la campagne publicitaire des « flambeaux de la liberté » dans les années 1930 jusqu’à celles du Cowboy Marlboro dans les années 1980, fit toujours passer pour un vecteur d’émancipation ce qui était à la fois un poison et un vecteur d’aliénation.

Il ne fait aujourd’hui aucun doute que l’industrie pétrolière fut toujours parfaitement consciente des effets délétères de son extractivisme forcené sur le climat, et qu’elle chercha là aussi constamment à en nier les effets en jouant à la fois de lobbying politique, de désinformation médiatique et de corruption financière.

publicité

Dans une dizaine d’années, et peut-être même avant cela au rythme actuel des scandales qui se succèdent, il ne fera absolument aucun doute que les grandes firmes technologiques de « médias sociaux » étaient également parfaitement conscientes des effets délétères de leurs « services » sur la démocratie, et qu’elles ont toujours rivalisé d’un cynisme aveugle et mortifère pour présenter comme des outils d’émancipation ce qu’elles organisaient pour répondre uniquement à logiques d’aliénation servant un modèle économique lui-même tout à fait insoutenable sans sa part maudite ; part maudite qui repose sur des captations de valeurs et de données aussi indues que disproportionnées compte tenu de l’efficience du déploiement des services proposés.

Depuis son annus horribilis de 2018 (scandale Cambridge Analytica, piratage et fuite massive de données personnelles, recours à une agence de RP aux pratiques mafieuses, etc.) les polémiques et scandales ne cessent de s’enchaîner et la vie du PDG de Facebook est rythmée de sommations à comparaître et à s’expliquer devant les assemblées élues de tout un ensemble de pays, à commencer par le sien.

Ce que montre Frances Haugen

Les dernières révélations en date sont celles de la lanceuse d’alerte Frances Haugen, qui démontre et documente plusieurs faits. D’une part le régime à la fois arbitraire et discrétionnaire qui, selon que vous serez puissants (grand compte à forte notoriété) ou misérable, vous dispensera de certaines règles s’appliquant dans le cadre des CGU de la firme en termes de modération. Ensuite, le fait que la polarisation tellement reprochée à la firme est consciente et instrumentale, et non le résultat d’un algorithme souvent commodément présenté comme une sorte de causalité autonome. En effet si les discours polarisant l’opinion, si les avis clivants, si les discours capables de déclencher un sentiment de colère, d’indignation et parfois de haine sont tellement présents sur la plateforme, c’est parce qu’elle a choisi, choisi, d’affecter aux 6 émoticônes (inspirées des 6 émotions fondamentales de Paul Ekman) des valeurs différentes : la colère vaut ainsi 5 “points” alors que le like n’en vaut qu’un seul.

Frances Haugen montre également que la firme concentre ses efforts de modération (algorithmique et humaine) principalement sur les USA, dans une bien moindre mesure sur l’Europe, et qu’elle néglige en quantité (de modérateurs) comme en qualité (linguistique) tout un tas de pays où le réseau social est pourtant très fortement implanté, et qui sont pour beaucoup dans des situations de quasi guerre civile ou bien aux mains de gouvernements a minima très autoritaires. Dans ce cadre-là, l’explosion des discours de haine contre des minorités (religieuses, ethniques, sexuelles) occasionne bien plus que de simples troubles à l’ordre public. Il est également question de l’impact d’Instagram sur la santé mentale de jeunes gens fragiles et présentant des troubles de l’alimentation.

Ce que montre Frances Haugen, ce ne sont pas « juste » ces faits, mais c’est le fait que la plateforme savait. C’est que Facebook, par exemple sur les questions de modération, non seulement avait délibérément mis en place ces régimes arbitraires et discrétionnaires mais mentait à chaque fois qu’on l’interrogeait sur ce sujet.

Ce qui est ainsi dévoilé, c’est le fait que tout cela, toutes ces incidences délétères et parfois mortifères ou criminogènes sur les discours publics et les expressions privées ne sont pas le fait d’un algorithme devenu fou ou d’une intelligence artificielle hors de contrôle, mais le résultat des choix consciemment effectués par la plateforme et ses ingénieurs pour maximiser sa rentabilité économique au détriment de tout le reste. Même lorsque des employés de la firme faisaient remonter l’évidence de ces problèmes et les solutions pour les traiter ou les corriger, Zuckerberg refusait de les mettre en place.

Mensonge, cynisme et dissimulation, voilà l’envers de la devise de la firme dans les années de sa pleine expansion : « Move fast and break things. » Le mouvement fut en effet rapide. Et beaucoup de choses se brisèrent.

Touché… coulé ?

On ignore si Facebook se relèvera de tous ces scandales accumulés, mais on peut le supposer. D’autres firmes monopolistiques ou oligopolistiques ont déjà fait face à de semblables crises réputationnelles et s’en sont à chaque fois remises, de Microsoft à Google en passant par Amazon ou même Apple, pour ne citer que les autres GAFAM. Les résultats financiers continuent d’être présentés à la hausse, y compris ceux qui ont suivi les révélations de Francis Haugen, et l’on n’observe pas de fuite ou d’exode massif ou même significatif des utilisateurs de la plateforme.

Dès lors, pourquoi changer quand il suffit de faire le dos rond, de laisser passer l’orage, et d’accepter de se présenter avec la mine contrite lors d’auditions devant les élus des nations tout en jurant que l’on va s’efforcer de corriger tout cela en ajoutant encore plus « d’intelligence artificielle et d’algorithmes » alors que le problème ne vient ni de l’intelligence artificielle ni des algorithmes, qui ne commettent que les erreurs ou les fautes permises par leur programmation initiale ; programmation initiale que l’on établit pour qu’elle remplisse les objectifs de rentabilité attentionnelle et interactionnelle qui permettent à la firme de faire tourner sa machine à cash, avec le plus parfait mépris pour l’équilibre du débat public.

Comme pour les révélations de Frances Haugen, à chaque fois que la démonstration est faite des problèmes posés par l’automatisation sur la plateforme au travers de ses algorithmes ou de ses technologies « d’intelligence artificielle », Zuckerberg se borne à répondre qu’il a compris, parfois qu’il est désolé, et qu’il va donc… rajouter des algorithmes et de l’intelligence artificielle.

Pourtant, beaucoup de solutions qui paraissaient hier encore totalement farfelues sont aujourd’hui installées dans le champ du débat public et politique pour régler ces problèmes : une nationalisation (qui est l’occasion de rappeler que toutes ces sociétés reposent essentiellement sur des technologies et des infrastructures publiques), un démantèlement au nom des lois antitrust, et des régulations coordonnées (en Europe notamment) bien plus coercitives – Mark Zuckerberg réclamant lui-même aux États davantage de régulation… d’Internet.

Mais rien ne sera possible ou résolu tant que trois points, encore plus essentiels, ne seront pas définitivement réglés. Ces trois points, les voici.

Ouvrir, ralentir, et vérifier

D’abord il faut ouvrir, il faut mettre en délibéré public, la partie du code algorithmique qui relève de logiques d’éditorialisation classiques. Et cela peut être fait sans jamais porter atteinte au secret commercial ou industriel de la firme. On sait ainsi quel est le principe clé de l’algorithme principal du moteur de recherche Google (le Pagerank, dont la formule est exposée dans l’article « The Anatomy of a Large-Scale Hypertextual Web Search Engine », publié en 1998 par les deux fondateurs du moteur de recherche).

Il est anormal et inquiétant qu’il soit à ce point difficile et souvent impossible de faire de la rétro-ingénierie sur la manière dont fonctionne le média social qui conditionne pour partie les sociabilités et l’accès à l’information de 2,8 milliards d’êtres humains. Pour prendre une image dans une autre industrie, si personne ne connaît la recette précise du Coca-Cola, chacun sait aujourd’hui quelle est la teneur en sucres de cette boisson grâce à des analyses indépendantes (personne n’imagine que seule la firme Coca-Cola pourrait nous fournir sa teneur en sucre et que nous soyons contraints de la croire… sur parole).

La teneur en sucre du Coca-Cola, c’est un peu la part donnée à la colère sur Facebook : il est tout à fait anormal et dangereux qu’il faille attendre la fuite de documents internes par une lanceuse d’alerte pour découvrir que la colère vaut 5 points et que les autres émotions valent moins. Et il ne s’agit là que d’un tout petit exemple des enjeux éditoriaux qui fondent l’architecture algorithmique de la firme.

Il faut que cette mise en délibéré se fasse auprès de tiers de confiance (des instances de régulation indépendantes) dont aucun des membres ne peut ni ne doit dépendre de Facebook de quelque manière que ce soit, ni bien sûr être choisi par la firme elle-même comme c’est actuellement le cas du pseudo « conseil de surveillance » (Oversight Board) créé par Facebook en 2018.

Ensuite il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu’elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si, par exemple, elles diminuaient le nombre de personnes que l’on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu’elles permettaient d’aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s’ils avaient bien lu l’article qu’ils s’apprêtaient à partager avant que de le faire sous le coup de l’émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c’était Youtube qui annonçait supprimer l’affichage public du compteur des « dislikes » pour « protéger » les créateurs notamment de formes de harcèlement, un effet qu’il connaît et documente pourtant depuis déjà de longues années.

Enfin, il faut que des chercheurs publics indépendants puissent avoir accès et travailler sans entrave sur les mécanismes de circulation des données et des informations au sein de la plateforme. En août 2021, Facebook décidait, au nom de la protection de la vie privée (sic), de couper l’accès à ses données à une équipe de chercheurs de l’université de New-York qui travaillait sur le problème des publicités politiques sur la plateforme pour comprendre et documenter qui payait pour leur diffusion mais surtout (ce que Facebook a toujours refusé de rendre public) sur quels critères les personnes visées par ces publicités étaient choisies.

Il n’existe absolument aucune étude scientifique indépendante (c’est à dire dont aucun des auteurs ne soit affilié ou directement salarié de Facebook), établie à partir des données anonymisées et/ou randomisées de la firme, sur le cœur du fonctionnement d’un média qui touche mensuellement près de 2,8 milliards d’êtres humains… Ce qui constitue à la fois une aberration démocratique évidente et peut-être le premier de tous les scandales qui touchent cette firme.

Reprenons et résumons

Il faut ouvrir et mettre en délibéré public la partie du code algorithmique qui relève de logiques d’éditorialisation classiques pour permettre et surtout pour garantir une forme vitale d’intégrité civique.

Il faut casser les chaînes de contamination virales qui sont à l’origine de l’essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. C’est la seule manière de limiter l’impact des interactions et engagements artificiels, toxiques et non nécessaires.

Il faut permettre à des chercheurs publics indépendants de pouvoir travailler sans entrave sur les mécanismes de circulation des données et des informations au sein de la plateforme. C’est tout simplement une question d’éthique, notamment sur les enjeux des mécanismes et des technologies d’intelligence artificielle qui structurent cette firme.

Intégrité civique ? Tiens donc, c’est aussi le nom de l’équipe de Facebook dont était membre… Frances Haugen. « Civic integrity. »

Engagements artificiels et toxiques ? Tiens donc, c’est aussi le nom de l’équipe de Facebook dont était membre Sophie Zhang avant de se faire licencier pour avoir découvert que des réseaux de manipulation politique abusive et de harcèlement de partis d’opposition utilisaient Facebook de manière coordonnée dans une trentaine de pays, et pour avoir voulu rendre cette information publique. « Fake Engagement. »

Éthique et intelligence artificielle ? Tiens donc, c’est aussi le nom de l’équipe de Google dont était membre Timnit Gebru avant de se faire licencier suite à la publication d’un article de recherche où elle démontrait les biais sexistes et racistes présents au coeur des technologies du moteur de recherche. « Ethics in Artificial Intelligence. »

Pour savoir ce qui dysfonctionne réellement dans les GAFAM et comment le régler, il suffit de regarder les noms des équipes de recherche d’où sont issues les lanceuses d’alerte récemment licenciées par ces firmes.

One more thing

Quelle est vraiment la nature de Facebook qui lui permet d’occuper la préoccupante place qui est la sienne aujourd’hui ? Dans Les Chants de Maldoror, Isidore Ducasse Comte de Lautréamont, parlait d’un jeune homme de 16 ans et 4 mois qui était “beau (…) comme la rencontre fortuite sur une table de dissection d’une machine à coudre et d’un parapluie.” Alors que sa plateforme avait exactement le même âge, Zuckerberg déclarait en février 2000 : « Treat us like something between a Telco and a Newspaper » (traitez-nous comme quelque chose entre un opérateur télécom et un titre de presse).

Facebook c’est aussi cette table de dissection de nos humeurs et de nos comportements, cette rencontre fortuite de la machine à coudre des interactions qui nous tiennent ensemble et nous retiennent isolément, et un parapluie qui nous abrite parfois et nous isole souvent, nous empêchant de voir. Et à force de n’être ni tout à fait un opérateur télécom ni pleinement un titre de presse, Facebook se voudrait finalement insaisissable et donc échappant à la régulation commerciale des premiers comme au respect de la déontologie professionnelle des seconds.

Bien sûr, à lui seul Facebook ne résume ni ne borne l’ensemble des problèmes (ou des solutions) auxquels doivent aujourd’hui faire face nos démocraties. Mais il est une expérience sociale tout à fait inédite portant actuellement sur plus de la moitié de l’humanité connectée. Inédite par le nombre mais inédite également et peut-être essentiellement par le statut de cette expérience menée à la fois in vivo  – puisqu’il n’existe aucune forme d’étanchéité entre ce qui se passe et ce dit sur Facebook et en dehors – mais aussi in vitro, puisque chaque message, chaque interaction et chacune de nos données participent à des formes de contrôle structurel qu’elles alimentent en retour et qu’il est à tout moment possible, pour la firme et pour la firme seulement, d’isoler de leur environnement habituel comme autant de composants d’un organisme social ou particulier, à des fins d’analyse et de monétisation. Une expérience sociale à l’image du Cyberespace de Gibson : « une hallucination consensuelle vécue quotidiennement en toute légalité par des dizaines de millions d’opérateurs, dans tous les pays. »

C’est cette expérience sociale autant que cette hallucination consensuelle qu’il importe de pouvoir toujours et en tout temps garder sous le contrôle d’une expertise et d’une supervision publique indépendante.


Olivier Ertzscheid

Chercheur en sciences de l'information et de la communication, Maître de conférences à l'université de Nantes (IUT de La Roche-sur-Yon)