Numérique

Qui contrôle Facebook ?

Chercheur en sciences de l'information et de la communication

Le 4 juin, la décision de Facebook de confirmer la suspension des comptes de Donald Trump de ses services pour une durée de deux ans a ravivé les débats autour du pouvoir des grandes plateformes numériques sur la régulation du débat public en ligne. Au-delà de la question de la censure d’un président en fonction par une entreprise privée, cet événement est révélateur d’un enjeu essentiel de la gouvernance des plateformes : qui doit trancher les controverses relatives à la liberté d’expression sur les réseaux sociaux ?

publicité

Le 6 janvier dernier, alors même que se déroulent des intrusions violentes au Capitole qui feront cinq morts et plusieurs dizaines de blessés, Donald Trump exprime sur les réseaux sociaux son soutien aux assaillants et justifie les attaques par une supposée fraude électorale.

Dans l’urgence, Twitter, suivi par Facebook et YouTube, suppriment les messages controversés du président américain, avant de suspendre ses comptes. Le décision suscite aussitôt une controverse. Pour les uns, les réseaux sociaux sont des espaces privés, qui décident seuls des sanctions contre leurs utilisateurs qui ne respectent pas les standards de publication, qui que soient ces utilisateurs. Pour les autres, quoi que l’on pense du personnage et des propos tenus, des entreprises privées viennent de censurer un président démocratiquement élu, sans autre forme de justification.

Une Cour Suprême des contenus

Face à l’ampleur de la controverse, la direction de Facebook décide de déléguer à son Conseil de Surveillance, une instance nouvellement créée afin de trancher les litiges liés à la modération des contenus, la prise de décision concernant le cas de Donald Trump. Finalement, le 5 mai dernier, le Conseil de Surveillance, parfois décrit comme une forme de « Cour Suprême » des contenus, soutient la décision initiale de Facebook, tout en s’opposant à une suppression définitive des comptes de Trump, et en incitant l’entreprise à davantage de transparence dans ses processus de modération des personnalités publiques.

La firme répond à son Conseil dans un communiqué publié le 4 juin, dans lequel elle confirme une suspension de deux ans, et annonce revoir ses procédures de modération. Jusqu’à cette date, les personnalités publiques et politiques bénéficiaient d’un traitement de faveur sur la plateforme, lié au critère de newsworthiness : au nom de l’intérêt que représentaient leurs prises de parole pour le débat d’intérêt général, Facebook faisait preuve de davantage de mansuétude dans la modération de leurs propos. Dorénavant, la firme appliquera ses standards de publication pour ces personnalités comme pour n’important quel internaute, renforçant l’emprise de la firme sur l’organisation du débat public en ligne.

L’issu de cette controverse interroge les rapports entre Facebook et son Conseil de Surveillance. Pour comprendre le rôle exact que joue ce Conseil de Surveillance dans la gouvernance de l’entreprise, il faut revenir deux ans en arrière. Au printemps 2019, Facebook est empêtrée dans une série de scandales, qui depuis l’élection américaine de 2016, nuisent à son image publique : manipulations électorales de l’Internet Research Agency, une agence réputée proche du Kremlin, siphonnage des données personnelles des utilisateurs dans le cadre de l’affaire Cambridge Analytica, accusations de promotion du complotisme, supposée tolérance à l’égard des réseaux suprémacistes blancs ou encore laxisme à l’égard des discours de haine, du cyberharcèlement et des fausses informations.

En Amérique du Nord comme en Europe, des voix se font entendre pour réclamer une régulation plus stricte des plateformes, qui semblent dépassées par leurs responsabilités en termes d’organisation du débat public en ligne. Mark Zuckerberg lui-même, le fondateur et PDG de Facebook, déclare dans la presse que l’entreprise a trop de pouvoir en matière de contrôle de l’expression, et appelle de ses vœux à de nouvelles formes de régulation des contenus en ligne.

En interne, la gouvernance de la firme est également contestée pour son caractère autoritaire : Mark Zuckerberg, qui dispose de près de 60% des votes lors des assemblées générales, dirigerait Facebook en solitaire, s’opposant par ailleurs à toute création de contre-pouvoir au sein de l’entreprise.

La mise en place d’un Conseil de Surveillance intègre ainsi une stratégie visant à démontrer une certaine ouverture de la direction de Facebook sur le dossier épineux de la modération des contenus. Trois caractéristiques du Conseil doivent garantir cette ouverture : juridiquement indépendant de Facebook (même s’il est indirectement financé par l’entreprise et que son autonomie réelle est sujette à débat), il est composé de personnalités de la société civile du monde entier (principalement des universitaires et des activistes) et, surtout, ses décisions sont contraignantes pour la firme, ce qui signifie qu’en cas de désaccord entre Facebook et son Conseil, le premier accepte d’entériner les jugements du second.

En janvier 2021, le Conseil rend ses premiers avis concernant cinq dossiers dont il était saisi (aux États-Unis, en France, en Arménie, en Birmanie et au Brésil), et contredit les décisions initiales de Facebook dans quatre de ces dossiers. Les internautes qui contestaient la suppression de leur publication voit alors leurs posts restaurés. La décision du 5 mai, confirmant la suppression des comptes de Donald Trump, mais pour une durée temporaire, pour avoir enfreint les standards de publication du réseau social relatifs à l’apologie de la violence, est la dixième prise par le Conseil.

Sa lecture nous renseigne sur les modes de travail de ses membres : fonctionnant sur le modèle d’un jury, ils étudient les déclarations des parties prenantes (Facebook d’un côté, l’American Center for Law and Justice pour Donald Trump), conduisent une consultation publique (ayant reçu près de 10 000 réponses) et mènent des auditions.

La synthèse de l’audition des représentants de Facebook est à ce titre éclairante : sur les 46 questions qui leur sont posées, les représentants refusent de répondre à sept d’entre elles. Ces questions ont trait à des enjeux importants, comme les politiques générales en matière de suspension des personnalités politiques, les éventuelles pressions politiques reçues dans le cas de la suppression des comptes du président américain, la manière dont cette suppression a pu avoir un impact sur le ciblage publicitaire des soutiens de Trump par des annonceurs, ou encore la manière dont l’algorithme du fil d’actualité de Facebook a, par le passé, influencé la visibilité des messages postés par Donald Trump.

Ce silence de la firme est révélateur d’un problème capital de la régulation des plateformes : la dépendance des instances de contrôle aux données fournies par les entreprises elles-mêmes.

L’accès aux données

L’accès à ces données constitue en effet la pierre d’achoppement des tentatives de régulation des géants du numérique en Europe. Ces dernières années, la France et l’Allemagne, notamment, ont fait voter de nouvelles lois visant à faire pression sur les plateformes afin que celles-ci modèrent davantage les contenus qu’elles hébergent.

La NetzDG outre-Rhin ou la loi sur les manipulations de l’information en France imposent aux plateformes des réformes de leurs dispositifs de modération, en faisant évoluer leurs procédures de signalement, en les poussant à embaucher des modérateurs spécialisés ou à conclure des partenariats avec des médias (dans le cadre des politiques de lutte contre la désinformation) ou avec des associations de lutte contre le racisme (dans le cadre des politiques de lutte contre les discours de haine).

Surtout, ces nouvelles lois reposent sur une injonction à la transparence : les géants du numérique doivent communiquer aux instances régulatrices (le Conseil supérieur de l’audiovisuel – CSA en France, des organisations mandatées par le ministère de la justice en Allemagne) des rapports dans lesquels ces derniers explicitent leurs pratiques de modération, quantifient les suppressions et suspensions, précisent les modalités de détection des contenus prohibés, etc.

Si les plateformes acceptent de se prêter à cette exercice, Facebook et Google ayant d’elles-mêmes commencé à publier des rapports de transparence relatifs à leurs pratiques de modération, le régulateur est confronté à un enjeu de taille : comment certifier l’authenticité des données fournies par ces entreprises ?

La régulation par la transparence, si elle a le mérite de soumettre ces firmes à des épreuves d’accountability dont elles n’avaient pas l’habitude, a l’inconvénient d’offrir à ces plateformes l’opportunité d’une « opacité stratégique », pour reprendre l’expression des chercheurs Kate Crawford et Mike Ananny [1]. Celles-ci sont en mesure, dans leurs rapports, de publier les données qu’elles souhaitent publier, et de conserver cachées dans leurs serveurs les données sensibles qu’elles préfèrent ne pas divulguer. Les régulateurs sont alors placés dans une situation de dépendance par rapport aux plateformes, obligés de « croire » les données qui leur sont transmises par les entreprises qu’elles entendent surveiller.

Face à ce problème, la Commission Européenne préconise, dans son Digital Services Act présenté en décembre dernier, la mise en place d’audits indépendants pour les « très grandes plateformes », c’est-à-dire celles utilisées par au moins 10 % de la population européenne. Concrètement, la mise en place d’une telle mesure signifierait que des agences spécialisées puissent avoir accès aux serveurs des géants du numérique afin de certifier l’authenticité des données fournies dans leurs rapports de transparence.

Les plateformes, réticentes à l’idée de donner accès à leurs serveurs, mettent en avant les difficultés techniques liées à des architectures d’information qui n’ont pas été conçues pour répondre à de telles requêtes, ou les dangers que représente une telle mesure en termes de « secret des affaires ».

Parmi les données sensibles qui font l’objet d’une opacité stratégique, on retrouve en bonne place celles ayant trait au fonctionnement des régies publicitaires des géants du numérique comme Facebook et Google. La manière dont des annonces sont diffusées automatiquement à des publics spécifiques, et les modalités de réutilisation des données personnelles des utilisateurs à des fins de ciblage marketing, restent par exemple des informations tenues secrètes.

Pourtant, le fonctionnement de ces régies est au cœur même de différents scandales ayant entaché l’image des plateformes ces dernières années. Les affaires liées aux ingérences électorales russes par exemple, ou la diffusion de « fake news » pro-Brexit ou pro-Trump, reposent directement sur un usage ordinaire de ces options de ciblage publicitaire à des fins de propagande politique. Or, ce que nous savons aujourd’hui du fonctionnement de ces régies, nous l’avons appris d’enquêtes journalistiques, d’informations fuitées par des lanceurs d’alerte, ou de mobilisations d’activistes.

Dans un contexte économique où les revenus publicitaires représentent 98 % des 70 milliards de dollars de chiffre d’affaire engrangés par Facebook en 2019, et 80 % des 160 milliards de Google la même année, les grandes firmes du numérique ne sont pas prêtes à rendre publiques des informations aussi sensibles. Les mécanismes de captation et de rentabilisation de l’attention des internautes sont aujourd’hui la cible d’un autre dossier de la régulation des plateformes, celui de la lutte contre les abus de position dominante sur différents marchés, sans que les pouvoirs publics ne parviennent à les contraindre de la même façon que dans le dossier de la modération des contenus.

Le pouvoir aux usagers

Prises entre les injonctions des états et celles du marché, les plateformes doivent faire face à une troisième source de pression : les usagers eux-mêmes. En 2018, le mouvement #DeleteFacebook, incitant les usagers du réseau à supprimer leur compte en réaction à l’affaire Cambridge Analytica, avait fait l’objet d’une couverture médiatique importante, sans que l’on puisse mesurer précisément son impact réel. De la même façon, nombreuses sont les personnalités publiques à avoir fermé leurs comptes Twitter ces dernières années pour protester contre la brutalité du débat sur la plateforme.

Les entreprises du numérique semblent prendre au sérieux ces mouvements, notamment en offrant davantage d’options de paramétrage à leurs utilisateurs. Les nouvelles fonctionnalités d’Instagram apparues le mois dernier sont à ce titre révélatrices. L’application permet maintenant à ses usagers de filtrer les messages qui leur sont envoyés en fonction de certains mots placés sur liste noire, afin de se protéger de harceleurs potentiels. De la même façon, il est dorénavant possible de bloquer tous les comptes associés à une même adresse IP, afin de se prémunir de la création de nouveaux comptes par ces mêmes harceleurs. Des fonctionnalités similaires existent sur YouTube, dans la gestion des commentaires des vidéos.

Redonner du pouvoir aux usagers dans la manière dont ils consomment les informations en ligne est une piste intéressante, mais un pouvoir similaire pourrait leur être délégué dans la manière dont ils publient des informations, en leur offrant des options sur les caractéristiques de l’audience à laquelle ils souhaitent s’adresser. Sur Mastodon, l’équivalent libre de Twitter, les internautes peuvent ainsi décider si leurs publications relèvent d’un contenu sensible qui nécessite un avertissement. Le réseau social lui-même est conçu comme une fédération de communautés, qui décident chacune de leurs règles de modération et de publication.

Reste qu’à trop vouloir personnaliser les pratiques informationnelles en ligne, on accentue un autre effet négatif des réseaux sociaux sur l’espace public, celui de la balkanisation du débat : chacun échange dans sa bulle, protégé des contenus auxquels il ne souhaite pas être exposé, mais aussi des avis contradictoires et de certaines informations relevant du débat d’intérêt général.

Au-delà de leurs usages, les internautes pourraient être associés aux prises de décision relatives aux standards de publication. Comme le note le chercheur Tarleton Gillepsie dans son ouvrage Custodians of the Internet [2], la gouvernance des réseaux sociaux s’est construite sur un paradoxe : alors que le projet initial de ces entreprises consiste à proposer des espaces d’expression aux internautes, et qu’elles ont par la suite construit des modèles économiques extrêmement rentables à partir de la rentabilisation indirecte de ces expressions, les usagers n’ont pas voix au chapitre dans les décisions relatives à la modération des publications.

Sur le web pourtant, de nombreux formats de régulation collective reposant sur l’auto-gestion des contenus existent, y compris à grande échelle. Wikipédia, qui a fêté cette année ses 20 ans, en est certainement le meilleur exemple. Plus généralement, dans le domaine de la gouvernance des ressources techniques d’internet, des procédures « multi-partenaires » ont été créées à l’échelle internationale afin d’associer gestionnaires d’infrastructures, créateurs de contenus, experts techniques, entreprises de service et associations d’internautes. Dans le domaine de la régulation de la parole publique en ligne, de tels dispositifs restent à inventer.


[1] Mike Ananny, Kate Crawford, «Seeing without knowing : Limitations of the transparency ideal and its application to algorithmic accountability», New Media & Society, 20 (3), p. 973-989.

[2] Tarleton Gillepsie, Custodians of the Internet. Plateforms, Content Moderation, and the Hidden Decisions That Shape Social Media, Yale University Press, 2018.

Romain Badouard

Chercheur en sciences de l'information et de la communication, Maître de conférence à Paris 2 Panthéon-Assas, Centre d'Analyse et de Recherche Interdisciplinaires sur les Médias

Notes

[1] Mike Ananny, Kate Crawford, «Seeing without knowing : Limitations of the transparency ideal and its application to algorithmic accountability», New Media & Society, 20 (3), p. 973-989.

[2] Tarleton Gillepsie, Custodians of the Internet. Plateforms, Content Moderation, and the Hidden Decisions That Shape Social Media, Yale University Press, 2018.