Qui contrôle Facebook ?

Le 6 janvier dernier, alors même que se déroulent des intrusions violentes au Capitole qui feront cinq morts et plusieurs dizaines de blessés, Donald Trump exprime sur les réseaux sociaux son soutien aux assaillants et justifie les attaques par une supposée fraude électorale.
Dans l’urgence, Twitter, suivi par Facebook et YouTube, suppriment les messages controversés du président américain, avant de suspendre ses comptes. Le décision suscite aussitôt une controverse. Pour les uns, les réseaux sociaux sont des espaces privés, qui décident seuls des sanctions contre leurs utilisateurs qui ne respectent pas les standards de publication, qui que soient ces utilisateurs. Pour les autres, quoi que l’on pense du personnage et des propos tenus, des entreprises privées viennent de censurer un président démocratiquement élu, sans autre forme de justification.
Une Cour Suprême des contenus
Face à l’ampleur de la controverse, la direction de Facebook décide de déléguer à son Conseil de Surveillance, une instance nouvellement créée afin de trancher les litiges liés à la modération des contenus, la prise de décision concernant le cas de Donald Trump. Finalement, le 5 mai dernier, le Conseil de Surveillance, parfois décrit comme une forme de « Cour Suprême » des contenus, soutient la décision initiale de Facebook, tout en s’opposant à une suppression définitive des comptes de Trump, et en incitant l’entreprise à davantage de transparence dans ses processus de modération des personnalités publiques.
La firme répond à son Conseil dans un communiqué publié le 4 juin, dans lequel elle confirme une suspension de deux ans, et annonce revoir ses procédures de modération. Jusqu’à cette date, les personnalités publiques et politiques bénéficiaient d’un traitement de faveur sur la plateforme, lié au critère de newsworthiness : au nom de l’intérêt que représentaient leurs prises de parole pour le débat d’intérêt général, Facebook faisait preuve de davantage de mansuétude dans la mo