Numérique

YouTube : de la libre expression à l’acceptation des fausses informations

Psychologue sociale, Chercheur en sciences de l’information et de la communication

YouTube a récemment modifié ses règles de modération des fausses informations électorales, laissant désormais libre cours aux vidéos qui reprennent des accusations infondées de fraude ou de trucage. Si la plateforme le justifie au nom du Premier amendement, c’est surtout du côté de son modèle économique qu’il faut aller chercher les véritables raisons d’un revirement qui réactive la crise épistémique de l’espace public états-unien.

Au début de ce mois, plus précisément le 2 juin 2023, les règles de modération des fausses informations électorales (Elections misinformation policies) ont été modifiées sur YouTube.

publicité

Les vidéos remettant en cause les résultats de la dernière élection présidentielle aux États-Unis, bannies de la plateforme depuis la proclamation officielle des chiffres du scrutin en décembre 2020, sont désormais accessibles : « we will stop removing content that advances false claims that widespread fraud, errors, or glitches occurred in the 2020 and other past US Presidential elections[1] ». Ainsi, peu importe que ces vidéos reprennent des accusations infondées de fraude ou de trucage, pour cette élection comme pour les précédentes, il s’agit pour la firme californienne de ne pas restreindre l’expression politique (« curtailing political speech[2] »).

C’est donc indirectement sous la bannière du Premier Amendement de la Constitution que YouTube se place pour justifier un tel revirement. La plateforme s’inscrit à cet égard dans une tendance observable également chez ses concurrentes au cours de ces derniers mois, comme l’illustre de façon emblématique la réouverture du compte officiel de Donald Trump sur Twitter (novembre 2022), précédant la levée des restrictions sur sa chaîne YouTube (mars 2023).

La période récente s’apparente dès lors à une sorte de retour aux sources pour YouTube qui, dès son lancement au milieu des années 2000, a prôné une conception maximaliste de la liberté d’expression. Toutefois, en comparaison de cette époque fleurant bon l’esprit libéralo-libertaire de l’Internet[3], et d’une forme de passivité de la plateforme vis-à-vis des vidéos hébergées, la situation actuelle est marquée par un changement subtil mais d’importance. Désormais YouTube procède consciemment et activement à une validation de contenus se situant aux marges de ce qui est acceptable pour un débat public de qualité. Cette inflexion peut être saisie par un retour sur les évolutions de YouTube en matière de modération des contenus, au cours de ses près de 20 années d’existence. Un tel regard rétrospectif amène à considérer que le souci démocratique affiché est souvent passé après les considérations économiques de la plateforme. 

« Broadcast yourself », slogan des origines

La première vidéo postée sur YouTube, en avril 2005, est l’œuvre de l’un des trois fondateurs de l’entreprise. Jawed Karim semble alors mettre lui-même en pratique le slogan « Broadcast Yourself » puisque, en l’occurrence, il rend librement accessibles les images de sa visite d’un zoo. En apparence très banale, cette vidéo inaugure un style de prise de vue et un esthétique amateur qui, adoptés par une myriade de vidéastes plus anonymes, deviendront la marque de fabrique de YouTube.

Ces vidéos face cam – c’est ainsi que sera qualifié le genre icônique afférent –, ne relèveront toutefois pas de l’auto-diffusion au sens strict du terme. La diffusion (broadcast) n’est pas assurée par soi-même (self) mais par l’entremise de la plateforme. C’est elle qui, hébergeant les productions des vidéastes, les met dans le même temps à disposition des internautes. Le slogan masque donc cette intermédiation de YouTube, qui n’a pourtant rien de neutre. Elle conduit, par la mise au point des algorithmes de classement et de recommandation, à favoriser la « découvrabilité » de certaines vidéos. Plus encore, une telle intermédiation a pour finalité de tirer profit de cette activité.

Cette recherche de profitabilité, puisque les cofondateurs de YouTube étaient eux-mêmes trois anciens salariés de PayPal, aurait pu en toute logique s’appuyer sur la formule du paiement en ligne par les internautes. Un système de transaction aurait pu être mis en place à cette fin, avec par exemple des frais d’hébergement à régler par les producteur·ices de vidéos et/ou un paiement à l’acte par les consommateur·ices. Mais en ce milieu des années 2000, l’idéal de libre circulation des connaissances, hérité des pionniers de l’Internet, demeure vibrant et se traduit par la gratuité d’accès aux contenus en ligne. Parmi toutes les entreprises montantes du moment, l’une d’entre elles porte toujours ce discours tout en ayant trouvé un modèle d’affaires adéquat : Google acquiert YouTube en 2006.

L’expression et sa monétisation dans le giron de Google

Depuis, YouTube et Google se sont fondus au sein d’un plus vaste ensemble, chapeauté par leur holding Alphabet. Demeure cependant l’utopie d’un monde rendu meilleur grâce à l’accès aux connaissances par le numérique, comme en atteste la présentation du groupe dans son dernier rapport financier. Dès le premier paragraphe de ce document, intitulé Access and technology for everyone, la puissance égalitaire de l’Internet est sacralisée (« The Internet is one of the world’s most powerful equalizer[4] »), tout comme est encensée la mission que s’est donnée Google dès sa création à la fin des années 1990 (« Our mission to organize the world’s information and make it universally accessible and useful is as relevant today as it was when we were founded in 1998 »[5]), et à laquelle contribue YouTube (« YouTube provides people with entertainment, information, and opportunities to learn something new.[6] »).

Cette rhétorique aux accents religieux recouvre de façon plus prosaïque une configuration économique de marchés multi-versants bien connue. Elle consiste pour l’opérateur de plateforme à rendre certains services gratuits sur un ou deux versants de marché pour mieux commercialiser les services proposés sur un autre versant. Appliqué au cas de YouTube, cela revient à rendre gratuits les services d’hébergement de vidéos pour les producteur·ices et de consultation pour les internautes, afin de mieux attirer des annonceurs et leur vendre diverses formules publicitaires.

Se poser en garant de la liberté d’expression présente ainsi des avantages qui ne sont pas uniquement symboliques pour YouTube. La firme a également tout intérêt sur un plan économique à ce que les expressions par le biais de vidéos se multiplient pour, à leur tour, drainer des internautes en grand nombre. Les visionnages ainsi générés sont autant d’audiences valorisables auprès des annonceurs, selon un procédé voisin de celui employé par la maison-mère Google à propos des clics sur les hyperliens de son moteur de recherche.

Des adaptations ont toutefois été nécessaires pour tirer complètement avantage de la monétisation des vidéos. Dès 2007, un partage des revenus publicitaires entre l’opérateur de la plateforme (45 %) et les producteurs de vidéo (55 %) a été mis en place afin de tenir compte du rôle particulier de fournisseurs (complementors[8]) joué par ces derniers. En 2011, en lieu et place des liens cliquables à l’intérieur des images, la formule du pre-roll consistant à diffuser des spots publicitaires avant le démarrage des vidéos, a été adoptée. Le tout semble avoir porté ses fruits puisque dix ans plus tard, les revenus publicitaires de YouTube s’élèvent à près de 30 milliards de dollars annuels : 28,8 milliards de dollars en 2021 et 29,2 milliards en 2022[9].

Les annonceurs, des « partenaires » à protéger en priorité

Les chiffres précédents attestent d’une indéniable réussite financière pour YouTube en ce début des années 2020. Au cours de la décennie passée néanmoins, ce modèle publicitaire a été mis à l’épreuve, et avec lui la prétention de la plateforme à accueillir toutes les expressions.

Une menace de fuite massive des annonceurs, qualifiée d’ « adpocalypse » par plusieurs observateur·ices, est survenue au tout début de l’année 2017. Elle est liée à la diffusion d’une vidéo de PewDiePie, youtubeur le plus célèbre de l’époque avec 50 millions d’abonné·e·s (111 millions à ce jour), faisant porter des pancartes antisémites à des figurants, sous prétexte d’humour… D’autres vedettes de la plateforme seront épinglées pour des images ou propos choquants ou délictueux, aboutissant en 2019 à l’édiction par YouTube de règles de désactivation des commentaires entourant les vidéos de personnes mineures, et d’interdiction de contenu haineux[10]. Cela se traduira notamment en 2020 par la suppression de dizaines de milliers de chaînes aux États-Unis, et de quelques-unes en France, dont celle de Dieudonné puis celle d’Alain Soral pour cause d’incitation à la haine. Tout dernièrement, la chaîne YouTube de Papacito a également été fermée pour des raisons voisines.

Entretemps, les vidéos de ce type auront pu prospérer sur YouTube et entraîner dans leur sillage quantité d’internautes et de commentaires. La chaîne « iamdieudo4 », créée par Dieudonné en 2014, comptait 389 000 abonné·e·s début 2020, soit quelques mois avant sa fermeture par YouTube. Ses 480 vidéos avaient alors généré 140 millions de vues et des dizaines de milliers de commentaires. Leur analyse montre que, sous couvert d’une rhétorique anti-système, les « communautés réactives » ainsi formées, marquées par leur conflictualité et une certaine dose d’hétérogénéité dans les points de vue, ont néanmoins dans les faits amené à rendre objet de débat la vision antisémite d’une domination juive sur le monde[11].

Si certains des commentaires ont été empêchés ou retirés par la plateforme en raison de leur caractère haineux et/ou raciste, il n’en reste pas moins que la dynamique collective entourant les vidéos peut conduire à normaliser, sous forme de sujets de discussion, des visions du monde pourtant dangereuses sur le plan politique. Celui-ci semble plutôt constituer un arrière-plan pour YouTube en comparaison du plan économique, mis au premier plan.

Un indice en ce sens est fourni par une autre règle interne de la plateforme, adoptée dès 2018, et s’inscrivant déjà dans une logique de « brand safety ». Afin d’éviter que les marques promues par les annonceurs ne se retrouvent par un mauvais hasard insérées au sein de contenus dégradants, il a été alors décidé de ne plus commercialiser de publicités pour les chaînes YouTube n’atteignant pas le seuil de 1 000 abonné·e·s et de 4 000 heures de visionnage au cours des 12 derniers mois. Si elle peut trahir une forme d’aveu de faiblesse de l’entreprise vis-à-vis de l’impossibilité de scruter la multitude des vidéos mises en ligne, cette mesure établit aussi assez clairement une hiérarchie entre certains des acteurs mis en relation par la plateforme : priorité est donnée aux intérêts des annonceurs, seuls acteurs à d’ailleurs être qualifiés de « partners », tandis que sont dissociés, au sein de la catégorie des « creators »[12], des vidéastes de seconde zone. Le contenu généré par ces derniers ne sera pas forcément scruté, peut-être parce qu’il est moins décisif pour la « machine à cash » YouTube. À l’inverse, il semblerait que le contenu et l’expression deviennent un enjeu pour l’entreprise, à partir du moment où les vidéastes concernés disposent d’une plus grande force rémunératrice.

La contribution à un débat public de qualité comme préoccupation ultime

Dans cette deuxième moitié des années 2010, YouTube, sans abandonner son mantra de la liberté d’expression, aura cependant dû se plier à des concessions dans les faits, souvent guidées en dernier ressort par des considérations économiques. Son intervention vis-à-vis des contenus hébergés aura même été explicitement revendiquée avec l’annonce en 2017 du recrutement de 10 000 modérateur·ices. Un tel affichage peut s’expliquer par une volonté de rester un espace accueillant pour les annonceurs, mais aussi plus globalement par une stratégie de relations publiques, après avoir été associé, avec d’autres plateformes, à des évènements politiques marqués du sceau de la désinformation en ligne.

L’année 2016 aura sans doute constitué un tournant à cet égard avec notamment les chocs électoraux du Brexit au Royaume-Uni et de la victoire de Donald Trump aux présidentielles des États-Unis, inaugurant une période se terminant précisément avec la défaite de ce dernier en 2020 et l’invasion du Capitole qui avait suivi en janvier 2021. Poussé par ce contexte plus que sensible sur le plan politique, YouTube avait franchi un palier supplémentaire dans la modération des vidéos : outre les contenus tombant sous le coup de la loi (contenus pédophiles, terroristes, etc.), les propos niant la réalité des faits, et en l’espèce la réalité de résultats électoraux, se retrouvaient susceptibles d’être évincés de la plateforme.

À cet égard, la toute récente modification des règles signalée en ouverture de ce texte, modification opérée ce début de juin 2023, s’apparente à un retour en arrière. Il y est bien écrit noir sur blanc que les fausses informations (« false claims ») relatives aux élections ne seront plus retirées de la plateforme. Seuls restent prohibés les contenus susceptibles de gêner le processus électoral (exemple : mensonges sur la date du scrutin, l’éligibilité administrative des candidat·e·s, …) ou d’inciter à haine et à la violence physique. YouTube en revient donc à une position qui consiste à s’en tenir à un respect procédural de la loi électorale (« content interfering with democratic processes[13] »), et à privilégier une interprétation du Premier Amendement selon laquelle une liberté d’expression à tout crin en ligne est possible tant qu’elle ne débouche pas sur des préjudices hors ligne (« certain types of misinformation that can cause real-world-harm »[14]).

Ce faisant, la plateforme renonce à prendre en considération – et juguler – la qualité des contenus et des échanges qu’elle abrite, sauf au-delà de très extrêmes limites. Par conséquent, la discussion et le débat « ouverts » promus par YouTube (« providing a home for open discussion and debate[15] »), outre le fait qu’ils peuvent parfois se dérouler au sein d’espaces de type « chambres d’écho » / « bulles de filtre » où les utilisateur·ices se retrouvent relativement cloisonné·e·s[16], peuvent reposer sur des allégations ou des arguments mensongers.

Dès lors YouTube réactive la crise épistémique de l’espace public états-unien, dont les racines remontent aux émissions d’ « agitateurs de droite extrême »[17] à la radio (Rush Limbaugh) et à la télévision (Tucker Carlson sur Fox News), mais qui s’est particulièrement manifestée en ligne lors de la présidentielle de 2016 au point d’annihiler les référents communs nécessaires au débat démocratique.

Parce que les plateformes numériques occupent une place croissante dans l’espace public contemporain, leur capacité à organiser un débat de qualité est essentielle : « Some shared means of defining what facts or beliefs are off the wall and what are plausibly open to reasoned debate is necessary to maintain a democracy[18]. » La trajectoire de YouTube peut laisser penser qu’une telle préoccupation démocratique passe le plus souvent après des considérations de nature économique, en dehors de circonstances très particulières. Or, un encadrement plus pérenne de ses contenus paraît légitime car la plateforme de vidéos prend une part croissante à la vie publique et procède à une modération de contenus de moins en moins éloignée des choix éditoriaux effectués par les médias traditionnels[19]. De la même manière que l’on exige par exemple, en France et depuis des années, une « maîtrise de leur antenne » par les médias audiovisuels[20], une régulation plus structurelle des plateformes numériques semble primordiale.


[1] The YouTube Team, « An update on our approach to US election misinformation », YouTube Official Blog, 2 juin 2023.

[2] Ibid.

[3] Sur les prémices de cette idéologie et son renouvellement contemporain chez les dirigeant·e·s des firmes technologiques, voir respectivement TURNER Fred, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Steward Brand, un homme d’influence, C&F éditions, 2021 et SMYRNAIOS Nikos, « La nouvelle bourgeoisie issue de la Silicon Valley », La Pensée, n°409, p. 31-42, 2022.

[4] Alphabet Inc., Form 10-K for the fiscal year ended December 31, p. 1, 2022.

[5] Ibid.

[6] Ibid.

[7] Ce procédé avait d’ailleurs été inventé par un autre moteur de recherche, GoTo, cf. Sire Guillaume, Les moteurs de recherche, La Découverte, 2016.

[8] Poell Thomas, Nieborg David, van Dick José, « Platformisation », Internet Policy Review, vol. 8, n°4, p. 1-13, 2019.

[9] Alphabet Inc., p. 28, 2023.

[10] Ouakrat Alan, « Déminer les scandales. YouTube et la modération des vidéos », in Assilaméhou-Kunz, Y., Rebillard F., (dir.), La Machine YouTube. Contradictions d’une plateforme d’expression, C&F éditions, pp. 133-140, 2022.

[11] Quemener Nelly, « Commentaires sur la chaîne de Dieudonné. La formation de communautés réactives », in Assilaméhou-Kunz Y., Rebillard F., (dir.), La Machine YouTube, Op.Cit., p. 185-202, 2022.

[12] « The safety of our creators, viewers and partners is our highest priorit », peut-on lire dans la vidéo YouTube, « Elections misinformation policies : YouTube community guidelines », YouTube Help, 2023.

[13] YouTube, « Elections misinformation policies : YouTube community guidelines », 2023, Op. Cit.

[14] Ibid.

[15] The YouTube Team, « An update on our approach to US election misinformation », 2 juin 2023, Op.Cit.

[16] Assilaméhou-Kunz Yvette, Mésangeau Julien, Balcon-Fourmaux Sophie, « Dissensus et consensus autour d’une vidéo de Tatiana Ventôse. Exemple d’une chambre d’écho », in Assilaméhou-Kunz Y., Rebillard F., (dir.), La Machine YouTube, p. 203-230, 2022, Op.Cit.

[17] Gimenez Elsa, Voirol Olivier, « Les agitateurs de la toile », Réseaux, n° 202-203, pp. 9-37, 2017.

[18] Benkler Yochai, Faris Robert, Roberts Hal, Network Propaganda : Manipulation, Disinformation, and Radicalization in American Politics, Oxford University Press, p. 5, 2018.

[19] Napoli Philip M., Caplan Robyn, « Why media companies insist they’re not media companies, why they’re wrong, and why it matters », First Monday, vol. 22, n°5, 2017.

[20] ARCOM, La déontologie des programmes, Autorité de régulation de la communication audiovisuelle et numérique, 2023.

Yvette Assilaméhou-Kunz

Psychologue sociale, Maîtresse de conférences en psychologie sociale, IRMÉCCEN, Université Sorbonne Nouvelle

Franck Rebillard

Chercheur en sciences de l’information et de la communication, Professeur en sciences de l’information et de la communication à l’université Sorbonne Nouvelle et chercheur/co-fondateur au sein de l’Institut de recherche Médias, cultures, communication et numérique (IRMÉCCEN)

Notes

[1] The YouTube Team, « An update on our approach to US election misinformation », YouTube Official Blog, 2 juin 2023.

[2] Ibid.

[3] Sur les prémices de cette idéologie et son renouvellement contemporain chez les dirigeant·e·s des firmes technologiques, voir respectivement TURNER Fred, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Steward Brand, un homme d’influence, C&F éditions, 2021 et SMYRNAIOS Nikos, « La nouvelle bourgeoisie issue de la Silicon Valley », La Pensée, n°409, p. 31-42, 2022.

[4] Alphabet Inc., Form 10-K for the fiscal year ended December 31, p. 1, 2022.

[5] Ibid.

[6] Ibid.

[7] Ce procédé avait d’ailleurs été inventé par un autre moteur de recherche, GoTo, cf. Sire Guillaume, Les moteurs de recherche, La Découverte, 2016.

[8] Poell Thomas, Nieborg David, van Dick José, « Platformisation », Internet Policy Review, vol. 8, n°4, p. 1-13, 2019.

[9] Alphabet Inc., p. 28, 2023.

[10] Ouakrat Alan, « Déminer les scandales. YouTube et la modération des vidéos », in Assilaméhou-Kunz, Y., Rebillard F., (dir.), La Machine YouTube. Contradictions d’une plateforme d’expression, C&F éditions, pp. 133-140, 2022.

[11] Quemener Nelly, « Commentaires sur la chaîne de Dieudonné. La formation de communautés réactives », in Assilaméhou-Kunz Y., Rebillard F., (dir.), La Machine YouTube, Op.Cit., p. 185-202, 2022.

[12] « The safety of our creators, viewers and partners is our highest priorit », peut-on lire dans la vidéo YouTube, « Elections misinformation policies : YouTube community guidelines », YouTube Help, 2023.

[13] YouTube, « Elections misinformation policies : YouTube community guidelines », 2023, Op. Cit.

[14] Ibid.

[15] The YouTube Team, « An update on our approach to US election misinformation », 2 juin 2023, Op.Cit.

[16] Assilaméhou-Kunz Yvette, Mésangeau Julien, Balcon-Fourmaux Sophie, « Dissensus et consensus autour d’une vidéo de Tatiana Ventôse. Exemple d’une chambre d’écho », in Assilaméhou-Kunz Y., Rebillard F., (dir.), La Machine YouTube, p. 203-230, 2022, Op.Cit.

[17] Gimenez Elsa, Voirol Olivier, « Les agitateurs de la toile », Réseaux, n° 202-203, pp. 9-37, 2017.

[18] Benkler Yochai, Faris Robert, Roberts Hal, Network Propaganda : Manipulation, Disinformation, and Radicalization in American Politics, Oxford University Press, p. 5, 2018.

[19] Napoli Philip M., Caplan Robyn, « Why media companies insist they’re not media companies, why they’re wrong, and why it matters », First Monday, vol. 22, n°5, 2017.

[20] ARCOM, La déontologie des programmes, Autorité de régulation de la communication audiovisuelle et numérique, 2023.