Numérique

Sarah T. Roberts : « Les réseaux sociaux entretiennent une liberté d’expression illusoire »

Journaliste

Pendant longtemps, les réseaux sociaux se sont présentés comme des espaces de libre expression totale, sans aucune intervention humaine. Mais récemment, la prolifération des fake news a mis en avant une fonction jusque-là ignorée, celle de modérateur. La chercheuse Sarah T. Roberts s’intéresse à ces travailleurs de l’ombre, qui façonnent en réalité depuis longtemps notre espace public.

publicité

Saraht T. Roberts est chercheuse et enseignante en sciences de l’information à l’université de Californie à Los Angeles (UCLA) et s’intéresse depuis longtemps à l’internet social. Elle a ainsi signé une enquête de référence sur les modérateurs du web, traduite et publiée en octobre dernier : Derrière les écrans : Les nettoyeurs du Web à l’ombre des réseaux sociaux (La Découverte), fruit d’une enquête de dix ans. Un travail important car comme, l’affirme Sarah T. Roberts, toute discussion sérieuse sur la nature de l’internet contemporain nécessite d’aborder les processus par lesquels certains contenus créés par les utilisateurs sont autorisés à rester visibles quand d’autres sont supprimés. Il s’agit donc de se demander qui prend cette décision, et selon quels critères. D’autant que, comme l’ont encore une fois montré les dernières élections américaines, il en va de la définition de l’espace public, et donc de l’avenir de la démocratie. RB

Les réseaux sociaux avaient joué un rôle très important dans l’élection de Trump en 2016, puis évidemment dans sa pratique du pouvoir. En 2020, leur rôle est beaucoup moins évoqué, sauf de la part de Donald Trump lui-même, qui a accusé les « Big Tech » d’être de parti pris lorsque plusieurs de ses messages ont été signalés comme faux ou pouvant induire en erreur. Est-ce le résultat d’une prise de conscience, de la part des réseaux sociaux, d’une nécessaire modération de la parole et notamment des fake news ?
C’est difficile à dire. Pour commencer, et mettre en perspective l’accusation de censure de Donald Trump à l’encontre des prétendus Big Tech le soir de l’élection, je citerais une étude publiée il y a deux ans par la chercheuse Sarah Myers West intitulée « Censored, Suspended, Shadowbanned : Researching User Experiences of Content Moderation on Social Media Platforms » (New Media & Society). Cet article s’appuie sur plusieurs centaines d’entretiens avec des personnes qui ont vu leurs publications supprimées parce qu’elles contrevenaient aux règles d’utilisation. Il montre que dans presque tous les cas, les utilisateurs avaient la certitude d’avoir été censurés pour des raisons politiques. Il va sans dire que les participants à cette étude venaient de tous les bords de l’échiquier politique. Cela résume parfaitement le débat à propos de la modération des réseaux sociaux en matière de discours politiques. Les hommes et les femmes politiques ne réagissent pas différemment, et accusent volontiers les réseaux sociaux d’être de parti pris, alors qu’ils utilisent les mêmes plateformes à longueur de journée pour rassembler des soutiens.

Le cas de Donald Trump est malgré tout à part, et ses attaques contre Twitter m’ont particulièrement irritée. D’abord, je dois bien le dire, parce que c’est la plateforme de prédilection. Mais surtout parce qu’accuser les Big Tech de « dérive gauchiste » est parfaitement ridicule. Son compte n’a fait pour ainsi dire l’objet d’aucune intervention au cours des quatre dernières années, ce fait à lui seul devrait démontrer le contraire. Ce n’est que très récemment que Twitter a commencé à signaler ses déclarations manifestement fausses, trompeuses et qui contrevenaient aux règles sur les discours violents contre des groupes de personnes ou des individus. Toutes choses qui, au passage, ne sont pas permises pour les gens ordinaires. Donc ce simple fait qu’il ait eu carte blanche au cours des dernières années infirme les allégations selon lesquelles il serait aujourd’hui persécuté pour des raisons politiques.

Ce qui m’amène à la question des fake news, dont la popularisation et la diffusion doivent certes beaucoup à Donald Trump, mais pas seulement. Les réseaux sociaux traversent une véritable crise de la véracité, à tous les niveaux. Les raisons sont complexes, mais l’une des principales est à mon avis la monétisation de l’information qui permet, par sa simple circulation, à la fois un rémunération financière conséquente, et un gain d’influence. Dès lors, l’intérêt n’est pas forcément de modérer des propos dont ont peut facilement montrer qu’ils sont faux, mais qui semblent – pour cette raison ou non – particulièrement attractifs.

Il y a bien pourtant une politique de modération affichée désormais par les sociétés de la Silicon Valley qui disent avoir pris conscience du phénomène ?
C’est ce « désormais » qui est problématique, et que je réfute dans Derrière les écrans. L’idée selon laquelle les réseaux sociaux ont pu pendant longtemps fonctionner sans avoir recours à des modérateurs est tout simplement fausse. En réalité, les modérateurs sont présents depuis le tout début. Seulement, leur fonction consistait avant tout à protéger les intérêts des grandes compagnies de la tech. Il ne s’agissait pas de protéger les utilisateurs des fake news, du harcèlement ou des discours de haine. En tout cas pas tant que cela ne servait pas aussi l’intérêt de la compagnie. Or cet intérêt est intimement lié à la protection des marques et à la préservation des bonnes relations avec les seuls véritables clients des réseaux sociaux : les annonceurs publicitaires. La Silicon Valley, si l’on peut parler ainsi, tient un double discours. Les grandes plateformes défendent une liberté d’expression sans limites, en font le cœur même de leur ethos, résultat d’une lecture dévoyée du Premier amendement de la constitution des États-Unis – qui ne désigne pas la liberté dont on jouit dans un espace privé comme les réseaux sociaux mais protège l’expression publique des citoyens contre une censure d’État. Mais dans le même temps, elles agissent de manière opposée en intervenant sur leurs contenus à leur propre profit. Elles gagnent donc sur les deux tableaux.

Cela a finalement produit 2016 et par la suite 2020, deux campagnes électorales marquées par un véritable déversement d’ordures sur les réseaux sociaux. Dans la mesure où ces grands réseaux sociaux transnationaux avaient pris position de manière claire et radicale, affirmant qu’ils n’intervenaient jamais sur les contenus, quand ils se sont mis à faire ouvertement ce qu’ils faisaient en réalité déjà de manière cachée, ils ont essuyé des critiques sévères de la part de celles et ceux qui ont eu beau jeu de leur faire remarquer qu’ils n’étaient plus ces espaces parfaits et démocratiques de liberté expression. Or, et c’est ce que je montre dans mes travaux, cette forme pure et parfaite n’a jamais existé. Par conséquent, il faut s’interroger sur ce qui a existé, sur cet environnement d’expression qu’on créé les réseaux sociaux, et son impact sur l’environnement actuel.

Il n’y a donc pas d’agenda politique de la part des grands réseaux sociaux, ou plutôt de leurs dirigeants ? Seul l’intérêt gouverne ces choix ?
Je ne voudrais pas non plus complètement écarter les raisons politiques qui pourraient orienter les choix de modération. La modération a un impact sur l’expérience des utilisateurs, l’écosystème dans lequel ils évoluent. Mais dans ce cas, je parlerais plutôt de politique avec un petit « p ». Ce qui me semble absurde, c’est l’idée agitée ces dernier temps selon laquelle il existerait un « biais anticonsevateur ». C’est insensé, ne serait-ce que parce que les compagnies de la Silicon Valley entretiennent des relations très étroites avec le pouvoir quel qu’il soit. Mais surtout, qu’ont fait les lobbyistes des grandes plateformes ces dernières années ? Ils ont avant tout combattu toutes les formes de régulations de leur activité par le gouvernement, ce qui les plaçaient naturellement du côté des « pro-business », à droite du spectre politique américain. Encore une fois, c’est contre l’intérêt supérieur de ces entreprises de prendre le genre de positions politiquement orientées qu’on les accuse de prendre. Donald Trump lui-même a reconnu que sans les réseaux sociaux il n’aurait pas réussi à remporter les élections en 2016. On sait aujourd’hui qu’il y a eu de nombreuses manipulations que les plateformes ont sciemment choisi d’ignorer.

Votre livre propose un retour sur l’histoire d’internet et de la modération, alors qu’internet est d’abord pensé dans une perspective libérale et même libertaire, comme un espace de parole totalement libre. La fonction de modération, quand elle apparaissait, était confiée aux utilisateurs. Qu’est-ce qui a poussé les plateformes à prendre en charge ce rôle de modération ?
Il était important, selon moi, d’évoquer ce moment où les grandes compagnies de médias sociaux ont commencé à ouvertement parler de modération des contenus. Je parle pour ma part de « modération commerciale » des contenus. Il faut bien avoir en tête que l’internet social est aussi vieux qu’internet, et que la fonction de modération a, elle aussi, toujours existé. C’est une banalité de dire qu’internet sert d’abord aux gens à communiquer entre eux, parfois de manière collective, en groupe, ce qui a toujours supposé d’établir un certain nombre de règles pour encadrer les interactions. Or qu’est-ce qu’un ensemble de règles régissant la communication et le comportement en ligne, sinon de la modération du contenu ? C’est juste que cela n’a pas toujours été perçu comme tel par le passé, et même aujourd’hui sur des plateformes aussi importantes que Reddit ou Wikipédia. À l’origine, la modération fonctionnait surtout sur un système de volontariat par les utilisateurs. Ce qui ne signifiait pas que les utilisateurs de plateformes comme les premiers BBS (Bulletin Board Systems), les forums, Usenet, toutes ces anciennes façons d’échanger avec une communauté, appliquaient une modération draconienne. Loin de là, si on pense à Usenet par exemple c’était un style plutôt anarchique et chaotique. Mais même ce choix de laisser faire est en soit une décision de gouvernance. Ceci étant, il y avait aussi à ces premières heures de l’Internet social des plateformes qui établissaient des règles très strictes, sujettes à  des débats sans fin entre utilisateurs et modérateurs.

Si l’on parle maintenant de la situation actuelle, il est évident que la taille des plateformes change complètement la donne. Au début des années 1990, j’étais sur le plus grand BBS de l’époque, qui rassemblait quelques dizaines de milliers d’utilisateurs, et on avait l’impression que c’était énorme. On parle aujourd’hui en milliards, c’est une échelle inconcevable. Dès lors, les enjeux économiques faramineux ont poussé les compagnies à concevoir cette nouvelle profession, ce nouveau type de travailleurs que sont les modérateurs, en faisant bien attention qu’ils servent d’abord les besoins et les intérêts de la plateforme. C’est alors qu’on été mises en place un ensemble de règles devant être suivies à la lettre.

Comment les États, ont-ils reçu ce tournant « autorégulateur » des plateformes ?
Face à ces plateformes transnationales qui continuent d’entretenir le vieux mythe d’un internet sans géographie ni contraires, les États ont décidé d’intervenir pour défendre les lois nationales. On pense par exemple à l’interdiction en France de discours négationnistes, ou en Allemagne de représentations nazies. Mais ce n’est pas si simple, car si on accepte volontiers cette idée de la part de pays démocratiques, c’est plus difficile quand on pense à des régimes autoritaires. Faut-il là aussi dans ce cas se plier aux lois locales ? Les modérateurs de contenu, qui sont désormais des professionnels rémunérés pour faire ce travail, sont à la fois appelés à suivre la politique interne développée par les entreprises pour soutenir leurs produits et leur écosystème, et doivent tenir compte de ces éléments éthiques et moraux lorsqu’ils prennent leurs décisions. Ils doivent garder à l’esprit un tissu incroyablement complexe de règles, de réglementations et de politiques. Ce qui change, c’est qu’auparavant le community management était davantage organique et basé sur la représentation des utilisateurs par les utilisateurs, mais aussi plus tangible pour ces derniers, plus visible. À l’inverse, la modération commerciale de contenu consiste à faire le travail de modération et à faire en sorte que les utilisateurs ne puissent même pas le percevoir. Voilà une autre différence majeure. Je dirais donc que l’échelle – le fait que les États-nations soient maintenant impliqués dans l’élaboration des politiques – et le secret – l’invisibilité des travailleurs et de leurs interventions – sont les grandes nouveautés de cet internet social dominé par des plateformes commerciales dont le but premier est le profit. C’est pourquoi j’insiste sur le terme de « modération commerciale du contenu », car les modérateurs le font au nom de ces plateformes, contre rémunération. Une professionnalisation qui se fait d’ailleurs généralement à un niveau de salaire et de statut très bas.

Cette professionnalisation est aussi intervenue lorsque les modérateurs jusque-là bénévoles se sont rendu compte qu’ils effectuaient un travail indispensable. Pourtant, les géants de la Silicon Valley ont continué d’entretenir le mythe d’un internet sans intervention humaine. Comment interprétez-vous ce décalage et quel impact a-t-il eu sur les conditions de travail des modérateurs ?
J’ai commencé à m’intéresser à ce sujet en 2010, et la première chose qui m’a interpellée c’est que personne, du chercheur spécialisé dans ce domaine à l’utilisateur lambda, ne semblait s’être demandé si, et comment, des contenus étaient retirés des réseaux sociaux. Lorsque je leur posais la question, et j’insiste la réponse était la même que l’on soit spécialiste ou non, la réponse était invariablement que cela devait être des ordinateurs qui s’en chargeaient.  La perception d’une quasi absence d’intervention humaine était donc solidement ancrée, c’est ce que j’ai cherché à déconstruire et à comprendre. Je me suis donc intéressée aux modérateurs dont la tâche, même s’ils sont humains, est assimilée à l’automatisation propres aux robots ou aux programmes informatiques. C’est pourtant très différent, comme l’a par exemple montré le sociologue Antonio Casilli, qui signe la préface de la traduction française de mon livre : faire réaliser ces micro-tâches par des humains répond à une nécessité pour des entreprises de la Silicon Valley qui préfèrent toujours régler un problème par le calcul. La raison est simple: les intelligences artificielles sont incapables de répondre de manière satisfaisante aux exigences de modération. C’est vraiment la question qui m’a intéressée : pourquoi en sont-elles incapables ? Après tout, les modérateurs suivent, nous dit-on, un ensemble de processus de prises de décision délimité par un cadre précis, un enchaînement de raisonnements routiniers, presque automatiques, algorithmiques : « Si l’écran contient 70 % de sang, il faut retirer le contenu », « Si la majorité du contenu est gore et écœurant, supprimez le contenu. Mais si le contenu n’est que partiellement sanglant, laissez-le ». En réalité, il s’agit d’apporter des réponses nuancées, qui mettent en œuvre un ensemble de compétences variées – linguistiques, culturelles, éventuellement la connaissance du contexte social ou des identités, le fait d’être au courant de l’actualité et des médias – mais aussi la sensibilité du modérateur. Les réactions viscérales au visionnage d’une vidéo est un élément tout aussi important que les raisonnements en fonction d’éléments donnés.

Cependant, l’un des problèmes qui se pose aux grandes entreprises – encore une question d’échelle – est que la quantité de contenu est si importante que leur capacité à faire preuve de ce type de subtilité est dépassée par le volume du contenu. Or, ce que mes recherches ont montré, c’est qu’à ce moment précis où l’humanité des travailleurs est effacée, il devient très difficile pour eux de supporter ce qu’ils voient. Il y a donc un cercle vicieux qui se met en place pour une modération réussie : les entreprises ont besoin de la subjectivité humaine, de cette réaction viscérale, mais le volume des informations à traiter est telle qu’une certaine forme d’automatisation de la tâche est inévitable, ce qui la rend traumatisante. Il y a donc deux façons de devenir inefficace en tant que modérateur commercial de contenu. La première est de devenir si sensible, tellement à vif, qu’il devient impossible de continuer. La seconde, et c’est presque la plus effrayante à mon sens, est de devenir tellement désensibilisé à ce type de contenu que vous n’êtes plus capable d’estimer son caractère offensant ou ignoble.

Y a-t-il une différence, parmi les modérateurs, entre ceux qui s’occupent d’images violentes – et dont on comprend bien qu’elles sont rapides à identifier, qu’elles ne sont pas sujettes à interprétations si on pense aux vidéos de décapitation de Daesh ou à la pédocriminalité – et ceux qui doivent se prononcer sur des discours de haine par exemple ?
En d’autres termes, est-ce que toutes les mauvaises choses se valent, et sont-elles toutes aussi difficiles à juger ? Je ne pense pas. Les vidéos terroristes montrant des décapitations ou même les scènes plus quotidiennes de violence contre d’autres personnes, contre des animaux, contre des enfants (dans lesquelles j’inclurais la pédocriminalité), sont des contenus affreux à regarder. Cela peut être dommageable et difficile. Mais c’est un type de contenu pour lequel les modérateurs peuvent généralement prendre des décisions très rapides, savoir immédiatement que c’est inapproprié. Ils peuvent alors ne pas regarder l’intégralité d’une vidéo : si une décapitation dure vingt minutes, ils n’ont besoin de voir que quelques images ou captures d’écran de cette vidéo pour savoir qu’ils doivent la retirer et contacter les services de police. Mais discuter avec les modérateurs de leurs difficultés au travail m’a permis de montrer que les discours de haine sont également quelque chose d’incroyablement difficile à traiter. L’une des raisons, c’est que les plateformes pour lesquelles ils travaillent ont un seuil de tolérance bien plus élevé pour ce type de contenu que pour une vidéo de décapitation. Si cette dernière sera toujours supprimée selon un protocole clairement établi, c’est beaucoup moins évident pour disons une vidéo de 15 minutes de divagations haineuses. Il faudra alors l’écouter en entier pour déterminer ce qui relève précisément du discours de haine, de la menace ou du dénigrement d’une communauté d’individus. Dans ce milieu, on utilise le terme « cas limite » pour désigner les contenus qui ne sont pas suffisamment évidents et doivent être débattus. Ces cas limites sont souvent ce qu’il y a de plus difficile car ils doivent être traités entièrement, ce qui signifie qu’il faut les regarder dans leur intégralité, voire plusieurs fois, pour prendre une décision.

Or, ce qui peut parfois rajouter au traumatisme, c’est que la sensibilité individuelle des modérateurs n’est pas toujours suivie par leurs supérieurs. Je pense ici à un cas particulier qui m’a été rapporté, à propos du « black face », à savoir cette étrange propension qu’ont les Blancs à mettre de la peinture noire sur leur visage et à imiter ou à adopter des comportements stéréotypés très désobligeants attribués aux Noirs, aux Africains ou aux personnes d’origine africaine. Pour certaines raisons, non seulement les Blancs font cela et l’ont fait à travers l’histoire, mais surtout, ils aiment se filmer en le faisant et mettre ensuite les vidéos en ligne sur les réseaux sociaux. L’un des modérateurs avec qui je me suis entretenue a estimé qu’il s’agissait en réalité d’une forme de discours haineux. Il s’est référé à la politique de son entreprise contre les discours de haine et le contenu raciste, et conclut que cela violait le règlement intérieur. Mais ses supérieurs ont fait une analyse différente. Cela a été très frustrant pour lui. Car vous pouvez imaginer que lorsque votre travail vous oblige à être en contact avec un contenu qui est dérangeant, dégoûtant, offensant et raciste, de façon continue, savoir que vous le retirez de l’écosystème constitue au moins une sorte de consolation. Vous faites ce travail pour éviter que d’autres personnes n’aient à voir comme vous ce type de contenus.

Ce que font aussi ces modérateurs au service des géants de la Silicon Valley c’est de délimiter notre espace public. Or, comme l’a montré la sociologue américaine Shushana Zuboff en étudiant ce qu’elle appelle le « capitalisme de surveillance », le fait que l’information soit devenue une marchandise a une réelle influence. Comment définir cet espace public dans lequel nous évoluons et nous discutons aujourd’hui ?
C’est le genre de question dont nous devons débattre collectivement, ayons cette discussion dans la presse écrite, des forums publics, les écoles, les organes législatifs… On blâme souvent les utilisateurs des réseaux sociaux pour les dérives du débat public, je ne pense pas qu’ils soient responsables, par leur stupidité ou leur naïveté supposées. Les entreprises en question sont arrivées sur le marché en disant aux gens qu’elles leur offraient la possibilité d’un grand débat, d’échanges libres mais aussi gratuits. Libre au sens où l’on ne risquait pas grand-chose à dire ce qu’on voulait, et c’est ce qui a beaucoup plu. Mais je ferais remarquer que ces plateformes arrivent aussi dans un contexte aux États-Unis (qui est celui que je connais le mieux), où étaient détruits les espaces publics plus traditionnels, financièrement mais pas seulement. Pour moi, un espace public de libre expression légitime, ce sont les bibliothèques publiques ou un système scolaire public fort. Mais ils ont été systématiquement sous-financés, délaissés, fermés, condamnés au cours des quarante dernières années. Les gens n’ont pas pour autant perdu le désir de s’exprimer et de dialoguer les uns avec les autres. Donc, lorsque ces plateformes ont commencé à combler le vide, à grande échelle, il y a eu un formidable enthousiasme. Les débuts d’internet reposaient incontestablement sur le sentiment que tout était possible, comme en témoigne par exemple la Déclaration d’indépendance du cyberespace en 1996.

Mais lorsqu’un objectif de profit entre en jeu et lorsqu’il y a de la publicité, du data mining et toutes sortes d’autres activités visant à monétiser la libre expression, alors nous avons affaire à autre chose. Plutôt qu’à une place publique géante, Internet ressemble à un archipel d’îles privées, et l’on saute de l’une et l’autre, chacune ayant ses propres règles. Peut-être ne voyons-nous pas le périmètre, peut-être ne voyons-nous pas les clôtures qui entourent ces espaces, mais elles existent bel et bien. D’une certaine manière c’est beaucoup plus dangereux dans la mesure où l’on a l’illusion d’une liberté qui n’existe pas vraiment, qui a des limites importantes, et qui pourrait même être mise à profit dans des activités non explicites, comme le data mining, la monétisation du comportement ou la manipulation des utilisateurs. C’est donc en fait une combinaison très dangereuse. Je pense ici non seulement à ce qu’écrit Shushana Zuboff, mais encore – si l’on remonte le temps – à une grande figure intellectuelle française, Michel Foucault, et à son concept de discipline et à celui de panoptique, qu’il tire bien sûr de Bentham, à savoir un modèle de prison construit pour la surveillance. Au fond, les plates-formes ont à l’égard de leurs utilisateurs une omniscience divine et elles bénéficient d’un pouvoir absolu, que ce soit par le biais des fonctionnalités qu’elles autorisent ou interdisent, que ce soit par leur politique qui se matérialise à travers les pratiques de modération du contenu, ou que ce soit par la monétisation.

Comment expliquez-vous précisément cette forme d’illusion de la liberté qui selon vous habite les utilisateurs des réseaux sociaux ?
Ce qui, à mon sens, rend ces plateformes à proprement parler néfastes, c’est qu’elles entretiennent une liberté d’expression illusoire, qui n’existe pas tout à fait et n’ont même jamais existé comme ils le prétendent. Je n’irai pas jusqu’à dire que tous ceux qui ont participé au développement de ces plates-formes ont de mauvaises intentions. Il s’agit plutôt d’un problème d’ordre idéologique et qui touche l’ensemble de la Silicon Valley, bercée par les concepts libertaires, ce fantasme d’une liberté totalement indépendante du contrôle du gouvernement – mais pas étrangement des instances décisionnelles des entreprises. Or, nous arrivons aujourd’hui à un point où ces plateformes sont si vastes et si complexes que leurs systèmes internes commencent à ressembler au code juridique d’un État-nation. Facebook est allé jusqu’à créer un système judiciaire en mettant en place un nouveau Conseil de surveillance qui n’est autre qu’une sorte de bras judiciaire de leur gouvernance interne. On retrouve dans ces organisations la séparation entre les trois pouvoirs : le législatif, l’exécutif et le judiciaire censés se contrôler les uns les autres. Pour revenir à notre propos, ce qui est si problématique au sein de ces entreprises c’est qu’elles proposent à leurs utilisateurs un marché dont ils n’ont pas tous les éléments en main. La promesse de liberté d’expression est trompeuse, elle sert de paravent, et on ne devrait pas autoriser ces entreprises à s’en revendiquer aussi facilement. Car lorsqu’on s’inscrit sur un réseau social, au fond on signe un marché qui nous permet d’utiliser gratuitement ce service, on sait désormais un peu plus qu’il y a une contrepartie, mais on ne sait pas vraiment laquelle. Le problème c’est qu’au fil des ans nous n’avons guère eu l’occasion d’avoir un panorama complet et une compréhension totale du fonctionnement des plates-formes, de manière à ce que les utilisateurs puissent prendre des décisions éclairées sur ces questions, en particulier sur la question de la surveillance et du contrôle, qui sont centrales.

Je ne suis donc pas de ceux qui vous diront, à vous et à vos lecteurs, qu’il faut abandonner les réseaux sociaux, jeter nos smartphones à la poubelle et débrancher nos ordinateurs. Tout d’abord parce que je serais bien embêtée, je ne saurais pas quoi faire. Je suis sur internet depuis 1993 et, avant cela, quand je vivais en France, j’étais fascinée par le Minitel, puis je suis retournée aux États-Unis avec un vif intérêt pour les relations sociales numériques. À mon avis, beaucoup de besoins humains importants peuvent être satisfaits par ces moyens de connexion, mais je pense aussi que nous devons nous rappeler qu’il n’y pas de fatalité à accepter ces grandes entreprises qui extraient des comportements, des informations sur les utilisateurs, des données démographiques, nous manipulent peut-être sur le plan comportemental etc. Il y a tellement d’autres façons d’imaginer ces réseaux sociaux, mais notre imagination a été en quelque sorte subjuguée par les plateformes elles-mêmes, qui nous disent ce qui est possible et ce qui ne l’est pas. D’une certaine manière, je repense avec quelque nostalgie à la période qui a précédé cette coalescence de l’internet commercial et qui offrait bien plus de possibilités. Mais je ne suis pas prête à abandonner l’idée selon laquelle il pourrait y avoir des moyens de se connecter les uns aux autres qui ne soutirent ni exploitent de données personnelles.


Raphaël Bourgois

Journaliste