Vers le totalitarisme informatique
Depuis la parution – pourtant toute récente – de mon essai Le totalitarisme informatique, j’ai pu avoir l’impression que l’histoire s’accélère. D’une part, les travaux en la matière, y compris critiques, se multiplient et dans les lignes qui suivent, je vais tacher de rendre compte de quelques-unes de ces publications que je n’avais pas encore prises en considération. D’autre part, des échanges autour de l’ouvrage et notamment deux interviews[1] m’amènent à préciser et à prolonger certaines de ses analyses.
On évoquera successivement les erreurs terminologiques du monde informatique, la quête de toute-puissance et de rationalisation, l’apport décisif de Byung-Chul Han et enfin les domaines droit, politique et vie sociale.
Erreurs, illusions, mensonges ?
Dans l’introduction, le livre s’interroge sur la substitution terminologique d’informatique par numérique, sachant que les 0 et 1 de la programmation électronique ne sont pas des numéros, mais des signes d’un code. De telles contrevérités sont courantes : songeons à la « dématérialisation » d’activités variées et de services publics[2] qui se solde dans la réalité par une empreinte matérielle bien plus lourde que le papier. Si de par son allure d’allégement, la dématérialisation possède déjà une portée trompeuse, facilitant la réduction des services publics, impostures et mystifications sont encore bien plus importantes dans le sillage de la soi-disant intelligence artificielle.
On ne reviendra pas ici sur ce qui a déjà été développé, à partir de multiples sources, dans le livre. Contentons-nous de citer un article fort pertinent de la philosophe Anne Alombert. Elle montre que « les notions d’intelligence artificielle, d’apprentissage automatique ou de réseaux neuronaux sont problématiques, en tant qu’elles impliquent des analogies entre humain et machine, pensée et calcul, cerveau et ordinateur, qui reposent elles-mêmes sur une réduction de l’esprit à des opérations mathématiques. » Pourtant, « le fonctionnement de telles machines […] n’a rien de commun avec celui d’un cerveau humain » et, à l’instar des agents conversationnels, « les technologies numériques contemporaines n’apprennent pas et ne conversent pas ».
Si de tels propos critiques, devenus courants ces dernières années, n’ont rien d’original, le grand mérite d’Anne Alombert consiste à déterrer l’analyse du philosophe et médecin Georges Canguilhem. En 1980 déjà, celui-ci « soulignait les enjeux politiques de la “machine de propagande idéologique” qui s’était développée “au stade industriel de l’informatique” », soulignant alors « l’usage abusif “d’expressions non pertinentes telles que ‘cerveau conscient’, ‘machine consciente’, ‘cerveau artificiel’ ou ‘intelligence artificielle’” [… dont la] diffusion dans le grand public visait à “dissimuler la présence de décideurs derrière l’anonymat de la machine” et à “désarmer l’opposition à l’envahissement d’un moyen de régulation automatisée des rapports sociaux” »[3]. Mon ouvrage contient d’ailleurs plusieurs exemples de cette dissimulation.
Toutefois, méfions-nous d’une posture dénonciatrice se limitant à accuser de tels décideurs. Il est nécessaire mais insuffisant de révéler l’asymétrie des pouvoirs et les manipulations terminologiques qui en découlent. En effet, l’usage des « expressions non pertinentes » citées à l’instant et notamment d‘intelligence artificielle est tellement généralisé qu’il nous semble trompeur de parler de mensonges, suggérant une majorité de personnes crédules, piégées par une minorité de menteurs. Ce mésusage massif témoigne peut-être de la disponibilité de la société occidentale toute entière à se laisser berner, à se bercer d’illusions. C’est une hypothèse, déjà envisagée par le philosophe Günther Anders, qui nécessitera encore recherches et réflexions. Dans l’immédiat, avançons quelques jalons reliant ces illusions au désir de maîtrise.
Toute-puissance et rationalisation
« Chacun dans sa main tient le miroir des aveugles. […]
Il y a une sainteté noire de la technologie,
une volonté de rendre possible l’impossible. »[4]
L’informatique et plus particulièrement le smartphone matérialisent à merveille la promesse de la Modernité d’ériger l’individu en maître de sa vie et de son destin : grâce à lui, nous dit le socio-anthropologue Nicolas Nova, « l’individu est devenu “entrepreneur de sa vie” »[5]. La puissance et l’attractivité diabolique de ce petit appareil résident précisément dans sa correspondance parfaite à notre société individualisée. Assouvissant momentanément notre désir d’omnipotence, il nous ramène aussitôt, comme le détaille mon ouvrage, à l’impuissance face à l’immense bureaucratie que sont Internet et le monde informatisé. De la même façon que dans la cité marchande mondialisée où l’individu ne survit que quelques jours en cas de flux d’approvisionnement ralentis ou de propagation de pathogènes au contraire accélérée.
Notre impuissance individuelle deviendrait donc supportable grâce au fantasme de toute-puissance, lequel est précisément soutenu par les illusions qui relèvent de « la vieille fascination pour des machines qui soient comme des êtres humains », alimentée par la « peur de la supériorité de la machine et l’espoir secret de partager cette supériorité »[6]. On peut supposer que l’attirance contemporaine pour le ludique[7] participe de la même dynamique. Sur cette base, nous entrevoyons ce qui pourrait constituer le problème possiblement principal de l’informatique : sa promesse enivrante d’omnipotence ne peut être déjouée qu’avec ou dans le collectif ! L’individu isolé en est incapable, comme le montre les millions d’addicts à leur petit prodige. Cette situation ressemble à la problématique de la mort qui est « pensable uniquement depuis la vie de la communauté »[8], l’individu solitaire ne pouvant guère envisager sa propre disparition. Si les individus isolés ne peuvent donc être le vecteur d’un changement, à l’inverse, regroupés en associations et assemblées, ils pourraient organiser la prise de conscience et une reprise en main du destin d’ensemble face à la technique. Appelons donc de nos vœux un tel sursaut collectif !
Dans le cadre de la transformation capitaliste des sociétés, en cours depuis plusieurs siècles, l’un des moyens pour acquérir de la puissance et vaincre les rivaux consiste à rationaliser les comportements et les pratiques. Mon ouvrage insiste avec Max Weber sur les effets pervers d’une rationalisation à outrance, sachant que l’informatisation constitue sans doute la plus grande vague de rationalisations qu’ait connu l’humanité. Il est important d’approfondir et de préciser cette analyse en deux directions.
On peut d’une part relever que dans le monde et la pensée de Max Weber, la rationalisation avait encore un contenu et un rôle ambivalents. Elle pouvait relever de la quantification, mais passer également par la science ou le droit et s’appuyer donc sur les langues naturelles avec leur ambiguïté fondatrice. En revanche, la rationalisation informatique tend à y substituer des langages machine, dépourvus d’ambiguïté et qui remplacent les signes langagiers devant être interprétés par des signaux insusceptibles d’interprétation. Elle n’a dès lors plus qu’un seul sens, quantitatif, et son but unique consiste à faciliter et à accélérer les activités et les processus. (Pour ce qui est des opérations informatiques elles-mêmes, le programmeur Laurent Robin estime qu’on assiste davantage, depuis une quarantaine d’années, à « un ralentissement qu'[à] une accélération ».[9])
D’autre part, Norbert Wiener, l’un des pères de la cybernétique, et ses collègues des conférences Macy éprouvaient le sentiment, au lendemain de la seconde guerre mondiale et du nazisme, que l’humain avait failli et qu’il fallait donc le remplacer par la machine, moins soumise aux passions[10]. L’informatisation tend alors à transformer la pensée et le ressenti individuels ainsi que les interactions et la vie sociales en des opérations purement fonctionnelles, instinctives ou machiniques. Se crée ainsi, comme disait Hannah Arendt, « un monde de réflexes conditionnés, de marionnettes ne présentant pas la moindre trace de spontanéité. »[11] Mais comme les êtres humains ne sont ni des animaux, ni des machines, cette automatisation ne pourra qu’échouer.
Ce que Wiener et ses confrères n’ont peut-être pas vu, c’est qu’on ne peut pas supprimer les passions humaines. En cherchant à les contourner ou les éradiquer, on ne fait que les rendre plus éruptives et enragées. On ne peut donc que les assumer et les encadrer. Autrement dit, à partir d’un certain seuil d’expulsions de la vivacité individuelle et collective, les besoins psychiques, insatisfaits par le fonctionnalisme et l’utilitarisme ambiants, donneront lieu à des explosions de violence, des effondrements dépressifs, des morts subites à grande échelle, comme l’a anticipé l’écrivain Jaime Semprun[12]. On peut d’ailleurs supposer que fascismes et nazisme résultaient déjà de la rationalisation capitaliste[13].
L’apport de Byung-Chul Han
Dans mon ouvrage, j’ai évoqué en passant le travail de ce philosophe allemand, mais je n’avais pas encore connaissance de son analyse fulgurante de l’informatisation du monde. Dans son brillant essai synthétique Infocratie, Byung-Chul Han pointe cinq parmi de multiples effets dévastateurs : primo, le « smartphone, en tant qu’appareil de soumission, […] accélère la désagrégation de l’espace public ».
Secundo, « [p]arce qu’elle est une communication sans communauté, la communication numérique détruit la politique de l’écoute » et « perd de plus en plus la dimension de l’autre »[14], car, « [c]’est bien connu, l’ordinateur n’hésite pas. La dimension de l’autre qui lui fait défaut en fait une machine de calcul autiste »[15]. S’instaure ainsi « une société de la méfiance » et « nous [y] perdons la confiance fondamentale »[16]. Comme on peut supposer que la seule façon d’assurer, pour et dans une collectivité humaine, une sécurité durable réside dans la confiance mutuelle (contrairement au mythe de l’effectivité de la « peur du gendarme »), on peut craindre que l’informatisation du monde tendra à le rendre toujours plus incertain, précaire et hasardeux. Il est intéressant de rappeler à ce propos que le juriste et sociologue Niklas Luhmann estime que « la science ne produit pas de sécurité, mais bien au contraire de l’insécurité » ; elle serait le moyen « par lequel la société rend le monde incontrôlable ». En tant que « système de propulsion sans freins », elle pousse à la décomposition du monde impliquant « la probabilité croissante de recombinaisons incontrôlables ». Cette mise en danger de la société par elle-même ne pourrait guère être corrigée « même face à la vraisemblance de catastrophes »[17].
Tertio, « [n]ous sommes certes aujourd’hui bien informés, mais désorientés. Les informations n’ont pas le sens de l’orientation. »[18] Mon livre examine la signification de l’information. Rajoutons quelques remarques de Paul Virilio qui explique que « vitesse d’acquisition, de transmission ou vitesse de calcul, l’information est inséparable de son accélération énergétique, une information ralentie n’étant même plus [… qu’]un simple bruit de fond. » Dès lors, « la célèbre formule de Marshall Mac Luhan doit être corrigée : “Le message ce n’est pas le medium, c’est seulement sa vélocité”. »[19] Sur cette base, on n’est guère étonné que « [j]amais, malgré la quantité de connaissance produite chaque jour, cette dernière n’a aussi peu ruisselé pour nourrir l’esprit critique. »[20]
Quarto, l’informatique favorise une « crise de la vérité » : à travers un « nouveau nihilisme […], la distinction entre vérité et mensonge elle-même est neutralisée » et « [l]a photographie digitale détruit la facticité comme vérité »[21]. Cette crise peut être rapprochée, à l’échelle individuelle, d’« une nouvelle maladie de la société de l’information. Elle s’appelle Information fatigue syndrom » (syndrome de la fatigue informationnelle, plus connue sous les termes surcharge informationnelle et infobésité). « L’un de ses symptômes est la paralysie de la capacité analytique. Au cœur du flot de l’information, on n’est manifestement plus en mesure de distinguer l’essentiel de l’inessentiel. Fait intéressant, un autre symptôme en est l’incapacité d’assumer une responsabilité. »[22]
Quinto, l’œuvre de Byung-Chul Han permet d’accentuer ma critique de la focalisation du débat public sur la surveillance. Ce prisme masque le fait que dans la société informatisée, l’assujettissement des individus massifiés tend à s’effectuer avec leur complicité : « La domination se parachève au moment où liberté et surveillance reviennent au même »[23], l’informatisation du monde relevant de ce que Han appelle une « violence de la positivité »[24]. Ces affirmations paradoxales mériteront des réflexions conséquentes. Contentons-nous dans l’immédiat de ces quelques remarques : « alors que [, dans le passé sans informatique,] le désir de liberté limitait le pouvoir, aujourd’hui il l’étend. » On assiste en effet à une nouvelle forme de « désublimation répressive » par laquelle Herbert Marcuse désignait le contrôle du désir dans les sociétés de consommation, consistant « à contrôler le désir non par sa frustration mais par sa satisfaction débridée. »[25]
En résumé, Byung-Chul Han qualifie le régime d’information et de données de « totalitaire », tout en rajoutant, précision importante, que c’est un « totalitarisme sans idéologie »[26]. Cette terminologie est confirmée par deux auteurs estimant qu’ « [u]ne société dont le principal moteur est de créer des addictions est une société à visée totalitaire. »[27]
Droit, politique et vie sociale
Sous cet intitulé ouvert, je regroupe des compléments concernant la vie collective. Son ordonnancement juridique est lourdement affecté : l’informatisation sabote le droit et la justice en tant que « empire du tiers », pour reprendre le titre du dernier ouvrage du philosophe du droit François Ost[28]. Car organiser la résolution des litiges comme une régulation technique par le langage univoque des algorithmes amoindrirait l’interprétation juridique, au cœur de l’activité du juriste, et le rôle du juge présidant la délibération contradictoire.
De manière anecdotique mais emblématique, cet affaiblissement du cadre normatif ressort bien du slogan publicitaire « La règle ? Pas de règles ! »[29]. Diminueraient également la confiance, le consentement et l’engagement des parties dans un procès ainsi que l’imperfection du droit et l’imprévisibilité des décisions de justice qui sont des conditions de leur fonctionnement. On assisterait en outre à une rigidification du droit et de la justice au détriment de leur ouverture et souplesse, car en s’appuyant sur les données massives (big data), on arrimerait le présent et l’avenir au passé. Cette « inadéquation fondamentale du calcul statistique à la fonction de juger » découle notamment de ce que « la machine [qui fait ce calcul] n’est pas dotée ni de liberté, ni d’imagination », elle n’est pas « audacieuse »[30].
Prolongeant la dimension temporelle, précisons que la justice et la vie juridique ont besoin de temps. Dans les années 1950, un sociologue états-unien a mis en lumière, pour le vivre-ensemble, l’importance du conflit, celui-ci ayant une vertu régulatrice et apaisante, à condition bien sûr d’être cadré[31]. À l’inverse, l’informatique a pour fonction d’aller plus vite. En automatisant la justice et, plus généralement, le recours au droit, on a tendance à réduire ce facteur temps pourtant essentiel. (Il est évidemment important d’accélérer le fonctionnement judiciaire, notoirement ralenti par l’insuffisance de personnels[32] et de moyens, dès lors qu’on n’arrive pas à obtenir une meilleure allocation des immenses richesses sociales disponibles au bénéfice des services publics essentiels.) Parmi de nombreux aspects visés par les projets de justice digitale, « l’audience en visioconférence est un mode dévoyé de justice duquel tout contact humain disparaît, pulvérisé à la fois par la distance et par l’écran. » Elle attaque le cœur du procès, à savoir la règle des trois unités : de temps, de lieu et d’action qui signifie « la présence en même temps et dans un même lieu de tous les acteurs du procès. »[33]
Tout comme la justice, la démocratie se déploie dans la durée. Pour qu’il y ait démocratie, il faut de la délibération, ce qui implique l’expression et la maturation de positions contraires qui évoluent dans le temps. En délibérant, en s’opposant à autrui, en cherchant des arguments, on se rapproche, on s’apaise et on est susceptible de trouver des positions qui pacifient la relation. Cela nécessite un réel investissement notamment temporel, ce que neutralise l’informatique en raison de sa course contre la montre. À la place de l’apaisement délibératif, Internet organise une exténuante agitation, source d’outrances variées sans lendemain : « L’ultralibéralisme, dont le digital est le marché le plus prometteur, dispose désormais avec les réseaux sociaux d’une soupape pour que le système n’explose pas. La contestation ainsi canalisée se déverse de manière stérile. […] De même, la pétition numérique troque l’action pour le clic. » « Toute l’énergie mise à entretenir le flot d’affirmations et de commentaires sur les réseaux sociaux [et ailleurs via les écrans] vient à manquer pour accomplir le moindre changement qui puisse contrarier des intérêts industriels ».[34]
L’informatique a un impact sur la vie collective similaire à ce que fait le marché, intensifiant même le mécanisme marchand. Jusque récemment, on a pu penser, espérer en tout cas qu’elle aplanirait les hiérarchies sociales. Mais l’aplanissement est un leurre : « le monde numérique n’est pas horizontal mais bien hiérarchisé. »[35] S’il y a effectivement une certaine horizontalisation, elle n’est qu’apparente car autorisée et sous-tendue par un système plus centralisé, plus opaque, plus surveillé et plus incontestable, au détriment notamment des libertés individuelles et collectives. L’horizontalité des échanges entre les utilisateurs est largement neutralisée par la verticalité du pouvoir des opérateurs : « Les écosystèmes numériques tirent leur plus-value de l’asymétrie entre l’inaccessibilité du logiciel utilisé par l’utilisateur et l’accessibilité des traces numériques qu’il laisse. »
Le clivage entre usagers horizontaux et leur soumission verticale au cadre se trouve déjà dans l’agencement marchand dont Internet perfectionne la logique : la puissance de l’informatique « procède d’une synergie entre la technique et le marché ». Elle vient de ce que « le numérique supprime la notion d’échelle. Procédant d’une manipulation des signes, réitérable à l’infini, son extension n’est pas bloquée par la distance géographique » qui est négligeable pour les communications électroniques. En revanche, « [d]ans l’économie traditionnelle, la course à la taille est limitée par le plafonnement des économies d’échelle »[36] : par exemple, fabriquer toutes les voitures du monde en une seule usine pourrait sembler tentant, s’il n’y avait pas des coûts de transport élevés…
Accentuée par la crise sanitaire de la Covid-19, l’informatique favorisé une vie sociale atomisée, « sans contact » physique[37]. Cela amplifie la logique de la société de consommation dont Zygmunt Bauman explique le fondement et la logique individuels : « Contrairement à la production, la consommation est une activité solitaire [… En effet, d]es efforts productifs requièrent de la coopération » alors que la « consommation [… constitue] une suite de sensations qui ne peuvent être éprouvées – vécues – que subjectivement. »[38] Pendant et depuis les confinements, cette orientation consommatoire s’est étendue de deux façons imbriquées : d’un côté, elle a gagné, au-delà du traditionnel achat de marchandises, de nouveaux terrains, tels que l’apprentissage et le travail en ligne, les conférences, fêtes et apéros virtuels, etc., qui ont été – au moins partiellement – dépouillés de leur dimension collective. De l’autre, les achats habituels, les retraits de documents administratifs, etc. ont été privés des contacts physiques par la commande à distance.
Précisons que le marché est cet espace-temps où se rencontrent et échangent des acheteurs et vendeurs supposés égaux, isolés les uns des autres. Il n’a rien de forcément démocratique, car l’égalité des acteurs n’est que formelle, devant la loi, ce qui peut contribuer à perpétuer les inégalités de fait les plus criantes. Contrairement à la légende néolibérale, le marché est une instance publique qui présuppose, comme la résolution des litiges, le tiers et donc la puissance publique. C’est la raison pour laquelle l’extension des marchés et plus largement l’individualisation des sociétés vont de pair avec l’augmentation du pouvoir étatique.
Pour l’instant, le tiers qui encadre l’informatique et surtout Internet réside chez des acteurs privés surpuissants ce qui donne lieu à une verticalité soustraite à toute délibération démocratique. Par exemple, Google exerce une mission d’intérêt général mais exempte de tout contrôle, consistant à examiner et à trancher les requêtes visant à supprimer, parmi les résultats affichés par son moteur de recherche, les pages Internet notamment injurieuses ou diffamatoires.
Pour terminer sur ce terrain, on peut remarquer que la démocratie est mise à mal même là où les GAFAM n’agissent pas. À titre d’exemple, évoquons la célèbre encyclopédie en ligne Wikipédia. On ne va pas que se faire des amis, mais observons tout de même ce qu’on n’a pas beaucoup remarqué jusque-là : s’il s’agit certes d’une initiative autogérée sans doute exemplaire (et dont je me sers très régulièrement), n’oublions pas qu’elle effectue à l’échelle planétaire une centralisation et une homogénéisation sans précédent à la fois de toute la connaissance, des modes de l’exprimer et de la rendre accessible et des manières d’y accéder !
Quant à l’éducation[39], la catastrophe est déjà avérée. Sans parler de la multiplication des violences induites par les réseaux (a)sociaux, on doit rappeler que l’apprentissage est un processus complexe inscrit, encore une fois, dans la durée. Il allie l’acquisition de gestes corporels (par exemple les mouvements de la main dans l’écriture), le développement cérébral (notamment la formation de neurones et de synapses), l’évolution mentale et cognitive et la maturation relationnelle et sociale. L’instruction sur des écrans perturbe ce processus, notamment en réduisant la motricité et les interactions « présentielles », donc psychocorporelles avec autrui. D’après des études menées, entre autres, en France et en Allemagne, « les résultats scolaires décroissent en proportion du temps passé devant les écrans. Le lien est limpide. […] Si l’éducation “au” numérique semble utile à partir de 14 ou 15 ans en préparation des futures activités professionnelles […], il faut mettre un terme, d’urgence, à l’éducation “par” le numérique. »
Si l’informatique n’aide guère à apprendre, les écrans sont en revanche très puissants pour défaire et abîmer. Sans vouloir résumer ici mes développements détaillés concernant leur impact sur les enfants et les adultes, signalons ce témoignage en guise de preuve : « Plus de 90 % des enfants de CE2 rencontrés par [l’association] Lève les yeux ! répondent positivement à la question : “Avez-vous déjà été choqué par une image sur écran ?” »[40]
Les effets destructeurs se laissent deviner dans ce que l’on appelle le terrorisme. On peut avancer l’hypothèse que le phénomène « terroriste »[41] est lié à l’informatique dans la mesure où celle-ci rend les usagers solitaires et, en même temps, les pousse dans la désinhibition. On sait que si les personnes qui deviennent extrémistes sur Internet apprenaient la religion dans une mosquée, un temple ou une synagogue plutôt que derrière un écran, les rencontres, le contact humain, le contrôle social et la possibilité de débattre changeraient beaucoup de choses.
Certes, l’impact de la technique dans la vie des « terroristes » n’est pas encore bien étudié et documenté. Mais nous savons grâce à des études sur la télévision que face à l’écran dans la solitude individuelle, l’appareil psychique de l’être humain est particulièrement vulnérable, beaucoup plus que dans le face à face physique, qui impose des limites, suscite un auto-contrôle et peut aussi susciter l’empathie. En guise d’explication supplémentaire, rajoutons que « [l]a régulation émotionnelle [… qu’effectue l’informatique] coupe les usagers de leur propre affectivité. N’est-ce pas une porte ouverte vers des formes de barbaries engendrées par une perte de conscience affective, laquelle est une des bases du sens moral ? »[42]
•
Mon ouvrage cherche à montrer en quoi et comment l’informatique rend l’être humain superflu et correspond ainsi à l’une des définitions que Hannah Arendt avait proposées du totalitarisme. Les lignes qui précèdent confirment et étaient un autre volet du livre : les machines, les logiciels et leur logique utilitariste s’insèrent, se proposent ou s’imposent de façon totale, dans rigoureusement toutes les sphères, tous les moments et tous les lieux de la vie individuelle et collective, au point de mettre fondamentalement en cause son caractère vivant. Toutefois, le vivant étant imprévisible, on ne peut exclure le sursaut collectif que nous avons lorgné ci-dessus…
NDLR : Christopher Pollmann a publié Le totalitarisme informatique aux éditions Le Bord de l’eau le 16 février 2024.