Société

Calculemus, bienvenue dans un monde documédial

Philosophe

Issue du big data, la « révolution documédiale » fait de chacun de nous un récepteur et un émetteur d’informations et, du même coup, transforme non seulement le savoir mais aussi le monde social. Hélas les outils conceptuels pour penser cette révolution manquent encore, alors qu’il s’agit d’un grand défi pour la politique et la philosophie désormais confrontée au populisme et à la post-vérité.

Publicité

« Lorsqu’il surgira des controverses, il n’y aura pas plus besoin de discussion entre deux philosophes qu’il n’y en a entre deux calculateurs. Il suffira, en effet, qu’ils prennent leur plume, qu’ils s’assoient à une table, et qu’il se disent réciproquement (après avoir appelé, s’ils le souhaitent, un ami) : calculons ! » Ainsi parlait Leibniz il y a quatre cents ans. Ce qui n’apparaissait que comme une simple hypothèse métaphysique est devenu aujourd’hui une réalité ordinaire : New York pense confier à des ordinateurs la gestion de la ville ; les diagnostics médicaux sont de plus en plus automatisés ; dans le domaine de l’enseignement, des algorithmes évaluent les mémoires des étudiants mieux que les évaluateurs humains ; la justice prédictive suggère, chiffres à l’appui, que les ordinateurs se font une meilleure idée des dossiers que les avocats. Il existe même une application pour se confesser – « Confession » – qui confronte les péchés aux dix commandements puis, sur la base d’un algorithme, prescrit les pénitences (et là on ne sait pas qui, de Dieu ou de ses représentants terrestres, est le plus défié des deux).

Ce sont les effets de la « révolution documédiale », qui résulte de l’union entre une base documentaire puissante (le web constitue la plus grande archive que l’histoire ait jamais connue) et le dynamisme des médias (chacun de nous est à la fois récepteur et producteur de messages, alors que nous n’en étions hier encore que des récepteurs). Cette révolution a non seulement transformé le savoir, mais aussi le monde social avec une rapidité et une force dont le seul équivalent est la révolution capitaliste du début du XIXe siècle. Cette transformation, nous ne l’avons toutefois pas encore conceptualisée et nous avons coutume de l’interpréter comme une simple évolution du capitalisme, de l’ère des marchandises et de la communication.

Pour la première fois dans l’histoire humaine, nous ne vivons pas une pénurie mais une surabondance de chiffres et de documents. Associés à une énorme puissance de calcul, ils rendent inutiles nombre de stratégies visant un usage parcimonieux des informations (en particulier par la formulation de lois générales), car les recherches d’antécédents peuvent s’y substituer, conformément au principe de Google « chercher, ne pas classifier ». L’efficacité de Google translate tient à ce que ce programme ne s’appuie plus sur la syntaxe logique du langage, comme dans les anciens (et vains) projets d’intelligence artificielle, mais sur des algorithmes qui explorent les gigantesques archives du web. En jargon philosophique, cela signifie qu’on renonce aux lois transcendantales pour passer à la recherche empirique (rendue possible par l’usage des machines), et qu’on passe de la logique à l’histoire.

Cela veut-il dire que les ordinateurs ont appris à penser ? Tout dépend de ce que l’on entend par « pensée », et ici bien sûr les positions divergent. Chez certains philosophes comme Nagel, Searle, ou Chalmers, la distinction entre manipuler des signes et comprendre est conçue comme quelque chose d’instantané et de magique. Ils cultivent ce que je définis comme le « mythe de la compréhension ». Exactement comme chez Descartes, même s’ils ne l’admettront jamais, ils estiment que la machine humaine, à la différence de l’ordinateur, dispose à l’intérieur d’elle-même d’un fantôme ou d’un homunculus : un petit homme en miniature qui pense, et donne donc du sens à la manipulation des signes. Mais cela suppose une embarrassante régression à l’infini : dans le cerveau du petit homme se trouve un autre petit homme, et ainsi de suite, jusqu’à un petit homme si petit qu’il y a peu de probabilité qu’il ait un cerveau, et pourtant – si nous sommes des adeptes du fantôme dans la machine – c’est bien lui qui penserait pour tous les autres.

Contrairement à ce qu’estiment tous ces philosophes, il n’y a pas de différence entre l’intelligence artificielle, qui se limiterait à « manipuler des signes », et l’intelligence naturelle, qui aurait des caractéristiques particulières, notamment la compréhension.

Face à la difficulté d’un tel sujet, d’autres théoriciens, comme Chomsky et McGinn, jettent l’éponge, et se proclament les défenseurs du « mystérianisme » : pour le dire simplement, ils affirment que c’est là un mystère, merci et au revoir (aussi peu philosophique que peut sembler cette réponse, elle a des précédents illustres : n’oublions pas que Kant a défini le schématisme de notre entendement pur comme un mystère « caché dans les profondeurs de l’âme humaine et dont il sera toujours difficile d’arracher le vrai mécanisme à la nature pour l’exposer à découvert devant les yeux »). Mais ne vaudrait-il pas mieux, plutôt que mobiliser fantômes, homoncules et mystères, reconnaître que de mystère, il n’en est point et que, même sous sa forme la plus simple qu’est le boulier, l’ordinateur pense, exactement comme les êtres humains, même si la variété des choses pensées est un peu plus étendue chez ces derniers que pour un boulier ?

Contrairement à ce qu’estiment tous ces philosophes, il n’y a selon moi pas de différence entre l’intelligence artificielle, qui se limiterait à « manipuler des signes », et l’intelligence naturelle, qui aurait des caractéristiques particulières, notamment la compréhension. S’il y a bien une différence, évidente malgré tout, entre l’humain et l’artificiel, elle ne tient pas à l’intelligence mais au fait d’être un organisme complexe, soumis par essence à des processus entropiques et à ce titre doté d’un sens (d’une direction, de la naissance à la mort), qui préside à la genèse de la signification, de la conscience de soi, de la capacité d’avoir des fins, de prendre des décisions et d’être un sujet ayant une responsabilité morale. Plutôt qu’à mi-chemin entre l’animal et le surhomme (comme le voulait Nietzsche), plutôt que « ni anges ni bêtes » (comme le suggérait Pascal), les humains sont à mi-chemin entre l’animal et l’automate. Ce qu’ils ont de plus que les machines est l’animalité ; ce qu’ils ont de plus que les animaux, c’est la mécanicité, c’est-à-dire la technique.

Les êtres humains, à la différence des castors, mais tout comme les téléphones portables, peuvent améliorer leurs prestations grâce à des processus mécaniques et des technologies dont les processus sont réitérables (je peux revoir autant de fois que je veux un joueur marquer un but). Mais, à la différence des téléphones portables et exactement comme les castors, ils sont composés d’une part organique, sujette à des processus irréversibles. Le but n’a eu lieu qu’une seule fois, et le joueur qui l’a marqué vieillira puis mourra, tandis qu’un téléphone portable ne meurt que métaphoriquement (preuve en est que personne ne songe sérieusement à l’enterrer). Cela change tout : posséder un corps signifie avoir des besoins, poursuivre des fins, être conscients que le temps est limité et donc précieux (est-il pensable qu’un ordinateur s’ennuie ? je n’en crois rien, tandis que nous savons combien nous nous ennuyons souvent). C’est dans ce cadre que prennent un sens des concepts comme confiance, responsabilité et décision.

Ces concepts présupposent la présence d’une part de technologie, dont les ordinateurs ne sont que la version la plus récente, puisque tout a commencé avec le levier, la roue et l’écriture, et d’une part de biologie, à savoir le fait que des organismes, au moins deux, interagissent socialement. Prétendre qu’un ordinateur serait responsable (et donc garant d’une décision) est une erreur conceptuelle sur la notion de « responsabilité ». C’est un peu comme si quelqu’un pensait, prenant dix euros dans la poche de droite de son pantalon et les glissant dans sa poche gauche, qu’il se prête dix euros à lui-même.

Nous sommes des âmes en tant que nous sommes des animaux et nous sommes des âmes plus complexes que les animaux non humains parce que nous disposons d’automates très puissants qui s’appellent le langage, la culture, la technologie.

J’appelle cet ensemble de concepts – confiance, responsabilité et décision – la « responsivité », une capacité caractéristique que possèdent les organismes, des eucaryotes à leurs évolutions les plus complexes. Elle trace un fil ininterrompu allant de la membrane cellulaire au cerveau humain qui en est une émanation directe (une intuition déjà avancée par Fechner et Freud). C’est dans cette responsivité (dont la forme basique est la sensibilité, tandis que la raison en tant que faculté des fins en est la forme la plus philosophiquement manifeste) qu’il faut rechercher la différence décisive entre l’âme et l’automate. Cette différence ne consiste pas en quelque supplément d’âme spirituelle, mais elle tient à la nature animale qui nous caractérise en tant qu’organismes. Nous sommes des âmes en tant que nous sommes des animaux et nous sommes des âmes plus complexes que les animaux non humains parce que nous disposons – en nous et surtout en dehors de nous – d’automates très puissants qui s’appellent le langage, la culture, la technologie.

Ce croisement détermine les caractéristiques spécifiques de la décision humaine par rapport à la décision automatisée. Cette dernière se base sur des cas précédents, et ne prend pas en compte le niveau d’imprévisibilité qui est le propre de la décision humaine, dans le bien comme dans le mal. Prenons un exemple parmi d’autres. Pendant la Seconde Guerre mondiale, seuls deux pays ralliés à l’Allemagne ou sous leur domination n’acceptèrent pas la Solution finale : le Danemark et la Bulgarie. Or, un algorithme qui déduirait la justesse des choix du calcul à partir de leur fréquence ne pourrait manquer de conclure que la chose la plus juste à faire était la Shoah.

L’instant de la décision est une folie, disait Kierkegaard, faisant allusion à cette intersection entre calculable et incalculable qui constitue la responsivité humaine. Pour autant, ne nous y trompons pas, de cette responsivité ne naît pas uniquement le bien, mais aussi le mal en tant que capacité proprement humaine : la décision de la Solution finale fut prise par des êtres humains et non par des automates. L’imbécillité, l’erreur, le vice, l’avarice, les péchés capitaux et quotidiens que Baudelaire énumère dans Les Fleurs du mal, tout ce qu’on blâme chez l’humain naît des noces entre l’irréversibilité de l’organique et la répétabilité du mécanique, associées à cette capacité de faire le mal, et pas seulement le bien, qu’est le libre-arbitre.

Et c’est encore dans cette rencontre entre l’organique et le mécanique que trouve son origine la téléologie, c’est-à-dire le fait de reconnaître que nous-mêmes, notre prochain comme le monde tendons vers des fins. Or, là encore, si elle nous aide à reconnaître un sens à ce que nous faisons, et à ce que d’autres font, elle est aussi la cause d’une tendance perverse et propre aux humains (et pas, pour ce que nous en savons, aux animaux et aux automates), celle de faire l’hypothèse d’entités supérieures à l’individu dotées d’intentions, et d’intentions mauvaises, comme le Capital, le Complot juif, l’Oligarchie. Il s’agit d’une attitude qui n’est pas moins superstitieuse et mythologique que celle d’expliquer les éclairs par la colère de Zeus, mais elle est exclusivement humaine.

Aujourd’hui, la documédialité produit une monadologie sans harmonie préétablie : le brouhaha de millions de personnes convaincues d’avoir raison.

Ainsi, la responsivité n’est pas encore la responsabilité, elle n’en est que la prémisse. Mais alors, qu’est-ce que la responsabilité, la décision véritable ? Prenons le film Les Heures sombres de Joe Wright. Alors qu’il vient tout juste de prendre ses fonctions à la tête du gouvernement britannique, Churchill se retrouve à devoir décider de continuer la guerre ou d’accepter les propositions de paix avancées par Hitler. S’il les avait acceptées, ou s’il avait soumis la décision à un référendum qui aurait assurément conduit à les accepter, le Royaume-Uni ne se serait pas engagé dans une guerre qui allait entraîner la fin de l’Empire et consolider un demi-siècle de bipolarisme soviético-américain. Mais ici encore, comme pour le choix du Danemark et de la Bulgarie de ne pas autoriser la Solution finale, il prit la juste décision. Comprendre le sens de cette justice, comprendre en profondeur la révolution documentaire, c’est le grand pari que doivent faire la politique et la philosophie si elles veulent apporter une réponse au populisme et à la post-vérité. Et il s’agit là de deux choses différentes.

S’agissant de la post-vérité, on peut y voir le résultat nécessaire de l’atomisation produite par cette révolution documédiale. Nous ne vivions pas pour autant, auparavant, dans la lumière de la vérité ; mais, simplement, les grandes chapelles idéologiques, les habitudes, le conformisme, imposaient des comportements uniformes. Aujourd’hui, la documédialité produit une monadologie sans harmonie préétablie : le brouhaha de millions de personnes convaincues d’avoir raison. Il s’agit tout de même d’un progrès, si l’on considère par exemple que ces personnes expriment leur opinion, qu’elle soit fondée ou erronée, plutôt que de recourir à la violence. Elles ont appris à penser par elles-mêmes, il faut qu’elles apprennent aussi à penser en se mettant à la place de l’autre, et surtout à penser de façon conséquente, en se mettant d’accord avec soi-même. Malgré tout, la post-vérité s’inscrit donc, de manière certes imparfaite et inachevée, dans le sillage des Lumières.

Le cas du populisme est différent. En Italie, il part du postulat que les défauts de la politique à l’ancienne seraient à eux seuls suffisants pour justifier une politique nouvelle (à supposer qu’elle le soit). C’est un phénomène qu’on a constaté à de nombreuses occasions en Italie mais aussi ailleurs. Pourtant, ce n’est pas un « non » générique par rapport au passé dont nous avons besoin, mais d’une lecture du présent qui sache élaborer de nouveaux concepts. Il faut comprendre ce que sont devenues les marchandises, qui sont aujourd’hui avant tout des documents (le big data) ; il faut comprendre ce qu’est devenu le travail, qui prend aujourd’hui la forme, à l’immense échelle des réseaux sociaux, d’une activité non rémunérée. Il faut surtout comprendre que le monde qui se dessine n’est pas un nouvel avatar du capitalisme, comme on le répète avec une certitude de somnambules, mais quelque chose de radicalement nouveau, qu’il nous faut comprendre en abandonnant les anciennes catégories d’aliénation, de classes, de travail, pour en trouver de nouvelles. Il faut, en un mot, être en mesure de faire pour le monde documédial ce que Marx a fait pour le monde capitaliste, plutôt que projeter sur le monde d’aujourd’hui des catégories désormais vieilles de plus d’un siècle.

 

Traduction de l’italien par Frédéric Sicamois.

La publication de cet article fait suite à une rencontre organisée le 16 avril 2018 entre Maurizio Ferraris et Frédéric Worms à l’Université La Sapienza, dans le cadre du séminaire « Actualité critique européenne » (École normale supérieure – Institut français d’Italie).

 


Maurizio Ferraris

Philosophe, Président du Laboratoire d'ontologie et vice-président de l'université de Turin