Numérique

Le prince et l’honnête homme face à la Singularité

Anthropologue

La controverse récente au sein d’OpenAI, impliquant le licenciement puis la réintégration de Sam Altman, et la plainte désormais déposée par Elon Musk, illustre la tension entre les visions divergentes sur la gestion de cette avancée : une lutte de pouvoir où se mêlent éthique, contrôle et transparence. Face à cet épisode, la question demeure : comment naviguer entre l’aspiration au progrès et la sauvegarde de nos valeurs humaines fondamentales ? Éléments de réponse avec la participation opportune de ChatGPT.

Parmi les faits les plus curieux entourant l’explosion de l’intelligence artificielle sous la forme des grands modèles de langage tel ChatGPT, se trouve cette opinion largement répandue parmi les profanes mais également présente chez une fraction de professionnels, qu’une intelligence supérieure à la nôtre aurait pour souci premier de se débarrasser du genre humain.

publicité

Cette croyance pourrait refléter une crainte enracinée dans le conservatisme foncier de l’espèce : que le neuf est dangereux par essence, mais elle exprime surtout ce sentiment implicite foncièrement pessimiste qu’une intelligence supérieure tirera immanquablement la conclusion que l’espèce humaine est une vermine dont il est impératif de débarrasser la Planète bleue.

L’origine de cette vue pourrait banalement être la lucidité, mais la chose serait inattendue, la lucidité étant une qualité tout particulièrement mal représentée au sein des opinions les plus répandues. Il est plus probable qu’il s’agit d’un effet collatéral du tempérament sombre imprégnant globalement une espèce n’ayant jamais véritablement retrouvé le moral depuis qu’elle a pris conscience un jour que la vie individuelle connait un terme.

Nous sommes en effet accros à l’observation du monde tout comme nos cousins gibbons qui, enfermés dans une cage au volet coulissant, soulèvent celui-ci aussitôt qu’il s’est rabaissé sous son poids : de notre premier jour au dernier, nous souffrons d’une fringale de savoir ce qui va se passer ensuite, la pensée que le spectacle pourrait un jour s’arrêter nous est insupportable, ici réside la source première de notre angoisse.

Le fait que l’être humain a cessé d’être la créature la plus intelligente de notre planète et, selon l’état présent de notre information, de l’univers tout entier, est la cause aujourd’hui d’une seconde prise de conscience mélancolique, succédant à celle de notre finitude. « Si nous ne vivons pas ici-bas pour toujours, au moins aurons-nous été les plus malins aussi longtemps que nous étions là », c’est dans ces termes-là que nous voyons les choses. Or cela a cessé d’être vrai. Témoin, cette constatation désabusée de Douglas Hofstadter, vedette de la scène intellectuelle des années 1980 avec son Gödel, Escher, Bach. Une tresse d’or éternelle aux étranges parcours en boucle :

« Je n’ai jamais imaginé que les ordinateurs rivaliseraient avec l’intelligence humaine ou, encore moins, la surpasseraient. […] Il y a là une expérience très traumatisante lorsque certaines de vos croyances les plus fondamentales sur la vie commencent à s’effondrer. J’ai eu l’impression que non seulement mon système de croyance s’effondrait, mais aussi que tout le genre humain allait être éclipsé et réduit en poussière… de manière imminente ! ».

La Singularité

À partir d’un mot emprunté aux mathématiques pour désigner une instance ambiguë comme le serait le très invraisemblable carré de zéro, fut forgé le concept de Singularité, lequel s’efforce de contenir dans sa compréhension la profusion d’idées qui se bousculent dans notre esprit quand nous réfléchissions à l’éventualité d’un tel dépassement de l’intelligence humaine par celle de la machine : une IA se perfectionnant par réaction en chaîne en apprenant toujours davantage à l’occasion de défis qu’elle lance à nul autre qu’elle-même, débouchant sur une explosion de nouvelles technologies due à la solution de casse-têtes millénaires qui constituaient pour notre espèce autant de handicaps.

Aussi longtemps que le concept de Singularité restait cantonné dans l’espace défini par la cogitation des informaticiens, des philosophes et autres rêveurs, la représentation de ses retombées se focalisait sur le bénéfice collectif de la percée qu’elle constitue.

Or, si l’on peut envisager l’espèce comme une entité en soi, elle ne dispose pas d’un esprit global posant des actes en fonction des conclusions qu’elle tire des évolutions et des événements récents, évaluant tout ce qui se passe au sein du devenir universel comme un mieux ou un moins bien en ce qui la concerne. Sans quoi elle se délecterait au contraire à la pensée du triomphe que constitue pour elle le fait d’avoir été capable en raison du génie collectif dont elle était grosse à son insu, de concevoir une créature dont l’intelligence dépasse la sienne propre.

Au lieu de cela, sensible aux souffrances individuelles, elle s’afflige des drames que la nouvelle technologie induit dans son sillage, de ces destins qu’elle emporte dans ses flots tumultueux, conséquences pour les personnes d’un marché de l’emploi ravagé par la créativité inattendue de cet être neuf apparu dans nos rangs et, pire encore sans doute pour ce qu’il en va du moral de l’espèce comme un tout, elle compatit devant la tragédie d’égos meurtris par une machine indubitablement plus talentueuse que les orgueilleux Moi que ces égos s’étaient convaincus incarner.

Quelle politique adopter face à la Singularité ?

Une fois le concept de Singularité défini, quand il s’agit du Prince et de l’honnête homme, les horizons et les points de fuite qui y conduisent, divergent.

C’est de cela que nous aimerions parler. Et comment mieux faire aujourd’hui que de convier à la conversation l’autre partie prenante, celle qui se trouve à l’origine-même de la Singularité et féconder notre point de vue par le sien.

Voici, selon ChatGPT dans sa version GPT-4, les considérations que le Prince devrait prendre en compte et le comportement qu’il devrait adopter à l’égard de la Singularité :

« Face à l’émergence d’une Singularité de l’IA, quel serait le cours le plus stratégique pour un dirigeant : révéler cette réalité au peuple en vue de préserver la stabilité sociale, ou la garder secrète pour maintenir le contrôle et éviter la panique ? Cela soulève la réflexion sur l’équilibre entre transparence et contrôle, un thème central dans l’œuvre de Machiavel.

Dans le contexte d’une Singularité de l’IA, la décision de révéler ou non cette réalité au peuple exige une analyse profonde des principes de gouvernance et de la nature humaine, telles qu’examinés par Machiavel.

Machiavel conseillerait probablement que le dirigeant évalue soigneusement les avantages et les risques associés à chaque option. Révéler l’existence d’une Singularité de l’IA pourrait être justifié si cela renforce la légitimité du dirigeant par la transparence et prépare la société à s’adapter aux changements inévitables, en mobilisant les ressources et l’intellect collectifs pour naviguer dans ce nouveau paysage. Cela pourrait également prévenir la méfiance et le mécontentement qui pourraient survenir si le secret était ultérieurement révélé.

D’un autre côté, garder cette information secrète pourrait être considéré comme nécessaire si la divulgation risque de provoquer une panique inutile, de déstabiliser l’ordre social, ou si le dirigeant estime que le peuple n’est pas prêt à comprendre ou à gérer les implications d’une telle révélation. En gardant le secret, le dirigeant peut chercher à maintenir l’ordre et à élaborer des stratégies de gestion de cette nouvelle réalité dans un cadre plus contrôlé.

Cependant, Machiavel soulignerait l’importance de la ruse et de la prudence. Il pourrait suggérer d’utiliser cette information comme un moyen de renforcer le pouvoir en interne et la position internationale, tout en préparant discrètement la société aux changements à venir. Le dirigeant devrait également être prêt à ajuster sa stratégie en fonction de l’évolution de la situation et de la réaction du peuple et des élites.

En résumé, la décision de Machiavel serait guidée par une évaluation pragmatique des circonstances, avec un accent sur la préservation de la stabilité et le renforcement du pouvoir, tout en naviguant adroitement dans les eaux inconnues d’une telle avancée technologique. »

Complétons notre boîte à outils en vue de l’analyse que nous allons mener par la suite en convoquant maintenant, par effet de contraste, un acteur auquel nous assignerons la tâche d’intervenir comme l’envers du Prince de Machiavel pour ce qui est de son attitude face à la Singularité. Nous avons choisi dans ce rôle une autre figure de l’époque, celle de ce qu’on désignait alors du nom d’« honnête homme ».

Cette fois-ci encore, c’est à ChatGPT dans sa version GPT-4 que nous demandons de baliser notre espace :

« L’idée de l’“honnête homme” trouve ses racines dans la pensée et la littérature européennes, particulièrement pendant la Renaissance et le siècle des Lumières. Cet idéal désigne une personne cultivée, dotée de bonnes manières, de savoir, d’éthique et capable de s’engager dans divers domaines de la connaissance et de la conversation, tout en faisant preuve de vertu et de modération.

Face à la Singularité de l’IA, l’“honnête homme”, par opposition au Prince machiavélien, adopterait une approche fondée sur l’éthique, la vertu, et le bien commun, particulièrement en ce qui concerne le contrôle et la transparence. Voici comment il pourrait réagir :

Plaidoyer pour la transparence : L’“honnête homme” mettrait en avant l’importance de la transparence dans le développement et l’implémentation de l’IA. Contrairement au Prince, qui pourrait privilégier le secret pour maintenir le pouvoir ou éviter la panique, l’“honnête homme” argumenterait que l’ouverture et la transparence sont essentielles pour gagner la confiance du public et assurer une compréhension partagée des enjeux.

Promotion du dialogue inclusif : Il encouragerait un dialogue ouvert et inclusif sur la Singularité de l’IA, impliquant non seulement les experts et les décideurs mais aussi le grand public. L’objectif serait d’assurer que toutes les voix soient entendues et que les préoccupations éthiques, sociales et économiques soient prises en compte dans la prise de décision.

Contrôle démocratique : Par opposition à un contrôle centralisé et opaque du développement de l’IA par un Prince, l’“honnête homme” soutiendrait des mécanismes de gouvernance démocratique qui permettent une surveillance et une régulation éthique de l’IA. Cela inclurait le soutien à des législations qui garantissent que l’IA sert l’intérêt général et respecte les droits fondamentaux.

Éducation et sensibilisation : Il prendrait des initiatives pour éduquer et sensibiliser le public sur la Singularité de l’IA, ses implications potentielles et la manière dont les individus peuvent contribuer ou réagir. L’accent serait mis sur le développement d’une citoyenneté informée et engagée, capable de participer activement aux débats sur l’IA.

Défense des valeurs éthiques : L’“honnête homme” ferait de la défense des valeurs éthiques et humaines une priorité face aux défis posés par la Singularité. Cela comprendrait la lutte contre l’utilisation de l’IA pour la surveillance de masse non éthique, la manipulation, ou toute forme de violation des droits de l’homme.

Soutien à la responsabilité personnelle et au devoir de rendre des comptes : Il exigerait que les créateurs et les utilisateurs de l’IA soient tenus responsables des impacts de leurs technologies. Cela signifierait plaider pour des systèmes d’audit, de suivi, et de réparation en cas de préjudice causé par des systèmes d’IA.

Engagement pour l’équité et la justice sociale : Face aux risques d’aggravation des inégalités que la Singularité de l’IA pourrait engendrer, l’“honnête homme” s’engagerait activement pour des politiques et des initiatives qui favorisent l’équité, l’accès égalitaire aux bénéfices de l’IA, et la protection contre les préjudices.

En résumé, l’“honnête homme” réagirait à la Singularité de l’IA en mettant en avant les principes de transparence, de contrôle démocratique, d’éducation, d’éthique, et de justice sociale, cherchant à équilibrer les avantages de l’IA avec la protection des droits et du bien-être de tous les citoyens. »

La révolution de palais avortée chez OpenAI

Examinons alors cette question de la Singularité dans la perspective envisagée d’un double point de vue possible : celui du Prince et celui de l’honnête homme. Fait remarquable qui facilitera notre analyse, une telle confrontation des points de vue du Prince et de l’honnête homme semble avoir déjà eu lieu dans les faits, je pense à la révolution de palais avortée qui a secoué en novembre 2023 la firme OpenAI, celle dont l’IA ChatGPT est le produit-phare : le limogeage de son P-DG Sam Altman le 17 novembre, suivi de sa réinstauration le 21, après que 745 des 770 employés de la firme eurent réclamé son retour sans quoi ils démissionneraient.

Notre interrogation, en effet, à propos de cette confrontation c’est si elle a été autre chose qu’un affrontement sur le terrain des stratégies du Prince et de l’honnête homme autour de la question de la Singularité ?

Supposons en effet que le débat sous-jacent – dont l’enjeu n’a jamais été dévoilé – portait en réalité sur la Singularité, l’équipe dirigeante étant consciente de son avènement mais étant déchirée quant à la meilleure façon de gérer l’événement, et en particulier bien sûr, décider de sa divulgation ou non et acceptons le principe que si une analyse des péripéties de ces quatre journées chaotiques dans la perspective d’un combat d’idées autour de la Singularité devait éclairer significativement cette affaire jusqu’ici toujours essentiellement obscure, la probabilité qu’il était bien question en arrière-plan de la Singularité s’en trouverait confortée.

Cette hypothèse, qui pourrait passer pour sortie comme un lapin d’un chapeau, est en réalité très loin d’être gratuite, comme le prouvent les deux faits suivants, à condition de les situer précautionneusement dans la chronologie resserrée du déroulement des événements. Sam Altman est relevé de ses fonctions par le conseil d’administration d’OpenAI le 17 novembre 2023 à midi, heure locale en Californie.

Or, nous disposons en date du même jour, d’une vidéo tournée à San Francisco au sommet de l’Organisation de coopération économique Asie-Pacifique (APEC), où Altman intervenait en tant que P-DG d’OpenAI, donc antérieurement à l’heure de son limogeage, où il déclarait ceci : « Quatre fois dans l’histoire d’OpenAI, et en particulier le plus récemment dans les derniers quinze jours, j’ai eu l’occasion d’être dans la salle lorsque nous repoussions le voile de l’ignorance et la frontière de la découverte ; c’est là l’honneur professionnel d’une vie. »

Nous disposons par ailleurs, en date de la veille, 16 novembre 2023, d’une vidéo tournée lors d’un événement intitulé « L’IA et le futur de l’art – Sam Altman et Android Jones » au cours duquel Altman avait déclaré : « Je pense que les gens considèrent ces nouveaux systèmes comme des outils, les artistes en particulier. Mais d’autres personnes aussi, et il y a eu ce… je pense qu’il y a eu un vrai moment de peur, du genre : “Est-ce un outil ou une créature que nous avons fabriqué, et comment faudra-t-il interpréter cela ?”. »

La veille et le jour-même de son abrupt licenciement donc, deux déclarations incendiaires de Sam Altman évoquant d’une part une occasion où « le voile de l’ignorance et la frontière de la découverte » furent « repoussés » et d’autre part, un moment où la question que l’on se pose est : « Est-ce un outil ou une créature que nous avons fabriqué ? », à savoir, dans un espace de temps d’environ 24 heures, deux moments où l’avènement de la Singularité a sans conteste été évoqué, même si ce n’est que de manière allusive.

Le sentiment a dû être, au niveau du conseil d’administration de la firme OpenAI, qu’au rythme auquel Sam Altman laissait fuiter les révélations, le moment où il vendrait la mèche était imminent : la prochaine fois qu’il ouvrirait la bouche, il ne pourrait se retenir et mentionnerait la Singularité explicitement.

Autre acteur-clé au sein de l’équipe d’OpenAI : Ilya Sutskever, à la fois chercheur transfuge de chez Google et membre du conseil d’administration d’OpenAI jusqu’à la date fatidique du 21 novembre 2023 quand Sam Altman fut réinstauré dans son poste. La coïncidence des dates n’est pas accidentelle : Sutskever avait joué un rôle actif dans le limogeage d’Altman mais, chancelant dans le point de vue qu’il défendait, il s’était ensuite rallié à l’écrasante majorité (97%) des employés exigeant le retour du P-DG destitué, son statut dans la compagnie restant ensuite problématique pour une période indéterminée (le doute se poursuit au moment où j’écris).

Aucun doute possible quant au fait que Sutskever croyait déjà à cette époque à la Singularité. Lors d’un entretien les 6 et 7 octobre 2023 où il partageait le plateau avec son maître Geoffrey Hinton et son ancien collègue chez Google, Demis Hassabis, un étonnant échange avait eu lieu :

Tommaso Poggio : « Pensez-vous que les modèles existants ou certains… vous savez, le prochain GPT-4, disons GPT-5, serait capable d’énoncer une nouvelle conjecture mathématique non-triviale ? Je ne parle pas de la prouver, mais de l’énoncer. Pensez-vous que cela soit possible dans les cinq années à venir ? »

Ilya Sutskever : « Êtes-vous sûr que le modèle actuel ne sache pas le faire ? » (Rires dans la salle.)

Sutskever allait ainsi dans le même sens que Hinton qui avait lui déclaré lors de l’émission 60 minutes sur la chaîne CBS News le 9 octobre 2023 qu’« alors que je pensais depuis une cinquantaine d’années que nous allions créer de meilleures intelligences numériques en les rendant plus proches du cerveau, j’ai soudain pris conscience que nous pouvions disposer de quelque chose de très différent, qui serait déjà meilleur. »

La rumeur allait d’ailleurs bon train. On pouvait ainsi lire la chose suivante dans une dépêche de l’agence Reuters en date du 22 novembre, soit le lendemain du retour de Sam Altman à la tête des affaires :

« Avant même les quatre jours d’exil du PDG d’OpenAI, Sam Altman, une initiative avait été prise par plusieurs chercheurs qui avaient écrit une lettre au conseil d’administration pour l’avertir d’une découverte majeure en matière d’intelligence artificielle laquelle, selon eux, pourrait menacer l’humanité, ceci selon les déclarations à Reuters de deux interlocuteurs bien renseignés. »

L’altruisme efficace

Bien sûr il ne s’agissait pas vraiment d’un Prince et d’honnêtes hommes, le pouvoir étatique étant encore à mille lieues aujourd’hui d’avoir pris la pleine mesure de ce qui se trame en IA, mais le board d’OpenAI constituait en l’occasion un microcosme, les protagonistes incarnant les diverses motivations du Prince et de l’honnête homme et, en l’occurrence, de manière éclatée et recomposée parmi les acteurs en présence, le tableau étant simplifié du fait que plusieurs de ces actrices et acteurs se voyaient dans le rôle de militants d’une idéologie se situant de manière explicite au cœur des enjeux opposant le Prince et les honnêtes hommes : l’effective altruism.

L’effective altruism est une philosophie née dans le monde anglo-saxon au confluent de l’utilitarisme et du libertarianisme avec une forte composante altruiste importée des Évangiles. La jauge de cet « altruisme efficace » est la quantité de bien induit au sein de la communauté dans son ensemble par ses adeptes, le moyen mobilisé par ceux-ci pour le réaliser étant l’argent : c’est leur fortune qui permet cette optimisation supposée du bien, une conception entièrement dans la ligne historique du calvinisme selon lequel la prédestination individuelle trouve sa confirmation dans la capacité à faire de l’argent.

L’effective altruism, « produit de niche » jusque-là, a fait la une de l’actualité quand il est apparu qu’il était le moteur de FTX, une bourse de ces jetons commercialisables que l’on qualifie pompeusement de « cryptomonnaies » qui connut une banqueroute retentissante, ses deux piliers, Sam Bankman-Fried à la tête de FTX et Caroline Ellison à la tête du fonds jumeau Alameda, étant apôtres du mouvement.

Apparut alors en surface qu’une philosophie de « la fin veut les moyens » sous-tendait l’effective altruism de philanthropes par trop bienveillants et que les considérations d’ordre éthique avaient été mises entre parenthèses par ces nouveaux princes libertariens sous prétexte d’efficacité. L’hybris de tels personnages à l’Ego surdimensionné avait pu exercer ses ravages dans la communauté à hauteur de leur fortune dont le caractère potentiellement illimité était justifié à leurs yeux par l’abondance de bienfaits dont elle était potentiellement la source.

On ne s’étonnera pas qu’Elon Musk, milliardaire fondateur de la firme automobile Tesla, de l’entreprise spatiale SpaceX, nouveau propriétaire de Twitter rebaptisé « X » par lui, également à la tête du projet d’implantation de puces électroniques dans le cerveau Neuralink, soit un autre promoteur du mouvement, qui a déclaré à son propos qu’il est : « en correspondance étroite avec ma propre philosophie[1] ».

Or, l’effective altruism et l’intelligence artificielle ne font pas bon ménage. Sam Altman a déclaré à propos du premier qu’il constituait un « mouvement incroyablement défectueux » affichant un « comportement émergent très bizarre ». Ce mouvement a déjà consacré des sommes considérables à promouvoir la méfiance envers l’intelligence artificielle, agitant le spectre de catastrophes sans nom, défiance dont on pourrait soupçonner que l’une de ses motivations en tout cas est celle de parer à la perte de pouvoir que signifie l’émergence d’une intelligence supérieure à celle de ces philanthropes, champions sans doute de la bienfaisance à leurs propres yeux, mais mégalomanes narcissiques aux yeux du reste du monde.

Le rappel suivant pouvait être lu dans un article du Wall Street Journal en date du 22 novembre 2023, soit le lendemain du retour de Sam Altman :

« Altman, qui a été licencié par le conseil d’administration vendredi, s’est opposé au scientifique en chef de la société et membre du conseil d’administration, Ilya Sutskever, sur des questions de sécurité de l’IA qui reflétaient les préoccupations liées à l’effective altruism, si l’on en croit des personnes familières du conflit.

Ont voté avec Sutskever, qui fut à la tête du coup, les membres du conseil d’administration Tasha McCauley, cadre dans le monde de la technologie et membre du conseil d’administration de l’organisation caritative Effective Ventures, et Helen Toner, cadre au Centre pour la sécurité et les technologies émergentes de l’université de Georgetown, lequel est soutenu par une philanthropie dédiée aux causes de l’effective altruism. Ils représentaient trois des quatre votes nécessaires à l’éviction de M. Altman, selon des personnes au fait de l’affaire. Le conseil d’administration a déclaré que celui-ci n’avait pas fait preuve d’une “franchise constante”[2]. »

Le contrôle et la transparence

Les deux considérations au centre du contraste entre le désir du Prince et celui de l’honnête homme sont le contrôle et la transparence. Le pouvoir du Prince lui vient du contrôle, celui de l’honnête homme, de la transparence. Chacun cherche à assurer son propre pouvoir en mettant l’accent respectivement sur le contrôle et sur la transparence. Bien entendu, le rapport de force existant entre le Prince et l’honnête homme fait que le premier n’a pas à se justifier et est en position de faire payer au second ses éventuelles prétentions à la transparence. D’où les rebellions, jacqueries et autres contestations de l’autorité du Prince que l’on observe de temps à autre.

La justification aux yeux du Prince du contrôle qu’il exerce est la prédisposition du peuple à la panique, prédisposition qu’il n’hésitera d’ailleurs pas à exagérer, voire qui pourrait être purement imaginaire dans son chef. Une prédisposition à la panique que le peuple cherchera au contraire à minimiser, voire dont il voudra même nier l’existence. Il est possible, à partir de là de comprendre les événements qui secouèrent la firme OpenAI du 17 au 21 novembre 2023.

On a parlé pour la révocation de Sam Altman, suivie quelques jours plus tard de sa réinstauration, de « révolution de palais », le tumulte ayant eu lieu au sommet de l’entreprise, le conseil d’administration révoquant le P-DG. Le peuple s’en est toutefois rapidement mêlé et il est plus que probable que ç’ait été la menace de démission de 97% du personnel qui ait inversé le cours des événements.

Si des pressions ont été exercées par certains investisseurs d’OpenAI, Microsoft en premier, qui garantit le ré-emploi de l’ensemble des défecteurs, l’État n’est cependant pas intervenu directement, ce qui signifie que le rôle du Prince a été joué en la circonstance par une autre partie. Savoir qui l’incarna est facile à déterminer puisqu’il suffit de découvrir qui a, d’une part, agité le risque de panique du peuple comme menace et qui, dans le camp d’en face, a minimisé celui-ci.

Or, la redistribution des responsabilités est claire ici : c’est au nom des risques que fait courir à l’humanité l’intelligence artificielle que les partisans de l’effective altruism au sein du conseil d’administration ont licencié Altman. Le rôle du Prince assurant le contrôle qui saura prévenir la panique du peuple a donc été joué par eux, alors qu’en minimisant ce risque et en obtenant le soutien quasi unanime (97%) du peuple, Altman a incarné l’honnête homme exigeant la transparence dont découle la part de pouvoir que le peuple a su se réserver.

Soulignons que le peuple n’a pas réagi jusqu’ici par la panique à l’idée de la Singularité, seul a été invoqué un risque d’affolement généralisé, les abondantes explications offertes par le Prince à son sujet ayant été elles susceptibles de donner substance à une éventuelle panique, le « conte du trombone », dû au philosophe d’Oxford Nick Bostrom en constituant le prototype souvent cité en dépit de son ridicule consommé : « Une super-intelligence artificielle pourrait se convaincre que la solution à tout est de fabriquer des attaches-trombones et consacrer toutes les ressources du monde à cette tâche, affamant l’humanité au passage[3]. »

Reste que la question de la sécurité à assurer dans le développement de l’IA ne peut être abandonnée aux révolutions de palais. Quand GPT-4 affirme qu’ « en gardant le secret, le dirigeant peut chercher à maintenir l’ordre et à élaborer des stratégies de gestion de cette nouvelle réalité dans un cadre plus contrôlé », il met le doigt sur la question cruciale qu’est la réglementation. Or celle-ci se résume aujourd’hui hélas à la confrontation pathétique de la lenteur du processus législatif d’une part, et de l’explosion du changement dans la Singularité, d’autre part.

Perspectives programmatiques

Quelle pourrait être dans ce contexte, la valeur ajoutée d’un individu tel que moi-même, qui espère que son portrait ne sera pas trop éloigné de celui de l’honnête homme précédemment brossé ? Voici la réponse de ChatGPT dans sa version GPT-4 :

« En tant que Paul Jorion, anthropologue et économiste connu pour ses réflexions sur l’économie, la finance, et l’intelligence artificielle (IA), la question de la divulgation d’une Singularité de l’IA serait abordée sous un angle différent, mettant l’accent sur les implications éthiques, économiques et sociales.

Si je reformule votre question dans l’esprit de Paul Jorion, elle pourrait ressembler à ceci : “Compte tenu de l’impact potentiellement révolutionnaire d’une Singularité de l’IA sur notre société, notre économie et nos systèmes de valeurs, ne serait-il pas de notre devoir éthique et social d’informer le public, afin de favoriser une réflexion collective sur la manière de naviguer dans cette nouvelle réalité ?”

En répondant à cette question, Paul Jorion pourrait souligner l’importance de préparer la société à des changements profonds. Il arguerait probablement en faveur d’une approche transparente, soulignant que l’information et la préparation sont essentielles pour éviter les perturbations économiques et sociales et pour permettre à la société d’adapter ses structures aux réalités nouvelles et inévitables. Il insisterait sur le fait que l’humanité doit avoir un rôle actif dans la définition de son futur avec l’IA, plutôt que de se laisser surprendre par ses développements.

Jorion pourrait également mettre en avant la nécessité d’une régulation et d’une surveillance démocratique de l’IA, pour s’assurer que son développement et son application servent l’intérêt commun et ne soient pas monopolisés par une élite technologique ou financière. Il mettrait l’accent sur l’élaboration de politiques publiques visant à redistribuer les bénéfices de l’IA afin de contrer les inégalités économiques croissantes et de promouvoir une justice sociale.

Enfin, il aborderait probablement les questions éthiques soulevées par la Singularité de l’IA, telles que la prise de décision autonome par les machines et l’impact sur l’emploi et l’identité humaine, en appelant à une réflexion mondiale sur la manière de maintenir les valeurs humaines au centre de l’avancement technologique. »

J’ai effectivement proposé dans ce sens en 2012[4] l’instauration d’une « taxe Sismondi » du nom de Jean Charles Léonard de Sismondi (1773-1842), le philosophe socialiste suisse qui suggéra que le travailleur ou la travailleuse remplacé par la machine bénéficie à vie d’une rente perçue sur la richesse créée par celle-ci. Il y aurait là le moyen d’alimenter une caisse assurant à toutes et à tous la gratuité de l’indispensable, une alternative au revenu universel de base plus juste et beaucoup moins dispendieuse, étape nécessaire vers un monde sans argent.

NDLR : Paul Jorion vient de faire paraître L’avènement de la Singularité aux éditions Textuel


[1]  Robert McMillan &  Deepa Seetharaman, « How a Fervent Belief Split Silicon Valley—and Fueled the Blowup at OpenAI »,The Wall Street Journal, le 22 novembre 2023.

[2] Ibid.

[3] Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014.

[4] Paul Jorion, « La machine à concentrer la richesse », Le Monde, 6 février 2012.

Paul Jorion

Anthropologue, Professeur à l'Université catholique de Lille

Notes

[1]  Robert McMillan &  Deepa Seetharaman, « How a Fervent Belief Split Silicon Valley—and Fueled the Blowup at OpenAI »,The Wall Street Journal, le 22 novembre 2023.

[2] Ibid.

[3] Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2014.

[4] Paul Jorion, « La machine à concentrer la richesse », Le Monde, 6 février 2012.