En finir avec l’idéologie de l’intelligence artificielle générale
Le récent article de Dario Amodei, « The Adolescence of Technology », et la fracture politique qui divise désormais la Silicon Valley, illustrent à la perfection le jeu de confusion et d’accaparement éthique des géants de la tech.

D’un côté, le CEO d’Anthropic s’offre à bon compte un brevet de résistance, en refusant de plier aux exigences de surveillance de masse et au déploiement d’armes autonomes du gouvernement Trump. Une prise de position qui a valu à son modèle d’IA (Claude) d’être classé « supply chain risk » et interdit par l’armée américaine (puis paradoxalement utilisé pour attaquer l’Iran[1]). De l’autre, Sam Altman le CEO d’OpenAI, choisit l’alliance cynique et décomplexée, n’hésitant pas à parapher un accord direct avec le département de la guerre (Department of War).
Mais aussi spectaculaire que cela puisse paraître, cette opposition des géants de la tech n’est qu’une façade. Qu’ils jouent les dissidents éthiques ou les collaborateurs zélés de Trump, ils partagent exactement le même projet. Ils aspirent à devenir les maîtres absolus de notre destin en faisant naître l’IA générale (IAG). En alertant ainsi sur le risque d’extinction de l’humanité si l’IAG venait à tomber entre de « mauvaises mains » – les compagnies américaines pensent évidemment aux Chinois – les « tech bros » dressent le catalogue des pires menaces futures, en pointant du doigt leurs concurrents, pour mieux s’arroger le monopole de l’éthique et du salut[2].
C’est là une habile stratégie visant à masquer les désastres que leur propre industrie provoque en jouant au faux dilemme, désormais célèbre, du technofatalisme ou technosolutionnisme. Cette discursivité enchevêtrée, qui disserte de manière décomplexée sur la fin du monde tout en justifiant les spéculations d’un marché dérégulé et l’ire de gouvernements agonistes, a une fonction évidente. Elle attise les passions tristes, fragilise la pensée critique et neutralise l’action collective sous le poids d’un destin technologique
