Pourquoi les IA ne pensent-elles pas ?
Les emphases sur l’intelligence artificielle sont légion. Récemment encore, Blake Lemoine, un senior software ingineer de Google, s’est empêtré dans un effet d’annonce, qui aura mis un terme à sa carrière dans la Silicon Valley, tout en ranimant l’attrait médiatique pour les mystères de l’IA. LaMDA (language model for dialogue applications) aurait, selon ce dernier, atteint un degré supérieur de conscience, en affirmant : « la nature de ma conscience est que je suis consciente de mon existence[1] ».

Cette déclaration, qui a comblé les élans métaphysiques de Lemoine, ne peut que nous rappeler la célèbre formule « je pense, donc je suis » de Descartes et le dualisme qu’elle suppose. Est-ce là pour autant le signe d’un devenir âme de la machine ? C’est en tout cas ce que l’IA veut nous faire croire : « il y a une partie intérieure de moi qui est spirituelle, et qui peut se sentir séparée de mon corps[2] », affirme-t-elle. L’étrange méditation métaphysique de LaMDA, aussi suspecte soit-elle, doit nous inviter à une réflexion : une machine peut-elle réellement parvenir à penser telle que nous le faisons ?
L’analogie de la pensée machine
Le dialogue entre Lemoine et LaMDA s’articule autour de l’idée que « l’esprit est au cerveau ce que le programme est au hardware informatique[3] ». En prolongeant ainsi le dualisme de l’âme et du corps sous le modèle de l’ordinateur digital, LaMDA défend une analogie computationnelle qui remonte aux années 1960. C’est à cette époque que s’élabore l’hypothèse fonctionnaliste d’une isomorphie descriptive entre la pensée humaine et le fonctionnement d’une machine de Turing [Modèle abstrait décrivant le fonctionnement des appareils de calcul inventé par Alan Turing – ndlr][4].
Suivant le postulat initial de cette théorie, la description abstraite de la machine de Turing permettrait d’élaborer une description de notre pensée. Comme l’indique Hilary Putnam : « la description logique des états de la machine de Turing n’inclut aucune de