Numérique

Quelle différence entre un saxophone et un ordinateur ?

Sinologue et anthropologue

Alors que l’intelligence artificielle générative entre dans notre quotidien, une vieille question de l’étude des techniques est remise au goût du jour. Sommes-nous les créateurs de ce que nous produisons, ou les outils que nous avons créés en sont-ils les créateurs ?

J’ai grandi en Suisse romande, dans la campagne vaudoise, non loin de Lausanne. Cette situation avantageuse présentait pourtant son lot d’inconvénients. Je m’y suis ennuyé, je me suis senti à l’étroit dans ce lieu si calme.

publicité

Pour m’échapper, j’explorais les disques de jazz que mon père avait accumulés dans son adolescence, fasciné qu’il était par Louis Armstrong, Thelonious Monk et Stan Getz. À 14 ans, sans savoir où cela me mènerait, j’ai rejoint la fanfare d’un village voisin pour y jouer du saxophone.

Cet instrument me réconciliait avec la campagne environnante. L’hiver, équipé de gants laissant mes doigts nus, je jouais au milieu des champs, les pieds dans la neige. Cette douce solitude, ce son qui se perdait dans le lointain, constituent aujourd’hui un souvenir empreint de magie et de mystère.

Lorsque j’ai entamé des études universitaires de sinologie et d’islamologie, mon saxophone m’a suivi à Genève. Je m’essayais au chant, et avec des amis, nous avons formé un groupe de rock. À la manière d’un Joe Dassin, dont la célébrité éclipse le parcours d’anthropologue et de sanscritiste, j’explorais d’autres territoires que ceux de l’Asie, me laissant conduire par David Bowie, The Young Gods, Einstürzende Neubauten, Marilyn Manson et Hubert-Félix Thiéfaine.

Durant ces années de découverte, j’ai aussi eu la chance de vivre une étonnante transition technologique : l’apparition des premiers ordinateurs portables grand public, suivie de l’avènement d’Internet. Au milieu des années 1980, nous avions un Commodore 64 à la maison, et au début des années 1990, j’ai envoyé mes premiers courriers électroniques depuis les terminaux de l’Université de Genève. Sur ces mêmes ordinateurs, j’ai vu apparaître Netscape, Yahoo, et enfin Google.

Le plus intéressant, à mes yeux, aura été le lancement en 1998 des Macintosh G3, grâce auxquels il était soudain possible de jouer de l’ordinateur.

Inspiré par les Young Gods, pionniers en échantillonnage sonore, et par les cours de l’Institut de musique électronique et informatique (IMEI) de Genève que je suivais en dehors de mes études, j’ai troqué mon saxophone contre un ordinateur portable et un échantillonneur.

Avec mes camarades de l’IMEI, je découvrais qu’il était facile, à moindre coût, de traiter des échantillons sonores, de construire des algorithmes qui composaient de la musique, de contrôler des images avec des sons et réciproquement, et d’investir une scène avec pour seul instrument un ordinateur portable.

Alors est apparue une question ontologique qui a fini par m’obséder, au point de se décliner dans une thèse de doctorat à l’Université de Genève, une monographie publiée par MIT Press et, plus récemment, un essai aux Belles Lettres : est-ce moi qui joue ou est-ce l’ordinateur ?

Toute personne qui a utilisé récemment un logiciel d’intelligence artificielle générative a connu ce questionnement : est-ce moi qui ai écrit ce texte ? La réponse nous interroge : oui et non.

Alors que le saxophone présente une forme rigide, fixée dans le métal lors de sa création, l’ordinateur offre une forme souple.

Le saxophone appartient à la famille des instruments à vent. La personne qui joue forme une « colonne d’air », c’est-à-dire un souffle constant auquel s’ajoutent les variations de pression de l’air occasionnées par l’ouverture et la fermeture de clés, dont l’arrangement dans le temps est ensuite désigné comme « musique ». L’instrumentiste ressent une sensation physique : on perçoit chaque étape dans sa bouche, son ventre, ses poumons, ses doigts, autant de lieux et de processus dont la coordination est nécessaire pour produire la musique. Avec quelques années de pratique, on peut fermer les yeux et laisser notre inconscient nous guider.

Par comparaison, l’usage d’un ordinateur portable comme instrument de musique est extraordinairement, – et explicitement –, frustrant. Souvent, un seul doigt est mobilisé. C’est l’incarnation du citoyen terminal, suivant le concept de Paul Virilio, où la technologie place l’humain dans une situation de handicap où l’on contrôle beaucoup avec très peu[1].

Au début des années 2000, j’écrivais moi-même une partie des logiciels utilisés dans ma pratique musicale, ce qui n’a fait qu’amplifier ma frustration. Je devais garder les yeux ouverts et réfléchir à l’enchaînement des opérations. Je ressentais une division, dans laquelle une moitié de moi se chargeait de la technique (vider la mémoire-tampon, vérifier la vitesse du processeur, deux clics pour ouvrir la fenêtre, effacer la partie du code désormais inutile, charger l’extrait de code suivant), et l’autre moitié s’occupait de la musique (et si je cesse de réfléchir ? comment ressens-je les sons que je viens d’écouter ? quels sons ai-je envie d’entendre après ça ?).

Alors que je portais ce questionnement au fil de ma carrière académique, la théorie de l’acteur-réseau de l’École des Mines, portée par Madeleine Akrich, Michel Callon, Bruno Latour et Antoine Hennion, m’a permis de repenser mon expérience de musicien en tant que tabula rasa : j’oublie tout, je sélectionne des humains, des non-humains, et je suis le travail de chaque actant dans ses interactions avec les autres.

La notion de scénario, de script, développée par Akrich pour décrire l’inscription par les concepteurs de l’utilisation future dans l’objet technique[2], m’a aidé à repenser les intentions des personnes qui avaient créé mon saxophone et mon ordinateur. Alors que le premier avait été pensé en tant qu’instrument de musique, le deuxième avait été conçu dans une perspective d’usages plus large. Mais quel est le script d’un ordinateur portable ?

Dans les travaux d’Antoine Hennion, une phrase de La passion musicale m’a apporté un début de réponse : « Il n’y a pas à faire une sociologie de la musique. La musique est sociologie. »[3] Autour de cette déclaration sibylline, dans cet ouvrage désormais bien connu, Hennion souligne la fluidité du temps de la musique, qu’il décrit comme une expression éphémère, sans médium, sans matière propre. Une absence physique qui nous impose de la transformer en chose fixe pour qu’elle devienne visible. En m’interrogeant sur ces transformations de la musique et sur notre capacité à en conserver quelque chose, j’ai fini par m’interroger sur la matérialité du son lui-même.

La littérature en ingénierie sonore définit le son comme produit d’une source vibrante. Les vibrations perturbent les molécules d’air adjacentes en les écartant et en les repoussant, ce qui crée de petites régions dans l’air où la pression est inférieure (raréfactions) ou supérieure (compressions). Elles se propagent sous la forme d’une onde sonore, à la manière des creux et crêtes d’une vague océanique. Lorsque l’onde touche une surface (par exemple un tympan ou un microphone), elle la fait vibrer, et transmet ainsi l’énergie acoustique[4].

J’ai fini par noter qu’au cours de ces processus, les formes d’ondes se « transforment » en passant par trois types d’état : création d’une nouvelle forme, multiplication d’une forme existante, ou disparition d’une forme. Quand on parle, la vibration des cordes vocales crée de nouvelles formes d’ondes. Au moment de leur diffusion dans l’espace, celles-ci sont multipliées grâce aux transmissions de molécules en molécules, ce qui permet, par exemple, à plusieurs personnes d’entendre un même discours en même temps. Suite aux frottements auxquels sont soumises les formes, ces dernières disparaissent progressivement.

Le plus souvent, les étapes de création, de multiplication et de disparition s’enchaînent et se croisent d’une façon trop complexe pour qui tenterait de les suivre en détail. Ontologiquement toutefois, on a affaire à une base constituée de trois possibilités et trois possibilités seulement, que j’ai regroupées sous le terme de circulation[5].

Comme pour les concepts philosophiques récents, par exemple les propriétés émergentes de Manuel DeLanda lorsqu’il reprend Gilles Deleuze[6], ou la notion d’intra-action développée par Karen Barad à partir de la physique quantique[7], l’intérêt est ici de reconsidérer la notion de changement sur les traces du panta rhei d’Héraclite, et de repenser l’hylomorphisme d’Artistote.

Concrètement, la notion de circulation (c’est-à-dire penser les changements de formes en tant que processus de création, multiplication ou disparition) permet de situer les différences entre un instrument de musique « saxophone » et un instrument « ordinateur ».

La différence la plus évidente s’observe dans la manière de créer les formes d’ondes sonores. Alors que le saxophone procède de façon mécanique, à l’instar de la voix humaine, l’ordinateur intègre un processus mixte qui fait intervenir des composants tantôt mécaniques, tantôt électroniques, entre autres une conversion numérique-analogique qui transforme des composants chiffrés en une variation d’énergie électrique, elle-même destinée à devenir une variation d’énergie acoustique.

La différence la plus intéressante apparaît dans le processus d’in-scription (selon la terminologie d’Akrich) qui précède la naissance des ondes sonores. Alors que le saxophone présente une forme rigide, fixée dans le métal lors de sa création (sopranino, soprano, alto, ténor, baryton, basse, etc.), l’ordinateur offre une forme souple. Similaire à un ensemble de grains de sable, le contenu de son disque mémoire peut être arrangé et ré-arrangé à l’envi.

C’est dans cette plasticité numérique que l’on trouve, sans surprise, un mode de fonctionnement proche de celui du cerveau humain, en constante réorganisation. Et c’est ici la principale différence entre un saxophone et un ordinateur. Si le premier se présente comme une extension du corps humain, ajoutant des possibilités et des contraintes, le deuxième est un « non-humain humain » — une sorte de collègue qui collabore à l’activité musicale. Sa fonction est de faciliter la circulation des formes, à savoir les processus de création, de multiplication et de disparition. Sa forme propre n’est pas fixe mais en perpétuel devenir.

NDLR : Basile Zimmermann a récemment publié Humanités populaires. La culture des objets aux Belles Lettres


[1] Paul Virilio, La Vitesse de libération, Éditions Galilée, 1995.

[2] Madeleine Akrich, « Comment décrire les objets techniques? », Techniques et culture, 9, 49-63, 1987.

[3] Antoine Hennion, La Passion musicale: une sociologie de la médiation, Editions Métailié, 1993, p. 308.

[4] Charles Dodge, Thomas A. Jerse, Computer Music, Synthesis, Composition and Performance, Schirmer, 1997, p. 25.

[5] Basile Zimmermann, Waves and Forms: Electronic Music Devices and Computer Encodings in China, Cambridge, Mass., MIT Press, 2015, p. 224.

[6] Manuel DeLanda, A New Philosophy of Society: Assemblage Theory and Social Complexity, Bloomsbury Publishing, 2006.

[7] Karen M. Barad, Meeting the Universe Halfway : Quantum Physics and the Entanglement of Matter and Meaning, Duke University Press, 2007.

Basile Zimmermann

Sinologue et anthropologue, Maître d’enseignement et de recherche à l’Université de Genève

Rayonnages

Savoirs CultureMusique

Notes

[1] Paul Virilio, La Vitesse de libération, Éditions Galilée, 1995.

[2] Madeleine Akrich, « Comment décrire les objets techniques? », Techniques et culture, 9, 49-63, 1987.

[3] Antoine Hennion, La Passion musicale: une sociologie de la médiation, Editions Métailié, 1993, p. 308.

[4] Charles Dodge, Thomas A. Jerse, Computer Music, Synthesis, Composition and Performance, Schirmer, 1997, p. 25.

[5] Basile Zimmermann, Waves and Forms: Electronic Music Devices and Computer Encodings in China, Cambridge, Mass., MIT Press, 2015, p. 224.

[6] Manuel DeLanda, A New Philosophy of Society: Assemblage Theory and Social Complexity, Bloomsbury Publishing, 2006.

[7] Karen M. Barad, Meeting the Universe Halfway : Quantum Physics and the Entanglement of Matter and Meaning, Duke University Press, 2007.