La musique, parmi tous les arts, est celui qui a entretenu les relations les plus étroites avec les sciences. A tel point qu’à l’époque du Quadrivium, elle fut considérée comme l’une des quatre sciences mathématiques au même titre que l’arithmétique, la géométrie et l’astronomie. L’histoire récente de la musique, surtout depuis que celle-ci se sert des ordinateurs, montre un nouveau rapprochement avec la science, après quelques siècles d’éloignement. Nous assistons aujourd’hui à un phénomène massif : la musique est envahie par des disciplines telles que l’acoustique, le traitement du signal, la synthèse des sons et les procédures de formalisations mathématiques et informatiques. Ces domaines sont intimement interconnectés entre eux et, par conséquent, chacun d’eux est susceptible de se nourrir des acquisitions des autres. Cependant, pour bien faire comprendre cet ensemble, il me semble nécessaire de les décrire un à un :

a) Les procédures d’analyse en temps réel du signal sonore. Qu’il s’agisse des théories de la musique tonale, sérielle ou spectrale, elles ont toutes, à un degré ou à un autre, pris leurs fondements dans une connaissance du son. C’est à partir de l’étude et du développement de cette connaissance que les musiciens d’aujourd’hui entrevoient déjà de nouvelles possibilités d’expression musicale liées aux technologies. Il s’agit de développer notre connaissance du son. Un des aspects les plus prospectifs de la relation instrument/machine réside dans le développement des moyens d’analyse acoustique des sons instrumentaux et vocaux en temps réel que l’on appelle les descripteurs audio. Le nombre de ces descripteurs ne cesse de s’accroître au fil du temps : centroid, spread, skewness, kurtosis, roll-off,fundamental frequency, noisiness, inharmonicity, odd-to-even energy ratio, deviation, loudness, roughness, … Ces termes désignent des attributs du son que l’on n’a découverts que récemment. Notre connaissance du son se complexifie. L’extraction de paramètres constitutifs du son en vue de leur utilisation en tant qu’éléments compositionnels permet de créer une cohérence musicale entre les sons acoustiques et les sons électroniques. Cependant, seul un petit nombre de ces descripteurs sont aujourd’hui réellement adaptés aux impératifs musicaux réels. Le perfectionnement de ces descripteurs est un axe de recherche indispensable si l’on souhaite réduire encore l’écart qui sépare le monde instrumental de celui des sons électroniques.

Pour que cette relation entre ces deux mondes sonores soit la plus intime possible, il nous faut les intégrer dans une temporalité commune. En d’autres termes, il faut que nos machines puissent « vibrer » et s’adapter au temps complexe de la musique. C’est ici qu’intervient le suiveur de partitions.

b) Les mécanismes de suivi de partitions. C’est un champ de recherches qui s’est considérablement développé au cours des dernières années mais qui demande encore un effort soutenu. Si l’on veut pouvoir faire varier les fonctionnalités d’une machine dans le temps musical d’une œuvre plutôt que de se contenter d’une succession d’états stables qui réagissent au jeu instrumental, le suiveur de partitions est un outil de première importance. Le principe en est le suivant. Une partition écrite, préalablement mise en mémoire, doit être reconnue dans le jeu de celui qui l’interprète pour permettre à la machine de se synchroniser avec lui, idéalement à n’importe quel moment de cette partition. Tenant compte du fait que l’interprétation de cette partition peut donner lieu à toute une série de gauchissements et de dérivations (voire, parfois, d’erreurs), mais aussi que la nature de certains sons acoustiques n’est pas toujours simple (comme dans le cas des musiques polyphoniques), le suivi de partition peut s’avérer une entreprise d’une grande complexité. De nombreux modèles ont déjà vu le jour, d’abord mécaniques (tel le système MIDI), puis audio-numériques (grâce à l’analyse en temps réel du signal sonore). Ces modèles font intervenir des procédures indéterministes autant que prédictives qui, pour parvenir à une efficacité optimale, doivent être testées avec le concours de musiciens en chair et en os. Un des buts de ce laboratoire serait de faire participer des instrumentistes et des chanteurs à ces recherches afin de recréer, aussi souvent que possible, les conditions réelles du concert.

Ce domaine, tout comme le précédent, traite des conditions d’interaction entre les interprètes et les machines, ayant pour but de créer des musiques électroniques hautement interactives. C’est ici qu’entrent en jeu les méthodes de synthèse et de traitement qui figurent parmi les outils principaux dont les compositeurs se servent pour leur création.

c) Les outils de synthèse en temps réel. Le domaine de la synthèse sonore est un champ d’exploration qui ne cesse de s’étendre. On peut sommairement examiner trois procédures générales à partir desquelles la synthèse sonore peut se développer. La première consiste à envoyer des paramètres prédéfinis vers un dispositif de synthèse sonore. C’est une méthode déterministe qui produit, au temps voulu, les calculs nécessaires pour créer les sons. Cette méthode peut consister en une simple décision d’écrire tel ou tel paramètre, mais peut aussi provenir d’un calcul plus ou moins complexe. La seconde procédure fait intervenir des processus aléatoires (telles les chaînes de Markov, entre autres exemples) qui « donnent la main » à la machine pour engendrer des évolutions indépendantes et autonomes qui se déploient sans aucune intervention directe venue de l’extérieur. La troisième procédure consiste à prendre des informations dans le monde extérieur, à l’instar de l’analyse en temps réel d’un jeu instrumental ou vocal, et à les transmettre à un programme qui les utilise comme paramètres pour la création des sons. Cette procédure favorise, en outre, la possibilité pour les interprètes d’agir, par leur jeu instrumental même, sur l’évolution de la musique de synthèse et réaffirme ainsi la place des interprètes au centre de la musique électronique. Il est important de souligner que ces trois procédures ne s’excluent pas les unes les autres, mais peuvent au contraire très bien coexister au sein d’un même modèle de synthèse. C’est par le terme de « partitions virtuelles » que j’ai désigné l’ensemble de ces procédures. Un modèle de synthèse peut accepter qu’une partie de ses paramètres soit écrite « en dur », qu’ils ne changent pas d’une interprétation à l’autre, pendant qu’une autre partie fait intervenir un calcul aléatoire pour contrôler un aspect spécifique de la synthèse, et qu’une troisième provient de l’analyse d’un son instrumental (ou vocal) grâce à une captation en temps réel (par exemple via un micro). Une attention particulière doit être portée à la mise au point d’outils qui permettent une exploration de nouvelles possibilités à partir de modèles bien précis. Je choisis, à titre d’exemple, deux cas spécifiques. Le premier est celui de la synthèse par modèle physique. Cela consiste à modéliser un comportement acoustique (une corde, un tube, une plaque, un archet, un souffle, une frappe…) afin d’en extraire des qualités sonores nouvelles qui sont inaccessibles dans les conditions réelles : par ex. la résonance des cordes d’un piano dont l’accordage varie continuellement, une clarinette virtuelle dont la longueur est démesurée, un archet infini, ou encore une plaque métallique dont la constitution physique change suivant la force avec laquelle on la frappe. De tels modèles existent dans la recherche actuelle, mais peu d’expériences encore ont été tentées sur les manières de les contrôler à partir du jeu instrumental : ils ne sont pas encore devenus de véritables « instruments ». Le second cas que j’aimerais mentionner est celui des sons inharmoniques. L’inharmonicité est une particularité sonore naturelle qui rend complexe la perception d’une hauteur principale comme, par exemple, lorsqu’on frappe des cloches ou n’importe quelle plaque métallique. Dès le début du XXème siècle, les compositeurs ont été attirés par cette réalité, mais peu en ont formulé une vision théorique. Il est important de réfléchir, dans la situation qui est la nôtre actuellement, à l’élaboration des bases théoriques nouvelles.

Si nous développons de nouvelles méthodes de synthèse, il nous faut établir des processus de composition qui leur soient adaptés et qui soient suffisamment évolués. Il existe pour cela des outils de formalisation scientifique qui peuvent nous être d’un grand secours : à savoir les méthodes algorithmiques.

d) La composition en temps réel. Pendant très longtemps, les pratiques musicales liées aux technologies étaient divisées en deux catégories distinctes. Les premières élaboraient un ensemble de règles et de calculs (algorithmes) qui faisaient office d’esquisses pour des compositions de musique instrumentale. Les secondes orientaient leurs efforts vers les sons électroniques en temps réel (et leurs possibilités d’interaction avec le monde instrumental), ne faisant guère intervenir les procédés de composition algorithmique. La raison de cette division était culturelle : les outils, souvent indéterministes, du temps réel étaient surtout utilisés de façon intuitive par des « performers » ou improvisateurs, tandis que les méthodes de calcul et de formalisation convenaient mieux aux compositeurs qui désiraient fixer, par écrit, leurs idées sur leurs partitions. La situation aujourd’hui semble évoluer fort heureusement vers une fusion de ces deux conceptions et la musique électronique en temps réel commence enfin à accueillir en son sein des procédures de formalisation développées. Des structures musicales, telles les échelles, les harmonies, les transpositions ou les évolutions rythmiques, peuvent très bien être engendrées par l’analyse d’un signal sonore capté en temps réel. Il y a ici un terrain d’exploration extrêmement fertile. Il ne s’agit pas d’improvisation, mais d’une nouvelle pratique de la composition qui est à la fois basée sur des règles et des contraintes prédéterminées (comme c’est souvent le cas dans la composition) et qui prend également ses informations sur les éléments sonores captés au cours de l’interprétation. Cette méthode qui voit ici le jour est déterministe et indéterministe à la fois ; on peut la qualifier de « composition en temps réel ». Il y aurait également un grand profit à tirer de certains principes de formalisation pour fonder des « grammaires génératives » qui proposeraient des constructions formelles suivant des principes de déduction, d’arborescence, de filtrage, de groupement, de successivité, de mémorisation, de prédiction, etc. S’il y avait un domaine privilégié sur lequel une réflexion devait être portée, ce serait bien celui de la forme qui actuellement, lui aussi, souffre d’un vide théorique et que je souhaiterais donc aborder. Qu’est-ce qu’une forme ? Qu’en est-il de la polyphonie ? De l’harmonie et de l’inharmonie ? Des phénomènes bruités ? Comment représenter le temps dans nos nouvelles musiques ? Ce sont là des questions cruciales auxquelles on doit trouver des réponses.

Tous ces dispositifs de captation, de suivi, de synthèse et d’engendrements formels prennent cependant leur appui sur un « terrain » qui est crucial entre tous, car il constitue en quelque sorte la base à partir de laquelle les idées peuvent se déployer : celui de l’écrit et de la représentation.

e) Ecriture et représentation : un nouveau « solfège » : La création et l’invention musicales sont grandement dépendantes de la manière dont nous représentons les objets avec lesquels nous composons. Il a été dit et redit que c’est grâce aux possibilités d’écriture qu’ont pu se développer en musique des principes complexes tels que l’harmonie ou la polyphonie. Les inversions, les renversements, les symétries et autres transformations à partir desquelles toute la musique savante a pu s’élaborer sont le fruit de sa représentation visuelle sous une forme graphique particulière. Voici un exemple simple de l’importance de la représentation dans la musique de synthèse : une représentation numérique des hauteurs permet de développer certaines transformations grâce à des opérations mathématiques. Celle-ci n’offrira cependant pas la possibilité de contrôler des qualités sonores telles que la distribution de l’énergie dans un son comme peut le faire une représentation graphique (le sonographe, par exemple). Mais cette dernière, à son tour, ne proposera pas les possibilités génératives par calculs de la précédente. Un développement musical donné est donc toujours conditionné par son propre mode de représentation. Je l’ai dit plus haut, notre connaissance actuelle du son est beaucoup plus riche et complexe qu’elle ne l’était il y a seulement quelques décennies, il importe donc de lui trouver des modes d’écriture cohérents qui permettent une puissance d’élaboration formelle d’un niveau très évolué. Un son ne se réduit plus à un signe écrit sur une feuille de papier réglé, mais représente aujourd’hui tout un champ. Ce champ peut contenir un grand nombre de fonctions ou de procédures qui seront associées à ce son, et qui interviendront lors de sa production. Pour représenter cette complexité, il nous faut des outils très puissants ; un nouveau solfège, en quelque sorte. De très importantes avancées ont vu le jour dernièrement, et c’est certainement un domaine sur lequel nous devons porter nos efforts. Peut-on trouver des modes de représentation symbolique pour la musique de synthèse ? Peut-on imaginer une écriture qui inclurait la puissance de calcul de nos machines tout en conservant ses potentialités imaginatives et créatrices ? Il n’est probablement pas possible d’envisager une représentation purement graphique pour l’élaboration de nos musiques. Sans doute celle-ci devra-t-elle être à la fois graphique, numérique et symbolique.

La musique est numérisée et par le biais de cette « écriture », il nous est loisible d’entrevoir des expressions sonores que nous n’aurions même pas pu imaginer sans elle.

Il faut aussi prendre en considération que c’est un domaine qui concerne l’image numérisée. Si le rapport entre les deux univers est techniquement possible, il faut savoir réfléchir aux conditions proprement esthétiques de leur rapprochement.

f) Son/image : recherche d’une transmutation : Dans le monde des technologies, tout est nombre à un certain moment. Dans une chaîne de production, qu’elle soit destinée au sonore ou au visuel, l’étape ultime, avant que le résultat ne soit livré, tantôt à nos yeux, tantôt à nos oreilles, consiste en une série de nombres. Il n’est rien de plus facile que de faire se « parler » ces nombres entre eux. Ils sont faits pour communiquer, et leurs outils de communication ne manquent pas. Ce qui apparaît comme une évidence – quand on ne considère que la partie technologique de l’affaire – peut se révéler être un écueil, lorsqu’on néglige de considérer la dimension esthétique. Il est triste de constater que beaucoup trop de projets artistiques, se contentant de cette affirmation selon laquelle « tout peut se convertir en tout », se satisfont du nombre comme d’un organe confortable de la communication tous azimuts. On peut convertir un geste en un son, un son en une image, un geste en un espace, un espace en une image, une image en un son. Il manque, souvent cruellement, l’étape cruciale de la transmutation, c’est-à-dire de l’établissement d’un rapport esthétique et/ou poétique qui permettra l’émergence d’une corrélation entre le visuel et le sonore, n’obéissant pas simplement à une mécanique par le seul pouvoir de la numérisation qui leur est commune à tous les deux. Mais puisque les conditions techniques de cette communication entre le sonore et le visuel sont désormais disponibles, pourquoi alors ne pas réfléchir à des procédés associatifs comme sons/couleurs, formes visuelles ou auditives, brillance ou opacité, réponses retardées ou anticipations, clarté ou obscurité, rythmes, textures, contrepoints, opposition, rémanences ? Toute association, dès lors qu’elle est portée à un degré sensible, doit pouvoir se conjuguer dans une « grammaire poétique ». Le vieux rêve de Scriabine, avant celui de Messiaen, qui attribuait des couleurs à des sons, est peut-être à portée de nos mains, pourvu qu’il ne se réduise pas à l’illustration ou à la tautologie. Les outils sont à notre disposition, encore faut-il les faire passer par un filtre esthétique rigoureux. On peut suivre des traces colorées sur une vidéo et les faire correspondre à des filtrages sonores ou à des motifs pouvant varier selon la forme des ces traces. On peut aussi essayer de trouver des corrélations entre les évolutions des vitesses dans le domaine visuel ou sonore, sachant, toutefois, qu’elles ne fonctionnent pas sur le même mode dans notre appareil perceptif : un objet qui tourne sur lui-même, telle une toupie, possède un ambitus de variation bien plus grand dans le domaine visuel que dans celui du sonore. Les images vidéo envahissent progressivement l’espace des concerts – et pourquoi pas ? – or il me semble que c’est surtout dans les domaines du théâtre, de l’opéra, du cinéma et de la danse que ces recherches entre images et sons devraient trouver leur terrain le plus fécond.

Il faut que la musique prenne la mesure de la complexité de notre monde actuel, de ses connaissances, de ses avancées, de ses doutes également. Il ne s’agit pas de brimer l’intuition. Au contraire, celle-ci doit être aiguisée par la connaissance. Rigueur et intuition, donc. Les techniques du temps réel peuvent faire vibrer, ébranler des règles strictes dans l’inconnu du présent. Baudelaire écrivait : “La modernité, c’est le transitoire, le fugitif, le contingent, la moitié de l’art dont l’autre moitié est l’éternel et l’immuable.” Pourquoi ne relèverait-on pas un pareil défi ?

Philippe Manoury

San Diego, 23 octobre 2011