Posts Tagged ‘LA PARTITION DU CIEL ET DE L’ENFER’

Les partitions virtuelles

Wednesday, October 22nd, 2008

Deux univers coexistent dans mon activité de compositeur : celui de la musique instrumentale et celui de la musique électronique. Aussi loin que je puisse me souvenir, la question de leur confrontation et de leur intégration s’est toujours posée pour moi. Cette question n’est pas de celles qui appellent des réponses rapides ni simples car tout destinait ces musiques à suivre une chemin indépendant, un peu comme c’est le cas pour le cinéma et pour le théâtre. Les personnalités qui oeuvraient dans ces deux disciplines provenaient d’horizons et d’éducations parfois très différents, leurs expériences musicales n’était pas du tout du même ordre et leurs rapports à la composition ne se posaient pas dans les mêmes termes. Les compositeurs se séparaient en deux catégories très distinctes qui, non seulement ne se confrontaient pas, mais s’opposaient complètement : ceux qui composaient pour les voix ou pour les instruments et ceux qui produisaient de la musique pour bande magnétique. Les premiers ne voyaient dans les seconds que des “bricoleurs” plus ou moins habiles mais totalement ignorants des lois de la composition et de l’écriture, quant aux seconds, ils tenaient les premiers pour des musiciens prêts à entrer dans un musée conservateur et académique. Les personnalités qui, en France, ont réalisé les premiers travaux dans ce que l’on appelait alors la musique concrète, n’avaient, pour la plupart, qu’une culture musicale très rudimentaire. Cette naïveté par rapport à la composition leur a permit d’oser des expériences que, peut-être, des musiciens plus expérimentés auraient dédaignées mais elle ne demeure pas moins un trait caractéristique que le temps ne fait qu’accentuer. Cette opposition se reflète en particulier dans la querelle qui opposa des musiciens tels que Pierre Boulez ou Jean Barraqué au groupe qui s’était formé autour de Pierre Schaeffer dans les années 50. Les cultures étaient trop différentes et trop inégales pour pouvoir parvenir à un mode de pensée commun. Quelques tentatives de composition “mixtes” ont vu le jour parmi lesquelles ont peut citer Désert de Varèse ou Poésie pour pouvoir de Boulez. Dans le premier cas, le discours était basé sur une simple opposition entre ces deux supports, le second cas a été abandonné car il ne satisfaisait pas son auteur. Mais le problème de la confrontation de la musique instrumentale et de la musique électronique avait été posé. Karlheinz Stockhausen est de ceux qui trouvèrent le moyens les plus originaux dans ce domaine car, quoiqu’il ne réalisa ses oeuvres mixtes que plus tardivement, il proposa, dès ses premières oeuvres de musique électronique, une prise en charge de l’utilisation des moyens de la synthèse et du traitement des sons concrets dans une optique formelle qui trouvait une correspondance avec ses conceptions élaborées dans ses oeuvres instrumentales. Si la nature des sons et des techniques utilisées différaient d’un domaine à l’autre, ses oeuvres s’inscrivaient dans une logique d’une très grande cohérence formelle qui, le plus souvent, faisait défaut ailleurs. Ce fût, pour moi, le premier exemple qui m’ouvrit réellement les yeux sur les possibilités de confrontation de ces deux supports.

Vers les années 70 apparurent les premiers programmes de synthèse sonore par ordinateur dont le rôle allait être déterminant. Ils permettaient, d’une certaine manière, d’approcher certaines conditions de l’écriture musicale. La gestion et la formalisation de paramètres numériques contrôlant les différents composants du son pouvait, en quelque sorte, reproduire le phénomène de la composition instrumentale qui, lui aussi, est basé sur une élaboration et un traitement d’éléments distincts servant de matériau de base à une composition. En cela, cette méthode attira rapidement une catégorie de compositeurs plus habituée à ce mode d’approche qu’à celui consistant à travailler de manière plus intuitive, “à l’oreille” pourrait-on presque dire, sur le matériau musical comme c’était fréquemment le cas dans les musiques électroniques analogiques. Si l’on pouvait faire un parallèle entre la formalisation des programmes et celle de la composition, ces deux démarches proviennent néanmoins d’une situation culturelle très différente. Les personnes qui mirent au point ces premiers programmes n’étaient pas, dans la majorité des cas, des gens ayant une grande expérience de la composition. La distinction que j’ai opérée plus haut entre musiciens “acoustiques” et “électroniques” continuait d’être toujours visible. Mais, en cela, cette situation n’était guère différente de celles qui prévalaient dans toutes les autres disciplines dans lesquelles les machines électroniques s’étaient immiscées. Cependant quelque chose incitait également au rapprochement de ces deux modes d’expression. Des oeuvres avaient été composées dans ce sens et on voyait, ici et là, des musiciens appartenant à l’une ou l’autre de ces catégories se poser des questions. Ce sont ces échanges permanents d’une discipline vers l’autre, dont l’Ircam allait vite devenir le lieu privilégié, qui m’ont amené à concevoir ce que j’ai appelé les partitions virtuelles.

Il ne s’agit pas d’une méthode de composition à proprement parler, avec ses règles et ses lois, mais plutôt d’une conception de la composition dans un sens assez général. Le terme de partition virtuelle me semble avoir été prononcé pour la première fois par Pierre Boulez au cours de conversations que j’ai eu avec lui pendant les années 80. Ce n’est que vers 1986-1987 que je commençais à en définir la signification que je lui donne aujourd’hui. Je ne prétend pas, en cela, avoir résolu définitivement la question de l’intégration des musiques instrumentales et électroniques, mais avoir apporté une contribution assez précise sur ce que devrait être, à mon sens, la composition lorsqu’elle est confrontée aux technologies du temps-réel. A un niveau théorique, mais aussi pratique, ce principe est basé sur une volonté d’unification de ces deux univers au sein d’une approche plus ou moins identique. Cette unification passe, bien entendu, par l’abolition de certaines frontières qui n’ont pas manquées de s’ériger, soit entre ces deux univers, soit au sein même de l’un des deux. Ce qui était autrefois nécessaire au développement d’une idée ou d’une technique et nécessitait, pour ce développement, un certain isolement ou repli sur soi, n’est devenu, avec le temps, qu’une accoutumance à un mode de pensée ou de fonctionnement qui ressemble plus à une forteresse identificatrice qu’à un lieu d’échange fructueux. Ces frontières sont, d’une part, celles qui divisent la conception de la composition suivant le fait qu’elle est notée sur partition ou produit avec les moyens de la synthèse et d’autre part, à l’intérieur même de l’univers technologiques, le produit de cloisonnements qui existent de par la diversité des techniques dont on se sert pour produire le son. Ces techniques, d’abord utilisées séparément, coexistent désormais au sein des mêmes oeuvres. Elles n’ont cependant pas de mode d’approche unifié et remplissent des conditions très spécifiques. Enfin il y a un clivage qui, malgré les apparences, a la vie dure alors qu’en analysant de près la situation, il ne devrait, du moins théoriquement, ne plus poser de problèmes : c’est la séparation entre le temps différé et le temps réel. Comme on le verra, cette séparation est plutôt le fruit d’un choix technologique car, d’un point de vue strictement musical, rien ne semble la maintenir ni ne l’imposer dans le processus conceptuel de la composition. Ce choix technologique cependant conditionne grandement l’aspect esthétique et cette vision catégorielle des choses finit par encombrer inutilement le paysage musical alors qu’une plus grande simplicité dans l’unification des modes de pensée serait souhaitable. Il vient un moment ou toutes ces catégories, qui deviennent obsolète dans leur trop grande spécificité, doivent être dépassées. Pour moi, ce moment est arrivé. Les partitions virtuelles sont une réponse à cette question que je me pose depuis longtemps : pourquoi ne pourrait-on pas composer de la même manière, que l’on ait en face de soi, du papier réglé ou un ordinateur ? D’autres réponses doivent bien sûr exister, celle-çi m’est simplement personnelle.

Le principal problème, et il est de taille, qui continue de séparer ces deux supports est celui de la représentation. La représentation est évidemment un moyen de communiquer avec les instruments, une méthode pour fixer les idées, mais c’est aussi bien plus que cela. On sait parfaitement que le traitement et le développement d’une situation quelconque est éminemment conditionné par son mode de représentation. En quelque sorte, on peut affirmer que les développements que l’on fait subir à un matériau sont contenus dans son mode de représentation. Pour un musicien, ces modes de représentation peuvent avoir la forme d’une partition traditionnelle, mais aussi d’une liste de nombres, d’images graphiques, etc. Il y a cependant une distinction importante à faire quant à ces modes de représentation et quant à leurs natures respectives. On ne peut pas minimiser le rôle fondamental qu’a tenu l’écriture, non pas les différentes techniques d’écriture, mais le fait même d’écrire la musique, dans l’invention musicale. L’absence d’écriture dans la musique électronique est probablement un des phénomènes qui assura une parfaite étanchéité entre ces deux modes d’expression. Il y a ici un problème dont, pour des raisons de commodité évidentes, on persiste à penser qu’il n’a pas à se poser dans le contexte d’une musique basée sur des sons de synthèse mais qu’il va falloir, un jour où l’autre, aborder car il conditionne la pensée musicale toute entière et son développement. Il existe bien évidemment des modes de représentation sur lesquels travaillent les musiciens qui font de la synthèse électronique. Ces modes ne se situent cependant pas du tout au même niveau conceptuel que ceux qui définissent la notation musicale traditionnelle. La question de la représentation est au coeur de la problématique qui divise encore fortement musique instrumentale et électronique. Il est indispensable de l’aborder.

 

Symbolisme, perception et virtualité dans l’écriture musicale.

La notation musicale est de nature symbolique. Elle est, de ce point de vue assez proche de l’écriture dont certains travaux ont montré qu’elle était issue d’une représentation visuelle du phénomène qu’elle était censée représenter (pictogrammes), pour aboutir après de nombreuses évolutions (idéogrammes), à une conception symbolique dans laquelle toute idée figurative avait disparue (écritures phonétique et syllabique). On ne constate évidemment pas le même chemin dans la notation musicale, beaucoup plus récente, mais on peut y voir le même pouvoir d’abstraction de l’écriture en ce qu’elle n’est pas une description mais une représentation du phénomène sonore. Cela peut sembler curieux car la notation musicale ne représente qu’un phénomène d’essence tout à fait abstraite qui est le son et le parallèle avec l’écriture peut paraître alors un peu forcé. Cependant, dans son mode de représentation, il est clair que la notation musicale ne représente que partiellement le contenu sonore qui va en être déduit. Elle ne rend pas compte de la totalité perceptuelle de ce contenu mais que d’une partie, certainement la plus décisive pour le compositeur. Il est évident que, lors de la composition, le phénomène sonore n’est pas toujours totalement formé dans l’imagination. On connaît bien sûr l’exemple de Mozart disant que la musique se formait entièrement dans sa tête et qu’il ne lui restait plus ensuite qu’à la coucher sur du papier. Schoenberg s’est aussi expliqué sur ce fait dans Style et Idée : ” Il y a quelque quarante ans, j’écrivit mon premier quatuor à cordes op 7. J’avais pour habitude de me promener à pied chaque matin et de composer de tête 40 à 80 mesures complètes dans la quasi-totalité de leurs détails. Il ne me fallait ensuite que 2 ou 3 heures pour reporter sur le papier ces importants fragments déjà fixés dans ma mémoire”. Il n’y a aucun doute à avoir à propos de ces facultés mentales de conceptualisation. Cependant il paraît évident que l’imagination sonore, même lorsqu’elle semble à ce point ancrée dans le seul mental, est quand même située, d’une manière ou d’une autre, en référence à un écrit. Même dans ce cas, l’écrit reste bien évidemment la seule forme de représentation possible, ne serait-ce que pour la simple opération de mémorisation. La création musicale fonctionne également souvent par étapes successives, chacune des ces étapes pouvant être une nouvelle approche de l’objet final. Mais, même le processus créateur totalement achevé, l’écriture n’est toujours pas la description complète du phénomène sonore qui sera perçu. Elle est moins que cela. Il lui manque tous les éléments que l’interprète va y greffer afin de constituer un véritable objet musical. Or, comme on va le voir, ces éléments, pour la plupart, ne sont pas notables. En cela, la notation laisse le champ libre à l’interprétation. L’écriture musicale est basée sur un vocabulaire de signes extrêmement simple en regard de la réalité sonore. C’est même cette économie de moyens qui la caractérise qui a permit d’élaborer des constructions formelles d’une grande complexité. Il est probable que si l’écriture avait du rendre compte du phénomène sonore dans sa totalité, de telles constructions n’auraient jamais pu voir le jour. En quelque sorte, la notation musicale est une sorte de métonymie du phénomène sonore : le tout est exprimé par une partie seulement. Cette représentation symbolique possède un pouvoir similaire à celui du mot sur les choses : elle permet d’abstraire des catégories, de les manier, de les construire, elle permet surtout la déduction et toutes les opérations qui n’auraient pu avoir lieu si la représentation n’avait pas été dégagée de sa substance matérielle, c’est à dire la réalité sonore. Cette abstraction symbolique propre à la notation, est la condition même d’une grande partie de l’évolution musicale depuis les neumes grégoriens jusqu’à nos jours.

Une représentation quelconque, n’a cependant de véritable puissance créatrice que lorsqu’elle peut provoquer l’imagination de celui qui la travaille. Cette valeur existe pour le musicien lorsqu’il possède la faculté de se représenter “mentalement” ce qu’il écrit, en d’autres termes, lorsqu’il peut “entendre” intérieurement ce qui est représenté sur la partition. Il existe un lien perceptuel entre la notation musicale et sa réalité sonore un peu comme la lecture d’un texte peut provoquer des images dans l’esprit de celui qui lit. Cette faculté est grandement fonction de l’éducation et de l’entraînement du musicien. 1. Il faut en effet qu’il y ait dans la lecture de la musique le complément nécessaire à l’écriture puisque l’interprétation n’existe pas. Dans ce cas l’interprétation est imaginaire. Elle est provoquée par l’accoutumance à la lecture, par la faculté de percevoir les timbres instrumentaux, par exemple, par la seule lecture d’une partition. Chacun peut mesurer l’écart qui existe entre la lecture et sa propre facilité à en percvoir le contenu. Ainsi, beaucoup de compositions actuelles, comme celles de Helmut Lachenmann, utilisent des modes de jeu instrumentaux non traditionnels. Il a fallu pour cela inventer une sorte de “tablature” qui, d’ailleurs, varie grandement d’un compositeur à l’autre. L’écoute interne de la lecture de telles partitions est d’autant plus difficile quand ces oeuvres ne reproduisent plus les cas auxquels notre oreille a été éduquée (reconnaissance de hauteurs, d’intervalles, d’instruments …). Ces cas de figures anticipent, en quelque sorte, sur ceux que nous verrons  à propos de la musique électronique.

Un autre faculté propre à la notation musicale est sa virtualité. L’observation des conditions de l’écriture et de l’interprétation dans différentes partitions du répertoire est riche d’intérêt. Ces conditions forment d’ailleurs la base même de toute la tradition musicale occidentale. Un rapide survol historique montre clairement que, au fil des époques, l’écriture se fait toujours dans le sens d’une plus grande précision. C’est à dire qu’elle supplante progressivement tout un savoir qui provenait de traditions orales. De telles traditions finissent par devenir, au bout d’un certain temps, des “mauvaises habitudes” qui n’ont plus lieu d’être lorsque que le langage et la stylistique ont évolués 2. Si l’on prend, par exemple, la notation utilisée à l’époque baroque, on constate que n’y figurent, ni indication de tempi, ni indication de dynamiques, ni indication de phrasé… La notation est réduite à très peu de choses ce qui n’empêche nullement la grande complexité de certaines de ces oeuvres. Or l’interprétation de ce style de musique est fondé sur un grand nombre de ces valeurs qui ne sont aucunement notées dans la partition. Les compositeurs notaient ce qui était pour eux “les noyaux durs” de leur style propre, ce qui faisait que, dans le contexte de leur époque encore chargé de tradition orale, leur musique demeurait personnelle. Leur écriture comportait des éléments absolus ou relatifs suivant les cas,  qui allaient être “gauchis” et complétés par l’interprète. La somme des éléments qui vont donner naissance au phénomène musical n’est donc pas quelque chose qui est intégralement inscrit dans la partition. Bien que les traditions orales deviennent de plus en plus rares au fur et à mesure que l’écriture se précise, il est évident que cette dualité entre notation et interprétation continue de fonctionner quelque soit le style où l’époque. Il est important, à ce stade, d’observer où se situent les marges entre notation et interprétation et surtout de définir à partir de quelles conditions l’on peut parler d’interprétation.

L’interprétation agit sur des zones, mentales pour la plupart, à l’intérieur desquelles vont se trouver les valeurs qui détermineront les phénomènes sonores. Cette incertitude est la conséquence de l’imprécision, ou disons de la relativité de l’écriture. Les trois niveaux classiques sur lesquels se base l’écriture sont, par ordre de complexité : les hauteurs, les durées et les dynamiques. Le premier niveau est celui ou le pouvoir discriminateur de l’oreille est le plus fin : on peut ordonner une grande quantité de sons du grave à l’aigu sans problème. Mais, hormis les instruments à sons fixés tels que les claviers, on constate une zone d’acceptation assez grande de ce qui est une hauteur lorsqu’on entend un ensemble de cordes jouer à l’unisson ou même lorsqu’on examine la courbe d’un vibrato 3. La notation des temps est beaucoup plus floue en regard de la perception. Au delà d’un temps assez bref (que l’on peut avoisiner autour de deux secondes) il est déjà pratiquement impossible d’avoir une idée d’une durée si l’on ne la décompose pas en valeurs plus fines. De plus, un grand nombre d’études l’ont montré, le temps, dans une interprétation musicale, est soumis à une constante variation qui peut dépendre du contexte mélodique, harmonique ou stylistique. En tout état de cause, on ne peut pas ordonner un grand nombre de durées de manière aussi facile qu’en ce qui concerne les hauteurs. Quant aux dynamiques, le maximum semble avoir été atteint avec la célèbre étude de Messiaen Modes de valeurs et d’intensités. Ce cas de figure n’est même concevable que “très théoriquement”. Non qu’il soit impossible de percevoir plus de sept valeurs différentes échelonnées du ppp au fff, mais il est rigoureusement impossible d’exiger d’un interprète d’en définir plus. Ces exemples donnent une excellente description du caractère relatif de la notation musicale en regard de la perception. Si l’interprétation est fortement conditionnée par la notation, elle ne commence que lorsque l’autre n’intervient plus. Ces deux entités que sont la notation et l’interprétation se définissent par le choix de la nature absolue ou relative des composants. Mais, en tout état de cause, l’écriture interprétable ne se définit qu’à l’intérieur de zones plus ou moins floues. Ces valeurs sont virtuelles et ne deviennent réelles qu’au moment ou l’interprète les produit. On ne peut rigoureusement parler d’interprétation que lorsqu’il y a une incertitude sur la valeur réelle qui va intervenir.

Cette richesse de possibilités est offerte par un mode de représentation et ne pourrait pas exister sans lui. Le lien entre représentation et potentialité d’un matériau sonore est à la base de toute une réflexion qui a lieu en ce moment au sujet de la musique conçue pour ou par ordinateur, que cette musique soit destinée aux instruments traditionnels ou aux sons électroniques. C’est le second cas qui m’occupe ici bien évidemment car dans le cas des instruments acoustiques, quelque soit le mode de représentation que l’on s’est fixé au départ, on retombe fatalement dans la notation traditionnelle. On va voir que, si variées et si perfectionnées soient-elles, les méthodes de représentation dont on se sert pour composer de la musique de synthèse, n’ont pas du tout les mêmes valeurs que celles qu’on utilise dans la tradition vocale ou instrumentale.

 

Les modes de représentations sonores de la musique électronique.

On peut distinguer deux familles de représentation musicale dans le cadre de la musique électronique : celle qui traite des sons eux-mêmes, de leur morphologie, et celle, beaucoup plus abstraite qui traite de la composition des structures musicales. Le problème qui se pose concerne la nature des objets représentés dans le domaine de la musique de synthèse qui sont beaucoup plus variés et beaucoup moins standardisés que dans celui de la musique instrumentale. Ces objets ne sont pas obligatoirement réductibles aux catégories offertes par la notation traditionnelle, même s’ils peuvent les contenir. Il est important aussi qu’une représentation graphique soit en étroite relation avec la représentation mentale qu’on se fait de l’objet. Un compositeur organisant le schéma harmonique d’une composition instrumentale utilisera une notation rudimentaire qui ne tiendra compte, pour l’instant, que des phénomènes de hauteur à l’exception des durées, dynamiques, orchestration, phrasés, etc. Dans son esprit, et à ce stade de l’esquisse, l’objet sonore qu’il travaille n’est mentalement constitué que de ces relations harmoniques. C’est dans un stade ultérieur qu’il affinera cet objet en lui donnant une morphologie plus complète. L’ordre dans lequel ces opérations ont lieu n’est ici pris que comme exemple et peut fort bien être différent. Le même exemple pris dans le cas de sons de synthèses peut être comparé. Si l’on veut dépasser en finesse les catégories de hauteurs offertes par la notation traditionnelle, c’est à dire si l’on veut obtenir des coupures plus petites que le demi ou même le quart de ton, il n’y a guère qu’une représentation numérique qui s’impose. Elle a l’avantage de se prêter à toutes les opérations de calcul mathématique, sous quelque forme algorithmique que ce soit. Sa limitation cependant vient du fait qu’elle n’offre aucune base intuitive à partir de laquelle on pourrait extrapoler. Rien n’est moins convainquant, pour un compositeur, qu’une suite de nombres lorsqu’il cherche, dans la représentation des événements sonores, une vision imaginative.

Une autre possibilité actuelle consiste à créer des représentations graphiques du son  qui permettent, suivant les cas, d’opérer des manipulations diverses. La représentation sous forme de sonagramme permet d’obtenir une “coupe” dégageant les raies spectrales constituées par les différents partiels. On peut réécrire ou effacer ces raies spectrales afin de changer certains aspects du timbre. D’autres types de représentation graphiques, telles que celle qui donne le profil dynamique du son an amplitude et permettent des “zooms” pouvant aller jusqu’au sinus, c’est à dire au plus petit constituant possible, sont très efficaces dans les techniques de montage et de mixage. Ces méthodes ont l’avantage de proposer une représentation plus “intuitive” et plus directement “parlante” du son.

Il est clair que de tels outils relèvent plus de ce que l’on pourrait appeler une description morphologique que d’une écriture au sens ou on l’a définit précédemment. La situation est très complexe car on ne peut pas nier non plus que ces outils conceptuels existent ou, du moins, qu’il existe réellement des recherches dans cette direction. Tout ce qu’a apporté, depuis une vingtaine d’années, les modèles logiques et algorithmiques de l’informatique à la musique en sont la preuve. L’automatisation, partielle ou même totale, des processus compositionnels n’a, d’ailleurs, pas attendu l’invention des ordinateurs pour exister. Les machines étant, par nature, tout à fait adaptées à ce mode de travail, il aurait été inconcevable qu’elle ne le traite pas. En l’occurrence, les premiers essais utilisant les machines pour fabriquer de la musique ont été faits dans ce sens, les recherches purement sonores n’étant venues qu’après 4. On peut cependant faire la remarque suivante. Ces modes de représentation, logiques ou algorithmiques, peuvent comporter une puissance conceptuelle indéniable, ils présentent, en comparaison de l’écriture musicale traditionnelle, un désavantage de taille en ce qu’ils n’ont pas de valeur perceptuelle. Ils n’offrent pas la possibilité de se faire une représentation, sinon mentale, du moins perceptuelle du phénomène qu’ils engendrent. Ils sont, de ce point de vue aussi éloignés de la perception musicale que les représentations graphiques y sont noyées. Il y a là un fossé entre le travail sur les manipulations sonores et sur les structures compositionnelles que les méthodes de représentation diverses n’arrivent pas à combler ni à unifier. Il est un fait qu’un code numérique, ou une représentation graphique quelle qu’elle soit, n’est jamais parvenu à nourrir l’imagination d’un compositeur en vue d’en tirer des conséquences musicales. Ils ne sont que des méthodes de gestion de paramètres ou de manipulations qui, aussi puissante soient-elles, se révèlent incapables de représenter mentalement un contenu sonore réel. Il ne s’agit pas là d’un problème d’inacoutumance à un mode de représentation nouveau mais d’une différence de nature fondamentale entre la notation symbolique qui est celle de l’écriture traditionnelle et celles, numériques ou graphiques, dont on se sert avec les outils de synthèse. Les notations utilisées dans le cas des sons électroniques ne permettent pas de représentations mentales, au sens ou un musicien peut “entendre” intérieurement une partition par la seule lecture. Une représentation numérique ou graphique n’est pas, et ne sera jamais une partition, au sens ou la conçoit un compositeur. Ces différences ne donnent pas pour autant la suprématie d’un mode de représentation sur un autre. Ils indiquent les natures fondamentalement différentes qui existent entre la conception musicale qui prévaut pour les instruments traditionnels et celle qui est utilisée pour les outils de synthèse.

Les modes de représentation et les signes dont nous nous servons lors de la représentation des événements de la synthèse sont, pour le moment, très illustratifs et descriptifs de la réalité sonore. Or, on l’a vu, la force même de la représentation musicale dans l’écriture tient grandement à son caractère symbolique et métonymique et non exhaustivement descriptif. Dans l’état actuel de notre situation vis à vis des matériaux de la musique électronique, nous avons du mal à concevoir un type d’écriture qui rejoindrait, par son aspect symbolique, certaines possibilités de l’écriture traditionnelle telle que je l’ai décrite plus haut. Il est clair que la non-standardisation des objets est un obstacle de taille. Cependant, ce n’est pas tant les objets qui nous importent dans le problème de la représentation que les méthodes de transformations et de développements. Comme on le verra par la suite, l’idée d’une standardisation et d’une unification des méthodes diverses n’est pas impensable. Lorsque le vocabulaire général, qui est encore très éclaté, se réduira autour de conceptions globales des techniques diverses de la musique électronique, la possibilité d’une écriture symbolique se fera peut-être jour. Il est probablement trop tôt pour l’affirmer, mais il est grand temps de commencer à se poser le problème. Très certainement, nous n’avons pas encore découvert les principes de ces nouveaux modes de représentation et rien n’indique, pour l’instant, qu’il seront graphiques. Ils sont encore dans un type de représentation qu’il reste peut-être encore à inventer. Le passage de la description figurative à la représentation symbolique me semble un problème qu’il sera indispensable, à un moment ou à un autre, de traiter. Je n’ai, pour l’instant, aucune idée sur la manière d’y parvenir, simplement l’intuition qu’il faudra y parvenir. De ce point de vue, et en acceptant une certaine ironie vis à vis de la situation, nous sommes un peu comme ces peuples de Mésopotamie qui, 3000 ans avant notre ère, inventaient les premiers signes qui permirent non seulement de fixer, mais aussi de faire évoluer notre pensée.

 

Les partitions virtuelles.

En l’absence de ces outils conceptuels, il reste cependant à gérer la situation présente. Il semble acquis, vu la convergence d’un grand nombre d’oeuvres, que la mixité, c’est à dire l’alliance de l’électronique et de l’instrumental, triomphe de la solution qui consistait à n’offrir que de la musique conçue pour support synthétique. Si une nouvelle technologie se doit d’apporter de nouveaux concepts dans la discipline qu’elle sert, elle doit également intégrer le savoir-faire qui est en cours dans cette discipline. Ce savoir-faire est construit, selon moi, dans cet échange permanent entre l’écriture et l’interprétation. Les systèmes en temps-réel autorisent bien évidemment ce que l’on nomme du terme très prisé actuellement, voire même abondamment galvaudé, d’interactivité. Comme la virtualité était présente dans le couple écriture/interprétation depuis toujours, l’interactivité n’est pas non plus une chose nouvelle en musique. L’image des quatre musiciens d’un quatuor à cordes dont chacun produit de la musique tout en étant constamment à l’écoute de ses trois partenaires en est, entre autre, un exemple bien réel. Il ne s’agit cependant ici que d’interprétation mais au départ l’enjeu se situe bien là : faire entrer l’interprétation dans le contexte de la musique électronique. L’interprétation,  commence là ou s’arrête l’écriture, et est rendue possible par la nature même de cette écriture, son aspect métonymique. C’est en partant de l’analyse de ce que sont les conditions de l’écriture et de l’interprétation dans la musique traditionnelle que j’ai déterminé ce qui devait constituer, selon moi, les bases théoriques de la musique électronique en temps-réel. L’intrusion de l’outil technologique dans la création musicale bouleverse une quantité de choses. Il est normal que certaines données de la composition soient modifiées sans quoi la technologie ne serait rien de plus que ce qu’est la calculatrice électronique au calcul mental : une façon de faire la même chose avec plus de sûreté, plus de rapidité et moins de réflexion. Artistiquement, cette situation ne présente pas le moindre intérêt. Mais il est aussi normal l’outil technologique puisse s’adapter à une culture et s’intégrer à des pratiques qui sont à la base de cette culture. C’est dans ce mouvement d’adaptation réciproque, à double sens, que je conçois l’alliage de la technologie avec la pratique musicale. C’est pourquoi, quelque soit le sens que l’on donne aux termes de partitions et d’interprétation, je conserve la conception des données absolues et relatives comme concept de base dans les partitions virtuelles.

Les partitions virtuelles posent, comme prémisse, une donnée qui me semble être la base même de ce que l’on appelle le “temps réel” et qui est fondée sur la possibilité de détecter et d’analyser des événements produits en temps réel, c’est à dire, en musique, des événements produits par l’interprétation. Dans un premier temps, il s’agit de faire entrer les critères d’interprétation dans la musique électronique mais il va de soi que ces critères sont intimement liés à une stylistique particulière, voire à une époque, à des modes tout autant qu’à une analyse du texte à interpréter. Dans le cas d’une musique en devenir, les critères d’interprétation ne peuvent pas être du même ordre que dans celui d’une musique déjà codifiée culturellement. Il n’existe pas, à proprement parler, de critères d’interprétation en soi. Dès lors que l’on veut capter et faire interférer des phénomènes d’interprétation dans un contexte nouveau il semble évident que la conception du texte ou de la partition doit être également différente. Cependant ces partitions virtuelles sont basées sur la même appréciation que celle que j’ai donnée au sujet des partitions traditionnelles : elles ne donnent pas la totalité du contenu sonore, mais une partie seulement. Cette partie, qui  est codée dans la mémoire de la machine, demeure invariable quelque soit la manière dont l’interprète agira. La part manquante est déterminée par les relations qui sont établies entre l’interprète et la machine. C’est l’analyse en temps-réel des données instrumentales, ou vocales, qui définira les valeurs réelles qui serviront à produire le son. La musique, dans ce contexte déterminé, ne peut surgir que lorsque les données captées de l’interprète entrent en connexion avec celles qui sont fixées dans la machine. Elles sont, on l’a vu, organisées à l’intérieur de zones et non en tant que valeurs réelles puisque c’est comme cela que fonctionne l’interprétation. La partition virtuelle est donc une partition dont on connaît, a priori, la nature des éléments qui vont être traités mais dont on ignore les valeurs exactes qui vont définir ces éléments.

L’influence de données de l’interprète sur le programme est déterminée par le choix de ce qui constitue les valeurs absolues ou relatives du contexte musical dans lequel on se situe. Les valeurs absolues sont celles qui, d’une exécution à l’autre, ne varient pas. La connexion entre l’interprète et cette partie des paramètres fixés est inexistante car, quelque soit la manière dont l’interprète agit, ces valeurs restent rigoureusement identiques. Pour parler en termes anthropomorphiques on pourrait dire que, dans ces cas là, la machine “n’entends” pas ce que produit l’interprète. Les valeurs relatives, elles, seront soumises au contrôle de l’interprète. La machine les “entends”, les détecte, les analyse, les convertit en paramètres et les utilise dans les calculs nécessaires à la production de tel ou tel composant du son. Imaginons un instrument virtuel produisant de la synthèse. On considère que, parmi la grande quantité de paramètres nécessaires à la production du son, une partie d’entre eux soient “verrouillés”, c’est à dire qu’ils ne sa placent pas dans le champ d’influence de l’interprète. Les valeurs affectées à ces paramètres sont alors déterminées une fois pour toute dans une liste que le processeur viendra lire le moment venu. L’autre partie de ces paramètres est fournie par une détection et une analyse des comportements instrumentaux et variera continuellement soit en reproduisant à l’identique les résultats de cette analyse, soit en les modifiants par le biais de fonctions de transfert. A un autre moment, le verrouillage et le déverrouillage porteront sur une autre distribution de paramètres. Cette situation, on le voit, comporte deux aspects : l’un fixe et l’autre mobile. On y reconnaît ce qui, dans l’écriture, était invariable et ce qui était soumis à de déviations, des modifications, à tous les éléments que l’interprète produit, en temps-réel pourrait-on dire, et qui n’étaient pas inscrits dans le texte.

Cette dimension indéterministe peut avoir des conséquences plus ou moins importantes sur la morphologie du discours musical. Cette marge aléatoire peut être, au moins, celle qui définit les conditions traditionnelles de l’interprétation, à savoir ce qui détermine une qualité sonore, un phrasé, une attaque, une durée, etc., elle peut être, au plus, responsable de la structure entière du discours musical qui, dans ce cas, sera organisée en fonction des données reçues par l’interprète. Dans ce dernier cas, cela confine au statut de l’oeuvre ouverte et de la musique aléatoire, et peut aller, en bout de course, jusqu’à l’improvisation. C’est là une affaire de choix compositionnel et de choix esthétique que je ne veux pas traiter dans ce contexte. Ces choix sont avant tout d’ordre esthétiques mais sont également tributaires du type d’analyse que l’on effectue sur le son de l’interprète.

 

Reconnaissance et suivi.

L’organisation des partitions virtuelles est basée sur deux principes qu’il est important de distinguer : celui de la reconnaissance et celui du suivi. Par reconnaissance, il faut entendre la possibilité de se repérer dans un contexte déjà connu à l’avance mais qui risque d’être perturbé. C’est le cas de ce que l’on nomme improprement “suivi de partition” et que l’on devrait appeler “reconnaissance de partition”  La reconnaissance d’une partition jouée par un interprète se borne généralement à se repérer dans une succession chronologique d’événements tout en admettant une certaine tolérance à l’erreur. On attend un événement déjà mémorisé et le processeur doit le reconnaître instantanément. La partition instrumentale est déjà codée à l’avance, et le processeur compare les événements détectés avec ceux qu’il est censé reconnaître chronologiquement. En général cela se fait au moyen d’une “fenêtre d’analyse” qui joue sur la reconnaissance non d’événements isolés, mais d’une collection d’événements. C’est ce qui permet d’introduire une clause de tolérance à l’erreur car si trois événements sur cinq sont reconnus, par exemple, le processeur n’interromps pas son travail et en “déduit” que la partition détectée est bien ressemblante à celle qui est codée dans sa mémoire. C’est un des cas les plus délicats à traiter car, suivant les instruments utilisés, il est nécessaire de choisir des options différentes. La reconnaissance d’une partition monodique peut très bien se faire de manière acoustique : un micro capte le signal puis, grâce à une analyse du spectre, en calcule la fréquence fondamentale. Si cette fréquence correspond à la note attendue, alors l’événement est reconnu et le système reproduit la même opération et ainsi de suite. La reconnaissance d’une partition polyphonique pose beaucoup plus de problèmes car  lorsque quatre notes sont jouées simultanément, il est très difficile de déterminer à quelles fréquences fondamentales appartiennent la superposition de tous les composants des spectres. Des recherches existent dans cette direction [5.Miller Puckette, à l’Université de San Diego, réalise actuellement des recherches sur la détection acoustiques des instruments à corde. Ces instruments pouvant produire plusieurs sons à la fois, en tout cas deux de manière tout à fait simultanée, le problème de la détection polyphonique est abordé.] mais, pour le moment, on en est réduit à utiliser un type de détection purement mécanique tel que le code MIDI. La différence entre ces deux types de détections, acoustique et mécanique, n’a guère de conséquences sur la suite de la composition car il ne s’agit pas encore ici de contrôler quoi que ce soit mais de se repérer dans une partition. L’avantage de la reconnaissance de partition est cependant de tout premier ordre dans la gestion temporelle de la musique car, une fois cette étape maîtrisée, s’offre la possibilité d’introduire autant de points d’ancrage temporels que l’on désire entre la partition instrumentale et la partition électronique. A chaque événement reconnu, pourra être synchronisé tel ou tel type de son, de traitement, de processus dont certains, tels que l’échantillonnage en temps-réel, doivent obéir à une précision de l’ordre de quelques millisecondes. C’est la condition sine qua non pour en finir avec la rigidité temporelle des anciens systèmes et pour donner à la musique électronique une souplesse temporelle au moins égale à celle qui existe dans le monde instrumental.

Le suivi est d’un tout autre ordre. Par “suivi” on doit comprendre la détection d’événements qu’on ne connaît pas à l’avance. Le processeur détecte des valeurs mais ne les compare pas avec une liste déjà établie a priori. Il ne fait, sauf cas particuliers, aucune comparaison et accepte tous les événements comme également valables. Le suivi peut porter indifféremment sur n’importe quel composant sonore, hauteur, enveloppe dynamique, catégories spectrales, comportements acoustiques divers etc. C’est à ce niveau que s’opèrent toutes les opérations de contrôle qui permettent de modifier en temps-réel les paramètres de synthèse ou de traitement. C’est à ce niveau également que la dimension de l’interprétation peut servir de modèle pour l’élaboration des sons électroniques. C’est ici que le compositeur peut introduire dans sa partition la virtualité qui fait que le processeur peut mesurer l’écart qui existe entre la notation et le phénomène sonore produit à partir de cette notation. Un exemple simple, tiré de ma composition En écho pur soprano et système en temps reel 5, peut donner une explication de ce phénomène. Une voix humaine peut produire des voyelles à partir de la simple notation d’un texte sous des notes. Les voyelles sont définies acoustiquement par ce que l’on nomme les formants dont les fréquences se situent dans des zones assez bien connues. Il est cependant absolument impossible d’exiger d’un chanteur qu’il produise ses formants sur ces fréquences données. Cela fait partie de ces catégories sonores qui sont productibles mais absolument pas notables car “humainement” impossibles à contrôler. C’est exactement l’écart qui existe entre la complexité du phénomène sonore et son écrit. Cela dit, un processeur peut très bien faire l’analyse de ces formants et en opérer un suivi de façon tout à fait continue et exacte. Aucune valeur précise n’est attendue puisque l’interprète n’a pas la possibilité de les fournir avec exactitude. Ces valeurs détectées sont alors envoyées à un algorithme de synthèse qui les utilise en temps-réel. Le timbre de ces sons de synthèse reproduit alors une qualité qui est celle de la voix au moment ou l’interprète les chante. On reconnaît les différentes couleurs des voyelles dans les accords produits électroniquement. Ces sons de synthèse sont, d’autre part, définis harmoniquement sous une forme totalement fixée qui ne variera pas quel que soit la manière dont chante l’interprète. D’un côté on a des valeurs absolues, fixées une fois pour toute, de l’autre des valeurs relatives qui détermineront des qualités sonores en fonction de l’interprétation. Cette dualité entre valeurs absolues et relatives, qui définit les conditions de l’écrit et de l’interprétation dans la musique instrumentale et vocale, a déjà évoquée précédemment mais, dans le contexte de la musique électronique, détermine deux catégories qui continuent d’alimenter une grande querelle qui, à mon sens, n’a plus lieu d’être : celle du temps-différé contre le temps-réel.

 

La querelle des temps.

On observe un important clivage entre les compositeurs qui se réclament des techniques en temps différé et ceux, beaucoup moins nombreux, qui optent pour une utilisation du temps réel.  Ces deux termes, d’ailleurs, doivent être pris avec précaution. Comme on le verra, une grande partie des musiques qui se définissent comme appartenant à la catégorie du “temps réel” ne proposent finalement qu’un aménagement pratique des vieilles méthodes de studio en “temps différé” tout comme les musiques réellement conçues avec les techniques du “temps réel” acceptent une grande part de prédétermination absolue dans leur constituant, ce qui est la marque du “temps différé”. On peut résumer rapidement les situations dépendant du temps-réel et du temps-différé en disant que dans le premier cas, l’analyse des données de l’interprétation modifient la totalité ou une partie des aspects morphologiques du discours musical, alors que dans le second cas, ceux-çi restent identiques quelque soient les critères d’interprétation comme c’était le cas dans les anciennes musiques pour bande magnétique.

S’il est un élément fondamental qui détermine ces clans que sont le “temps réel” et le “temps différé”, c’est bien le Temps lui même. Non pas le temps psychologique mais le temps musical objectif, celui qui détermine les conditions de synchronisation et de coordination entre les événements. Le problème s’est tout de suite posé lorsqu’on a voulu faire dialoguer un temps immuable, celui des bandes magnétiques, avec un temps modulable, celui des instruments dans les premières musiques mixtes. Plusieurs cas de figures ont été tentées pour résoudre ce délicat problème de superposition. Un chef d’orchestre , ou des instrumentistes, peuvent suivre le déroulement d’une musique couchée sur support fixe “à l’oreille” si certains éléments sonores agissent comme des signaux de repérage. En y réfléchissant, c’est un peu le cas très classique d’un chanteur d’opéra attendant un “repère” dans l’orchestre soit pour prendre son intonation, soit pour chanter, soit pour accomplir un geste scénique. Dans un second cas, lorsqu’une précision rythmique beaucoup plus grande est demandée, comme dans le cas de modifications des tempi dans lesquels il faut synchroniser parfaitement les instruments et les événements électroniques, une autre solution consiste à diffuser un “click-track” (un bruit de métronome enregistré) que le chef écoutera par l’intermédiaire d’un petit écouteur placé sur son oreille. Cela permet d’être renseigné continuellement sur le bon tempo mais offre, outre le sentiment désagréable de jouer “au métronome”, le désavantage de rendre impraticable les continuelles variations de tempi qui, même lorsqu’elles ne sont pas inscrites sur la partition, sont nécessaires à l’interprétation. La troisième solution, qui ne devrait être qu’un cas particulier mais que l’on rencontre malheureusement très souvent, est de ne vouloir aucune synchronisation précise entre ces deux discours. Il est clair que les choses ne sont pas aussi tranchées dans la réalité d’aujourd’hui. On ne compose plus guère pour supports fixes tels que les magnétophones qui se sont vus remplacés progressivement par des systèmes sur disques durs. Ainsi sont souvent présentées comme “musiques en temps-réel” des oeuvres qui, quelque soient leurs qualités musicales intrinsèques, reproduisent le vieux schéma des musiques mixtes dans lesquelles le tempo de la bande était le maître du jeu. La seule chose qui soit remise en question, par rapport aux musiques sur bande magnétique, est la faculté de déclencher des séquences de manière synchrone avec un son instrumental. Mais, une fois la séquence déclenchée, le jeu de l’interprète n’aura plus d’incidence sur le devenir de l’oeuvre avant le prochain déclenchement. Tout au plus peut-on démarrer et stopper les séquences pré-composées avec plus de liberté. Cela est dû, pour l’instant, grandement à des impératifs technologiques qui font que, si l’on veut qu’une oeuvre puisse être jouée avec la même facilité que n’importe quelle oeuvre instrumentale, on est obligé de faire appel à une technologie largement divulguée par les outils du commerce qui ne permet pas, en général, de produire des musiques dans lesquelles la part de l’interprète puisse avoir une responsabilité sur l’oeuvre à un niveau équivalent à celui de la musique instrumentale. En contrepartie, les oeuvres mettant en jeu une dimension interprétable conséquente ne sont, pour le moment, possible que sur une technologie encore peu divulguée limitant ainsi les potentialités d’exécutions. Cette situation évolue, bien évidemment, dans le sens d’une plus grande accessibilité aux performances technologiques puissantes, mais contribue largement à entraver une évolution de la pensée musicale qui devrait remettre en question certains fondements même de la composition lorsque les moyens théoriques et techniques existent pour cela. Il n’y a aucune raison de se limiter à des catégories de temps aussi grossières que les seuls démarrages et arrêts de séquences dès lors que les outils technologiques le permettent car cela revient, musicalement parlant, à concevoir une oeuvre dans laquelle les points de synchronisation sont beaucoup plus espacés et soumis à un contrôle beaucoup plus lâche que dans n’importe quelle autre oeuvre. Imaginons, pour donner un exemple concret de cette situation, une pièce d’orchestre dans laquelle l’écriture ne prendrait en compte que la synchronisation du début de plusieurs séquences mais ou il n’y aurait plus de contrôles temporels internes dans leurs superpositions. Ces cas existent bien évidemment et ils peuvent avoir une raison d’être tout à fait valable (Zeitmasse  de Stockhausen ou Pli selon pli et Rituel de Boulez explorent systématiquement ces principes d’indépendance temporelle entre les structures) mais ils ne peuvent, en aucun cas, constituer une norme qui régirait une condition générale d’écriture. Cette dualité de situations impose finalement un choix entre une technologie en temps-différé et une autre en temps-réel et ce choix technologique provoque fatalement des répercussions sur un choix esthétique. Ce choix limitatif est souvent la conséquence d’oeuvres dans lesquelles on constate un choc stylistique entre une écriture instrumentale basée sur une articulation précise et une partie électronique qui ne peut pas bénéficier de la même finesse d’articulation et se concentre alors sur des événements plus massifs et plus monolithiques.

Les séquences pré-composées en studio ne bénéficiant que des options de déclenchement et d’arrêt en temps-réel appartiennent totalement au temps-différé, tandis que les musiques qui acceptent une part de mobilité dans leur constitution dépendent du temps-réel. Cette part de mobilité, qui n’est pas obligatoirement comparable à ce qui constituait les musiques aléatoires est identique à la mobilité qui est de fait dans toute musique instrumentale. Pendant longtemps, et non sans raison, les partisans de la musique en temps-différé avaient une attitude critique quant au manque de finesse et de raffinement qu’offraient les moyens de synthèse en temps-réel. Cette critique tend aujourd’hui à n’avoir plus de viabilité car les systèmes en temps-réel offrent désormais une puissance de calcul qui permet d’avoir un contrôle d’une très grande finesse. Le dilemme entre ces deux choix semble plus le produit d’une conception, d’une part, héritée des techniques de studio classiques dans lesquels les compositeurs étaient habitués à tout fixer (le vieux réflexe de la bande magnétique) et de l’autre, chez des musiciens pour qui l’écriture instrumentale était naturellement soumise aux gauchissements de l’interprétation. Cette querelle du “tout-temps-réel” ou du “tout-temps-différé” me semble pouvoir être définitivement levée car, comme dans tous les cas semblables, ce ne sont jamais les positions extrêmes qui aboutissent aux résultats les plus intéressants. Il est clair que la composition comporte énormément de cas de figures qui sont inaccessibles au temps-réel, en particulier dans tout ce qui concerne les constructions qui demandent une prédiction sur ce qui va se passer. Un trajet complexe de spatialisation, une évolution calculée de paramètres de synthèse nécessitent souvent une mise au point définitive à laquelle la situation du temps-réel pourrait être fatale. Il est clair aussi que la précision qu’un compositeur peut exiger d’un interprète soit également valable pour un processeur. On veut exactement telle chose et non une autre. Une composition, on l’a vu, peut aussi bien comporter des éléments qui ne varieront pas quelque soit la situation de l’interprétation, que des éléments qui seront soumis à ces variations d’interprétation. La distinction doit se faire ici entre le choix des valeurs absolues et des valeurs relatives qui formeront la composition. Si l’on raisonne au niveau des systèmes en temps-réel, il est évident que rares sont les cas de figures dans lesquels rien n’est fixé à l’avance. La distinction montrée plus haut entre les éléments absolus d’une partition instrumentale et les éléments relatifs à l’interprétation peut très bien servir de base à l’édification de partitions électroniques qui sont basées sur ce même modèle. C’est dans le choix conceptuel des objets musicaux qui constituent l’oeuvre que doit se faire la distinction entre ces deux entités et non dans une prise de position par rapport à une technologie qui appliquerait d’elle-même cette décision. L’indépendance temporelle des événements superposés dans une composition mixte, dès lors que les outils théoriques et pratiques existent pour cela, doit être aujourd’hui la conséquence d’un choix esthétique plus que celle d’une limitation technologique. “Mon paletot aussi était idéal”, cette phrase de Rimbaud reprise par Boulez dans Penser la musique aujourd’hui est malheureusement toujours d’actualité. La prise de position pour le temps différé ou pour le temps réel, en d’autre termes la répartition des événements constitués de valeurs absolues ou relatives, doit désormais cesser d’être un choix technologique pour devenir un choix compositionnel.

 

Le paramètrage numérique comme valeur de métamorphose.

Un des grands intérêts de la situation offerte par le principe de la détection et de l’analyse des sons instrumentaux dans le cadre du temps réel me semble résider dans la possibilité d’opérer des métamorphoses d’une catégorie sonore dans une autre. Cela est rendu possible par la conversion des valeurs analogiques en paramètrages numériques. Pour un processeur, toute valeur détectée dans un signal acoustique peut être paramètrée de manière numérique. Pour lui, toutes ces valeurs numériques sont égales comme on dit que le sont tous les citoyens devant la loi. C’est au compositeur d’en déterminer une hiérarchie et d’en déduire une structure de relations. Que ce soit une valeur de hauteur, de temps où de dynamique mais aussi des valeurs plus fines portant sur l’analyse spectrale d’un son que ce soit par son contenu fréquentiel ou formantique, le résultat est codé numériquement. Cette faculté de réunir des composants acoustiques différents sur une même échelle de valeurs permet de les faire s’influencer mutuellement, et de faire en sorte qu’une catégorie sonore puisse contrôler une autre catégorie sonore, voire un ensemble de catégories. Ainsi une valeur de temps ou de durée, peut influencer une valeur de transposition de hauteurs, l’analyse d’une enveloppe dynamique peut diriger un trajet de spatialisation. Un tel mélange de catégorie sonore est, bien entendu, totalement impensable dans la musique instrumentale. Grâce au paramètrage numérique il existe une équivalence de représentation des différents composants sonores qui peut très bien servir d’étalon autour duquel seront déterminés différents aspects du discours musical. L’interprétation, dans ces cas, n’est plus du même ordre que dans celui de l’acception classique de ce terme car elle pénètre entièrement la morphologie de la partition. Dans Pluton, j’ai utilisé des valeurs dynamiques comme critères de définition d’un choix d’échelles d’intervalles et dans Neptune, c’est le processeur lui-même qui, par le fait de calculs aléatoires, produit des déviations d’ambitus et de tempi sur lesquels sa basent les interprètes. En y réfléchissant bien, le cas de catégories s’influençant mutuellement n’est pas nouveau dans la musique : une acoustique particulière peut orienter un choix de tempo qui lui-même détermine des valeurs dynamiques et rythmiques. Mais dans le cas cité précédemment, la détection des valeurs d’interprétation peut aller jusqu’à la prise en charge d’éléments fondamentaux du discours musical. Là encore, l’importance que l’on voudra bien accorder à l’influence de ces critères temps réels sur la conception même de la musique est une affaire de choix esthétique.

 

Échantillonnage, transformation et synthèse : passé et avenir.

Trois domaines partagent actuellement la somme des travaux qu’effectuent compositeurs dans la musique électronique : l’échantillonnage, les transformations des sons instrumentaux ou vocaux et la synthèse sonore. Les deux premiers reproduisent la dualité qui existait dans les années 50 entre la musique concrète, spécialité du club d’essai de la R.T.F. à Paris, et la musique électronique pure sur laquelle le Studio de Cologne a fait les premières expérimentations. Ces deux démarches opposées au début se sont unifiées, dès 1955/56, dans le Gesang der Junglinge de Stockhausen. Ce n’est que dans les années 70 (pour la synthèse) et 80 (pour l’échantillonnage) que ces techniques apparurent dans l’informatique musicale. mais elles restèrent l’apanage du temps différé.

La synthèse sonore, de ce dernier point de vue, est l’instrument le plus puissant car, suivant les modes de synthèse utilisés, on peut construire le son en autant de paramètres que l’on veut qui seront autant de variables indépendantes pour déterminer tels ou tels aspects du son. Le problème qui se pose fréquemment pour les compositeurs est celui d’une relativement grande inertie du son lorsque la gestion des paramètres n’est pas suffisamment complexe. Lorsque l’on analyse l’aspect acoustique d’un son instrumental dans le temps, on est frappé par l’immense diversité et variabilité des comportements qui, lorsqu’ils doivent être reproduits par les méthodes de synthèse pure, demandent un contrôle d’une extrême complexité. De ce point de vue, la synthèse, définie comme un calcul de paramètres totalement préétabli, est une technique relevant complètement du temps différé puisqu’il n’y a aucune détection ni analyse d’un signal en temps réel.

L’échantillonnage a connu d’emblée un grand succès par le fait même de pouvoir combler en variété de comportements les difficultés que posent la synthèse. Cependant, si la technique de l’échantillonnage permet d’obtenir un résultat sonore satisfaisant de manière assez rapide, elle perd, en possibilités de contrôle, tout ce qu’offrent les techniques de synthèse. Ses potentialités de transformation et de développement sont d’ordre globales et ne pénètrent pas la structure interne du son. On peut lire un échantillon dans différents sens (à l’endroit, à l’envers, par traitements granulaire …), à différentes transpositions, dans des tempi variables, le filtrer, mais on ne peut pas le décomposer en petits atomes qui sont comme autant de petits instruments participant d’un son total. Il est vrai que la composition, souvent, peut très bien se satisfaire de cette restriction. Il n’y a pas toujours de corrélation évidente entre ce que l’on entends par “richesse sonore” et par “complexité conceptuelle”. Synthèse et échantillonnage sont, en quelque sorte, les compléments l’un de l’autre et il est évident que c’est souvent dans le sens d’une complémentarité qu’ils sont utilisés. En schématisant quelque peu, on peut s’apercevoir que la synthèse est plus fréquemment utilisée dans la gestion des structures continues, tandis que l’échantillonnage se révèle efficace dans un contexte plus ponctuel, discontinu et rythmique. La preuve en est que les premières oeuvres de synthèse par ordinateur, comme celles qu’ont composées John Chowning et Jean-Claude Risset, portent exclusivement sur des évolutions continues tout comme les premières pièces de musique concrète pratiquaient sans concession la rupture de ton. C’est le combat de la continuité des nombres contre le coup de ciseau 6. La transformation des sons instrumentaux est apparue aux USA sur des instruments analogiques mais c’est encore Stockhausen qui en donnera une première vision cohérente dans Mantra en 1970. Le traitement des sons est aussi un procédé très global en ce sens qu’il affecte la totalité du spectre soit par addition (techniques du frequency-shifter ou du ring modulator), soit par soustraction (filtrage) soit par transposition (harmonizer) ou réverbération et spatialisation. Répons de Boulez, en 1981, en fera une première utilisation plus complexe et maîtrisée par l’outil informatique. Ces techniques de transformation sonores, mise à part la réverbération et la spatialisation, ont été à la base de tout les systèmes en temps réel et c’était même, il y a quelques temps, ce qui en constituait l’essentiel.

Ces trois catégories étaient au début très séparées. On ne les utilisait qu’une à la fois. Bien que plus intégrées dans un même discours de nos jours, elles n’en restent pas moins assez séparées quant aux modes de composition qu’elles développent. Il est clair que, au bout de la chaîne de calcul qu’effectue un processeur pour les réaliser, le procédé est plus ou moins identique. Ce sont les modes d’approches qui diffèrent ainsi que les types de contrôles qu’on y effectue. Dans la plupart de mes compositions mixtes, j’ai eu l’occasion d’élaborer des principes qui reposent sur une hybridation de ces différentes méthodes. Le cas d’un synthèse sonore dont l’évolution, soit formantique, soit prélevée de l’analyse en temps réel d’un son instrumental ou vocal participe également du domaine du traitement et de la synthèse. Quant au procédé d’analyse/resynthèse sur lequel est développé actuellement un effort considérable, il permet dans certains as de reproduire avec une qualité confondante l’image sonore d’un son enregistré mais avec toutes les possibilités de contrôles puissants que permet la synthèse 7. La synthèse en temps réel, parvenant à rivaliser en qualité sonore avec la techniques de l’échantillonnage se substituera à cette dernière lorsqu’il sera possible d’effectuer également ces analyses complexes en temps réel. Ceci n’est qu’une affaire technologique qui, comme les autres, fonctionnera lorsque les processeurs de calcul auront la puissance suffisante. Ce cas est aussi ancien que l’existence des machines.

L’abolition de tous ces catégories est, selon moi, inéluctable, et il est souhaitable que ces catégories, tout comme celles du temps réel et du temps différé, finissent par se fondre en une seule et même technique unitaire relevant à la fois du traitement ou de l’échantillonnage mais dont les modes de contrôles seraient ceux de la synthèse dont une partie des paramètres serait géré par une analyse en temps-réel. Une fois cette unification réalisée, je pense que la question de la représentation symbolique, telle que je l’ai exprimée plus haut, pourra trouver un terrain propice à son développement. Mais, d’ores et déjà, les arguments théoriques existent et les barrières technologiques finiront par tomber. Le principe des partitions virtuelles est une des possibilité de cette unification. Il y en a certainement d’autres. Encore faut-il qu’un nombre suffisant de compositeurs en prenne conscience et surtout accepte de travailler dans ce sens, ce qui signifie, bien entendu, une limitation des exécutions musicales car de tels systèmes ne seront pas immédiatement accessibles commercialement dans tout les studios du monde. Ce dernier point, particulièrement ne me semble pas assuré. En ce qui me concerne, mon choix est fait depuis longtemps. Mon paletot n’est plus idéal.

                                                                           Philippe Manoury. Paris, Juin 1997.

 

  1. Luciano Berio, dans un entretien, disait que l’étude du contrepoint était le meilleur moyen de relier l’oreille au crayon. On constate malheureusement de nos jour une grande déficience dans cette capacité de représentation mentale de l’écriture. La raison en est probablement que, depuis quelques décennies, l’étude des disciplines d’écriture classique telles que l’harmonie et le contrepoint a été fortement délaissée. Bien qu’il soit clair que ces disciplines ne sont plus utilisées dans les compositions contemporaines, il n’existe, à ma connaissance, aucun autre moyen aussi efficace pour “relier l’oreille au crayon”.
  2. Ce n’est pas autrement qu’il faut entendre les agacements de Wagner dans l’interprétation de la musique de son époque. Ce n’est pas autrement non plus qu’il faut interpréter le soin que mettaient Mahler ou Stravinsky dans la précision de leurs partitions. Cette précision n’a pas été dans ces dernières années, il faut bien le reconnaître, sans quelques exagérations.
  3. Les interminables polémiques que l’histoire de la musique a vu surgir au sujet des différents tempéraments acceptant, par exemple, comme quinte, deux accordages différents, en sont une des preuves les plus évidentes.
  4. A la Renaissance, et jusqu’à J.S. Bach, des compositeurs utilisaient la “Tabula compositoria”, une sorte de matrice pour générer les relations polyphoniques. Athanasius Kircher, au XVIIème siècle, utilisait, après Zarlino et Mersenne, des procédés mathématiques relevant d’une tradition médiévale. Il y a également le “Wurfenspiel”, sorte de jeu de dés, que Mozart utilisa pour composer des petites valses. L’alliance de la combinatoire et de la musique est très ancien et serait trop long à développer ici. Au XXème siècle, c’est à Lejaren Hiller que l’on doit les premiers travaux de formalisations musicales par ordinateur en 1956. Ce n’est qu’une dizaine d’années plus tard que Max Matthews mettra au point les premiers programmes de synthèses des sons.
  5. Le cycle Sonus ex Machina comportant Jupiter, Pluton, La Partition du Ciel et de l’Enfer ainsi que Neptune à été réalisé avec le mathématicien Miller Puckette à l’Ircam. Ces pièces furent conçues pour le processeur 4X mis au point par Guiseppe di Guigno. En Écho, toujours réalisé avec Miller Puckette été composé pour la Station d’Informatique Musicale de l’Ircam élabore par l’équipe de Éric Lindeman.
  6. Il est intéressant de remarquer à quel point les outils ont laissé leurs marques sur les oeuvres. On peut aussi faire l’analogie avec le cinéma qui, dès ses débuts, a pratiqué un style très hachuré comme dans les premiers films d’Eisenstein pour ensuite développer des techniques de continuité comme les plans-séquences chers aux premiers films de Welles.
  7. Des expériences fort prometteuses sont actuellement en cours. Les travaux qu’effectue David Wessel à l’Université de Berkeley sont, à ce titre, très impressionnants par la qualité sonore de la resynthèse en temps réel d’un signal vocal complexe.

La note et le son

Wednesday, October 22nd, 2008

Le choix du support.

Dans les trois dernières oeuvres que j’ai produites à ce jour 1, mon principal but a été d’intégrer dans un même discours deux mondes qui, auparavant communiquaient de façons plus parallèles que conjointes : la musique instrumentale et la musique électronique. Je ne veux bien sûr pas dire par là que ces oeuvres sont les premières à avoir confronté ces deux genres, mais plutôt qu’elles inaugurent une démarche tendant à  une unification de ces deux domaines, tant du point de vue théorique que de celui de leur propre mode de fonctionnement. En un mot, j’ai essayé d’unifier ces méthodes dans une vision commune en faisant bénéficier la plus récente des apports de la plus ancienne.

 S’il est certain que l’activité créatrice n’a jamais pu faire l’économie de l’intégration de nouveaux matériaux, il est intéressant de comprendre pourquoi ces phénomènes, dès leur apparition, ont du s’accommoder d’une scission que quarante années d’existence n’ont pas suffit à résorber totalement. Il est très clair en effet que, à quelques exceptions près, les musiciens de l’après-guerre ont du choisir très vite leurs camps : celui de l’écriture instrumentale ou celui de la musique électronique ( alors ayant comme support la bande magnétique ). Le choix d’un support implique le musicien dans sa réflexion et jusque dans son propre mode de fonctionnement à l’intérieur de la création. Ce choix dépendait en grande partie du niveau de culture musical de chacun, celui des premiers électroacousticiens étant, il faut l’avouer, moins complet. On a pu dire, non sans quelques exagérations, que d’un côté l’on composait avec des notes alors que de l’autre on composait avec des sons. Notes et sons sont des étendards qui représentent, en fait, une réalité plus complexe.

Bien qu’il ne s’agisse pas, pour moi, de nier les différences les caractérisant, je pense qu’aujourd’hui ces deux domaines sont très complémentaires dans la problématique musicale actuelle. Avant d’en expliquer la raison, je tenterai de montrer ce qui, selon moi, a provoqué cette séparation.

 

L’écriture.

Une des caractéristiques essentielle entre ces deux supports est très certainement le fait que, pour s’exprimer, la musique instrumentale passe par une écriture. L’écriture, dans la composition, n’est pas uniquement un moyen de fixer les idées sur papier pour pouvoir les transmettre à des instrumentistes, mais a plusieurs autres fonctions dont deux me paraissent fondamentales : son pouvoir d’abstraction d’une part, et son côté symbolique de l’autre. Ces deux foncions, on le verra plus tard, sont tout à fait complémentaires.

Le langage musical traditionnel évolue à partir d’éléments codifiés, répertoriés, classifiés, voire même standardisés, qui permettent une combinatoire. Ce que j’appelle “pouvoir d’abstraction” est la faculté de pouvoir travailler sur des objets encore abstraits, c’est à dire dégagés de leur contexte final rendant possible plusieurs niveaux de structurations qui peuvent, soit s’interpénétrer, soit fonctionner de manière plus indépendante. En prenant un objet simple tel qu’un intervalle, il est clair que, quelque soit sa transposition, sa registration, sa durée, son intensité, ou encore le timbre avec lequel il sera révélé, un intervalle reste un intervalle et sera reconnu comme tel. Il est un objet encore abstrait que l’on peut manipuler hors de tout contexte. Il ne faut pas en déduire pour autant que la composition instrumentale passe fatalement par ce stade de séparation de tout ses composants, mais elle le permet. Les conséquences perceptuelles en sont  immenses car le discours musical, évoluant à partir de différentes couches superposées, ayant chacune leur poids perceptif, c’est le rapport entre les éléments variants et invariants qui décidera de faire transiter l’information sur l’une ou l’autre de ces couches 2. Cette faculté d’abstraction permet donc d’opérer sur plusieurs niveaux de langage, et c’est ce qui en fait en grande partie sa richesse.

La condition de cette abstraction réside grandement dans le fait que la notation musicale est tout à fait symbolique. J’entends par là que lorsque j’écris pour une clarinette “Mib”  “pp crescendo”, “blanche pointée”, je ne définis en aucune manière le phénomène sonore du point de vue physique, mais fournis à un interprète les indications de doigté et de souffle qui lui permettra de réaliser cet événement, et qui me permettra, à moi, d’imaginer ce que sera le résultat. En d’autres termes, ce n’est pas l’effet que je note mais la manière de le produire. Quiconque a déjà vu l’analyse physique de tout les paramètres d’un son instrumental sait de quelle complexité il s’agit. Il n’est pas vain de constater que cette réduction de la complexité physique en un symbolisme simple et abstrait a été le garant de l’édification de constructions musicales extrêmement complexes 3.De manière plus générale, il faut entendre par “écriture” toutes les techniques de transformation d’un matériau sonore. Il est clair qu’aujourd’hui, quiconque désirerait analyser une partition contemporaine, aura du mal à se passer des esquisses successives qui ont amené au résultat final tant est important le nombre de transformations que l’on fait subir à un matériau de base. Ces différentes étapes non seulement situent certains de ces éléments abstraits en contexte et permettent de dégager peu à peu l’image finale, mais aussi font infléchir de manière substantielle l’idée musicale de base. L’intégration d’une structure de rythme, par exemple, dans une problématique de hauteurs et de timbres, suscite très souvent de nouvelles solutions qui n’auraient pas pu être imaginées sans elle. Les carnets d’esquisses de Beethoven, mais aussi de Debussy, montrent que cet état de fait ne date pas d’aujourd’hui. L’écriture, on le voit, est aussi catalysatrice d’idées et de concepts ou, souvent, une idée initiale se voit supplantée par d’autres qui sont directement issues de ce travail spécifique de l’écriture.

 

L’interprétation

Cependant, cet écrit sera interprété. Il serait plus juste de dire une partie de cet écrit, car suivant les époques, les compositeurs, mais aussi les divers instruments, les critères d’interprétation ont variés grandement 4. Les instruments de musique offrent des modes de contrôles divers et cela revient à exprimer que dans un partition il y a des valeurs absolues et relatives. S’il on prend le cas d’une partition pour piano, il est évident que la seule chose qui soit productible avec une exactitude absolue sont les hauteurs, tandis que les dynamiques se situent à l’intérieur de zones définies globalement (pp, mf, sfz …) mais ne correspondent en aucune façon à des valeurs absolues tant qu’elles restent dans le cadre d’un écrit. Seules les valeurs relatives sont interprétables et il faut souligner ici que interprétation est synonyme d’absence de prédétermination totale. En tout état de cause, une partition ne délivre qu’une partie du message, celle que le compositeur considère comme essentielle en regard de ce qu’il veut exprimer, l’autre partie étant définie en temps-réel par l’instrumentiste. Le compositeur fournit un texte qui sera “gauchis”. Le rapport entre l’écrit et l’interprétation s’étant établit dans le cadre d’une longue tradition, on a pu s’apercevoir que lorsque des compositeurs ont cherché à échapper par différents moyens à cette tradition, ils n’ont pu y parvenir que par le moyen d’une plus grande précision dans la notation 5. Mais il n’en demeure pas moins que, quelque soit la précision de la notation, certaines données sont interprétables et d’autres non. Tout ces phénomènes, on va le voir, ne se retrouvaient pas dans la musique électronique à ses débuts, et il me parait évident que c’est une des raisons qui a poussé bon nombre de compositeurs à se détourner de ces voies.

 

Matériaux et transformations dans la musique électronique.

Si l’écriture, par son pouvoir tant symbolique qu’abstrait, permet entre autre de travailler sur des objets encore détachés de leur fonction sonore définitive, les sons électroniques, de ce point de vue, offrent une grande réticence. Le matériau ne se laisse pas apprivoiser avec autant de souplesse. La réalité sonore était présente dès le début du travail et il était difficile d’abstraire autant de catégories que ne le permettait la musique instrumentale. Dans les débuts de la musique électronique s’opérait une distinction fondamentale entre sons de synthèse et sons concrets (ou techniques de traitement). Les premiers, surtout issus des travaux du studio de Cologne, proposaient, il est vrai, une approche plus déterministe et précise en ce sens que les compositeurs pouvaient définir des échelles de hauteurs non-tempérées et travailler ainsi sur des relations harmoniques nouvelles. Sur les seconds, expérimentés au studio de la RTF à Paris, on tentait d’opérer des transformations sur des sons enregistrés, et parfois non détachés d’un contexte anecdotique ce qui n’était pas sans dommage pour l’oeuvre. Stockhausen, le premier, semble avoir pris conscience du fait qu’on ne peut pas se passer impunément de références culturelles lorsqu’il a très tôt mélangé les sons d’une voix d’enfant aux sons électroniques dans Gesang der Junglinge, unifiant du même coup techniques de synthèse et de traitement dans un même discours. Dans la musique de synthèse pure, un problème harmonique est dû au fait que l’espace des hauteurs étant complètement libre et modulable, les catégories d’intervalles proposées ne se situent plus dans un contexte culturel tel que l’oreille puisse les identifier. D’autre part, réutiliser un espace totalement ou partiellement tempéré comme celui des instruments acoustiques n’a absolument aucun sens dans un tel contexte. On peut bien sûr concevoir des échelles sonores à profusion à l’aide du calcul, il n’est pas du tout évident que ces échelles demeurent pertinentes quant à leur perception. Enfin, d’un point de vue sonore, il faut bien reconnaître que ces premiers sons synthétiques souffraient d’une inertie très gênante du point de vue de leur morphologie sans parler des techniques d’enregistrement de l’époque qui “datent” cruellement ces oeuvres. On a pu assister, par ailleurs, à des tentatives d’apprivoiser ces sons dans les canons de l’écriture traditionnelle (sérialisation des objets, savants calcul des durées …) mais il faut bien reconnaître que ces démarches ne dépassaient pas un cadre formaliste assez étroit et étaient, tout au plus, une manière de réagir contre le laisser-aller, tant théorique qu’esthétique, qui accompagna souvent ces premières expériences.

Cependant, pour fondée qu’elle fût, la critique de la musique électronique, a aussi ses limites et, bien heureusement, on ne la rencontre plus aujourd’hui que dans des esprits aussi étroits qu’académiques. Si les concepts mirent un certain temps à se développer, il font désormais partie du back-ground musical actuel et je ne vois pas comment un compositeur pourrait, avec la même assurance que celle prônée autrefois, négliger cet état de fait.

Quel est donc le statut de ces nouveaux matériaux dans le cadre de la composition ? On peut dire d’une certaine manière qu’ils dépendent de leur rapport au contexte dans lequel il vont évoluer. La construction de leur morphologies, plus ou moins complexe, leurs relations avec un modèle connu 6, leur faculté à être transformés jusqu’à l’anonymat en fera, ou non des objets intégrables. Il se joue ici une dialectique entre la complexité de l’objet et celle de son contexte. La frontière entre les deux pourra être parfois ambigüe : lorsque l’objet est trop complexe pour pouvoir être intégré dans un contexte en tant qu’élément de celui-ci, il deviend lui-même ce contexte. On n’est pas loin ici d’une situation déjà connue : la perception d’une structure harmonique ou polyphonique ne peut se faire que lorsque les éléments qui la révele remplissent les conditions d’un certain anonymat ou d’une certaine standardisation, alors que dans d’autres civilisations, la non-standardisation de la forme des sons a été de pair avec des systèmes en grande partie monodiques.

Comment peut-on conceptualiser cette notion d’objet aujourd’hui ? il s’agit en fait d’un ensemble sur lequel pointe plusieurs paramètres de variations qui sont responsables des differents niveaux morphologiques qui le constitue. Le nombre de ces paramètres peut être différents suivant les cas, la chose importante étant qu’une indépendance de contrôle d’un paramètre sur l’autre soit respecté. Les différentes techniques permettant les transformations de ces objets sont trop nombreuses pour pouvoir être ici énumérées et beaucoup restent à inventer car le nombre de ces objets étant aussi grand que ce que l’imagination peut concevoir. Mais il me semble qu’un grande partie de ces opérations vont dans le sens d’une décomposition de l’objet sonore ou les divers éléments d’un matériau peuvent être isolés et manipulés de manière indépendante et avec lesquels on peut travailler. Je citerai comme exemple celui de l’indépendance des contrôles harmoniques et spectraux. ou l’on peut, tout en gardant la fonctionnalité harmonique d’un objet, faire varier sa morphologie spectrale dans laquelle apparaîtront et disparaîtront certains des éléments qui le composent et vice versa. La création de variations continues entre des objets, en modifiant progressivement chacun des paramètres qui contrôlent leurs caractéristiques harmoniques, spectrales ou autre, peut les faire transiter de familles à familles. Il faut pour cela déterminer des familles morphologiques qui réuniront, sous leurs principes, une certaine quantité d’objets. Les critères de définition morphologique sont, eux aussi, très nombreux : harmonicité, inharmonicité, stables ou instables en fréquences, suivant certaines caractéristiques d’enveloppes, bruités ou non, suivant leur niveaux de brillance ou de rugosité etc…. Lorsqu’il est possible d’isoler ainsi certains composants, nous ne sommes pas loin de la situation décrite précédemment dans l’écriture traditionnelle ou les objets ont la propriétés de fonctionner comme autant de couches superposées.  Ici, c’est au niveau des relations entre les différents types de contrôle que s’opérera, ou non, une fusion de l’objet dans lequel chacun de ses paramètres sera intégré dans une entité perceptuelle.

Certes, il ne faut pas penser parvenir à une situation stabilisée et standardisée, ce ne serait d’ailleurs guère souhaitable. C’est plutôt au niveau de la méthodologie et de la conceptualisation qu’il faut porter ses efforts. Il est clair que dans ce cadre, certaines opérations classiques comme les transpositions, les inversions ou les renversements pourront se révéler totalement inefficaces et d’ailleurs s’appliqueraient fort mal aux types de matériaux à traiter. L’utilisation de nouveaux matériaux remet en question certaines bases établies et il est clair que le choix de techniques de composition ne peut se passer d’une réflexion sur les matériaux qu’elles vont utiliser. Celles-ci ne peuvent prétendre préexister dans tout les cas aux matériaux, comme en retour, un matériau peut engendrer son propre mode de développement plutôt qu’un autre. S’il fallait tirer une conclusion théorique de cette situation, je dirai qu’on assiste, actuellement, à une grande prolifération des composants musicaux utilisés. Les méthodes de synthèses, se faisant toujours plus perfectionnées, on peut évidemment traiter le son du plus profond de lui-même. Si les composants traditionnels sont évidemment toujours de mise, ils ne sont pas les seuls constituants de l’appareil compositionnel. Il faut désormais pouvoir se placer à différents niveaux hiérarchiques du discours musical, quelque part entre la structure globale et la définition morphologique des sons tout en sachant qu’il est un leurre de vouloir traiter tout le temps ces deux extrêmes simultanément. La différence d’attitude se fait surtout en ce sens que, dans la musique électronique, les modes de transformations sont à imaginer par rapport à un matériau spécifique, alors que dans la musique instrumentale, ils peuvent rester plus indépendant de ce matériau. La raison en est, j’y reviendrai plus tard, que nous n’avons aucune mémoire pour ces nouveaux matériaux.

 

Le statut de l’écriture et de l’interprétation dans la musique électronique.

Il est courant de dire que la musique électronique ne se situe pas historiquement dans le cadre d’une écriture. C’est tout à fait vrai si l’on prends en considération tout ce qui a été dit a ce sujet précédemment. Mais on peut concevoir aussi que l’écriture est avant tout une manière de définir le comportement de ces objets dans le discours musical, ou pour reprendre la belle formule de Pierre Boulez se fait jour “une sociologie des comportements musicaux”. Finalement, les comportements et la morphologie sont ce qui constituent la totalité du discours. En tout état de cause, l’écriture traditionnelle a pour but d’assigner des valeurs à des composants musicaux et c’est exactement ce qui se passe, surtout lorsque l’on a recours aux moyens informatiques. Il est intéressant de constater que ce terme “écriture” est fréquemment utilisé dans le jargon informatique, on “écrit” et on “efface” des valeurs dans les registres d’une machine. L’association de toutes ces valeurs écrites définie l’objet et son comportement, et qui plus est, il est tout à fait légitime de mettre en parallèle les différents stades d’écriture traditionnelle avec les différentes couches de transformation que l’on peut faire subir à un matériau. On y retrouve la même faculté génératrice d’idées et, les moyens techniques le permettant, il est tout à fait possible d’agencer ces couches de manière à ce qu’elles interfèrent les unes avec les autres. On peut, pour bien saisir cette situation, prendre l’image d’un objet vu au travers de différents prismes qui, chacun, a le pouvoir d’altérer sa morphologie de manière spécifique. La superposition, partielle ou totale, de ces différents prismes ainsi que leur changement dans le temps donnent à l’objet des configurations nouvelles et variées. Il est extrêmement fréquent, dans ces conditions, de découvrir des situations qui n’auraient pu être imaginées sans ce travail “d’écriture sur du matériau”, c’est même, d’une certaine manière, nous le verrons, un peu la loi.

Reste la question de l’interprétation. Ici la question du support est essentielle. Peut-on raisonnablement parler d’interprétation dans le cadre d’une musique figée sur support magnétique ? La marge de manoeuvre est très mince car, mise à part la spatialisation et le niveau sonore, rien ne permet d’agir sur le devenir musicale qui, de plus, est constamment figé dans le temps de déroulement immuable d’une bande magnétique. Si la spatialisation est une donnée assez peu manipulable dans la musique instrumentale, elle représente, en effet, un apport de la musique électronique. Mais il faut bien reconnaître que dans la liste des composants utilisés par un compositeur, la spatialisation ne se situe pas à un niveau hiérarchique très fort. Je ne dis pas en cela, qu’il faille négliger pour autant cette possibilité, elle est même indispensable dans bien des cas, ne serait-ce que pour aider à la perception de différentes structures sonores si souvent compressées dans ces outils encore imparfaits que sont les haut-parleurs, mais la perception a beaucoup de mal à identifier des chemins topologiques qui n’entrent pas dans le cadre de formes très simples comme un mouvement stéréophonique ou encore un mouvement rotatif. Au delà de ces archétypes, et si ils se déroulent à une trop grande vitesse, les figures spatiales ne sont plus reconnues en tant que forme et se prêtent mal à des variations ou à des superpositions. Pour ces raisons limitatives, je ne pense pas que la spatialisation devienne un composant essentiel pour le compositeur ainsi qu’un élément véritablement primordial pour l’interprétation. Elle n’est que la place géographique à laquelle se situe un matériau. Elle peut aider dans la perception simultanées de différentes structures qui ne pourraient pas se démarquer les unes des autres sans cet aide mais ne possède pas un pouvoir de mémorisation formelle aussi puissant que celui d’autres composants musicaux. Il est pratiquement certain que ce n’est là aussi qu’un problème culturel et qu’une reconnaissance de forme spatiale complexe n’est “théoriquement” pas impossible. Mais c’est plusieurs siècles de musique et toute une éducation qu’il faudrait alors revoir. Quant  au niveau sonore, pour ne pas employer le terme musical de dynamique ou d’intensité, ce n’est guère que des valeurs de tensions électriques qui font modifier le niveau d’un signal, qui reste, d’autre part rigoureusement le même, exactement lorsque nous tournons le bouton de volume d’une chaîne hi-fi. La dynamique musicale, elle, n’est pas un paramètre en ce sens qu’elle fait varier toute une série d’autres composants musicaux comme les amplitudes, mais surtout l’apparition de nouveaux partiels à l’intérieur du spectre. La morphologie sonore est différente suivant les intensités avec lesquelles on produit le son, en d’autres termes la variation des dynamiques est un facteur qualitatif autant que quantitatif, ce qui n’est pas le cas dans la musique sur bande. Jusqu’à une époque relativement récente, et tant que la musique électronique n’était pas produite par des systèmes en temps-réel, on ne pouvait, il est vrai, absolument pas parler d’interprétation. L’absence d’interprétation était le dernier bastion dans lequel pouvaient se retrancher les farouches opposants de cette pratique musicale, mais, fort heureusement, les choses ont bien changé de ce point de vue.

L’informatisation, désormais totale, de la musique électronique a considérablement évoluée avec l’apport des systèmes en temps-réel. Ce terme de temps-réel est à prendre cependant avec certaines précautions. Dans le contexte musical, cela signifie simplement que le temps entre lequel les données sont envoyées à un processeur de calcul et est restitué le résultat sonore est tellement rapide que l’oreille ne peut pas le percevoir. Cela ne signifie pas pour autant que tout ce qui est produit, lors d’une exécution, le soit en temps réel. En d’autres termes, et pour reprendre la définition de l’objet musical telle que je l’ai donnée précédemment, dans la quantité de paramètres dont je dispose, certains pourront être définis en temps-différé (c’est à dire écrits une fois pour toute dans la partition synthétique) alors que d’autres seront le seront en temps-réel. On retrouve, ici, la notion de partition telle que je l’avais exprimée plus haut, c’est à dire un mélange de valeurs absolues, non-modifiables par l’interprète, et de valeurs relatives, exprimées non par des symboles précis mais par des zones. A partir de cela, il me parait évident que le grand apport des systèmes en temps réel, plus que l’immédiateté avec laquelle on obtient le résultat du calcul, se situe dans le domaine de l’interactivité.  Qui dit interactivité, musicalement parlant, dit aussi interprétation. La musique électronique peut très bien se concevoir par rapport à une interprétation possible et ces critères d’interprétation peuvent être choisis dans le champ traditionnel qui est celui de la musique instrumentale. Il aurait, en effet, été fort dommage, dans un premier temps,  de substituer à l’apport que nous lègue la longue expérience de la musique instrumentale des critères d’interprétations conçus sur d’autres modes que ceux auxquels sont habitués les musiciens. La réunification de ces deux approches doit passer fatalement par l’alliance d’un savoir empirique avec un autre, plus expérimental. Il ne faut cependant pas en déduire de tout cela que les compositions instrumentales et électroniques s’abordent d’une manière totalement identique.

 

Mémoire et expérimentation.

Toutes les attitudes engendrées par l’écriture traditionnelle sur lesquelles je me suis expliqué au début, proviennent d’un savoir empirique qui s’est transmis de générations en générations. Certes, certaines parties (les plus théorisables comme l’harmonie ou le contrepoint) de ce savoir ont été codifié dans des traités qui, comme l’a dit quelqu’un “disent ce qu’il ne faut pas faire plus que ce qu’il faut faire”. Mais, si l’étude de ces disciplines ne peut faire de mal à personne, il faut bien reconnaître qu’elle n’est plus vraiment d’actualité pour la musique telle qu’elle se conçoit aujourd’hui. Cependant, un domaine comme celui de l’orchestration, beaucoup moins théorisable et moins directement lié au langage, a fait aussi l’objet de nombreux traités qui, même les plus géniaux comme celui de Berlioz, restent assez confus à cet égard. On y trouve les règles de base comme la liste des possibilités instrumentales à une époque donnée, les manières de bien faire sonner un accord avec l’alliage de plusieurs familles instrumentales, quelques exemples tirés du répertoire et surtout des renseignements sur la manière dont on concevait le timbre à ces époques. Finalement ces ouvrages restent plus musicologiques que réellement utilisables. En y réfléchissant on peut se demander comment il pourrait en être autrement, l’orchestration n’obéissant pas à des règles de déductions aussi précises que les autres domaines. Aujourd’hui, la tâche n’en est que plus difficile car l’orchestration n’est plus considérée comme un domaine consécutif à la composition mais peut être très tôt intégrée à l’intérieur des esquisses. Vue la faiblesse pédagogique inhérente à cette discipline, c’est par l’étude des partitions que nous pouvons acquérir les connaissances nécessaires. Mais il n’en demeure pas moins qu’il s’agit de matériaux que nous connaissons bien et nous devons être capable d’imaginer ce que donnera le résultat final, ou du moins une grande partie, sans avoir un orchestre à notre disposition. Dans ce domaine la mémoire culturelle catalyse notre imagination car nous travaillons à partir d’objets connus et répertoriés. Ce n’est absolument pas le cas avec les nouveaux matériaux. Nous n’avons, dans ce cas, aucune histoire, ou une histoire tellement récente et éclatée, qu’elle peut difficilement agir sur notre comportement. Certes il existe, des méthodes de synthèses très diverses et très spécifiques ayant chacune leur propre mode de fonctionnement et leurs propres contrôles, mais le matériau sonore lui-même étant tellement spécifique à une oeuvre donnée qu’il me paraît impensable de le réutiliser dans un autre contexte sans transformations substantielles 7. De ce point de vue la meilleure méthode d’investigation, la mémoire faisant défaut, reste l’expérimentation.

En écrivant Pluton ou La Partition du Ciel et de l’Enfer  il m’a été très fréquent de rencontrer des situations fortuites (parfois même consécutives à une erreur de programmation) qui, n’ayant pu être prévues, se sont ensuite révélées très fructueuses. J’avais initialement prévue toute la section introductrice pour l’orchestre seul, pensant y inclure ensuite des événements synthétiques une fois le programme mis au point. La section orchestrale terminée, je tentais d’y intégrer une partition synthétique qui devait parfois épouser les configurations instrumentales ou en dériver. Avec un peu de patience, je suis arrivé à quelques résultats satisfaisants quant au rapport son instrumental/synthétique, mais le problème s’est surtout posé lorsque je me suis aperçu que les dérivations que j’avais expérimentées m’ouvraient un champ d’investigation extrêmement riche que je n’avais pu imaginer. Le travail sur les sons inharmoniques, ainsi que sur le rôle du bruit comme altération des composants harmoniques qui étaient produits dans l’orchestre s’accommodait fort mal de la partition instrumentale qui évoluait sur des principes tout autres. J’ai alors préféré laisser libre cours aux potentialités de l’expérimentation dans le domaine de la synthèse et réécrire totalement la partition instrumentale à partir de ces résultats. Il m’était, en effet, plus facile d’imaginer des situations instrumentales propres à s’allier avec certains développement synthétique que le contraire, la faculté de prévisibilité étant dans ce domaine incommensurablement plus grande. J’ai ensuite continué l’écriture de cette pièce conjointement entre la synthèse et l’orchestre mais il m’était devenu évident qu’il me fallait laisser une ouverture aux solutions que l’expérimentation me proposait.

Si j’ai tenu à raconter cette anecdote, c’est avant tout pour montrer que tout en cherchant à unifier ces deux méthodes dans un même creuset théorique et fonctionnel, il n’est pas possible de transposer brutalement une attitude créatrice d’un domaine dans l’autre. Il faut opérer une transsubstantiation qui doit prendre en compte une réflexion, incontournable à mon sens, sur le support comme sur le matériau. Mémoire et expérimentation sont les bornes de cette réflexion.

 

Quant à l’esthétique.

Si je me suis longuement penché sur des considérations théoriques et techniques, il va de soi que tout ceci n’a de valeur que lorsqu’est proposé un but esthétique. D’autres l’on dit avant moi, technique et esthétique ne sont guère séparables, c’est par la première que l’on peut trouver la seconde. S’il ne m’est pas donné de dire en quoi cette esthétique peut consister, j’aimerai juste relever qu’il s’agit pour moi d’une problématique de l’instant. Cela signifie que, même à mon corps défendant, je suis amené à travailler de plus en plus localement sur des propositions qui se font jour dans le cadre d’une expérimentation. Si je peux imaginer quel but je dois atteindre, j’ignore encore quels sont les chemins qui vont m’y conduire. Poussé à l’extrême ce raisonnement pourrait conduire à l’incohérence. C’est là affaire d’engagement personnel. Dans la situation ou se trouvent les compositeurs de ma génération, il ne sert plus à rien de réveiller les bonnes vieilles querelles de nos prédécesseurs. Il s’en trouvera probablement plus devant nous que derrière. Les différents courants musicaux qui se font jour actuellement, mis à part cependant les résurgences et les nostalgies, ont chacun leurs propres concepts à développer, parmi ceux-çi, la note et le son ne demandent pas mieux que s’harmoniser.

 

                                                Philippe Manoury.

                                                Paris, Janvier 1990.

 

 

 

  1. JUPITER” pour flûte et 4X (1986), “PLUTON” pour piano et 4X (1987-88), “LA PARTITION DU CIEL ET DE L’ENFER” pour trois solistes, 4X et orchestre (1989). Oeuvres réalisées à l’IRCAM avec la collaboration technique de Miller Puckette et Cort Lippe.
  2. Pour prendre un exemple classique, la perception du rythme dans la musique tonale s’effectue suivant plusieurs hiérarchies : celles des durées séparant chaque événements produits dans le temps chronologique, celle de la fréquence des changements harmoniques, des phrases, des modulations, et enfin des proportions temporelles.
  3. Si l’on se prenait à imaginer ce qu’aurait donné une notation devant décrire les phénomènes sonores dans leur constitution physique, en admettant qu’on ai eu les appareils pour cela, il y aurait fort à parier que la musique en aurait été très différente. Cette situation, pour incongrue qu’elle puisse paraître, ne l’est pas tant que cela : c’est en effet à elle que nous sommes fréquemment confrontés dans la musique de synthèse.
  4. A d’autres époques, les partitions admettaient moins de symboles lorsqu’une tradition orale suppléait à ce qui n’était pas noté. Les symboles notés en priorité correspondaient au pouvoir discriminateur de l’oreille : les mouvements de hauteurs d’abord (les neumes du chant grégorien), les durées ensuite (surtout à partir de la polyphonie), les dynamiques ensuite (vers le XVIIIème siècle).
  5. Les exemples de Boulez et de Stockhausen dans leurs premières oeuvres sont, de ce point de vue, tout à fait éclairants. L’un comme l’autre ont tenté d’échapper au des formes d’expression qui relevaient d’une rhétorique traditionnelle (cf. les Structures pour 2 pianos et les Klavierstücke I-IV). Dans l’une ou l’autre de ces oeuvres on peut facilement voir une volonté de noter avec une ultra précision les indications de durées et de dynamiques de manière à ne pas laisser les vieilles habitudes prendre le dessus. Il est évident que ces notations étaient issues de principes de même nature et n’étaient pas un simple garde-fou pour l’interprête. Plus tard, s’apercevant de l’impasse que cela pouvait constituer, ils firent entrer des critères de variabilité dans leur notations.
  6. La notion de modèle connu est un problème de reconnaissance de forme et peut aujourd’hui être considérablement élargie. Un tel modèle peut être l’expression d’une catégorie repérable (contexte harmonique ou rythmique), une simulation de timbre instrumental (ou une hybridation entre plusieurs timbres), ou même simplement la description d’un comportement typique (une enveloppe de type percussif, par exemple, peut très bien servir de modèle de référence à tout une catégorie d’objets différents quant à leurs morphologies spectrales, harmoniques ou autres).
  7. Stockhausen, là encore, avait depuis longtemps, mais avec des moyens beaucoup plus rudimentaires, montré la voie. Dans Microphonie I un tam-tam est excité par différents modes de vibration qui sont ensuite filtrés. Si la valeur esthétique de cette oeuvre a quelque peu vieillie, en grande partie due au fait du peu de possibilités des moyens de transformation disponibles à cette époque, elle n’en démontre pas moins qu’aujourd’hui, plus qu’hier, chaque oeuvre doit posséder son propre monde sonore et qu’on ne peut pas impunément dupliquer tels quels les moyens de transformation d’une oeuvre sur l’autre.