Posts Tagged ‘interactivité’

La note et le son

Wednesday, October 22nd, 2008

Le choix du support.

Dans les trois dernières oeuvres que j’ai produites à ce jour 1, mon principal but a été d’intégrer dans un même discours deux mondes qui, auparavant communiquaient de façons plus parallèles que conjointes : la musique instrumentale et la musique électronique. Je ne veux bien sûr pas dire par là que ces oeuvres sont les premières à avoir confronté ces deux genres, mais plutôt qu’elles inaugurent une démarche tendant à  une unification de ces deux domaines, tant du point de vue théorique que de celui de leur propre mode de fonctionnement. En un mot, j’ai essayé d’unifier ces méthodes dans une vision commune en faisant bénéficier la plus récente des apports de la plus ancienne.

 S’il est certain que l’activité créatrice n’a jamais pu faire l’économie de l’intégration de nouveaux matériaux, il est intéressant de comprendre pourquoi ces phénomènes, dès leur apparition, ont du s’accommoder d’une scission que quarante années d’existence n’ont pas suffit à résorber totalement. Il est très clair en effet que, à quelques exceptions près, les musiciens de l’après-guerre ont du choisir très vite leurs camps : celui de l’écriture instrumentale ou celui de la musique électronique ( alors ayant comme support la bande magnétique ). Le choix d’un support implique le musicien dans sa réflexion et jusque dans son propre mode de fonctionnement à l’intérieur de la création. Ce choix dépendait en grande partie du niveau de culture musical de chacun, celui des premiers électroacousticiens étant, il faut l’avouer, moins complet. On a pu dire, non sans quelques exagérations, que d’un côté l’on composait avec des notes alors que de l’autre on composait avec des sons. Notes et sons sont des étendards qui représentent, en fait, une réalité plus complexe.

Bien qu’il ne s’agisse pas, pour moi, de nier les différences les caractérisant, je pense qu’aujourd’hui ces deux domaines sont très complémentaires dans la problématique musicale actuelle. Avant d’en expliquer la raison, je tenterai de montrer ce qui, selon moi, a provoqué cette séparation.

 

L’écriture.

Une des caractéristiques essentielle entre ces deux supports est très certainement le fait que, pour s’exprimer, la musique instrumentale passe par une écriture. L’écriture, dans la composition, n’est pas uniquement un moyen de fixer les idées sur papier pour pouvoir les transmettre à des instrumentistes, mais a plusieurs autres fonctions dont deux me paraissent fondamentales : son pouvoir d’abstraction d’une part, et son côté symbolique de l’autre. Ces deux foncions, on le verra plus tard, sont tout à fait complémentaires.

Le langage musical traditionnel évolue à partir d’éléments codifiés, répertoriés, classifiés, voire même standardisés, qui permettent une combinatoire. Ce que j’appelle “pouvoir d’abstraction” est la faculté de pouvoir travailler sur des objets encore abstraits, c’est à dire dégagés de leur contexte final rendant possible plusieurs niveaux de structurations qui peuvent, soit s’interpénétrer, soit fonctionner de manière plus indépendante. En prenant un objet simple tel qu’un intervalle, il est clair que, quelque soit sa transposition, sa registration, sa durée, son intensité, ou encore le timbre avec lequel il sera révélé, un intervalle reste un intervalle et sera reconnu comme tel. Il est un objet encore abstrait que l’on peut manipuler hors de tout contexte. Il ne faut pas en déduire pour autant que la composition instrumentale passe fatalement par ce stade de séparation de tout ses composants, mais elle le permet. Les conséquences perceptuelles en sont  immenses car le discours musical, évoluant à partir de différentes couches superposées, ayant chacune leur poids perceptif, c’est le rapport entre les éléments variants et invariants qui décidera de faire transiter l’information sur l’une ou l’autre de ces couches 2. Cette faculté d’abstraction permet donc d’opérer sur plusieurs niveaux de langage, et c’est ce qui en fait en grande partie sa richesse.

La condition de cette abstraction réside grandement dans le fait que la notation musicale est tout à fait symbolique. J’entends par là que lorsque j’écris pour une clarinette “Mib”  “pp crescendo”, “blanche pointée”, je ne définis en aucune manière le phénomène sonore du point de vue physique, mais fournis à un interprète les indications de doigté et de souffle qui lui permettra de réaliser cet événement, et qui me permettra, à moi, d’imaginer ce que sera le résultat. En d’autres termes, ce n’est pas l’effet que je note mais la manière de le produire. Quiconque a déjà vu l’analyse physique de tout les paramètres d’un son instrumental sait de quelle complexité il s’agit. Il n’est pas vain de constater que cette réduction de la complexité physique en un symbolisme simple et abstrait a été le garant de l’édification de constructions musicales extrêmement complexes 3.De manière plus générale, il faut entendre par “écriture” toutes les techniques de transformation d’un matériau sonore. Il est clair qu’aujourd’hui, quiconque désirerait analyser une partition contemporaine, aura du mal à se passer des esquisses successives qui ont amené au résultat final tant est important le nombre de transformations que l’on fait subir à un matériau de base. Ces différentes étapes non seulement situent certains de ces éléments abstraits en contexte et permettent de dégager peu à peu l’image finale, mais aussi font infléchir de manière substantielle l’idée musicale de base. L’intégration d’une structure de rythme, par exemple, dans une problématique de hauteurs et de timbres, suscite très souvent de nouvelles solutions qui n’auraient pas pu être imaginées sans elle. Les carnets d’esquisses de Beethoven, mais aussi de Debussy, montrent que cet état de fait ne date pas d’aujourd’hui. L’écriture, on le voit, est aussi catalysatrice d’idées et de concepts ou, souvent, une idée initiale se voit supplantée par d’autres qui sont directement issues de ce travail spécifique de l’écriture.

 

L’interprétation

Cependant, cet écrit sera interprété. Il serait plus juste de dire une partie de cet écrit, car suivant les époques, les compositeurs, mais aussi les divers instruments, les critères d’interprétation ont variés grandement 4. Les instruments de musique offrent des modes de contrôles divers et cela revient à exprimer que dans un partition il y a des valeurs absolues et relatives. S’il on prend le cas d’une partition pour piano, il est évident que la seule chose qui soit productible avec une exactitude absolue sont les hauteurs, tandis que les dynamiques se situent à l’intérieur de zones définies globalement (pp, mf, sfz …) mais ne correspondent en aucune façon à des valeurs absolues tant qu’elles restent dans le cadre d’un écrit. Seules les valeurs relatives sont interprétables et il faut souligner ici que interprétation est synonyme d’absence de prédétermination totale. En tout état de cause, une partition ne délivre qu’une partie du message, celle que le compositeur considère comme essentielle en regard de ce qu’il veut exprimer, l’autre partie étant définie en temps-réel par l’instrumentiste. Le compositeur fournit un texte qui sera “gauchis”. Le rapport entre l’écrit et l’interprétation s’étant établit dans le cadre d’une longue tradition, on a pu s’apercevoir que lorsque des compositeurs ont cherché à échapper par différents moyens à cette tradition, ils n’ont pu y parvenir que par le moyen d’une plus grande précision dans la notation 5. Mais il n’en demeure pas moins que, quelque soit la précision de la notation, certaines données sont interprétables et d’autres non. Tout ces phénomènes, on va le voir, ne se retrouvaient pas dans la musique électronique à ses débuts, et il me parait évident que c’est une des raisons qui a poussé bon nombre de compositeurs à se détourner de ces voies.

 

Matériaux et transformations dans la musique électronique.

Si l’écriture, par son pouvoir tant symbolique qu’abstrait, permet entre autre de travailler sur des objets encore détachés de leur fonction sonore définitive, les sons électroniques, de ce point de vue, offrent une grande réticence. Le matériau ne se laisse pas apprivoiser avec autant de souplesse. La réalité sonore était présente dès le début du travail et il était difficile d’abstraire autant de catégories que ne le permettait la musique instrumentale. Dans les débuts de la musique électronique s’opérait une distinction fondamentale entre sons de synthèse et sons concrets (ou techniques de traitement). Les premiers, surtout issus des travaux du studio de Cologne, proposaient, il est vrai, une approche plus déterministe et précise en ce sens que les compositeurs pouvaient définir des échelles de hauteurs non-tempérées et travailler ainsi sur des relations harmoniques nouvelles. Sur les seconds, expérimentés au studio de la RTF à Paris, on tentait d’opérer des transformations sur des sons enregistrés, et parfois non détachés d’un contexte anecdotique ce qui n’était pas sans dommage pour l’oeuvre. Stockhausen, le premier, semble avoir pris conscience du fait qu’on ne peut pas se passer impunément de références culturelles lorsqu’il a très tôt mélangé les sons d’une voix d’enfant aux sons électroniques dans Gesang der Junglinge, unifiant du même coup techniques de synthèse et de traitement dans un même discours. Dans la musique de synthèse pure, un problème harmonique est dû au fait que l’espace des hauteurs étant complètement libre et modulable, les catégories d’intervalles proposées ne se situent plus dans un contexte culturel tel que l’oreille puisse les identifier. D’autre part, réutiliser un espace totalement ou partiellement tempéré comme celui des instruments acoustiques n’a absolument aucun sens dans un tel contexte. On peut bien sûr concevoir des échelles sonores à profusion à l’aide du calcul, il n’est pas du tout évident que ces échelles demeurent pertinentes quant à leur perception. Enfin, d’un point de vue sonore, il faut bien reconnaître que ces premiers sons synthétiques souffraient d’une inertie très gênante du point de vue de leur morphologie sans parler des techniques d’enregistrement de l’époque qui “datent” cruellement ces oeuvres. On a pu assister, par ailleurs, à des tentatives d’apprivoiser ces sons dans les canons de l’écriture traditionnelle (sérialisation des objets, savants calcul des durées …) mais il faut bien reconnaître que ces démarches ne dépassaient pas un cadre formaliste assez étroit et étaient, tout au plus, une manière de réagir contre le laisser-aller, tant théorique qu’esthétique, qui accompagna souvent ces premières expériences.

Cependant, pour fondée qu’elle fût, la critique de la musique électronique, a aussi ses limites et, bien heureusement, on ne la rencontre plus aujourd’hui que dans des esprits aussi étroits qu’académiques. Si les concepts mirent un certain temps à se développer, il font désormais partie du back-ground musical actuel et je ne vois pas comment un compositeur pourrait, avec la même assurance que celle prônée autrefois, négliger cet état de fait.

Quel est donc le statut de ces nouveaux matériaux dans le cadre de la composition ? On peut dire d’une certaine manière qu’ils dépendent de leur rapport au contexte dans lequel il vont évoluer. La construction de leur morphologies, plus ou moins complexe, leurs relations avec un modèle connu 6, leur faculté à être transformés jusqu’à l’anonymat en fera, ou non des objets intégrables. Il se joue ici une dialectique entre la complexité de l’objet et celle de son contexte. La frontière entre les deux pourra être parfois ambigüe : lorsque l’objet est trop complexe pour pouvoir être intégré dans un contexte en tant qu’élément de celui-ci, il deviend lui-même ce contexte. On n’est pas loin ici d’une situation déjà connue : la perception d’une structure harmonique ou polyphonique ne peut se faire que lorsque les éléments qui la révele remplissent les conditions d’un certain anonymat ou d’une certaine standardisation, alors que dans d’autres civilisations, la non-standardisation de la forme des sons a été de pair avec des systèmes en grande partie monodiques.

Comment peut-on conceptualiser cette notion d’objet aujourd’hui ? il s’agit en fait d’un ensemble sur lequel pointe plusieurs paramètres de variations qui sont responsables des differents niveaux morphologiques qui le constitue. Le nombre de ces paramètres peut être différents suivant les cas, la chose importante étant qu’une indépendance de contrôle d’un paramètre sur l’autre soit respecté. Les différentes techniques permettant les transformations de ces objets sont trop nombreuses pour pouvoir être ici énumérées et beaucoup restent à inventer car le nombre de ces objets étant aussi grand que ce que l’imagination peut concevoir. Mais il me semble qu’un grande partie de ces opérations vont dans le sens d’une décomposition de l’objet sonore ou les divers éléments d’un matériau peuvent être isolés et manipulés de manière indépendante et avec lesquels on peut travailler. Je citerai comme exemple celui de l’indépendance des contrôles harmoniques et spectraux. ou l’on peut, tout en gardant la fonctionnalité harmonique d’un objet, faire varier sa morphologie spectrale dans laquelle apparaîtront et disparaîtront certains des éléments qui le composent et vice versa. La création de variations continues entre des objets, en modifiant progressivement chacun des paramètres qui contrôlent leurs caractéristiques harmoniques, spectrales ou autre, peut les faire transiter de familles à familles. Il faut pour cela déterminer des familles morphologiques qui réuniront, sous leurs principes, une certaine quantité d’objets. Les critères de définition morphologique sont, eux aussi, très nombreux : harmonicité, inharmonicité, stables ou instables en fréquences, suivant certaines caractéristiques d’enveloppes, bruités ou non, suivant leur niveaux de brillance ou de rugosité etc…. Lorsqu’il est possible d’isoler ainsi certains composants, nous ne sommes pas loin de la situation décrite précédemment dans l’écriture traditionnelle ou les objets ont la propriétés de fonctionner comme autant de couches superposées.  Ici, c’est au niveau des relations entre les différents types de contrôle que s’opérera, ou non, une fusion de l’objet dans lequel chacun de ses paramètres sera intégré dans une entité perceptuelle.

Certes, il ne faut pas penser parvenir à une situation stabilisée et standardisée, ce ne serait d’ailleurs guère souhaitable. C’est plutôt au niveau de la méthodologie et de la conceptualisation qu’il faut porter ses efforts. Il est clair que dans ce cadre, certaines opérations classiques comme les transpositions, les inversions ou les renversements pourront se révéler totalement inefficaces et d’ailleurs s’appliqueraient fort mal aux types de matériaux à traiter. L’utilisation de nouveaux matériaux remet en question certaines bases établies et il est clair que le choix de techniques de composition ne peut se passer d’une réflexion sur les matériaux qu’elles vont utiliser. Celles-ci ne peuvent prétendre préexister dans tout les cas aux matériaux, comme en retour, un matériau peut engendrer son propre mode de développement plutôt qu’un autre. S’il fallait tirer une conclusion théorique de cette situation, je dirai qu’on assiste, actuellement, à une grande prolifération des composants musicaux utilisés. Les méthodes de synthèses, se faisant toujours plus perfectionnées, on peut évidemment traiter le son du plus profond de lui-même. Si les composants traditionnels sont évidemment toujours de mise, ils ne sont pas les seuls constituants de l’appareil compositionnel. Il faut désormais pouvoir se placer à différents niveaux hiérarchiques du discours musical, quelque part entre la structure globale et la définition morphologique des sons tout en sachant qu’il est un leurre de vouloir traiter tout le temps ces deux extrêmes simultanément. La différence d’attitude se fait surtout en ce sens que, dans la musique électronique, les modes de transformations sont à imaginer par rapport à un matériau spécifique, alors que dans la musique instrumentale, ils peuvent rester plus indépendant de ce matériau. La raison en est, j’y reviendrai plus tard, que nous n’avons aucune mémoire pour ces nouveaux matériaux.

 

Le statut de l’écriture et de l’interprétation dans la musique électronique.

Il est courant de dire que la musique électronique ne se situe pas historiquement dans le cadre d’une écriture. C’est tout à fait vrai si l’on prends en considération tout ce qui a été dit a ce sujet précédemment. Mais on peut concevoir aussi que l’écriture est avant tout une manière de définir le comportement de ces objets dans le discours musical, ou pour reprendre la belle formule de Pierre Boulez se fait jour “une sociologie des comportements musicaux”. Finalement, les comportements et la morphologie sont ce qui constituent la totalité du discours. En tout état de cause, l’écriture traditionnelle a pour but d’assigner des valeurs à des composants musicaux et c’est exactement ce qui se passe, surtout lorsque l’on a recours aux moyens informatiques. Il est intéressant de constater que ce terme “écriture” est fréquemment utilisé dans le jargon informatique, on “écrit” et on “efface” des valeurs dans les registres d’une machine. L’association de toutes ces valeurs écrites définie l’objet et son comportement, et qui plus est, il est tout à fait légitime de mettre en parallèle les différents stades d’écriture traditionnelle avec les différentes couches de transformation que l’on peut faire subir à un matériau. On y retrouve la même faculté génératrice d’idées et, les moyens techniques le permettant, il est tout à fait possible d’agencer ces couches de manière à ce qu’elles interfèrent les unes avec les autres. On peut, pour bien saisir cette situation, prendre l’image d’un objet vu au travers de différents prismes qui, chacun, a le pouvoir d’altérer sa morphologie de manière spécifique. La superposition, partielle ou totale, de ces différents prismes ainsi que leur changement dans le temps donnent à l’objet des configurations nouvelles et variées. Il est extrêmement fréquent, dans ces conditions, de découvrir des situations qui n’auraient pu être imaginées sans ce travail “d’écriture sur du matériau”, c’est même, d’une certaine manière, nous le verrons, un peu la loi.

Reste la question de l’interprétation. Ici la question du support est essentielle. Peut-on raisonnablement parler d’interprétation dans le cadre d’une musique figée sur support magnétique ? La marge de manoeuvre est très mince car, mise à part la spatialisation et le niveau sonore, rien ne permet d’agir sur le devenir musicale qui, de plus, est constamment figé dans le temps de déroulement immuable d’une bande magnétique. Si la spatialisation est une donnée assez peu manipulable dans la musique instrumentale, elle représente, en effet, un apport de la musique électronique. Mais il faut bien reconnaître que dans la liste des composants utilisés par un compositeur, la spatialisation ne se situe pas à un niveau hiérarchique très fort. Je ne dis pas en cela, qu’il faille négliger pour autant cette possibilité, elle est même indispensable dans bien des cas, ne serait-ce que pour aider à la perception de différentes structures sonores si souvent compressées dans ces outils encore imparfaits que sont les haut-parleurs, mais la perception a beaucoup de mal à identifier des chemins topologiques qui n’entrent pas dans le cadre de formes très simples comme un mouvement stéréophonique ou encore un mouvement rotatif. Au delà de ces archétypes, et si ils se déroulent à une trop grande vitesse, les figures spatiales ne sont plus reconnues en tant que forme et se prêtent mal à des variations ou à des superpositions. Pour ces raisons limitatives, je ne pense pas que la spatialisation devienne un composant essentiel pour le compositeur ainsi qu’un élément véritablement primordial pour l’interprétation. Elle n’est que la place géographique à laquelle se situe un matériau. Elle peut aider dans la perception simultanées de différentes structures qui ne pourraient pas se démarquer les unes des autres sans cet aide mais ne possède pas un pouvoir de mémorisation formelle aussi puissant que celui d’autres composants musicaux. Il est pratiquement certain que ce n’est là aussi qu’un problème culturel et qu’une reconnaissance de forme spatiale complexe n’est “théoriquement” pas impossible. Mais c’est plusieurs siècles de musique et toute une éducation qu’il faudrait alors revoir. Quant  au niveau sonore, pour ne pas employer le terme musical de dynamique ou d’intensité, ce n’est guère que des valeurs de tensions électriques qui font modifier le niveau d’un signal, qui reste, d’autre part rigoureusement le même, exactement lorsque nous tournons le bouton de volume d’une chaîne hi-fi. La dynamique musicale, elle, n’est pas un paramètre en ce sens qu’elle fait varier toute une série d’autres composants musicaux comme les amplitudes, mais surtout l’apparition de nouveaux partiels à l’intérieur du spectre. La morphologie sonore est différente suivant les intensités avec lesquelles on produit le son, en d’autres termes la variation des dynamiques est un facteur qualitatif autant que quantitatif, ce qui n’est pas le cas dans la musique sur bande. Jusqu’à une époque relativement récente, et tant que la musique électronique n’était pas produite par des systèmes en temps-réel, on ne pouvait, il est vrai, absolument pas parler d’interprétation. L’absence d’interprétation était le dernier bastion dans lequel pouvaient se retrancher les farouches opposants de cette pratique musicale, mais, fort heureusement, les choses ont bien changé de ce point de vue.

L’informatisation, désormais totale, de la musique électronique a considérablement évoluée avec l’apport des systèmes en temps-réel. Ce terme de temps-réel est à prendre cependant avec certaines précautions. Dans le contexte musical, cela signifie simplement que le temps entre lequel les données sont envoyées à un processeur de calcul et est restitué le résultat sonore est tellement rapide que l’oreille ne peut pas le percevoir. Cela ne signifie pas pour autant que tout ce qui est produit, lors d’une exécution, le soit en temps réel. En d’autres termes, et pour reprendre la définition de l’objet musical telle que je l’ai donnée précédemment, dans la quantité de paramètres dont je dispose, certains pourront être définis en temps-différé (c’est à dire écrits une fois pour toute dans la partition synthétique) alors que d’autres seront le seront en temps-réel. On retrouve, ici, la notion de partition telle que je l’avais exprimée plus haut, c’est à dire un mélange de valeurs absolues, non-modifiables par l’interprète, et de valeurs relatives, exprimées non par des symboles précis mais par des zones. A partir de cela, il me parait évident que le grand apport des systèmes en temps réel, plus que l’immédiateté avec laquelle on obtient le résultat du calcul, se situe dans le domaine de l’interactivité.  Qui dit interactivité, musicalement parlant, dit aussi interprétation. La musique électronique peut très bien se concevoir par rapport à une interprétation possible et ces critères d’interprétation peuvent être choisis dans le champ traditionnel qui est celui de la musique instrumentale. Il aurait, en effet, été fort dommage, dans un premier temps,  de substituer à l’apport que nous lègue la longue expérience de la musique instrumentale des critères d’interprétations conçus sur d’autres modes que ceux auxquels sont habitués les musiciens. La réunification de ces deux approches doit passer fatalement par l’alliance d’un savoir empirique avec un autre, plus expérimental. Il ne faut cependant pas en déduire de tout cela que les compositions instrumentales et électroniques s’abordent d’une manière totalement identique.

 

Mémoire et expérimentation.

Toutes les attitudes engendrées par l’écriture traditionnelle sur lesquelles je me suis expliqué au début, proviennent d’un savoir empirique qui s’est transmis de générations en générations. Certes, certaines parties (les plus théorisables comme l’harmonie ou le contrepoint) de ce savoir ont été codifié dans des traités qui, comme l’a dit quelqu’un “disent ce qu’il ne faut pas faire plus que ce qu’il faut faire”. Mais, si l’étude de ces disciplines ne peut faire de mal à personne, il faut bien reconnaître qu’elle n’est plus vraiment d’actualité pour la musique telle qu’elle se conçoit aujourd’hui. Cependant, un domaine comme celui de l’orchestration, beaucoup moins théorisable et moins directement lié au langage, a fait aussi l’objet de nombreux traités qui, même les plus géniaux comme celui de Berlioz, restent assez confus à cet égard. On y trouve les règles de base comme la liste des possibilités instrumentales à une époque donnée, les manières de bien faire sonner un accord avec l’alliage de plusieurs familles instrumentales, quelques exemples tirés du répertoire et surtout des renseignements sur la manière dont on concevait le timbre à ces époques. Finalement ces ouvrages restent plus musicologiques que réellement utilisables. En y réfléchissant on peut se demander comment il pourrait en être autrement, l’orchestration n’obéissant pas à des règles de déductions aussi précises que les autres domaines. Aujourd’hui, la tâche n’en est que plus difficile car l’orchestration n’est plus considérée comme un domaine consécutif à la composition mais peut être très tôt intégrée à l’intérieur des esquisses. Vue la faiblesse pédagogique inhérente à cette discipline, c’est par l’étude des partitions que nous pouvons acquérir les connaissances nécessaires. Mais il n’en demeure pas moins qu’il s’agit de matériaux que nous connaissons bien et nous devons être capable d’imaginer ce que donnera le résultat final, ou du moins une grande partie, sans avoir un orchestre à notre disposition. Dans ce domaine la mémoire culturelle catalyse notre imagination car nous travaillons à partir d’objets connus et répertoriés. Ce n’est absolument pas le cas avec les nouveaux matériaux. Nous n’avons, dans ce cas, aucune histoire, ou une histoire tellement récente et éclatée, qu’elle peut difficilement agir sur notre comportement. Certes il existe, des méthodes de synthèses très diverses et très spécifiques ayant chacune leur propre mode de fonctionnement et leurs propres contrôles, mais le matériau sonore lui-même étant tellement spécifique à une oeuvre donnée qu’il me paraît impensable de le réutiliser dans un autre contexte sans transformations substantielles 7. De ce point de vue la meilleure méthode d’investigation, la mémoire faisant défaut, reste l’expérimentation.

En écrivant Pluton ou La Partition du Ciel et de l’Enfer  il m’a été très fréquent de rencontrer des situations fortuites (parfois même consécutives à une erreur de programmation) qui, n’ayant pu être prévues, se sont ensuite révélées très fructueuses. J’avais initialement prévue toute la section introductrice pour l’orchestre seul, pensant y inclure ensuite des événements synthétiques une fois le programme mis au point. La section orchestrale terminée, je tentais d’y intégrer une partition synthétique qui devait parfois épouser les configurations instrumentales ou en dériver. Avec un peu de patience, je suis arrivé à quelques résultats satisfaisants quant au rapport son instrumental/synthétique, mais le problème s’est surtout posé lorsque je me suis aperçu que les dérivations que j’avais expérimentées m’ouvraient un champ d’investigation extrêmement riche que je n’avais pu imaginer. Le travail sur les sons inharmoniques, ainsi que sur le rôle du bruit comme altération des composants harmoniques qui étaient produits dans l’orchestre s’accommodait fort mal de la partition instrumentale qui évoluait sur des principes tout autres. J’ai alors préféré laisser libre cours aux potentialités de l’expérimentation dans le domaine de la synthèse et réécrire totalement la partition instrumentale à partir de ces résultats. Il m’était, en effet, plus facile d’imaginer des situations instrumentales propres à s’allier avec certains développement synthétique que le contraire, la faculté de prévisibilité étant dans ce domaine incommensurablement plus grande. J’ai ensuite continué l’écriture de cette pièce conjointement entre la synthèse et l’orchestre mais il m’était devenu évident qu’il me fallait laisser une ouverture aux solutions que l’expérimentation me proposait.

Si j’ai tenu à raconter cette anecdote, c’est avant tout pour montrer que tout en cherchant à unifier ces deux méthodes dans un même creuset théorique et fonctionnel, il n’est pas possible de transposer brutalement une attitude créatrice d’un domaine dans l’autre. Il faut opérer une transsubstantiation qui doit prendre en compte une réflexion, incontournable à mon sens, sur le support comme sur le matériau. Mémoire et expérimentation sont les bornes de cette réflexion.

 

Quant à l’esthétique.

Si je me suis longuement penché sur des considérations théoriques et techniques, il va de soi que tout ceci n’a de valeur que lorsqu’est proposé un but esthétique. D’autres l’on dit avant moi, technique et esthétique ne sont guère séparables, c’est par la première que l’on peut trouver la seconde. S’il ne m’est pas donné de dire en quoi cette esthétique peut consister, j’aimerai juste relever qu’il s’agit pour moi d’une problématique de l’instant. Cela signifie que, même à mon corps défendant, je suis amené à travailler de plus en plus localement sur des propositions qui se font jour dans le cadre d’une expérimentation. Si je peux imaginer quel but je dois atteindre, j’ignore encore quels sont les chemins qui vont m’y conduire. Poussé à l’extrême ce raisonnement pourrait conduire à l’incohérence. C’est là affaire d’engagement personnel. Dans la situation ou se trouvent les compositeurs de ma génération, il ne sert plus à rien de réveiller les bonnes vieilles querelles de nos prédécesseurs. Il s’en trouvera probablement plus devant nous que derrière. Les différents courants musicaux qui se font jour actuellement, mis à part cependant les résurgences et les nostalgies, ont chacun leurs propres concepts à développer, parmi ceux-çi, la note et le son ne demandent pas mieux que s’harmoniser.

 

                                                Philippe Manoury.

                                                Paris, Janvier 1990.

 

 

 

  1. JUPITER” pour flûte et 4X (1986), “PLUTON” pour piano et 4X (1987-88), “LA PARTITION DU CIEL ET DE L’ENFER” pour trois solistes, 4X et orchestre (1989). Oeuvres réalisées à l’IRCAM avec la collaboration technique de Miller Puckette et Cort Lippe.
  2. Pour prendre un exemple classique, la perception du rythme dans la musique tonale s’effectue suivant plusieurs hiérarchies : celles des durées séparant chaque événements produits dans le temps chronologique, celle de la fréquence des changements harmoniques, des phrases, des modulations, et enfin des proportions temporelles.
  3. Si l’on se prenait à imaginer ce qu’aurait donné une notation devant décrire les phénomènes sonores dans leur constitution physique, en admettant qu’on ai eu les appareils pour cela, il y aurait fort à parier que la musique en aurait été très différente. Cette situation, pour incongrue qu’elle puisse paraître, ne l’est pas tant que cela : c’est en effet à elle que nous sommes fréquemment confrontés dans la musique de synthèse.
  4. A d’autres époques, les partitions admettaient moins de symboles lorsqu’une tradition orale suppléait à ce qui n’était pas noté. Les symboles notés en priorité correspondaient au pouvoir discriminateur de l’oreille : les mouvements de hauteurs d’abord (les neumes du chant grégorien), les durées ensuite (surtout à partir de la polyphonie), les dynamiques ensuite (vers le XVIIIème siècle).
  5. Les exemples de Boulez et de Stockhausen dans leurs premières oeuvres sont, de ce point de vue, tout à fait éclairants. L’un comme l’autre ont tenté d’échapper au des formes d’expression qui relevaient d’une rhétorique traditionnelle (cf. les Structures pour 2 pianos et les Klavierstücke I-IV). Dans l’une ou l’autre de ces oeuvres on peut facilement voir une volonté de noter avec une ultra précision les indications de durées et de dynamiques de manière à ne pas laisser les vieilles habitudes prendre le dessus. Il est évident que ces notations étaient issues de principes de même nature et n’étaient pas un simple garde-fou pour l’interprête. Plus tard, s’apercevant de l’impasse que cela pouvait constituer, ils firent entrer des critères de variabilité dans leur notations.
  6. La notion de modèle connu est un problème de reconnaissance de forme et peut aujourd’hui être considérablement élargie. Un tel modèle peut être l’expression d’une catégorie repérable (contexte harmonique ou rythmique), une simulation de timbre instrumental (ou une hybridation entre plusieurs timbres), ou même simplement la description d’un comportement typique (une enveloppe de type percussif, par exemple, peut très bien servir de modèle de référence à tout une catégorie d’objets différents quant à leurs morphologies spectrales, harmoniques ou autres).
  7. Stockhausen, là encore, avait depuis longtemps, mais avec des moyens beaucoup plus rudimentaires, montré la voie. Dans Microphonie I un tam-tam est excité par différents modes de vibration qui sont ensuite filtrés. Si la valeur esthétique de cette oeuvre a quelque peu vieillie, en grande partie due au fait du peu de possibilités des moyens de transformation disponibles à cette époque, elle n’en démontre pas moins qu’aujourd’hui, plus qu’hier, chaque oeuvre doit posséder son propre monde sonore et qu’on ne peut pas impunément dupliquer tels quels les moyens de transformation d’une oeuvre sur l’autre.