Posts Tagged ‘Stockhausen’

Entretien avec Jean-Pierre Derrien (1995)

Thursday, October 23rd, 2008

Entretien réalisé à l’Ircam le 19 avril 1995 

JPD : Vous êtes compositeur, professeur, vous êtes et avait été chercheur à l’Ircam. Mais tout ça est organisé, me semble-t-il, autour du travail central de compositeur. Alors comment devient-on compositeur, quand on est né en 1952 et qu’on arrive à 20 ans dans un paysage extrêmement encombré par une génération très présente, celle de Boulez, Stockhausen, Xenakis et autres ?

 

PM : Je devais avoir douze ou treize ans lorsque j’ai commencé à composer. Je ne savais même pas qui étaient Boulez, Stockhausen ni Xenakis. Mon univers était surtout celui de quelques pièces de musique classique que je connaissais par mes études de piano : les œuvres de Chopin, quelques sonates de Beethoven et de Mozart, un univers très réduit dans le temps. Ensuite, toujours grâce au piano, j’ai découvert Debussy, Ravel, Bartok et Stravinsky. J’ai fait plusieurs essais en composition sous ces influences vers l’âge de quinze ans. Ce n’est qu’un ou deux ans plus tard que, par l’intermédiaire de Gérard Condé, j’ai découvert la musique de l’École de Vienne ainsi que quelques pièces contemporaines. Il m’a présenté à Max Deutsch, qui était un élève du Schönberg de l’époque viennoise, avec lequel j’ai commencé à travailler. Il y avait, parallèlement, toute une activité musicale à Paris – puisque j’habitais Paris et je crois que c’est très important -, qui m’a permit de connaître la musique de mon époque. C’étaient les concerts qu’organisait Maurice Fleuret au Théâtre de la Ville, les SMIP. Parmi toute sorte de choses il y avait surtout, chaque hiver, un concert de Stockhausen. Cela a été des véritables chocs. J’ai découvert Mantra à sa création, Hymnen, Momente, Gruppen, Carré. C’est également à cette époque que j’ai eu la révélation de la musique électro-acoustique. Les concerts de Stockhausen étaient, chaque année, mon “Woodstock personnel”. Je les attendais avec impatience. J’ai eu de la chance d’avoir vécu cela. Il y avait aussi quelques concerts qu’avait donné Boulez avec le BBC Symphony Orchestra. Je me rappelle surtout de la création d’Eclats-multiples avec Michel Beroff au piano, concert dans lequel Boulez a également dirigé Amérique de Varèse et la version pour orchestre à cordes de l’opus 5 de Webern. Je me rappelle de ce concert comme quelque chose de très important pour moi, parce que Boulez, qui vivait à New-York à cette époque-là, ne dirigeait presque jamais en France. Il y avait quelques disques, mais pas énormément. Je le connaissais surtout par ses partitions et ses livres. Je connaissais son oeuvre surtout d’un point de vue théorique, ce qui n’était pas le cas de Stockhausen qui venait régulièrement à Paris. Ces deux types de fréquentations différentes, l’une plus théorique, l’autre plus vivante, ont finalement orientés très fortement mes choix de compositeurs au début.

 

JPD : Est-ce que ces livres de Boulez ont été des outils que vous avez pu immédiatement utiliser ?

 

PM : Absolument pas. Je pense d’ailleurs que c’est impossible de les utiliser ainsi sans faire du sous-Boulez, ce qui est arrivé à plusieurs personnes. Mais cela m’a fortement marqué d’un point de vue intellectuel et méthodologique, comme une certaine éthique de la composition, ce qui est à mon sens plus important que les techniques elles-mêmes. Cela m’a ouvert les yeux sur une manière de concevoir la musique que je ne connaissais pas. Mon rapport à la composition était très “romantique” à cette époque. C’est-à-dire que composant de manière intuitive, puisque comme tout débutant sans métier réel on ne peut composer qu’avec l’intuition, j’ai acquis certains réflexes et une certaine méthodologie de pensée qui m’a ouvert des horizons différents de ceux que je possédais dans mon éducation. Le recours à la pensée structuraliste et la place de la technique dans l’invention ont été les principaux outils intellectuels que j’ai retiré de ces lectures.

 

JPD : Mais ces outils intellectuels différents de ceux de la fin du siècle, est-ce que l’on ne devait pas, à l’époque où vous êtes arrivé à la composition, les connaître par le conservatoire ?

P.M. Mais je n’étais pas au conservatoire. Je n’y suis allé que bien après, en 1974. Je vous parle des années 69-70, lorsque j’avais dix-sept, dix-huit ans. J’ai fait ce travail moi-même. Évidemment, des gens m’ont aidé, mais je reste persuadé que l’on apprend à composer tout seul. D’ailleurs, aussi loin que je puisse me souvenir, j’ai commencé à écrire la musique au moment où j’ai appris à la lire lorsque je devais avoir onze ou douze ans. L’écriture et la lecture sont venues de manière pratiquement simultanée chez moi.

 

JPD : Qu’est-ce que vous avez appris au conservatoire ?

 

PM : On m’avait présenté Michel Philippot qui y enseignait la composition, et dont j’avais assisté à une conférence sur des travaux de formalisations musicales éffectués sur ordinateur. L’informatique musicale était une discipline encore balbutiante à cette époque. J’avais envie d’en savoir plus. Pierre Barbaud, un des pionniers de l’informatique musicale venait souvent à la classe. Il m’a ensuite invité à travailler à l’INRIA, un centre de recherches scientifique dans lequel j’ai fait mes premières armes dans le domaine de l’informatique musicale. Nous travaillons sur cartes perforées à cette époque ! Finalement, j’avais été au conservatoire un petit peu pour voir ce qui se passait et pour entrer aussi en contact avec des instrumentistes, ce qui ne s’est guère produit. Mais mis à part la personnalité de Philippot, qui m’a montré des méthodes de composition à partir d’éléments probabilistes que j’ai utilisées dans plusieurs de mes pièces à l’époque, mon passage au conservatoire n’a pas été une révélation surprenante car je pense ma personnalité de musicien et mes choix étaient déjà très formés à cette époque. J’avais déjà étudié assez profondémment l’analyse, l’harmonie et le contrepoint avant d’arriver au Conservatoire. J’avais également participé à plusieurs festivals tels que ceux de Royan et de Metz. Je ne veux pas dire qu’on évolue plus ensuite, cela serait dramatique, mais je pense qu’il y a un moment, dans la jeunesse, ou l’on arrête ses choix pour une assez longue période. Ce n’est qu’ensuite que l’on peut remettre à nouveau se remettre en question. Le conservatoire est probablement arrivé trop tard et trop tôt à la fois. C’est pourquoi je n’en garde pas un souvenir impérissable.

 

JPD : Pourquoi aviez-vous fait vos études classiques après avoir commencé à composer  ?

 

PM : Par curiosité et par envie personnelle. Je pense que l’essentiel pour un compositeur c’est, avant tout, le désir. Attendre d’avoir un métier entre les mains pour commencer à composer est, pour moi, suspect. Il faut qu’il y ait un désir d’écrire de la musique même avec deux ou trois bouts de ficelle, sans métier. C’est absolument indispensable. C’est cependant une condition nécéssaire mais non suffisante pour être compositeur. À ce sujet, je regrette beaucoup que l’on a énormément délaissé cet aspect de l’écriture musicale après 68. Cela peut paraitre “vieux jeu” mais je ne connais pas d’autres moyens pour une formation solide de l’oreille. Je crois que c’est Bério qui a dit que le contrepoint est la meilleure discipline pour relier le crayon au cerveau en passant par l’oreille. Cela peut aussi devenir une prison, ça dépend de l’imagination des gens, mais l’étude des techniques classiques développe l’écoute interne. Cela apprends à écouter des intervalles, des accords, à imaginer mentalement ce que l’on écrit. Il existe peut-être d’autres moyens à découvrir, mais personnellement je n’en connais aucun. Lorsque je rencontre certains étudiants, je m’apperçois qu’ils lisent très peu de partitions et ont une pratique de la musique qui passe beaucoup plus par le disque que par la lecture. Cela est surtout vrai chez ceux qui viennent du monde électroacoustique et désirent écrire pour des instruments. Ils sont les victimes d’une énorme scission que l’on a volontairement entretenu entre les partiques de studio et celles de la table. Je me bats sans arrêt contre cela. Je me souviens très bien, lorsque j’étais au Conservatoire, du mépris réciproque qui régnait entre ces deux populations. Je trouve cela dramatique. Beaucoup d’étudiants d’aujourd’hui subissent les conséquences néfastes de ces querelles de clocher, et il faudra des années avant de pouvoir effacer cela. Je me demande parfois quelle réalité sonore leur provoque la lecture d’une partition, quelle est la dimension de leur écoute intérieure. C’est un grand danger parce qu’un compositeur qui veut écrire une partition, ne peut le faire qu’avec une écoute intérieure très formée sinon comment entend-il ce qu’il écrit pour orchestre ?

 

JPD : Est-ce que vous pensez qu’une bonne formation de compositeur passe aussi par une connaissance de la musique prétonale ?

 

PM : Cela ne peut pas faire de mal. On doit avoir une idée, au moins subjective, de la manière dont les choses se sont déroulées et ont évolué. Mais ici, ce n’est pas d’une formation de oreille et de l’écriture dont il s’agit mais plutôt de culture personnelle ce qui se place à un niveau tout à fait différent. On doit avoir aussi une connaissance, ne serait-elle que superficielle, des musiques extra-européennes (terme un peu post-colonial que je n’aime pas), des musiques d’Océanie, d’Afrique, ou du Japon. Cela nous montre une autre manière de concevoir les sons, de concevoir la musique et relativise  notre situation. C’est comme le théâtre, je pense que c’est magnifique d’écouter une pièce de Molière ou de Shakespeare, mais il faut aussi voir ce qu’on fait les japonais dans le domaine du théâtre. Cela donne une vision complètement différente.

 

JDP : D’autres moyens d’expression, comme la peinture, nourrissent-ils votre imagination ? Parce qu’il est très frappant, par exemple – pour prendre le cas de Claudel, à propos de l’Extrême-Orient – que Claudel ait profondément modifié le théâtre, d’une part en connaissant l’Extrême-Orient et d’autre part par l’influence d’un autre art, en l’occurrence Wagner. Quelles sont les personnes, les œuvres, qui vous ont, au moment où vous commenciez à composer, aidé à féconder votre imagination pour prendre des choses ailleurs.

 

PM : Chez moi, la littérature a eu beaucoup d’importance. Dans les auteurs qui m’ont beaucoup intéressé, il y a eu au début Baudelaire, dans ses œuvres et ses critiques. Je crois que c’est en lisant les textes de Baudelaire que j’ai aussi compris qu’un artiste était quelqu’un qui avait une langue à travailler, qui devait se soucier de problème de forme, de problème de compréhensibilité et cela, c’est une idée qui ne m’a jamais quitté. Quand il écrivait : “il est impossible qu’un artiste ne contienne pas un critique”, cela m’a fortement impressionné. Je devais avoir à l’époque quinze ou seize ans lorsque j’ai lu les critiques qu’il a faites sur la peinture, sur les salons, sur Delacroix, sur Wagner. Dans un autre domaine je m’étais beaucoup intéressé aux films d’Orson Welles. Particulièrement dans ses idées de narrativité qui étaient placées dans le désordre avec ce procédé de flash-back que l’on trouve dan Citizen Kane et que j’ai vu ensuite dans un livre tel que Big money de Dos Passos. D’ailleurs, j’avais fait une pièce, que j’ai un peu oublié maintenant, qui s’appelait Puzzle, et qui était provoquée par cet apparent désordre de présentation des choses. Il y a eu aussi des plasticiens, comme Pollock, qui m’ont directement influencé dans la recherche d’une certaine image sonore. Je me rappelle très bien que j’avais vu, dans certains tableaux de Pollock, des choses qui m’avaient particulièrement frappées. D’une part, le non-contrôle, un geste totalement spontané et non prémédité, qui s’interpénêtre avec des couches apparemment plus ordonnées. Mais chez Pollock cela recèle une violence interne très forte. C’est certainement ce qui fait la différence avec beaucoup d’autres, je n’ai aucune explication à cela d’ailleurs. Mais, cela m’a directement influencé dans les pièces que j’ai faites à l’époque, dont l’une, Numéro cinq, est une pièces très dures et très violente. Elle déchaîne des flots de notes un peu à la manière d’une giclure chez Pollock. Pratiquement personne n’a aimé cette pièce. Je comprends cela mais il fallait absolument que je la fasse. J’ai composé ensuite Numéro huit  (tous ces titres font références à certains titres de Pollock) ou un très grand orchestre me permettait de produire une sorte d'”all over” sonore.

 

JPD : Si, maintenant que vous avez un métier, que vous avez une œuvre derrière vous, vous deviez enseigner sinon la composition à quelqu’un qui est dans le même état que vous à l’époque où vous aviez 14-15 ans, où vous commenciez sans métier mais avec des impressions fortes, qu’est-ce que vous conseilleriez comme méthodes de travail ? Comment fabrique-t’on son outil ?

 

PM : Lorsqu’on est jeune et qu’on désire composer, je crois qu’il faut arriver à se faire violence soi-même. C’est-à-dire qu’il ne faut pas avoir peur de rentrer dans des positions extrémistes pour canaliser, parmi tout le flot d’informations qui nous parvient, les éléments qui nous touchent et questionnent le plus. Si l’on a pas le courage de prendre des positions extrémistes à cet âge là, ce n’est pas plus tard que cela viendra. Il faut ensuite faire confiance au temps pour assouplir – je ne dis pas ramolir- ses propres conceptions. Finalement il y a une chose qui me paraît importante dans le rapport aux autres arts, c’est que ce sont des concepts que l’on véhicule sans pouvoir les transposer directement dans la musique. Quand Claudel a pris des choses de Wagner, il n’a pas récupéré tout l’héritage Wagnérien… C’est vraiment un changement de structure mentale qui s’opère. À partir du moment ou l’on transporte un concept d’une discipline dans une autre, on se trouve en face d’un problème : il faut trouver le moyen technique pour plier le concept à sa propre discipline. Et à mon avis, c’est là que l’on trouve des solutions intéressantes. Lorsqu’on éprouve un désir assez fort d’exprimer quelque chose, on a pas forcémment un outil mental à sa disposition. Comme il faut que ces choses-là sortent, qu’il y a même une certaine urgence intérieure à cela, on doit alors trouver la solution. En composition, je crois beaucoup aux solutions d’urgence. Je compose d’ailleurs très vite, je réfléchis longtemps car c’est toujours très contrôlé chez moi, mais j’écris très vite. C’est dans ma nature, ce n’est pas le fruit d’une volonté.

 

JPD : Est-ce à dire que pour les problèmes que vous vous posez, les difficultés que vous ressentez, vous éprouvez le besoin de consulter Richard Strauss, Stockhausen… ?

 

PM : Cela joue en sens inverse. Ce n’est pas lorsque j’ai un problème de composition que je vais en trouver la solution dans d’autres partitions mais c’est plutôt la lecture de partitions qui déclenchent chez moi des idées, des images sonores que je transforme ensuite jusqu’à les faire totalement miennes. Par exemple il y a une image qui me revient très souvent et que je ne cesse de développer et qui, je crois, va me tenir pendant longtemps, c’est un tout petit extrait dans La femme sans ombre de Richard Strauss. La première fois où apparaît le thème de l’ombre il y a une superposition d’arpèges (fa, si bémol, do, fa, si bémol, do, fa etc), qui sont joués du grave à l’aigu avec plusieurs instruments. Cependant la même matrice est jouée dans sept ou huit rythmes différents ce qui donne une sorte de “moirure sonore” très évaporée et insaisissable. C’est cette complexité de textures qui m’a vraiment passionné ici. Il y a d’autres choses comme ça chez Strauss ainsi que dans le dernier Debussy. On a un objet musical qui se démultiplie à l’intérieur de l’orchestre et ce sont ces superpositions en abimes d’une même idée exprimée de manière différentes qui donnent naissance à des images sonores, qui, chez moi, sont très fortes. Ce sont ce genre de choses que je prends carrément chez d’autres compositeurs. Ce sont des concepts généraux plus que des techniques. J’ai l’impression que plus j’avance en âge, plus mon contact avec les partitions s’agrandit. Lorsque j’ai composé Cryptophonos pour piano à l’âge de vingt ans, mon univers était beaucoup plus étroit : c’était l’école de Vienne, Boulez, Barraqué, Stockhausen, Xenakis et puis c’est tout. Plus j’avance, plus mon contact s’agrandit. La fréquentation des opéras de Wagner et de Strauss, des symphonies de Mahler, des oeuvres d’orchestres de Debussy ou de Stravinsky, que je ne connaissais que très superficiellement à l’époque, a considérablement développé mon imagination, tout particulièrement dans le domaine de l’orchestre. La musique plus ancienne, celle de l’époque baroque ou du Moyen-Âge m’est plus étrangère. Il faut passer par trop de filtres. La musicologie, les critères d’authenticité, les querelles sur l’interprétation, sur les tempérements, tous ces obstacles font que c’est une musique qui n’agit pas sur moi de manière directe. Cela viendra peut-être un jour, peut-être jamais, mais pour l’instant ce n’est pas prêt.

 

JPD :  Mais au début, aviez vous éprouvé le besion de vous servir des outils de la génération précédente, Boulez, Stockhausen, Nono, Cage, Kagel, Ligeti,sous êtes vous jamais dit  : « c’est à partir de Xenakis ou des sériels que je vais travailler » ?

 

PM : Mon petit lait a été sériel. Les deux figures qui m’ont vraiment marqué au départ, c’étaient Boulez et Stockhausen. Je trouvais ces deux univers extrêmement liés. J’ai eu des rapports beaucoup plus éloignés avec les autres compositeurs. Xenakis m’a beaucoup intéressé par ses son idée de la perception globale et ses conceptions probabilistes mais son œuvre n’a jamais eu, pour moi, la force de celles de Boulez et de Stockhausen. C’est un peu comme Varèse, ce sont des musiques, qui peuvent être très fortes à la première écoute mais ne gagnent pas toujours à être réécoutées car elles renvoient une image qui est finalement toujours la même. Ligeti également dans une certaine mesure bien que la facture de ses partitions procèdent d’une écoute beaucoup plus développée. Je n’y vois pas un champ suffisamment vaste, il y a eu l’époque des micro-polyphonies et des continuums, maintenant son langage a changé et il travaille surtout sur des polyrythmies. Il y a des choses très intéressantes, mais pour moi, cela provoque une perception qui ne se renouvelle pas suffisemment. Kagel, non. Le théâtre musical ne m’a jamais intéressé. L’exemple des sonates et interludes pour piano préparé de Cage m’a intéressé car il brise la continuité du timbre du piano, ce que l’on fait maintenant avec l’électronique. Mais la chose qui me préoccupait beaucoup plus à l’époque, c’était l’électro-acoustique. Pas la manière dont elle était utilisée au GRM par exemple, mais les possibilités sonores qu’elle recelaient telles que je les avais percues chez Stockhausen.

 

JPD : Justement pour parler d’électroacoustique, est-ce qu’à un moment, comme certains continuent de le penser, les sons produits par d’autres sources sonores que les instruments acoustiques vous ont paru intéressants à développer en tant que tels ou bien est-ce que vous avez éprouvé le besoin de lier les technologies, dont toutes les technologies de l’Ircam, à des instruments acoustiques de la tradition ?

 

PM : Pour moi, le problème n’est pas les sons eux-mêmes, parce que la manière dont la perception classifie les sons est finalement beaucoup plus complexe. Lorsqu’on écoute des sons, même si ces sons sont fabriqués de manière totalement artificielle, on peut parfois les classer par familles que l’on peut identifier. Mais le problème du son lui-même ne m’a jamais préoccupé. C’est son rapport à un discours qui m’importe. Si je les ai utilisés avec des instruments traditionnels, c’est que j’avais envie de réintégrer les notions d’interprétation, qui me parait la chose la plus importante dans une musique qui, traditionnellement, en a été privée. Pour moi la musique passe par un médium qui est l’interprète, je suis un adepte du spectacle vivant.

 

JPD : Je voudrais savoir comment, pour un compositeur qui est jeune et qui commence à travailler, s’établit la communauté, qui est absolument nécessaire, avec les interprètes ?

 

PM : Au départ, cela s’établit de manière très violente, très agressive. Je me rappelle ma première pièce qui a été jouée en concert au festival de Royan en 72 ou 73. J’avais très très peu de métier d’orchestration à cette époque. J’avais écrit le matériel moi-même. C’était mal écrit (c’était écrit trop petit pour les percussions) cela a provoqué des grandes tensions avec les instrumentistes. Lorsqu’on compose on est toujours en face de soi-même et puis, d’un seul coup, on sort de son isolement de compositeur et on se retrouve en face de 15-20 personnes, qui font du mieux qu’ils peuvent par rapport aux conditions qu’on leur donne. Au début, le contact peut être très difficile. Je crois que les choses s’améliorent si on réussit à garder un contact permanent avec le milieu instrumental. Ce qui est très dangereux à mon avis, c’est de n’avoir que des contacts épisodiques avec les instrumentistes ou avec les orchestres. Je crois beaucoup au pragmatisme dans ces choses-là. Je pense qu’un compositeur doit savoir bien écrire pour les instruments, même s’il écrit des choses difficiles, inhabituelles. Il ne doit pas être éloigné du contact avec les instrumentistes. La meilleure manière de pousser l’instrumentiste dans des régions plus éloignées de ce qu’il a l’habitude de faire, c’est d’avoir un contact assez périodique avec lui. C’est de le faire en connaissance de cause et non par désinvolture.

 

JPD : Une chose me frappe quand on regarde votre catalogue, c’est qu’il y a beaucoup d’œuvres extrêmement développées dans le temps, et puis maintenant, commencent à apparaître, au contraire, des pièces très courtes pour solistes ou orchestres. Est-ce que ce sont deux directions de travail différentes que maintenant vous avez besoin d’explorer en même temps ou est-ce qu’il y a des choses qu’on ne peut trouver que dans des propos très concentrés ?

 

PM : Quand on est un jeune compositeur, qu’on est gentiment apprécié, qu’on suit votre travail, qu’on regarde ce que vous faites, ce qui était mon cas au début, on nous fait toujours des propositions de musique de chambre. On se dit  : ” on va le tester sur un petit effectif et sur une petite durée. On lui demande une pièce pour neuf à douze musiciens qui va durer de dix à quinze minutes”. Cela a fini par faire des catégories comme les dramatiques de télévision qui font 54 minutes environ et c’est même devenu une norme dans les concerts de musique contemporaine. Il se trouve que j’ai eu mon lot de ce genre de pièces-là et que la musique de chambre n’est pas quelque chose qui me passionne au même titre que l’orchestre. Un jour, je me suis dit : « Ca suffit. Maintenant, je vais créer des pièces longues et il n’y aura que moi dans le concert » .Après tout, si vous allez écouter une pièce de Beckett ou d’Adamov au théâtre, on ne la met pas en première partie d’une autre de Tchékov et de O’Neil ! Zeitlauf etAleph  sont des pièces qui durent environ une heure ce qui posaient des problèmes de forme différents, parce que ça fait intervenir la mémoire à une autre échelle. Pour structurer la musique sur plus d’une heure, il faut faire intervenir des éléments reconnaissables qui puissent servir de repères. Le fait que j’ai écrit récemment des petites formes est exactement pour des raisons semblables à celles que j’ai eue lorsque j’en ai écrit des grandes. C’est une manière de m’exprimer qui est différente de ce que j’ai l’habitude de faire. Quand j’ai fait des grandes formes, c’était un challenge parce qu’on ne m’en avait jamais proposé. Quand j’ai écrit des pièces très très brèves, ça pose à nouveau le problème de la forme, de ce qu’on veut exprimer. Il y a des éléments, si l’on sait qu’on ne va pas les développer, qu’on va présenter d’une manière tout à fait différentes que lorqu’on décide de s’y tenir pour un moment. Quand on décide de faire quelque chose de court, on sait qu’il faut aller à l’essentiel et on a une réaction complètement différente quand on écrit. Mais le plus important, et je n’ai aucune explication à ce phénomène, c’est que certains éléments recelent en eux-même une idée du temps qu’ils vont occuper. C’est un peu comme un code génétique. Quelque chose me dit que telle ou telle idée se suffit à elle-même et mérite d’être inscérée dans une petite forme, et telle ou telle autre nécéssite un long développement. Je ne sais pas si j’ai beaucoup de qualités mais j’ai un sens inné pour ces choses là. Mais encore une fois je ne peux en fournir aucune explication.

 

 

JPD : Vos oeuvres longues sont des souvent liées à un texte. Est-ce que le texte permet d’organiser des structures plus longues ?

 

PM : Ce n’est pas le texte qui porte la durée de l’oeuvre. Pas dans Aleph, en tout cas parce que c’est moi qui l’ai écrit et je pense qu’il n’a pas une immense valeur littéraire.

 

JPD : Ce sont des échafaudages ?

 

PM : C’est aussi le fait d’introduire de la voix, qui donne une respiration à la durée de l’œuvre. C’est vrai que je me voyais mal écouter une pièce de 80 ou 70 minutes simplement pour orchestre. Je me suis dit que s’il y avait une voix qui intervenait à certains moments, cela donnera des points d’ancrage et des éléments de fraîcheur. C’est peut-être la même chose qui est arrivé avec Mahler dans ses symphonies, je n’en sais rien. Cela amène une personnalisation à un certain moment, la posibilité pour le public de se focaliser sur quelque chose de précis. C’est une sorte de zoom.

 

JPD : Vous avez essentiellement fait les pièces avec informatique pour des instruments solos, et puis, il y a un cycle, la Partition du ciel et de l’enfer, où vous utilisez un orchestre plus nombreux. Est-ce qu’actuellement, vous allez jusqu’à imaginer une pièce de grand orchestre, qui s’adjoindrait également les techniques que vous avez utilisées dans ce cycle (Pluton, Jupiter…) ?

 

PM : Oui, bien sûr. C’est ce que je vais faire dans l’opéra sur lequel je commence à travailler. Je vais utiliser ces techniques-là, mais il ne faut pas perdre de vue qu’elles sont quand même très liées à une individualité. On peut connecter de manière assez profonde et même assez sensible un ordinateur avec une flûte, avec un soprano, avec un piano. On peut détecter des éléments très fin parfois et s’en servir ensuite. On ne peut pas faire ça avec une collectivité comme un orchestre, on ne peut pas mettre un capteur à chaque instrument, ce serait ingérable. De toute manière, je suis au départ un expérimentateur dans cette discipline. L’expérimentation est plus difficile lorsqu’on a affaire à une grande collectivité. Mais le choix du support ne me pose aucun problème. Je suis aussi à l’aise avec un ordinateur qu’avec un orchestre. Les deux choses font partie de mon univers personnel. La complexité des textures qu’on peut obtenir avec un orchestre, avec superposition de couches, d’images sonores trouvent chez moi un écho tout à fait équivalent dans la musique de synthèse, où on peut aussi travailler suivant un procédé analogue : on peut partir de sons assez épurés ou de sons qui en eux-mêmes n’ont pas de vie intéressante et les faire passer par différents stades de traitement de manière à obtenir quelque chose pouvant avoir une complexité de textures très riche. Je concois la musique de synthèse et la musique d’orchestre comme deux fantasmes, deux manières de travailler, qui correspondent, pour moi, assez naturellement à une certaine image sonore, une certaine fantasmagorie que j’ai envie d’exprimer.

 

JPD : Vous allez être en résidence à l’Orchestre de Paris et être en rapport régulier avec la machinerie orchestrale. Est-ce que vous pensez qu’avant de vous lancez là-dedans vous avez encore besoin d’apprendre des choses sur l’orchestre ?

 

PM : Oui. J’ai besoin d’apprendre des choses sur l’orchestre et surtout sur les rapports voix-orchestre. Parce que ce que je connais des rapports voix-orchestre sont des choses que je connais des partitions, mais pas de manière très pragmatique. Quand on lit une partition, on ne se pose pas toujours la question de l’éfficacité. Ca fonctionne bien, on le constate, mais quant à dire pourquoi ?! Lorsqu’ on est chef d’orchestre on a une connaissance plus intuitive de ces choses. J’ai encore pas mal de choses à expérimenter au niveau des rapports voix-orchestre. Par exemple, des choses aussi simples que : quels types d’orchestration faut-il adapter à un débit vocal assez rapide ou lorsque la voix se trouve dans une tessiture assez grave ? Il y a des cas de figure comme ça, qui ne sont enseignés nulle part parce qu’il n’y a pas de règles précises comme en harmonie, ce sont des problématiques à régler de façon pragmatique, qui sont extrêmement importantes si l’on veut que le texte soit compréhensible.

 

JPD : Comment allez-vous travailler avec vos collaborateurs ?. J’imagine que vous n’allez pas me démentir, vous travaillez en équipe ?

 

PM : Oui, on travaille en équipe avec Michel Deutsch qui écrit le livret et Pierre Strosser, le metteur en scène. Cela me motive beaucoup et rejoint un peu la question qu’on se posait au début, sur le rapport avec une autre discipline. Je pense que quand on est confronté à un autre médium, comme l’écriture, la littérature ou le théâtre, on est amené, du moins je l’espère, à se poser des questions musicales auxquelles on n’aurait pas pensé. Je pense, par exemple, que l’orchestration de Wagner et surtout sa conception motivique, qui est extrêmement complexe, n’aurait pas été la même s’il n’avait pas eu ce cadre dramaturgique. J’imagine que le final de la Walkyrie ou le prologue du Crépuscule des Dieux, qui est pour moi l’une des plus belles et des plus intéressantes orchestrations qui soit, n’aurait pu avoir lieu sans le support dramaturgique qu’il y avait derrière. Chez Wagner, très souvent les innovations musicales ont eu, à mon avis, comme point de départ le rapport avec autre chose : le texte et surtout la dramaturgie qui est plus forte que le texte chez lui. C’est cela que j’espère beaucoup dans l’écriture de l’opéra, être confonté tout d’un coup à des problématiques musicales que je n’aurais pas du tout eu si j’étais resté dans le domaine purement symphonique. Donc le lien avec un écrivain et un metteur en scène est intéressant, parce que ça nous permet de pouvoir assez rapidement nous mettre d’accord sur un certain nombre de choses : sur quel type d’univers on veut s’exprimer, sur les conséquences qu’une idée de l’un entre nous va avoir sur le travail des autres. On essaie de faire autant que possible des choses ouvertes. On se voit régulièrement tous les quinze jours pour confronter ou affiner nos propositions. Le fait qu’il y ait un metteur en scène ne veut pas dire, pour moi, qu’il faut que la mise en scène soit totalement impliquée dans la composition, comme l’a fait Berg par exemple. Je pense que c’est une erreur. Peut-être que c’était pour lui, une manière de fonctionner, un élément catalysatuer un peu comme lorsqu’il incluait des éléments numérologique . Ce sont des excitants, rien de plus. Je pense qu’il faut laisser une certaine latitude, une assez grande liberté quant à la situation à présenter. Le travail en équipe ne réduit pas la part personnelle de chacun. Ce n’est pas une oeuvre collective comme on les faisaient dans l’après 68. J’ai une grande habitude de ce mode de fonctionnement car j’ai travaillé pendant près de dix ans avec le mathématicien Miller Puckette et notre collaboration a été extrêmement fructueuse pour tous les deux.

 

JPD : Concrètement comment se passe un travail de ce type avec vos collaborateurs  pour l’opéra?

 

PM : J’avais fait une proposition d’histoire. Elle a été lue par les deux autres personnes : certaines choses ont été retenues, d’autres complètement oubliées. On voit comment cette histoire réagit sur les autres comment les choses évoluent petit à petit. C’est vraiment un quelque chose qui va se concrétiser petit à petit. Il ne reste peut-être qu’un dixième de ma proposition de départ. Chaque élément suscite de nouvelles idées. On est tombé tous les trois d’accord sur un univers proche du théâtre d’Harold Pinter que nous aimons beaucoup tous les trois. C’est à dire un univers ou les relations de causalités ne sont pas explicites, ou tout peut exploser à n’importe quel moment. Quelque chose d’assez dangereux qui puisse créer une tension assez forte. Une fois que le livret sera écrit, je me mettrais à la composition de la musique. Il est sûr que le livret va encore changer. Il y a des décisions que l’on ne peut prendre seulement au moment où l’on écrit la musique. C’est comme cela que doit se faire un opéra à notre époque – c’est comme cela qu’on faisait autrefois d’ailleurs. Mais que ce que j’ai envie de dire en musique trouve sa nécéssité.

 

JPD :  D’un point de vue général comment fonctionne la vie musicale : la transmission du savoir musical, l’interprétation musicale, les commandes ?

 

PM : Sur les transmissions du savoir musical, et même plus généralement sur les transmissions de la culture musicale – je ne peux parler que de Paris parce que j’y habite – je pense qu’il y a grosso modo ce qu’on veut. Quelqu’un qui veut savoir ce qui se passe dans le domaine musical, dans le domaine de la recherche musicale, a suffisamment d’informations, de concerts, de conférences qui peuvent le guider. Le problème est beaucoup plus grave en ce qui concerne la culture musicale, la culture générale : là ça devient franchement dramatique. Je suis vraiment persuadé qu’il y a vraiment une culture qui se perd. Le rôle de la musique devient de plus en plus un rôle de divertissement et cela me fait peur. Je n’ai rien contre la musique de divertissement, il y a plein de choses que je consomme aussi de cette manière-là. J’ai l’impression que dans une société comme celle dans laquelle on vit – mais il faudrait demander à des sociologues qui aient un réel intérêt pour la musique, ce qui est rare – , une société qui est amenée à avoir énormément de problèmes à résoudre et qui ne tend pas vers un mieux, on donne le divertissement comme antidote aux problèmes. Plus la société va aller mal, plus on va lui donner cet antidote de divertissement et là, la musique joue un rôle très fort. Il y a une surconsommation musicale de divertissement et les gens ont du mal à accepter que la musique puisse être aussi le fruit d’une réflexion et d’une démarche intérieure, chose qu’ils peuvent plus facilement accepter dans le domaine de la littérature. Quand on lit un livre, on ne cherche pas obligatoirement un plaisir immédiat et on peut concevoir qu’il est le résultat d’un cheminement intérieur. Pour la musique, finalement, les gens ne sont pas du tout amenés à accepter cette idée-là. La fonction de divertissement qu’on associe à la musique finit par étouffer toutes les autres. Il y a vraiment une carence énorme, pas tellement à la radio mais à la télévision qui est un média infiniement plus puissant. Même une chaîne comme Arte ne se préoccupe pas beaucoup de la culture musicale qui se fait actuellement. Le problème se pose aussi au niveau de la critique. Les critiques n’ont plus la culture musicale pour critiquer. Ils ne critiquent plus d’ailleurs, parce qu’ils n’ont plus les points de repères. Quand je dis qu’ils n’ont plus de culture musicale, je ne veux pas parler de la musique du passé – ça, encore ils le savent – je veux parler la culture musicale actuelle, de ce qui se fait actuellement. Et même la culture musicale à un domaine plus large. Je n’écoute pas que de la musique contemporaine, j’écoute aussi du rock. Il y a des choses intéressantes, qui me questionnent, parce que ces gens-là utilisent des instruments électroniques et des techniques que j’ai également utilisé, très souvent avant eux d’ailleurs, mais ça m’intéresse de voir comment ces techniques-là passent maintenant dans un domaine plus commercial. Je pense qu’il y a un réel problème de transfert de la culture musicale dans le public. Les gens n’ont plus de points de repères, ils ne savent plus du tout pourquoi on fait tel type de musique et pas telle autre, d’où vient tel compositeur et où il va. Lorsque j’étais au Japon, j’ai participé à un festival ou étaient mélangé des musiques de différentes périodes, avec également des musiques traditionnelles. La personne qui organisait cela m’a dit que c’était absolument nécéssaire au Japon, car la plupart des gens n’avaient aucun point de repère historiques. C’était très intelligent. Cela devrait également être fait chez nous. Nous sommes loin d’être le pays cultivé que nous croyons être.

 

JPD : Est-ce que vous avez une idée de la manière dont il faudrait faire, des endroits où cela pourrait se passer, des instances à mettre en jeu ?

 

PM : Il y a deux choses qui devraient se passer. Ce sont peut-être des utopies mais il en faut de temps en temps. D’une part, je crois qu’on devrait beaucoup plus se préoccuper des compositeurs vivants et moins des compositeurs morts. Cela devrait être un réflexe naturel. Ce qu’une société produit devrait questionner plus les gens que ce qu’elle a produit autrefois. D’autre part, je pense qu’on devrait arrêter de faire cette séparation entre la musique de répertoire et la musique contemporaine. A mon avis, la meilleure manière de toucher les gens, c’est de les surprendre et non de les préparer en leur disant : « Attention ! Vous allez écouter de la musique du XXe siècle. Cela être difficile ». On a tenté ce discours-là pendant très longtemps, j’y ai même participé quand je faisais des animations musicales à l’EIC ou dans d’autres structures. Je n’y crois plus guère maintenant. Présenter aux auditeurs, lors d’un concert classique, une pièce qu’ils ne connaissent pas, encore faut-il qu’elle soit bien choisie, déclencherait beaucoup plus d’intérêt qu’un discours pédagogique, si bon soit-il. Je crois beaucoup à la révélation, au choc, car c’est comme cela que ca s’est passé pour moi. Les œuvres ont une empreinte plus profonde si on ne les attend pas, si on est confronté à elles, d’un seul coup. Cette révélation finit par poser des questions. C’est une erreur de penser que la musique contemporaine doit nécéssairement passer par un discours. On en a des preuves contraires. Une oeuvre forte, et notre époque en a, présentée dans des véritables conditions, peut susciter l’adhésion d’un public qui n’est pas obligatoirement préparé à cela. Évidemment, il y a des oeuvres plus difficiles d’accès que d’autres. Mais cela à toute les époques. On écoute pas les derniers quatuors de Beethoven dans sa salle de bain tous les jours.

 

JPD : Concrètement, vous êtes compositeur, un peu enseignant. Est-ce que c’est très simple d’organiser tout ça ? Comment travaillez-vous ?

 

PM : Pour l’enseignement, je travaille régulièrement, puisque je suis professeur à Lyon, donc j’ai un jour particulier pour y aller. Pour la composition, j’essaie de planifier plus ou moins les choses : j’essaie de me garder des plages de temps, plusieurs semaines à l’avance. Pour ce qui est de la vie financière, c’est effectivement très difficile parce que je fais une musique qui ne rapporte pas beaucoup d’argent. Mais il y a les institutions. Beaucoup m’ont reproché d’être porté par les institutions, de toutes sortes façons, tous les compositeurs de ma catégorie le sont, sauf ceux qui ont une fortune personnelle, mais je n’en connai pas un seul. On ne peut, de toute manière, pas faire autrement. Il n’y a pas beaucoup de gens fortunés qui acceptent de soutenir un créateur, quant au mécénat d’entreprise, il n’est pas le fruit d’un intérêt artistique mais d’une image de marque vis à vis d’une clientelle.

 

JPD : De toutes les façons, l’institution est l’expression de la communauté ou de la collectivité. Ce n’est pas un monstre abstrait.

 

PM : Bien sûr. J’ai été aidé par des institutions comme l’Ircam, l’Ensemble Intercontemporain et maintenant, l’Orchestre de Paris. Et puis il y a l’enseignement, qui me permet de vivre, quelques conférences par çi par là. Mais, il n’y a pas de rapports directs entre l’argent qu’on peut recevoir d’une commande et la quantité de travail à fournir. Il y a une autre chose qui est très importante : les gens n’ont plus du tout l’idée que les compositeurs existent. J’ai l’impression que, pour beaucoup de personnes, les compositeurs sont des gens morts. Quand on prononce des noms de compositeurs, ce sont soit des gens morts, soit des gens vivants qui font de la variété. En tous cas, c’est comme ça que c’est présenté dans les médias. Je pense que le grand public n’a vraiment plus une idée de ce qu’est un compositeur.

 

JPD : La solution passe par l’enseignement, par la télévision ?

 

PM : Oui, à mon avis, ça passe beaucoup par la télévision, par les médias qui sont regardés. Il faudrait, sans faire de terrorisme, investir les télévisions pour expliquer ça. En tout cas les chaînes publiques et celles qui ont une vocation culturelle. Que reste-t-il d’une civilisation ? Deux choses à mon avis : sa culture et ses guerres. Ce que nous savons des civilisations anciennes ne tient qu’à cela. Notre culture n’est ni meilleure ni pire qu’une autre : elle est le reflet de ce que nous sommes. A mon avis, la culture a toujours été ce qui permettait de prendre le pouls d’une civilisation et de voir à quel moment on est. C’est Diderot qui disait que pour voir où en était la civilisation, il fallait considérer sa langue. Dans le domaine de la musique, ça veut dire : quelle est place du sonore ? Notre monde a changé, les relations s’en trouvent modifiées, les rapports entre tous ces gens différents sont nouveaux, pourquoi voudrait-on que la musique ne se modifie pas également ? L’environnement sonore quotidien a une interférence avec ce que je fais. Le fait de pouvoir échantillonner des sons concrets avec un ordinateur, de pouvoir les retravailler pour que ça devienne des objets musicaux, fait partie de mon quotidien de musicien. Je ne me promène pas pour autant dans la rue avec un micro pour prendre n’importe quel son. A mon avis, un musicien est quelqu’un qui peut capter des éléments sociaux actuels, la société produit des sons, et qui doit parvenir à les transformer en une forme artistique. C’est une confrontation entre son histoire personnelle et le monde dans lequel il évolue. Cela signifie parvenir à les faire changer de sens de ces éléments. C’est ce qui me paraît fondamental : arriver à faire changer le sens des choses, qu’elles soient traditionnelles, culturelles, imaginaire, ou un produit de leur rencontre. L’important est qu’un changement sémantique s’opère dans la mise en forme d’une œuvre. Je pense que les musiciens actuels le font. Par rapport à l’impact que peut avoir le cinéma – c’est évident que Wenders ou Kubrick ont une notoriété publique beaucoup plus grande que quelqu’un comme Lachenmann ou Stockhausen – la musique demeure un art très confiné. Mais il est vrai que la musique est quelque chose de difficile en soi. C’est quand même quelque chose de très abstrait. Ce n’est pas évident de dire « il y a de gros problèmes sur la planète, il faut faire quelque chose », on peut le dire assez rapidement avec le cinéma et la littérature, mais pas avec la musique. Ça passe par une abstraction, par une poche de résistance qui est assez dure.

 

JPD : Est-ce qu’au-delà de ça, vous vous sentez une communauté, une solidarité, une fraternité avec d’autres compositeurs, avec d’autres artistes ? Est-ce que ça circule encore ?

 

PM : Oui, ça circule. Mais il faut parfois forcer la circulation. J’ai toujours préféré travailler avec des écrivains vivants que sur des textes déjà terminés. J’ai des contacts assez fréquents. avec les autresz compositeurs. J’ai des discussions esthétiques même avec des gens d’horizons assez différents du mien, comme les compositeurs de la tendance spectrale tels que Dalbavie et Hurel par exemple. Je m’aperçois que les gens desquels j’étais très éloigné, comme Murail que j’ai connu au Festival de Royan en 1972, me semblent maintenant plus proches. Nos musiques ont changé, se sont à certains moments rapprochées mais ne seront jamais identifiables. Il y a des conceptions de base qui ne se rejoindront jamais parce qu’elles proviennent de la période ou l’on s’est formé. La jeunesse laisse des traces indélébiles sur les personnalités. Mais, à un certain point nos expériences se recouvrent. Naturellement, certains compositeurs tels que Nunes ou Lindberg, pour ne citer que ces deux là, me sont plus proches car leur histoire ressemble plus à la mienne. Cela dit, les choses peuvent encore évoluer. Je n’ai pas tellement l’esprit de famille. Je préfèrerai toujours le mouvement à la conservation d’une famille de pensées. Je me méfie beaucoup des familles de pensées car elles présentent, à première vue, un aspect confortable qui semble ne soulever aucun problème alors qu’une forêt peut se cacher derrière une apparente  adhésion. Michel Foucault a dit un jour qu’il aimait décevoir. Je comprends très bien cela. De la déception, peut naître une foule de questions.

 

JPD : Est-ce qu’il y a des compositeurs franchement plus jeunes que vous qui vous surprennent, qui vous apprennent des choses, qui vous intéressent, qui vous attirent ?

 

PM : Cela s’est produit avec la musique de Lachenmann qui n’était absolument pas connue avant que l’EIC la joue en France. Mais il est plus agé. L’age n’est d’ailleurs pas une chose très importante. Le problème est qu’il est assez difficile de trouver quelqu’un qui propose une chose totalement innatendue. D’un côté, on retrouve des critères – je ne dirais pas nationaux – mais de culture. Certains compositeurs venant d’Italie, d’Allemagne, d’Angleterre, des USA, d’Amérique du Sud ou des pays de l’est cultivent, chacun à leur manière, de conceptions qu’on arrive assez facilement à identifier à leur propre histoire culturelle. Il en est très certainement de même pour nous autres francais. Certains autres sont totalement apatrides. Cela produit des choses totalement indépendantes de toute spécificté culturelle. Des anglais produisent de la musique acousmatique, des argentins font du sérialisme pur et dur, des américains composent des musiques spectrales etc. Les informations circulent actuellement tellement vite qu’on est tout de suite au courant de tout ce qui se fait. C’est peut-être une bonne chose, mais cela fait perdre, sinon un peu de perspective, du moins une certaine fraicheur de la découverte. C’est très intéressant de voir que si des formes de pensées subsisitent à l’intérieur des frontières, d’autres voyagent extrêmement rapidement. C’est l’avion qui était responsable de cela au départ. C’était une nouvelle forme éclatée du phénomène des voies romaines faisant circuler la culture grecque. Maintenant, les voies romaines deviennent les autoroutes de l’information. Je ne suis ni optimiste, ni pessimiste vis à vis de cela. Cela produira le meilleur comme le pire. Ce qui est important c’est qu’un individu, quelque part, à un certain moment, sortira de toute cette masse d’informations et de sensations une chose qu’on attendra pas. Un Joyce, un Kafka, un Bacon, un Debussy, bref, quelqu’un qui ne sera pas prévu au programme.

 

 

 

La musique : un univers en expansion sauvage.

Thursday, October 23rd, 2008

La musique, c’est connu, peut posséder plusieurs fonctions dans la vie des hommes, fonctions affectives, imaginatives, curatives, religieuses, sociales, intellectuelles, divertissante, etc. Par sa nature éminemment abstraite et codée, elle ne peut pas prétendre à envahir la conscience des gens de manière aussi large que d’autres modes d’expression plus directement représentatifs. C’est peut-être aussi en raison même de son abstraction fondamentale, que la musique touche à une certaine universalité et a été considérée par de nombreux écrivains comme l’expression humaine la plus élevée qui se puisse exister. Ce ne sera pas là le sujet de cet article. Discuter de la nature des choses m’importe finalement moins que de leur place. Une chose me préoccupe depuis longtemps en tant que créateur de musique. On me dit souvent que la musique actuelle est coupée du public, ne réponds plus à ce que le public attends. Je ne pense pas être le premier à entendre ce discours. Les compositeurs des siècles passés en ont entendu d’autres de même nature. Je ne prétends pas ici apporter une quelconque réponse à cette interrogation qui persistera tant qu’une petite partie de l’humanité produira de la musique pour l’autre. Mais je vais chercher à comprendre quelle est la place de la musique dans notre monde actuel, du moins celui dans lequel je vis. A première vue cette place est minime, si l’on pense à la musique dite contemporaine. Si l’on pense à la musique de grande diffusion, force est de constater que sa place est écrasante. Comment gérer cette situation ? Art et Culture sont-ils identiques ? C’est à toute cette série de questions que je vais tenter de répondre.

 

Le souvenir des guerres et les traces de la culture

Que reste-t’il d’une civilisation passée si ce n’est le souvenir de ses guerres et les traces de sa culture ? Très souvent les deux ont même été liées. Une guerre laisse des chants, des récits, des épopées, un folklore. Elle permet aussi, dans le cas d’invasions ou d’immigrations, l’émergence de nouvelles pratiques culturelles, de “métissages” comme on dit aujourd’hui, qui n’auraient jamais vu le jour sans cela. Il ne s’agit pas de faire des guerres un prémisse indispensable à l’élaboration de cultures nouvelles mais de remarquer que ces pratiques culturelles sont le reflet de la condition des hommes qui n’est pas ni n’a jamais été, loin s’en faut, exempte de violence, de barbarie et de cruauté. Les notions de bien et de mal, mais d’autres l’ont dit mieux que je ne pourrai le faire, sont bien relatives.

Qu’en est-il aujourd’hui ? En ce qui concerne les guerres, on peut parfois faire confiance à nos dirigeants de faire tout leur possible pour nous les éviter. Tout du moins, la volonté de domination et d’hégémonie humaine a-t’elle trouvée de nouvelles formes pour s’exprimer : modèle social, économique, technologique et … culturel. Qu’en est-il du “culturel” justement ? Qu’est-ce réellement que ce que l’on appelle la culture ? Est-ce que culture et art sont des termes bien synonymes ? Non bien évidemment. Le second fait partie du premier. Il peut être complètement individuel tandis que l’autre est collectif. Il peut être le reflet d’une exception à l’intérieur de l’autre. Mais surtout il n’est qu’un aspect de l’autre qui ne se limite pas à cela. La culture comporte toute les pratiques qui émane d’une peuple. De nos jours les instruments ou, à première vue, se lisent le mieux la culture sont les médias. On peut y lire le pourcentage d’intérêt que la population accorde à telle ou telle pratique: le sport, la télévision, la littérature, le cinéma, la musique etc., mais aussi les comportements sociaux, intellectuels, idéologiques. On sait aussi bien sûr que les médias représentent un pouvoir (et je ne parle pas de pouvoir politique ici) qui oriente les pratiques culturelles pour les besoins de sa propre survie. Ils peuvent en tirer avantage, une fois les conditionnements établis. Plutôt que la parabole de l’oeuf et de la poule, ce serait celle de l’arroseur arrosé qui me semble évidente. En tout cas, on a trop facilement réunis ces deux termes, art et culture, en une même idée depuis longtemps pour s’étonner aujourd’hui qu’il n’y ait pas de confusion.

 

La guerre de l’art et de la culture.

Vu du côté des “politiques”, la culture peut servir à imposer un modèle social. Les exemples – et ne prenons que ceux de notre siècle – sont suffisamment connus pour qu’il n’y ait pas nécessite de les rabâcher lourdement. Les formes que revêtent la manière dont le pouvoir s’accapare et défend une certaine culture divergent suivant qu’elles émanent de la droite ou de la gauche. C’est sous la politique de droite que se sont développés les grands projets culturels en France depuis une trentaine d’années tels que l’éclosion des théâtres publiques dans les banlieues parisiennes (placés toutefois exclusivement sous des municipalités de gauche), la création des grands festivals, des centres de recherche musicales, des ensembles etc. Ceci est somme toute assez naturel vu que cette force politique a assuré le pouvoir sans discontinuité avant 1981. L’action culturelle, sous la droite, était vue (et tolérée) comme un contre-pouvoir. Les responsables de cette action, étaient d’ailleurs, dans une assez grande majorité des cas, de sensibilités plutôt opposée. Deux principes de sociétés existaient et se répertoriaient sous les noms de socialiste (et/ou communiste) et capitaliste (ou libérale). En arrivant au pouvoir, la gauche prit immédiatement conscience de cette force culturelle qui s’est développée ainsi pendant de nombreuses années pour l’utiliser et l’amener au rang de ses préoccupations majeures. Il se trouve que, par un hasard historique de circonstance, c’est sous la politique de gauche que s’est effondrée l’idéologie marxiste et communiste ne laissant plus alors aucun choix de société possible que celui d’une économie libérale. On peut applaudir ou pleurer cela ne change rien à l’affaire. De nos jours, la culture est favorisée par le pouvoir politique en tant que manifestation hautement sociale devant servir un dessein et un modèle de société. La classe politique, toujours confortée dans son savoir de ce qui constitue le bien de la société, continue d’oeuvrer pour la défense de pratiques culturelles qui lui permet, pense-t’elle, de résoudre certains problèmes en face desquels elle se montre impuissante à agir. Les difficultés financières, l’immigration, la paupérisation, les mouvements sociaux dans des banlieues qui sont prêtes à exploser, l’inquiétude croissante de la jeunesse vis à vis de leur avenir incitent le pouvoir politique à favoriser une démarche pragmatique, et surtout à aider les pratiques culturelles qui en émanent (tag, rave-parties, techno, rap etc….) non parce que le pouvoir politique voit dans ces pratiques une glorification de leur action comme c’était le cas autrefois dans les sociétés communistes, mais parce qu’en jouant cette carte-là, il joue celle de la compréhension dans une démarche visant à l’accalmie. Cette démarche de récupération de pratiques culturelles issues d’une position sociale contestataire se retrouve également dans l’évolution du statut de la musique rock qui s’est vue officialisée à partir des années 80. La culture, entrevue par le pouvoir politique, est encore aujourd’hui une affaire de propagande à ceci près que ce pouvoir n’est plus à l’origine du projet culturel mais se situe comme une prise en charge d’une émanation spontanée, représentant à terme un danger pour lui, à des fins de domestication. De nos jours, il semble que le rôle de l’État, loin d’être dictatorial (je parle ici des pays européens), évolue dans un système d’arbitrage entre le secteur public et le secteur privé et se propose de laisser jouer la concurrence tout en tâchant d’en contrôler les effets pervers. Le fonctionnement de la musique, dans cette situation, propose une excellente métaphore de cette dualité entre secteur privé et secteur public. Qu’y trouve-t’on ? Une culture de masse qui envahit progressivement la société toute entière au rythme d’une volonté de profit clairement affichée face à un État qui se désengage tout aussi progressivement vis à vis des artistes qui n’oeuvrent pas dans cette culture, voire qui apporte parfois son soutien, suivant en cela la stratégie exposée précédemment, à des pratiques culturelles dont le critère de rentabilité n’est pas mis en doute.

Plus personne ne pense aujourd’hui à une restauration de l’État-providence et les lois du marché sont bien celles qui semblent définir une grande partie du comportement social des individus. De plus l’image d’un État pourvoyeur de fonds qui subventionne une élite culturelle qui s’enfermerait dans des pratiques qui sont de moins en moins partagées par la population est un phénomène de plus en plus fréquemment attaqué. La musique dite contemporaine a récemment fait les frais de cette imagerie. Quelques uns de nos jeunes (et moins jeunes) idéologues se sont fait les champions de cette cause et n’ont pas du tout apprécié d’être taxés de “poujadistes” par ceux qui déploraient la réduction de l’aide accordée aux artistes. Ces attaques en règle, sous couvert de fidélité aux principes démocratiques, expriment bien évidemment plus une attitude revancharde (c’est maintenant à notre tour !) qu’une réflexion esthétique. Elles peuvent prendre la forme d’une remise en question historique de l’évolution musicale depuis une cinquantaine d’année qui aurait fait de la modernité un mot d’ordre que l’on se devait de suivre si l’on voulait avoir quelques chances de bénéficier des subsides du gouvernement. C’est l’opposition de pratiques culturelles limitées face à d’autres pratiques beaucoup plus collectives qui est ici en jeu. Les pratiques limitées se développent à partir d’une remise en cause, qui peut être soit radicale soit partielle, des conditionnements esthétiques. Quant aux pratiques collectives, elles jouent au contraire sur ces conditionnements préalables.

Cette guerre est celle de l’exception contre la règle, de l’individualité contre la norme. N’est-elle pas finalement celle de l’art contre la culture ? Le créateur isolé et novateur luttant contre une cohorte d’habitudes ancrées dans les comportements humains est une figure maintes fois aperçue au cours des siècles. Bach, Beethoven, Wagner, Debussy, Schoenberg et bien d’autres en font figure et ont laissés de textes. La célèbre phrase de Gutav Mahler  : “la tradition n’est rien qu’une succession de mauvaise habitudes” peut servir d’emblème à cette position. La situation est évidemment la même aujourd’hui. Il n’y a aucune raison pour que l’être humain change de ce point de vue-là. La seule différence, et elle est de taille, vient du milieu ambiant. La diffusion à outrance de la musique dans tous les coins de la société est un phénomène qui a prit un essor incommensurable depuis la dernière guerre et qui change radicalement les rapports de forces en présence. Il est impossible ne pas tenir compte de ce phénomène dès que l’on cherche à analyser quelle est la place de la musique dans la société et quelles fonctions elle peut y occuper.

Dans cette guerre entre art et culture, il faut d’abord éliminer quelques vieilles images d’Épinal qui ont trop vécues. La première serait celle de la glorification d’une culture élitiste contre une culture de masse qui voudrait que, provenant de l’imagination d’un individu isolé, la qualité en serait plus grande. Une qualité artistique, si tant est que l’on puisse la définir, peut demander du temps à se révéler comme elle peut aussi disparaître rapidement. La culture est un creuset qui regroupe maintes formes de l’activité humaine et les mécanismes qui sont catalyseurs de l’imagination artistique d’un individu sont (et resteront) de toute manière totalement incompréhensibles. Qui sait ce qu’une culture peut déclencher dans l’imagination d’un artiste ? Picasso s’est inspiré des arts africains, des musiciens de rock se réclament de Stockhausen. Les relations entre pratiques collectives et individuelles sont totalement hors de portées de toute tentative de formalisation. Une seconde image d’Épinal concerne la modification de la notion même de culture populaire. L’exemple de l’essor qu’a prit la musique rock depuis une quinzaine d’années en offre une excellente démonstration. Issue d’un courant contestataire dans les années 70, cette forme de musique a, depuis, gagné toutes les couches sociales car elle répond à un mécanisme de conditionnement que l’on pourrait considérer à haut degré , et assure une domination sans partage sur tous les autres. Elle est devenue, par la force des choses ou plutôt par les lois du marché, une esthétique dominante, un lieu de passage obligé non seulement pour tous les artistes et les groupes qu’ils proviennent d’horizons ethniques, culturels ou sociaux différents, mais aussi, de manière plus fonctionnelle, comme élément de base pour tous les jingles, génériques de radio et de télévision y compris pour les programmes politiques et les informations. Je ne saurai trop conseiller à chacun de faire la simple expérience de tenter de trouver une origine stylistique à la musique qui est diffusée dans ces créneaux-là (rythmes binaires, usage caractéristique des sonorités de batterie et de guitares etc.). Il n’est pas besoin de posséder une culture musicale développée pour ce rendre compte de ce genre de phénomène. Il ne faut pas, bien sûr, se laisser tenter par un quelconque réductionnisme. Rien n’est tout à fait pareil si l’on observe d’assez prêt. Mais il n’empêche que …Ce que l’on nomme aujourd’hui “culture populaire”, et il n’y a aucune raison de l’appeler autrement, est toujours le produit d’un mélange de population mais beaucoup plus fortement conditionné par des lois économiques liées à la vente de produits sonores et de diffusion.

 

Les noces du son et de l’électricité.

La place de la musique dans la société, voilà un sujet complexe digne d’études sociologiques poussées. Mais de quelle musique parle-t’on ? De toute les musiques, du grand répertoire classique jusqu’aux formes les plus commerciales, en passant par le jazz, le Rock’n’roll et les musiques ethniques ? Si l’on ne fait pas de distinction, il faut bien remarquer que, de toute évidence, la place de la musique dans la société est écrasante. Guère de lieux publics (magasins, restaurants, même transports etc.) qui ne soit pas envahis par un flot de musique en continu. A cela vient s’ajouter les radios et les télévisions dont la mutation prochaine en bouquet numérique ne fera qu’accroître ce qui ressemble bien à un univers sonore en expansion sauvage. Les noces du son et de l’électricité (car c’est par elle que se développe ce phénomène) relèvent d’un conditionnement sauvage qui est d’une extrême importance dans la définition même de ce qu’est la musique pour les gens. Le problème est, physiologiquement, tout simple. Les oreilles, contrairement aux yeux, sont passives et non sélectives. Elles n’ont pas de paupières, comme le dit Pascal Quignard, et ne sont pas mobiles. Pas question d’échapper au monde sonore environnant. Il est omniprésent et agit, à l’insu des individus, sur le cerveau, et donc sur une certaine forme de connaissance. Comparés au nôtre, les siècles précédents étaient des mondes de silence dans lesquels la confrontation avec la musique possédait probablement une violence dont on n’a aujourd’hui plus aucune idée et qui est perdue à jamais. L’écoute de la musique, son statut, et plus particulièrement celui de ses créateurs est un phénomène qui ne peut absolument pas être comparé avec ce qu’il devait être autrefois. Reste donc à inventer notre rapport à la musique puisqu’on n’a plus la possibilité du choix entre elle et le silence. Bien sûr, certains n’hésiteraient pas à penser à des solutions telles qu’une loi sur le contrôle de la diffusion sonore dans la cité. On imagine sans peine les retombées commerciales néfastes qui s’en suivraient dans cette période de recherche de croissance économique car la musique est aussi un excitant qui fait vendre. D’autre part, il n’est pas interdit de penser qu’une telle loi serait impopulaire privant les gens d’une drogue douce reconnue moins nocive que le tabac ! Enfin, il ne faut pas non plus légiférer sur tout, tout le temps. La solution, la seule qui serait envisageable, concerne évidemment l’éducation.

 

Restaurer l’image de la musique.

Puisque l’État nourrit l’ambition de faire accéder la culture à tous et de briser les barrières qui cloisonnent les classes sociales (la séparation des groupe sociaux suivant certaines formes d’expression est plus criante en musique qu’ailleurs), une solution, beaucoup plus intelligente, serait de garantir, au niveau de l’éducation, une formation intellectuelle qui permette l’instauration d’une “résistance” au milieu ambiant et de favoriser ainsi un savoir et une connaissance qui reste le meilleur rempart contre la déferlante sans précédent dont on connaît trop bien les implications économiques. Cette culture personelle serait, pour un individu, le meilleur moyen pour ne pas être l’esclave d’un univers produisant de plus en plus de sons pour avoir de plus en plus de profit. Je ne parle ici ni d’exclusion ni d’anathèmes. Il doit y avoir de la place pour toutes sortes de musiques. C’est la définition même de ce qu’est la musique qui devrait en être bouleversée. Il faudrait restaurer une certaine image de la musique par une éducation qui se voudrait décisive en la matière afin de donner des clés et des repères permettant aux gens de pouvoir effectuer des choix avec un esprit critique plus développé.

Cela passe par un effort et une rigueur soutenue dans l’enseignement des disciplines artistiques au sein de l’Éducation Nationale dont on se demande pourquoi la musique y tient toujours une place aussi négligeable. Une éducation dont les bases se situeraient avant tout dans les écoles, les collèges et les lycées. Un élève de collège étudie la littérature car cela fait partie du programme. On lui enseigne comment sont construit les pièces de théâtre et les romans, quel sont les rôles du narrateur, comment se développe l’évolution psychologique des personnages, dans quel contexte social ou politique telle ou telle oeuvre a vu le jour etc. Bref, on lui forme le goût, on développe sa faculté de perception et d’analyse. La place que tiendra la littérature dépend, bien entendu, de plein d’autres critères car l’école n’est pas, loin s’en faut, le seul endroit de formation d’un individu. Mais pour peu que cette étude trouve une résonance dans la vie future de l’étudiant, une base solide aura été initiée. Pendant ce temps, le cours de musique, lui, est le plus souvent, limité à l’étude du pipeau. Ces éternels pipeaux en plastique que les parents doivent acheter au moment de la rentrée scolaire ! Ou bien tenter vainement d’annoner quelques noms de notes de musique sur une mélodie des Beatles, notes que les élèves oublieront sitôt la chanson terminée et qui, si une pratique régulière n’est pas suivie (et dans quel but ?) ne serviront à rien. Ce n’est pas que les programmes soient inexistants en la matière. Je ne doute même pas du fait qu’ils soient assez bien conçus. Mais ils ne sont appliqués que si, et seulement si le professeur a assez d’énergie pour affronter trente gamins, la tête remplie de techno et de rap, et leur expliquer calmement en quoi Beethoven a fait évoluer la symphonie, leur demander d’écouter calmement le scherzo de la neuvième, etc. Je ne ferai pas un dessin ! De tels professeurs existent et ils ont bien du courage. On ne peut pas jeter la pierre aux autres, dont je ferai peut-être partie moi-même si je devais me trouver dans une telle situation. Mais si le programme n’est pas appliqué, l’Académie ne bouge pas, elle ne dit rien. Imagine-t’on un lycée qui n’appliquerait pas le programme de physique ! Certes, il existe une barrière technique inhérente à la musique qui fait que, pour effectuer un travail aussi conséquent que celui qui est fait pour une pièce de Molière, l’élève devrait également pouvoir lire une partition ce qui demande une formation complémentaire qu’il n’est pas envisageable de proposer dans un cursus d’études déjà très chargé. Cependant ce n’est pas de cela qu’il s’agit. Il existe des manières d’appréhender le langage musical par une écoute dirigée qui se porte sur les éléments stylistiques. On peut leur apprendre, par la seule perception, à reconnaître une fugue d’une sonate, un quatuor d’une symphonie, un récitatif d’un aria. On peut leur apprendre à identifier des styles. On peut leur apprendre aussi comment le jazz est né de la rencontre de la musique africaine et de la musique européenne, comment la percussion s’est développée au XXème siècle. On peut leur apprendre enfin comment les compositeurs de notre époque en sont arrivés à utiliser les mêmes ordinateurs que ceux qu’ils utilisent dans leurs cours de technologie. Un effort soutenu est fait en direction de l’enseignement technologique afin que les jeunes puissent affronter le monde du travail actuel. Une bonne culture musicale ne serait pas négligeable pour affronter un monde sonore tel qu’il nous est proposé actuellement en permanence. Pour cela il faudrait que l’idée même de culture en musique soit revisitée, qu’elle ne soit plus seulement une somme de comportements, de conditionnements, mais aussi un savoir, un tissu de résistance, un appareil d’analyse du monde moderne.

La place que tient la musique dans la vie des enfants est proportionnelle à celle qu’elle occupe dans la vie des hommes qui sont chargés d’organiser leur éducation. C’est une chaîne de causes à effets qui se continue. Ce n’est pas une nouveauté que de constater que la musique (contemporaine mais aussi classique) tient également une place extrêmement réduite dans la vie des intellectuels de notre époque pour la bonne raison que, tout comme aujourd’hui, il n’en a pas été question au cours des leurs années de formation. Le type même de l’intellectuel entre 40 et 50 ans, qu’il soit écrivain, philosophe, homme de théâtre ou de cinéma, nourrit le plus souvent pour la musique un rapport qui est presque exclusivement d’ordre affectif. Généralement son attachement prend en compte la musique qu’il a fréquenté à l’époque de ses vingt ans. Cette époque, qui correspond à la fin des années 60, celle de la remise en cause fondamentale des valeurs, a été bercée elle aussi par la musique rock qui symbolisait ce désir de liberté tout autant que de rupture avec l’ordre établit. C’est pourquoi, tandis que dans sa bibliothèque personnelle y figurent les ouvrages les plus contemporains, on ne trouve guère dans sa discothèque les oeuvres des compositeurs de son temps. C’est pourquoi aussi l’usage que les grands cinéastes de notre époque font de la musique est soit basé sur le répertoire classique (le cas de l’utilisation de ce genre de musique par un Stanley Kubrick regorge cependant d’une imagination extraordinaire) soit correspond à son goût pour la musique rock (Wenders, Lars von Trier, Jarmush …) mais ne fait pratiquement jamais appel à un compositeur contemporain. Il est intéressant de constater que toutes les créations que l’Ircam a produites dans le domaine de la musique liée à l’image et au cinéma se sont exclusivement faite sur des films qui représentaient l’avant-garde des années 20 (Murnau, Bunuel, Lang, Dreyer) mais qu’il ne s’est jamais trouvé un cinéaste contemporain pour désirer une collaboration actuelle.

La place de la création musicale actuelle dans l’imaginaire des gens est totalement dépendante de celle du répertoire classique dans laquelle elle se trouve en prolongement. On a, certes, souvent montré du doigt le caractère complexe de ces musiques, éminemment abstrait. Je n’entrerai pas ici dans la démonstration, qu’il serait pourtant facile à faire, qui prouverait que la complexité et l’abstraction se trouvent dès les musiques médiévales et jusqu’à nos jours. Il n’est pas suffisant de répondre à une telle critique en donnant les cas bien connus des novateurs en musique dont le travail se trouvait aussi coupé du grand public, même si il ne faut pas oublier ces exemples. Il importe surtout de mettre le doigt sur l’extraordinaire conditionnement des personnes vivant dans un monde hautement producteur de sons auxquels on ne donne pas les clés indispensables de la connaissance et de la compréhension. Il importe aussi de montrer que, suivant les courbes d’un marché bien standardisé, le répertoire classique lui-même est aussi peu à peu considéré comme une forme “chic”, “cultivée” d’un produit dont la majeure partie constitue une musique de divertissement. Une forme goûtée par une classe aisée, appartenant à une soi-disante élite, celle qui peut payer le prix élevé d’une place de concert. Il ne faut guère compter sur les médias (surtout les grandes chaînes de télévision) pour proposer l’information que ne divulgue pas l’éducation officielle. Enfin, il importe surtout de dire aux gouvernants que si leur but est de faire accéder le plus grand nombre à la culture dans une société d’économie libérale acquise à la consommation sauvage, cela doit passer par une prise de conscience que les disciplines artistiques ne sont pas que des moyens illustratifs comme lorsque on utilise les reproductions de peinture classique dans les livres d’histoire suivant le sujet traité. Cézanne et Debussy seraient-ils moins importants que Zola ?

Si de telles conditions étaient mises en oeuvre, la musique cesserait de n’être, dans l’inconscient des gens, qu’un élément du paysage global comme le sont les produits fonctionnels de la société (les voitures, les supermarchés, les banques, les restaurants, les magasins) pour, de nouveau, s’affirmer comme ce qu’elle a toujours été, un des plus beaux produits de l’imagination des hommes.

 

                                                                            Philippe Manoury. Paris Avril 1998.

                                                                            

La note et le son

Wednesday, October 22nd, 2008

Le choix du support.

Dans les trois dernières oeuvres que j’ai produites à ce jour 1, mon principal but a été d’intégrer dans un même discours deux mondes qui, auparavant communiquaient de façons plus parallèles que conjointes : la musique instrumentale et la musique électronique. Je ne veux bien sûr pas dire par là que ces oeuvres sont les premières à avoir confronté ces deux genres, mais plutôt qu’elles inaugurent une démarche tendant à  une unification de ces deux domaines, tant du point de vue théorique que de celui de leur propre mode de fonctionnement. En un mot, j’ai essayé d’unifier ces méthodes dans une vision commune en faisant bénéficier la plus récente des apports de la plus ancienne.

 S’il est certain que l’activité créatrice n’a jamais pu faire l’économie de l’intégration de nouveaux matériaux, il est intéressant de comprendre pourquoi ces phénomènes, dès leur apparition, ont du s’accommoder d’une scission que quarante années d’existence n’ont pas suffit à résorber totalement. Il est très clair en effet que, à quelques exceptions près, les musiciens de l’après-guerre ont du choisir très vite leurs camps : celui de l’écriture instrumentale ou celui de la musique électronique ( alors ayant comme support la bande magnétique ). Le choix d’un support implique le musicien dans sa réflexion et jusque dans son propre mode de fonctionnement à l’intérieur de la création. Ce choix dépendait en grande partie du niveau de culture musical de chacun, celui des premiers électroacousticiens étant, il faut l’avouer, moins complet. On a pu dire, non sans quelques exagérations, que d’un côté l’on composait avec des notes alors que de l’autre on composait avec des sons. Notes et sons sont des étendards qui représentent, en fait, une réalité plus complexe.

Bien qu’il ne s’agisse pas, pour moi, de nier les différences les caractérisant, je pense qu’aujourd’hui ces deux domaines sont très complémentaires dans la problématique musicale actuelle. Avant d’en expliquer la raison, je tenterai de montrer ce qui, selon moi, a provoqué cette séparation.

 

L’écriture.

Une des caractéristiques essentielle entre ces deux supports est très certainement le fait que, pour s’exprimer, la musique instrumentale passe par une écriture. L’écriture, dans la composition, n’est pas uniquement un moyen de fixer les idées sur papier pour pouvoir les transmettre à des instrumentistes, mais a plusieurs autres fonctions dont deux me paraissent fondamentales : son pouvoir d’abstraction d’une part, et son côté symbolique de l’autre. Ces deux foncions, on le verra plus tard, sont tout à fait complémentaires.

Le langage musical traditionnel évolue à partir d’éléments codifiés, répertoriés, classifiés, voire même standardisés, qui permettent une combinatoire. Ce que j’appelle “pouvoir d’abstraction” est la faculté de pouvoir travailler sur des objets encore abstraits, c’est à dire dégagés de leur contexte final rendant possible plusieurs niveaux de structurations qui peuvent, soit s’interpénétrer, soit fonctionner de manière plus indépendante. En prenant un objet simple tel qu’un intervalle, il est clair que, quelque soit sa transposition, sa registration, sa durée, son intensité, ou encore le timbre avec lequel il sera révélé, un intervalle reste un intervalle et sera reconnu comme tel. Il est un objet encore abstrait que l’on peut manipuler hors de tout contexte. Il ne faut pas en déduire pour autant que la composition instrumentale passe fatalement par ce stade de séparation de tout ses composants, mais elle le permet. Les conséquences perceptuelles en sont  immenses car le discours musical, évoluant à partir de différentes couches superposées, ayant chacune leur poids perceptif, c’est le rapport entre les éléments variants et invariants qui décidera de faire transiter l’information sur l’une ou l’autre de ces couches 2. Cette faculté d’abstraction permet donc d’opérer sur plusieurs niveaux de langage, et c’est ce qui en fait en grande partie sa richesse.

La condition de cette abstraction réside grandement dans le fait que la notation musicale est tout à fait symbolique. J’entends par là que lorsque j’écris pour une clarinette “Mib”  “pp crescendo”, “blanche pointée”, je ne définis en aucune manière le phénomène sonore du point de vue physique, mais fournis à un interprète les indications de doigté et de souffle qui lui permettra de réaliser cet événement, et qui me permettra, à moi, d’imaginer ce que sera le résultat. En d’autres termes, ce n’est pas l’effet que je note mais la manière de le produire. Quiconque a déjà vu l’analyse physique de tout les paramètres d’un son instrumental sait de quelle complexité il s’agit. Il n’est pas vain de constater que cette réduction de la complexité physique en un symbolisme simple et abstrait a été le garant de l’édification de constructions musicales extrêmement complexes 3.De manière plus générale, il faut entendre par “écriture” toutes les techniques de transformation d’un matériau sonore. Il est clair qu’aujourd’hui, quiconque désirerait analyser une partition contemporaine, aura du mal à se passer des esquisses successives qui ont amené au résultat final tant est important le nombre de transformations que l’on fait subir à un matériau de base. Ces différentes étapes non seulement situent certains de ces éléments abstraits en contexte et permettent de dégager peu à peu l’image finale, mais aussi font infléchir de manière substantielle l’idée musicale de base. L’intégration d’une structure de rythme, par exemple, dans une problématique de hauteurs et de timbres, suscite très souvent de nouvelles solutions qui n’auraient pas pu être imaginées sans elle. Les carnets d’esquisses de Beethoven, mais aussi de Debussy, montrent que cet état de fait ne date pas d’aujourd’hui. L’écriture, on le voit, est aussi catalysatrice d’idées et de concepts ou, souvent, une idée initiale se voit supplantée par d’autres qui sont directement issues de ce travail spécifique de l’écriture.

 

L’interprétation

Cependant, cet écrit sera interprété. Il serait plus juste de dire une partie de cet écrit, car suivant les époques, les compositeurs, mais aussi les divers instruments, les critères d’interprétation ont variés grandement 4. Les instruments de musique offrent des modes de contrôles divers et cela revient à exprimer que dans un partition il y a des valeurs absolues et relatives. S’il on prend le cas d’une partition pour piano, il est évident que la seule chose qui soit productible avec une exactitude absolue sont les hauteurs, tandis que les dynamiques se situent à l’intérieur de zones définies globalement (pp, mf, sfz …) mais ne correspondent en aucune façon à des valeurs absolues tant qu’elles restent dans le cadre d’un écrit. Seules les valeurs relatives sont interprétables et il faut souligner ici que interprétation est synonyme d’absence de prédétermination totale. En tout état de cause, une partition ne délivre qu’une partie du message, celle que le compositeur considère comme essentielle en regard de ce qu’il veut exprimer, l’autre partie étant définie en temps-réel par l’instrumentiste. Le compositeur fournit un texte qui sera “gauchis”. Le rapport entre l’écrit et l’interprétation s’étant établit dans le cadre d’une longue tradition, on a pu s’apercevoir que lorsque des compositeurs ont cherché à échapper par différents moyens à cette tradition, ils n’ont pu y parvenir que par le moyen d’une plus grande précision dans la notation 5. Mais il n’en demeure pas moins que, quelque soit la précision de la notation, certaines données sont interprétables et d’autres non. Tout ces phénomènes, on va le voir, ne se retrouvaient pas dans la musique électronique à ses débuts, et il me parait évident que c’est une des raisons qui a poussé bon nombre de compositeurs à se détourner de ces voies.

 

Matériaux et transformations dans la musique électronique.

Si l’écriture, par son pouvoir tant symbolique qu’abstrait, permet entre autre de travailler sur des objets encore détachés de leur fonction sonore définitive, les sons électroniques, de ce point de vue, offrent une grande réticence. Le matériau ne se laisse pas apprivoiser avec autant de souplesse. La réalité sonore était présente dès le début du travail et il était difficile d’abstraire autant de catégories que ne le permettait la musique instrumentale. Dans les débuts de la musique électronique s’opérait une distinction fondamentale entre sons de synthèse et sons concrets (ou techniques de traitement). Les premiers, surtout issus des travaux du studio de Cologne, proposaient, il est vrai, une approche plus déterministe et précise en ce sens que les compositeurs pouvaient définir des échelles de hauteurs non-tempérées et travailler ainsi sur des relations harmoniques nouvelles. Sur les seconds, expérimentés au studio de la RTF à Paris, on tentait d’opérer des transformations sur des sons enregistrés, et parfois non détachés d’un contexte anecdotique ce qui n’était pas sans dommage pour l’oeuvre. Stockhausen, le premier, semble avoir pris conscience du fait qu’on ne peut pas se passer impunément de références culturelles lorsqu’il a très tôt mélangé les sons d’une voix d’enfant aux sons électroniques dans Gesang der Junglinge, unifiant du même coup techniques de synthèse et de traitement dans un même discours. Dans la musique de synthèse pure, un problème harmonique est dû au fait que l’espace des hauteurs étant complètement libre et modulable, les catégories d’intervalles proposées ne se situent plus dans un contexte culturel tel que l’oreille puisse les identifier. D’autre part, réutiliser un espace totalement ou partiellement tempéré comme celui des instruments acoustiques n’a absolument aucun sens dans un tel contexte. On peut bien sûr concevoir des échelles sonores à profusion à l’aide du calcul, il n’est pas du tout évident que ces échelles demeurent pertinentes quant à leur perception. Enfin, d’un point de vue sonore, il faut bien reconnaître que ces premiers sons synthétiques souffraient d’une inertie très gênante du point de vue de leur morphologie sans parler des techniques d’enregistrement de l’époque qui “datent” cruellement ces oeuvres. On a pu assister, par ailleurs, à des tentatives d’apprivoiser ces sons dans les canons de l’écriture traditionnelle (sérialisation des objets, savants calcul des durées …) mais il faut bien reconnaître que ces démarches ne dépassaient pas un cadre formaliste assez étroit et étaient, tout au plus, une manière de réagir contre le laisser-aller, tant théorique qu’esthétique, qui accompagna souvent ces premières expériences.

Cependant, pour fondée qu’elle fût, la critique de la musique électronique, a aussi ses limites et, bien heureusement, on ne la rencontre plus aujourd’hui que dans des esprits aussi étroits qu’académiques. Si les concepts mirent un certain temps à se développer, il font désormais partie du back-ground musical actuel et je ne vois pas comment un compositeur pourrait, avec la même assurance que celle prônée autrefois, négliger cet état de fait.

Quel est donc le statut de ces nouveaux matériaux dans le cadre de la composition ? On peut dire d’une certaine manière qu’ils dépendent de leur rapport au contexte dans lequel il vont évoluer. La construction de leur morphologies, plus ou moins complexe, leurs relations avec un modèle connu 6, leur faculté à être transformés jusqu’à l’anonymat en fera, ou non des objets intégrables. Il se joue ici une dialectique entre la complexité de l’objet et celle de son contexte. La frontière entre les deux pourra être parfois ambigüe : lorsque l’objet est trop complexe pour pouvoir être intégré dans un contexte en tant qu’élément de celui-ci, il deviend lui-même ce contexte. On n’est pas loin ici d’une situation déjà connue : la perception d’une structure harmonique ou polyphonique ne peut se faire que lorsque les éléments qui la révele remplissent les conditions d’un certain anonymat ou d’une certaine standardisation, alors que dans d’autres civilisations, la non-standardisation de la forme des sons a été de pair avec des systèmes en grande partie monodiques.

Comment peut-on conceptualiser cette notion d’objet aujourd’hui ? il s’agit en fait d’un ensemble sur lequel pointe plusieurs paramètres de variations qui sont responsables des differents niveaux morphologiques qui le constitue. Le nombre de ces paramètres peut être différents suivant les cas, la chose importante étant qu’une indépendance de contrôle d’un paramètre sur l’autre soit respecté. Les différentes techniques permettant les transformations de ces objets sont trop nombreuses pour pouvoir être ici énumérées et beaucoup restent à inventer car le nombre de ces objets étant aussi grand que ce que l’imagination peut concevoir. Mais il me semble qu’un grande partie de ces opérations vont dans le sens d’une décomposition de l’objet sonore ou les divers éléments d’un matériau peuvent être isolés et manipulés de manière indépendante et avec lesquels on peut travailler. Je citerai comme exemple celui de l’indépendance des contrôles harmoniques et spectraux. ou l’on peut, tout en gardant la fonctionnalité harmonique d’un objet, faire varier sa morphologie spectrale dans laquelle apparaîtront et disparaîtront certains des éléments qui le composent et vice versa. La création de variations continues entre des objets, en modifiant progressivement chacun des paramètres qui contrôlent leurs caractéristiques harmoniques, spectrales ou autre, peut les faire transiter de familles à familles. Il faut pour cela déterminer des familles morphologiques qui réuniront, sous leurs principes, une certaine quantité d’objets. Les critères de définition morphologique sont, eux aussi, très nombreux : harmonicité, inharmonicité, stables ou instables en fréquences, suivant certaines caractéristiques d’enveloppes, bruités ou non, suivant leur niveaux de brillance ou de rugosité etc…. Lorsqu’il est possible d’isoler ainsi certains composants, nous ne sommes pas loin de la situation décrite précédemment dans l’écriture traditionnelle ou les objets ont la propriétés de fonctionner comme autant de couches superposées.  Ici, c’est au niveau des relations entre les différents types de contrôle que s’opérera, ou non, une fusion de l’objet dans lequel chacun de ses paramètres sera intégré dans une entité perceptuelle.

Certes, il ne faut pas penser parvenir à une situation stabilisée et standardisée, ce ne serait d’ailleurs guère souhaitable. C’est plutôt au niveau de la méthodologie et de la conceptualisation qu’il faut porter ses efforts. Il est clair que dans ce cadre, certaines opérations classiques comme les transpositions, les inversions ou les renversements pourront se révéler totalement inefficaces et d’ailleurs s’appliqueraient fort mal aux types de matériaux à traiter. L’utilisation de nouveaux matériaux remet en question certaines bases établies et il est clair que le choix de techniques de composition ne peut se passer d’une réflexion sur les matériaux qu’elles vont utiliser. Celles-ci ne peuvent prétendre préexister dans tout les cas aux matériaux, comme en retour, un matériau peut engendrer son propre mode de développement plutôt qu’un autre. S’il fallait tirer une conclusion théorique de cette situation, je dirai qu’on assiste, actuellement, à une grande prolifération des composants musicaux utilisés. Les méthodes de synthèses, se faisant toujours plus perfectionnées, on peut évidemment traiter le son du plus profond de lui-même. Si les composants traditionnels sont évidemment toujours de mise, ils ne sont pas les seuls constituants de l’appareil compositionnel. Il faut désormais pouvoir se placer à différents niveaux hiérarchiques du discours musical, quelque part entre la structure globale et la définition morphologique des sons tout en sachant qu’il est un leurre de vouloir traiter tout le temps ces deux extrêmes simultanément. La différence d’attitude se fait surtout en ce sens que, dans la musique électronique, les modes de transformations sont à imaginer par rapport à un matériau spécifique, alors que dans la musique instrumentale, ils peuvent rester plus indépendant de ce matériau. La raison en est, j’y reviendrai plus tard, que nous n’avons aucune mémoire pour ces nouveaux matériaux.

 

Le statut de l’écriture et de l’interprétation dans la musique électronique.

Il est courant de dire que la musique électronique ne se situe pas historiquement dans le cadre d’une écriture. C’est tout à fait vrai si l’on prends en considération tout ce qui a été dit a ce sujet précédemment. Mais on peut concevoir aussi que l’écriture est avant tout une manière de définir le comportement de ces objets dans le discours musical, ou pour reprendre la belle formule de Pierre Boulez se fait jour “une sociologie des comportements musicaux”. Finalement, les comportements et la morphologie sont ce qui constituent la totalité du discours. En tout état de cause, l’écriture traditionnelle a pour but d’assigner des valeurs à des composants musicaux et c’est exactement ce qui se passe, surtout lorsque l’on a recours aux moyens informatiques. Il est intéressant de constater que ce terme “écriture” est fréquemment utilisé dans le jargon informatique, on “écrit” et on “efface” des valeurs dans les registres d’une machine. L’association de toutes ces valeurs écrites définie l’objet et son comportement, et qui plus est, il est tout à fait légitime de mettre en parallèle les différents stades d’écriture traditionnelle avec les différentes couches de transformation que l’on peut faire subir à un matériau. On y retrouve la même faculté génératrice d’idées et, les moyens techniques le permettant, il est tout à fait possible d’agencer ces couches de manière à ce qu’elles interfèrent les unes avec les autres. On peut, pour bien saisir cette situation, prendre l’image d’un objet vu au travers de différents prismes qui, chacun, a le pouvoir d’altérer sa morphologie de manière spécifique. La superposition, partielle ou totale, de ces différents prismes ainsi que leur changement dans le temps donnent à l’objet des configurations nouvelles et variées. Il est extrêmement fréquent, dans ces conditions, de découvrir des situations qui n’auraient pu être imaginées sans ce travail “d’écriture sur du matériau”, c’est même, d’une certaine manière, nous le verrons, un peu la loi.

Reste la question de l’interprétation. Ici la question du support est essentielle. Peut-on raisonnablement parler d’interprétation dans le cadre d’une musique figée sur support magnétique ? La marge de manoeuvre est très mince car, mise à part la spatialisation et le niveau sonore, rien ne permet d’agir sur le devenir musicale qui, de plus, est constamment figé dans le temps de déroulement immuable d’une bande magnétique. Si la spatialisation est une donnée assez peu manipulable dans la musique instrumentale, elle représente, en effet, un apport de la musique électronique. Mais il faut bien reconnaître que dans la liste des composants utilisés par un compositeur, la spatialisation ne se situe pas à un niveau hiérarchique très fort. Je ne dis pas en cela, qu’il faille négliger pour autant cette possibilité, elle est même indispensable dans bien des cas, ne serait-ce que pour aider à la perception de différentes structures sonores si souvent compressées dans ces outils encore imparfaits que sont les haut-parleurs, mais la perception a beaucoup de mal à identifier des chemins topologiques qui n’entrent pas dans le cadre de formes très simples comme un mouvement stéréophonique ou encore un mouvement rotatif. Au delà de ces archétypes, et si ils se déroulent à une trop grande vitesse, les figures spatiales ne sont plus reconnues en tant que forme et se prêtent mal à des variations ou à des superpositions. Pour ces raisons limitatives, je ne pense pas que la spatialisation devienne un composant essentiel pour le compositeur ainsi qu’un élément véritablement primordial pour l’interprétation. Elle n’est que la place géographique à laquelle se situe un matériau. Elle peut aider dans la perception simultanées de différentes structures qui ne pourraient pas se démarquer les unes des autres sans cet aide mais ne possède pas un pouvoir de mémorisation formelle aussi puissant que celui d’autres composants musicaux. Il est pratiquement certain que ce n’est là aussi qu’un problème culturel et qu’une reconnaissance de forme spatiale complexe n’est “théoriquement” pas impossible. Mais c’est plusieurs siècles de musique et toute une éducation qu’il faudrait alors revoir. Quant  au niveau sonore, pour ne pas employer le terme musical de dynamique ou d’intensité, ce n’est guère que des valeurs de tensions électriques qui font modifier le niveau d’un signal, qui reste, d’autre part rigoureusement le même, exactement lorsque nous tournons le bouton de volume d’une chaîne hi-fi. La dynamique musicale, elle, n’est pas un paramètre en ce sens qu’elle fait varier toute une série d’autres composants musicaux comme les amplitudes, mais surtout l’apparition de nouveaux partiels à l’intérieur du spectre. La morphologie sonore est différente suivant les intensités avec lesquelles on produit le son, en d’autres termes la variation des dynamiques est un facteur qualitatif autant que quantitatif, ce qui n’est pas le cas dans la musique sur bande. Jusqu’à une époque relativement récente, et tant que la musique électronique n’était pas produite par des systèmes en temps-réel, on ne pouvait, il est vrai, absolument pas parler d’interprétation. L’absence d’interprétation était le dernier bastion dans lequel pouvaient se retrancher les farouches opposants de cette pratique musicale, mais, fort heureusement, les choses ont bien changé de ce point de vue.

L’informatisation, désormais totale, de la musique électronique a considérablement évoluée avec l’apport des systèmes en temps-réel. Ce terme de temps-réel est à prendre cependant avec certaines précautions. Dans le contexte musical, cela signifie simplement que le temps entre lequel les données sont envoyées à un processeur de calcul et est restitué le résultat sonore est tellement rapide que l’oreille ne peut pas le percevoir. Cela ne signifie pas pour autant que tout ce qui est produit, lors d’une exécution, le soit en temps réel. En d’autres termes, et pour reprendre la définition de l’objet musical telle que je l’ai donnée précédemment, dans la quantité de paramètres dont je dispose, certains pourront être définis en temps-différé (c’est à dire écrits une fois pour toute dans la partition synthétique) alors que d’autres seront le seront en temps-réel. On retrouve, ici, la notion de partition telle que je l’avais exprimée plus haut, c’est à dire un mélange de valeurs absolues, non-modifiables par l’interprète, et de valeurs relatives, exprimées non par des symboles précis mais par des zones. A partir de cela, il me parait évident que le grand apport des systèmes en temps réel, plus que l’immédiateté avec laquelle on obtient le résultat du calcul, se situe dans le domaine de l’interactivité.  Qui dit interactivité, musicalement parlant, dit aussi interprétation. La musique électronique peut très bien se concevoir par rapport à une interprétation possible et ces critères d’interprétation peuvent être choisis dans le champ traditionnel qui est celui de la musique instrumentale. Il aurait, en effet, été fort dommage, dans un premier temps,  de substituer à l’apport que nous lègue la longue expérience de la musique instrumentale des critères d’interprétations conçus sur d’autres modes que ceux auxquels sont habitués les musiciens. La réunification de ces deux approches doit passer fatalement par l’alliance d’un savoir empirique avec un autre, plus expérimental. Il ne faut cependant pas en déduire de tout cela que les compositions instrumentales et électroniques s’abordent d’une manière totalement identique.

 

Mémoire et expérimentation.

Toutes les attitudes engendrées par l’écriture traditionnelle sur lesquelles je me suis expliqué au début, proviennent d’un savoir empirique qui s’est transmis de générations en générations. Certes, certaines parties (les plus théorisables comme l’harmonie ou le contrepoint) de ce savoir ont été codifié dans des traités qui, comme l’a dit quelqu’un “disent ce qu’il ne faut pas faire plus que ce qu’il faut faire”. Mais, si l’étude de ces disciplines ne peut faire de mal à personne, il faut bien reconnaître qu’elle n’est plus vraiment d’actualité pour la musique telle qu’elle se conçoit aujourd’hui. Cependant, un domaine comme celui de l’orchestration, beaucoup moins théorisable et moins directement lié au langage, a fait aussi l’objet de nombreux traités qui, même les plus géniaux comme celui de Berlioz, restent assez confus à cet égard. On y trouve les règles de base comme la liste des possibilités instrumentales à une époque donnée, les manières de bien faire sonner un accord avec l’alliage de plusieurs familles instrumentales, quelques exemples tirés du répertoire et surtout des renseignements sur la manière dont on concevait le timbre à ces époques. Finalement ces ouvrages restent plus musicologiques que réellement utilisables. En y réfléchissant on peut se demander comment il pourrait en être autrement, l’orchestration n’obéissant pas à des règles de déductions aussi précises que les autres domaines. Aujourd’hui, la tâche n’en est que plus difficile car l’orchestration n’est plus considérée comme un domaine consécutif à la composition mais peut être très tôt intégrée à l’intérieur des esquisses. Vue la faiblesse pédagogique inhérente à cette discipline, c’est par l’étude des partitions que nous pouvons acquérir les connaissances nécessaires. Mais il n’en demeure pas moins qu’il s’agit de matériaux que nous connaissons bien et nous devons être capable d’imaginer ce que donnera le résultat final, ou du moins une grande partie, sans avoir un orchestre à notre disposition. Dans ce domaine la mémoire culturelle catalyse notre imagination car nous travaillons à partir d’objets connus et répertoriés. Ce n’est absolument pas le cas avec les nouveaux matériaux. Nous n’avons, dans ce cas, aucune histoire, ou une histoire tellement récente et éclatée, qu’elle peut difficilement agir sur notre comportement. Certes il existe, des méthodes de synthèses très diverses et très spécifiques ayant chacune leur propre mode de fonctionnement et leurs propres contrôles, mais le matériau sonore lui-même étant tellement spécifique à une oeuvre donnée qu’il me paraît impensable de le réutiliser dans un autre contexte sans transformations substantielles 7. De ce point de vue la meilleure méthode d’investigation, la mémoire faisant défaut, reste l’expérimentation.

En écrivant Pluton ou La Partition du Ciel et de l’Enfer  il m’a été très fréquent de rencontrer des situations fortuites (parfois même consécutives à une erreur de programmation) qui, n’ayant pu être prévues, se sont ensuite révélées très fructueuses. J’avais initialement prévue toute la section introductrice pour l’orchestre seul, pensant y inclure ensuite des événements synthétiques une fois le programme mis au point. La section orchestrale terminée, je tentais d’y intégrer une partition synthétique qui devait parfois épouser les configurations instrumentales ou en dériver. Avec un peu de patience, je suis arrivé à quelques résultats satisfaisants quant au rapport son instrumental/synthétique, mais le problème s’est surtout posé lorsque je me suis aperçu que les dérivations que j’avais expérimentées m’ouvraient un champ d’investigation extrêmement riche que je n’avais pu imaginer. Le travail sur les sons inharmoniques, ainsi que sur le rôle du bruit comme altération des composants harmoniques qui étaient produits dans l’orchestre s’accommodait fort mal de la partition instrumentale qui évoluait sur des principes tout autres. J’ai alors préféré laisser libre cours aux potentialités de l’expérimentation dans le domaine de la synthèse et réécrire totalement la partition instrumentale à partir de ces résultats. Il m’était, en effet, plus facile d’imaginer des situations instrumentales propres à s’allier avec certains développement synthétique que le contraire, la faculté de prévisibilité étant dans ce domaine incommensurablement plus grande. J’ai ensuite continué l’écriture de cette pièce conjointement entre la synthèse et l’orchestre mais il m’était devenu évident qu’il me fallait laisser une ouverture aux solutions que l’expérimentation me proposait.

Si j’ai tenu à raconter cette anecdote, c’est avant tout pour montrer que tout en cherchant à unifier ces deux méthodes dans un même creuset théorique et fonctionnel, il n’est pas possible de transposer brutalement une attitude créatrice d’un domaine dans l’autre. Il faut opérer une transsubstantiation qui doit prendre en compte une réflexion, incontournable à mon sens, sur le support comme sur le matériau. Mémoire et expérimentation sont les bornes de cette réflexion.

 

Quant à l’esthétique.

Si je me suis longuement penché sur des considérations théoriques et techniques, il va de soi que tout ceci n’a de valeur que lorsqu’est proposé un but esthétique. D’autres l’on dit avant moi, technique et esthétique ne sont guère séparables, c’est par la première que l’on peut trouver la seconde. S’il ne m’est pas donné de dire en quoi cette esthétique peut consister, j’aimerai juste relever qu’il s’agit pour moi d’une problématique de l’instant. Cela signifie que, même à mon corps défendant, je suis amené à travailler de plus en plus localement sur des propositions qui se font jour dans le cadre d’une expérimentation. Si je peux imaginer quel but je dois atteindre, j’ignore encore quels sont les chemins qui vont m’y conduire. Poussé à l’extrême ce raisonnement pourrait conduire à l’incohérence. C’est là affaire d’engagement personnel. Dans la situation ou se trouvent les compositeurs de ma génération, il ne sert plus à rien de réveiller les bonnes vieilles querelles de nos prédécesseurs. Il s’en trouvera probablement plus devant nous que derrière. Les différents courants musicaux qui se font jour actuellement, mis à part cependant les résurgences et les nostalgies, ont chacun leurs propres concepts à développer, parmi ceux-çi, la note et le son ne demandent pas mieux que s’harmoniser.

 

                                                Philippe Manoury.

                                                Paris, Janvier 1990.

 

 

 

  1. JUPITER” pour flûte et 4X (1986), “PLUTON” pour piano et 4X (1987-88), “LA PARTITION DU CIEL ET DE L’ENFER” pour trois solistes, 4X et orchestre (1989). Oeuvres réalisées à l’IRCAM avec la collaboration technique de Miller Puckette et Cort Lippe.
  2. Pour prendre un exemple classique, la perception du rythme dans la musique tonale s’effectue suivant plusieurs hiérarchies : celles des durées séparant chaque événements produits dans le temps chronologique, celle de la fréquence des changements harmoniques, des phrases, des modulations, et enfin des proportions temporelles.
  3. Si l’on se prenait à imaginer ce qu’aurait donné une notation devant décrire les phénomènes sonores dans leur constitution physique, en admettant qu’on ai eu les appareils pour cela, il y aurait fort à parier que la musique en aurait été très différente. Cette situation, pour incongrue qu’elle puisse paraître, ne l’est pas tant que cela : c’est en effet à elle que nous sommes fréquemment confrontés dans la musique de synthèse.
  4. A d’autres époques, les partitions admettaient moins de symboles lorsqu’une tradition orale suppléait à ce qui n’était pas noté. Les symboles notés en priorité correspondaient au pouvoir discriminateur de l’oreille : les mouvements de hauteurs d’abord (les neumes du chant grégorien), les durées ensuite (surtout à partir de la polyphonie), les dynamiques ensuite (vers le XVIIIème siècle).
  5. Les exemples de Boulez et de Stockhausen dans leurs premières oeuvres sont, de ce point de vue, tout à fait éclairants. L’un comme l’autre ont tenté d’échapper au des formes d’expression qui relevaient d’une rhétorique traditionnelle (cf. les Structures pour 2 pianos et les Klavierstücke I-IV). Dans l’une ou l’autre de ces oeuvres on peut facilement voir une volonté de noter avec une ultra précision les indications de durées et de dynamiques de manière à ne pas laisser les vieilles habitudes prendre le dessus. Il est évident que ces notations étaient issues de principes de même nature et n’étaient pas un simple garde-fou pour l’interprête. Plus tard, s’apercevant de l’impasse que cela pouvait constituer, ils firent entrer des critères de variabilité dans leur notations.
  6. La notion de modèle connu est un problème de reconnaissance de forme et peut aujourd’hui être considérablement élargie. Un tel modèle peut être l’expression d’une catégorie repérable (contexte harmonique ou rythmique), une simulation de timbre instrumental (ou une hybridation entre plusieurs timbres), ou même simplement la description d’un comportement typique (une enveloppe de type percussif, par exemple, peut très bien servir de modèle de référence à tout une catégorie d’objets différents quant à leurs morphologies spectrales, harmoniques ou autres).
  7. Stockhausen, là encore, avait depuis longtemps, mais avec des moyens beaucoup plus rudimentaires, montré la voie. Dans Microphonie I un tam-tam est excité par différents modes de vibration qui sont ensuite filtrés. Si la valeur esthétique de cette oeuvre a quelque peu vieillie, en grande partie due au fait du peu de possibilités des moyens de transformation disponibles à cette époque, elle n’en démontre pas moins qu’aujourd’hui, plus qu’hier, chaque oeuvre doit posséder son propre monde sonore et qu’on ne peut pas impunément dupliquer tels quels les moyens de transformation d’une oeuvre sur l’autre.

Considérations (toujours actuelles) sur l’état de la musique en temps réel

Wednesday, October 22nd, 2008

En guise d’introduction

Voilà plus d’un quart de siècle que mon esprit ne cesse d’être préoccupé, hanté même, par cette invention qui, un autre quart de siècle auparavant, a provoqué une fissure dans le monde de la musique : celle de l’électronique.

Mes premiers contacts avec la musique électronique ont eu lieu au cours des années soixante-dix. Ce serait un euphémisme que de dire qu’à cette époque, en France, les musiques électroniques et instrumentales ne faisaient pas bon ménage. La querelle qui, dans les années cinquante, opposa les « compositeurs de l’écriture »  (Barraqué, Boulez  et Stockhausen principalement) à ceux de « l’intuition expérimentale » (incarnés par le GRM de Pierre Schaeffer) n’est que la plus célèbre de toutes. Pour être bref, les premiers reprochaient aux seconds de n’être que des analphabètes musicaux, tandis que les seconds auraient aimé reléguer les premiers dans les greniers poussiéreux de la tradition. Provenant d’horizons culturels très différents, les compositeurs œuvraient soit dans l’une, soit dans l’autre de ces catégories, mais rarement dans les deux. Élevé dans la tradition de l’écriture instrumentale, je n’en éprouvais pas moins une réelle attirance pour les possibilités offertes par la musique électronique. Ce furent les fréquentes venues de Stockhausen à Paris, au cours des années soixante-dix, qui me firent prendre conscience de la possibilité et du grand intérêt qu’il y aurait à relier ces deux conceptions musicales en une seule. Je découvrais qu’on pouvait à la fois composer de la musique d’orchestre et de la musique électronique, et parfois, au sein d’une même œuvre. La création parisienne de Mantra, en 1973, fut pour moi un moment initiatique. J’y découvrais la richesse potentielle de l’unification des mondes instrumentaux et électroniques au sein de ce que l’on aurait pu, déjà à cette époque, appeler « la musique électronique en temps réel ». Mais cette œuvre, aussi emblématique qu’elle fut, n’en demeurait pas moins, à mes yeux, inégalement proportionnée quant à l’usage de ces deux modes d’expression. La partie électronique ne consistant qu’en une transformation passive des sons des deux pianos, à aucun moment, elle ne possédait une structuration formelle autonome, comparable dans sa construction à celle des instruments. Dans ses œuvres précédentes, ce même Stockhausen avait magistralement montré dans quelles mesures les textures électroniques pouvaient être rigoureusement composées. Mais, à l’époque de Mantra, l’état de la technologie rendait encore impossible une telle complexité dans le contexte du temps réel. Le seul support possible pour composer des formes évoluées avec les matériaux électroniques demeurait la bande magnétique. 

C’est donc avec une certaine frustration, due à la difficulté de réunir ces deux modes d’expression, que j’entrepris mes premiers travaux. Autant les potentialités sonores de la musique électronique m’attiraient, autant la rigidité de son organisation temporelle n’en finissait pas de me poser problème. Ce n’est qu’au début des années quatre-vingt, avec la construction des premiers modèles de synthétiseurs en temps réel par Guiseppe di Guigno à l’Ircam, que j’entrevis immédiatement une ouverture possible vers une plus grande souplesse temporelle qui libérerait la musique électronique de ce temps figé qu’imposait la bande magnétique. Je me souviens tout particulièrement d’une séance de travail autour de Pierre Boulez et « Peppino » di Guigno, au cours de laquelle la preuve fût faite que ce que jouait le flûtiste Lawrence Beauregard pouvait être identifié par un ordinateur, et ce, quelque soit le niveau de virtuosité instrumentale. Je vécu ce jour-là comme une sorte de second moment initiatique : il était donc possible de synchroniser automatiquement la musique électronique avec le jeu instrumental. Le point le plus important de cette avancée consistait dans le retournement de la situation habituelle dans laquelle l’instrumentiste était l’esclave du déroulement automatique et inexorable d’une bande magnétique. Dorénavant ce serait l’instrumentiste, le maître du temps. Il pourrait jouer à son propre tempo, accélérer, ralentir, faire des points d’orgue, bref, retrouver toute la respiration et la liberté qui était la sienne depuis que la musique existe, l’électronique le suivrait désormais. Au cours des dix années qui suivirent, je menais, avec la collaboration du mathématicien Miller Puckette, une série de recherches dont le premier résultat allait être Jupiter, pour flûte et électronique. Cette œuvre, composée en 1987, était la première à utiliser un suiveur de partition et développait de nombreux principes d’interactivité entre la flûte et les sons de synthèse 1. Elle marquait le début du déclin de la musique sur bande magnétique qui, malgré quelques positions nostalgiques, voire d’arrière-garde, allait finir par disparaître. Ensuite naquirent successivement Pluton, La partition du Ciel et de l’Enfer, Neptune et En écho, œuvres dans lesquelles je développais de nouvelles relations avec le monde instrumental tout en cherchant d’aller aussi loin que possible dans les modes de communications interactifs. Pas à pas, j’entreprenais une sorte de « recherche du temps perdu », celui, continu, organique et flexible, de la musique jouée par les musiciens, et que je cherchais à réintégrer dans les musiques électroniques. J’ai alors porté tous mes efforts sur le développement de structures musicales électroniques élaborées, dépassant le simple procédé de la transformation passive des instruments, et pouvant être soumises au temps flexible d’un interprète. En d’autres termes, je voulais doter la musique de synthèse de la possibilité d’être interprétée.

 

Pourquoi le temps réel ?

Une critique contre le temps réel a souvent été formulée, pointant une qualité sonore insuffisante, inférieure à celle qui était produite par les moyens de l’électronique traditionnelle sur bande magnétique. Cette critique était fondée dans les débuts, mais n’a plus lieu d’être aujourd’hui car le raffinement auquel sont parvenus les moyens de la synthèse sonore n’a désormais plus rien à envier aux anciennes méthodes. Une des premières commodités du temps réel a été l’instantanéité des résultats dans des calculs parfois complexes. C’était un avantage considérable si l’on se souvient des nuits interminables, passées autrefois à attendre que les machines aient terminé leur travail avant de constater que le résultat n’était pas à la hauteur des espérances et qu’il fallait relancer les calculs pendant autant de nuits successives qu’il était nécessaire. La rapidité des calculs n’entraînait pas pour autant une plus grande rapidité dans le processus de composition. C’était parfois même le contraire. Mais lorsqu’un compositeur est à sa table de travail, ce qu’il note sur sa partition « sonne » dans sa tête et il bénéficie ainsi d’une sorte de « temps réel virtuel » qui guide son intuition et son imagination. Ce n’était pas le cas quand l’écoute du résultat n’intervenait que très longtemps après  l’écriture. D’autant plus que cette « écriture » n’était en fait qu’un langage fait de nombres et de valeurs numériques, ce qui est la manière la moins intuitive qui soit pour composer de la musique. Malgré l’affirmation de Leibnitz, selon laquelle « toute musique est un calcul inconscient », il restait difficile d’appréhender une qualité sonore à la simple vue d’un listing de colonnes chiffrées. Ce fût un autre atout du temps réel, plus important que ce simple gain de temps, que d’avoir profondément modifié la manière dont un musicien transmet ses idées à une machine. Avec les premiers programmes en temps réels – et je pense particulièrement à l’invention du programme Max par Miller Puckette – l’utilisation de curseurs graphiques et virtuels a permis d’intégrer des éléments gestuels comme outils de contrôle de l’ensemble des qualités sonores. Il n’était plus besoin de formaliser numériquement une structure de timbre, car on pouvait la construire et la faire varier d’une façon analogue à celle d’un musicien qui produit le son par une variation de souffle ou une pression de l’archet. De fait, ces machines commençaient alors à ressembler à des instruments de musique, du moins dans les manières avec lesquelles on communiquait avec elles.

Enfin, le temps réel a ouvert la voie à l’interactivité entre les instruments acoustiques et les machines. Or, si de nombreux pas ont été faits pour ce rapprochement, le mode de communication qui domine le plus souvent n’est, pour le moment, qu’une sorte de « code morse ». De temps en temps, pour les besoins d’une captation ou d’une synchronisation, s’ouvre une communication entre instrument et machine, qui se referme une fois le processus de captation achevé, laissant instruments et électronique continuer de manière indépendante sans plus de relations entre eux. Ainsi ce que l’on a parfois appelé « temps réel » s’avérait souvent n’être que des séquences musicales pré-composées, comme des petits morceaux de bandes magnétiques mis bout à bout, que l’on pouvait, certes, démarrer au moment propice, mais dont le contrôle dans le temps nous échappait. On entrait dans le temps musical par de petites fenêtres, qui s’ouvraient par intermittence, pour se refermer aussitôt. Pour obtenir une véritable continuité dans la communication entre instruments et électronique et faire en sorte que la réaction de cette dernière soit non seulement instantanée, mais aussi suffisamment riche pour s’adapter aux différentes situations et se modifier dans le temps d’une œuvre, il existe un outil fondamental. L’artisan majeur d’une réussite en la matière est, sans aucun doute, le suiveur de partitions.

 

 A l’approche du Temps retrouvé.

 Un suiveur de partitions est un programme qui a mémorisé une partition et cherche à la reconnaître lorsqu’elle est jouée. Cet outil possède plusieurs niveaux de tolérance car des erreurs peuvent toujours intervenir pendant une exécution. Il est celui qui suit, pas à pas, le déroulement de la musique dans le temps et permet aux événements électroniques de se synchroniser avec une précision à laquelle l’oreille (ou une quelconque action humaine) ne peut pas atteindre. Si, depuis son invention, il a permis de retrouver une partie de ce « temps perdu », il faut bien avouer que nous sommes loin du « Temps retrouvé ». En amont de ce suiveur de partitions se dresse l’épineux problème de la détection, de la reconnaissance et de l’analyse en temps réel des sons instrumentaux. Plusieurs poches de résistances se sont trouvées sur ce chemin, certaines naturelles, comme l’extrême complexité du fonctionnement des instruments de musique, d’autres technologiques, comme la difficulté d’analyser et de reconnaître des éléments polyphoniques, d’autres enfin psychologiques : beaucoup de compositeurs hésitaient à se lancer sur une voie aussi complexe et jonchée de tant d’embûches technologiques.

Les instruments de musique ne sont en rien comparables aux objets standardisés que notre époque aime tant à produire. Mis à part les instruments du quintette à cordes, chacun possède son propre mode de fonctionnement. Flûtes, hautbois, clarinettes, bassons, cors, trompettes, trombones et tubas, bien que réagissant tous au souffle, ne possèdent guère de caractéristiques mécaniques communes. La richesse de leur diversité nous pose des problèmes d’une grande complexité lorsque l’on veut les accoupler avec la technologie moderne. Il faut souvent inventer autant de manières différentes, pour capter leurs informations, qu’il y a d’instruments. On a mis des capteurs pour détecter les doigtés sur une flûte, d’autres sous les touches d’un piano ou d’un vibraphone, on a utilisé des systèmes de vidéo pour analyser tel ou tel geste de percussionniste, on a placé des antennes pour mesurer la position d’un archet ou utilisé des méthodes spécifiques pour analyser sa pression sur une corde. D’abord purement mécaniques, les systèmes de captations ont ensuite utilisé les moyens audio, vidéo, les capteurs sensitifs, la gravitation… et souvent, c’est par le couplage de deux ou trois de ces méthodes que nous arrivons à construire des systèmes qui nous donnent satisfaction, souvent au prix d’un fouillis de fils, de câbles, de caméras et autres micros. Si l’absence de standardisation gouverne le fonctionnement de nos instruments, elle gouverne également l’attitude de ceux qui les utilisent. Tel pianiste aimera parfois enfoncer silencieusement les touches de son instrument avant de plaquer un accord, tel violoniste tiendra son archet d’une façon différente de tel autre, tel flûtiste produira un staccato beaucoup plus bref que ses collègues… La variété de gestes et de comportements est pratiquement infinie. Pour cela, nous avons appris à nos machines à apprendre, et à s’adapter à telle ou telle personnalité ; de réelles avancées ont été accomplies dans ce domaine depuis les dix dernières années.

Une des méthodes les plus unifiée pour reconnaître ou analyser les signaux acoustiques consiste à transmettre à une machine ce qui est capté par un simple micro. On peut ainsi identifier non seulement quel son est joué mais aussi quelle est sa structure et comment il évolue dans le temps. La vitesse de réaction des machines est parfois effarante dans des traits de très grande virtuosité et dépasse de beaucoup les capacités de l’oreille humaine la plus exercée. Cela permet, en outre, de capter la voix humaine sans imposer une chirurgie quelconque sur un chanteur ou une chanteuse afin de leur greffer des capteurs. Cela a toutes les apparences d’une plaisanterie, mais que l’on se souvienne de nos castrats et de ce qu’on leur faisait subir pour l’amour du beau chant ! La méthode audio semble la plus riche de toutes… jusqu’au moment où on demande à l’ordinateur d’identifier deux sons superposés. Une polyphonie, même minimale, semble pour l’instant hors des possibilités actuelles de détection audio, car deux sons qui se superposent, mélangent tous leurs harmoniques et l’on ne sait plus à quelles fondamentales chacun appartient. Seuls les instruments monodiques peuvent être utilisés avec ce procédé. Ce n’est donc pas par reconnaissance des hauteurs que l’on arrive à suivre une partition polyphonique, mais en ayant appris à une machine tous les spectres sonores qui proviennent d’une interprétation et en lui demandant de les reconnaître au moment de l’exécution. Dans le début de son roman Sound and Fury, Faulkner présente un jeune garçon atteint de débilité qui capte, néanmoins avec beaucoup de sensibilité, tous les événements qui lui parviennent mais sans pouvoir les nommer. C’est à peu près ce que fait un suiveur de partitions actuel. Il reconnaît ce qu’il a appris mais est encore incapable de nous dire s’il s’agit d’un « do » ou d’un « ré ». Ce n’est pas d’une importance capitale tant qu’on ne lui demande rien d’autre que de reconnaître. Mais il serait parfois intéressant de pouvoir augmenter le « niveau d’intelligence » de ces systèmes pour pouvoir effectuer des opérations qui seraient basées sur l’analyse fine d’un discours musical. Ainsi dans ma Partita I pour alto et électronique, il a été totalement impossible de reconnaître des doubles sons qui devaient être joués dans un ordre aléatoire. La partition prévoyait un espace de liberté de navigation dans lequel l’altiste pouvait, à son gré, modifier la musique électronique suivant le chemin qu’il prenait. Seul un système pouvant identifier « musicalement » ce qu’il captait aurait pu venir à bout de ce problème. J’ai dû alors me résoudre à adopter un ordre déterminé dans l’enchaînement de ces séquences. La recherche de méthodes fiables capables d’analyser le contenu d’une situation polyphonique me semble être l’une des priorités majeures sur laquelle les chercheurs devraient se concentrer aujourd’hui.

À cette série de problèmes, il faut ajouter un autre, d’ordre plus psychologique, pour faire le tour de ces poches de résistances qui ont freiné le développement du temps réel tel qu’il aurait dû avoir lieu. Force m’est de constater que, parmi tous les musiciens qui se sont approchés du temps réel de façon décisive, ce n’est pas dans ma famille esthétique proche – celle des compositeurs – que j’ai trouvé l’engagement le plus conséquent, mais dans un courant esthétique beaucoup plus éloigné de mes orientations artistiques : celui des musiques improvisées et des « performers ». Cette curieuse situation m’a laissé assez isolé pendant longtemps, car cette union d’orientations esthétique et technologique qui était la mienne, n’était que rarement partagée par d’autres. Le seul compositeur chez qui j’ai pu observer, durant ces années, un intérêt soutenu dans la nécessité de construire un temps réel véritablement puissant et interactif, n’est autre que Pierre Boulez. Alors directeur de l’Ircam, il fit du temps réel la priorité de recherche de cet institut et mit l’utilisation du suiveur de partition au centre de ses intérêts, comme en témoignent les œuvres Explosante-fixe et Anthème II. Ce manque d’intérêt de la part des compositeurs pour le développement d’une technologie du temps réel puissante et du suivi de partitions créa, pour de longues années, une situation stagnante. C’est une sorte de principe démocratique qui sous-tend généralement la recherche : moins un champ d’investigation est partagé par un grand nombre de personnes, moins il évolue car c’est sur la diversité des expériences que fleurissent les développements. Ce fut le cas du suivi de partition, et de celui de l’interactivité entre les instruments acoustiques et les méthodes de synthèses sonores. En revanche, l’attrait du temps réel, pour la construction de musiques de synthèse interactive, a par contre été immédiat chez les musiciens improvisateurs. Ce fût chez eux que les recherches ont avancé le plus vite. Ces musiciens concentraient tous leurs efforts sur des procédés d’analyse du son en temps réel, afin de construire des musiques de synthèses réactives à la manière dont les « performers » produisaient le son. Mais, n’écrivant pas leur musique, ils n’ont pas eu à se préoccuper d’une quelconque synchronisation avec une partition. Les compositeurs de musique écrite demeuraient réticents face à cette absence de prédétermination qui consistait à attraper, « à la volée » dans le jeu instrumental, les éléments nécessaires à la création des sons électroniques. Eux voulaient fixer, et avec le maximum de précision, les configurations sonores de leur invention afin que se reproduise le même résultat au cours de différentes interprétations de la même œuvre. Cette attitude est évidemment en accord avec la pratique contemporaine de la musique instrumentale qui est basée sur des notations de plus en plus précises. De par ma formation et mes orientations esthétiques, c’est dans cette dernière direction que s’inscrit ma démarche et non dans celle des musiques improvisées.

L’improvisation m’a toujours semblé ne prendre un réel sens artistique qu’à partir du moment où certains éléments étaient au préalablement déterminés. La musique classique indienne ou la tradition du jazz en sont des exemples connus. Les musiques entièrement improvisées, si prisées de nos jours, mettent souvent en œuvre un « performer » et un ordinateur. La plupart du temps, rien n’est prédéterminé. La machine est censée réagir au contenu acoustique de ce que le musicien joue, ce qu’elle fait généralement très bien. C’est la toute puissance de nos calculateurs qui est alors mise sur scène. On sait qu’ils réagiront d’une façon ou d’une autre à ce que le musicien inventera sur le moment. Mais lorsque aucune structure musicale ne sert de base à la création spontanée, la musique reproduit des archétypes formels souvent simplistes, standardisés, et connotés. Trop fréquemment le résultat bascule tantôt du côté d’une complexité maximale, tantôt dans celui d’une simplicité désarmante. Et l’on sait qu’au niveau de la perception, ces extrêmes se rejoignent. On y décèle des comportements, que l’on pourrait qualifier de basiques car, quand bien même ils partageraient un large spectre d’expressions musicales avec les compositions écrites, ils sont présentés dans la simplicité d’une succession linéaire, comme pour une démonstration. On y reconnaît l’imitation, l’influence, le contraste, la progression vers une tension qui sera obligatoirement suivie par une détente avant une nouvelle progression… Tous ces phénomènes existent aussi dans les musiques écrites, mais, à la différence de ces improvisations, ils peuvent être insérés dans des formes temporelles élaborées. Les formes temporelles des musiques totalement improvisées, bien qu’il s’y produisent parfois des réussites sonores indéniables, sont pareilles à un nuage qui change constamment d’aspect, dans une pure linéarité, avant de disparaître. La raison en est simplement qu’un discours musical élaboré est une chose beaucoup trop complexe pour être inventé et présenté sur le champ. Les phénomènes de mémoire, de prémonition, la construction de formes hybrides, les stratégies de préparation et de conclusion, les transitions, les proportions, les courts-circuits ne peuvent s’improviser. Cela demande une réflexion critique, des esquisses, des biffures, des recommencements, et je ne pense pas qu’il existe un seul cerveau humain capable d’organiser toutes ces formes, parfois simultanément, dans l’instant même où elles sont présentées. L’ordre dans lequel apparaissent les différents éléments d’une composition musicale ne respecte pas obligatoirement, peu s’en faut, celui dans lequel ils sont nés dans l’imagination du compositeur. Une introduction peut très bien naître d’une transition, comme un motif peut être déduit de ce qui aura valeur de son propre commentaire. Le « temps réel » de la composition, qui est le propre de l’improvisation entièrement spontanée, est impuissant à même imaginer de telles constructions, encore plus à les mettre en œuvre.

Il faut, à mon sens, qu’il existe une partie du discours musical déjà déterminée d’une manière ou d’une autre. Et s’il fallait relever encore une différence fondamentale entre les musiques improvisées et écrites, je dirais qu’elle se trouve dans le fait de déterminer et de séparer ce qui doit être fixé, de ce qui ne l’est pas, ou ne peut pas l’être. On peut vouloir concevoir des musiques de synthèse comme on conçoit des partitions écrites, et déterminer ce que l’on veut exprimer avec le maximum de précision. Ce sont là des attitudes artistiques tout à fait respectables. Mais si la partition instrumentale est un support fixe et non modifiable, la façon dont elle va être interprétée ne rentre pas dans ces catégories de reproductibilité à l’identique. L’interprétation, par définition, n’est pas déterministe. On ne peut raisonnablement pas parler d’interprétation lorsqu’on connaît d’avance exactement ce qui va se produire. L’interprétation n’est pas, non plus, totalement aléatoire. Elle se situe dans une région intermédiaire entre les deux et se produit « en temps réel ». Ces notions de temps réel et de temps différé ne sont pas une chasse gardée de la technologie informatique, mais appartiennent aussi à la pratique musicale traditionnelle. La séparation entre valeurs fixes et variables, déterminées et indéterminées, constitue sans doute l’élément le plus important de toute cette problématique. On  ne peut pas faire l’économie d’un examen attentif de cette situation si l’on veut, tout à la fois, sortir définitivement de la rigidité et du déterminisme hérité de la musique sur bande sans tomber pour autant dans une pratique qui relèverait de la seule spontanéité. Pour continuer ce rapprochement entre les musiques instrumentales et électroniques, il n’y a pas meilleure méthode qu’examiner le contexte traditionnel de nos partitions musicales.

 

La partition, son interprétation et les ordinateurs.

Une partition fixe des valeurs que l’on pourrait considérer comme « absolues » car, idéalement, on devrait pouvoir les vérifier lors de chaque nouvelle interprétation. Ce terme de valeur « absolue » n’a, à bien y regarder, de réalité que dans le seul cadre d’un écrit. Mais c’est aussi suivant le degré de mécanicité des instruments que ces valeurs tendront à devenir absolues. La hauteur et l’évolution dynamique d’un son joué sur un violon, n’ont évidemment rien absolu car elles sont à tout moment modifiables par le mouvement d’un doigt sur une corde ainsi que par la variation d’une pression de l’archet. À l’opposé, sur un orgue, ces dimensions sont déjà mécanisées et ne dépendent d’aucun geste physique. Plus on substitue une mécanique au geste physique, plus on limite les possibilités d’interprétation. Le temps devient alors la seule variable possible dans un tel système hautement mécanisé. Pour écrire des partitions, on a créé des symboles comme les notes de la gamme et les indications de dynamiques et de durées. Ces symboles représentent en fait plus des champs que des valeurs absolues. On accepte comme un « la »  toute une bande de fréquences, gravitant autour de 440 Hz. On détermine un « mezzo forte » comme un champ d’énergie sonore, encore plus vaste et imprécis que le précédent, situé entre les champs « piano » et « forte ». Les ambitus de ces champs varient selon le pouvoir discriminateur de l’oreille. Des oreilles très bien exercées reconnaissent, de façon immédiate et sans ambiguïté, un « la » d’un « la + ¼ de ton », mais divergeront grandement lorsqu’il faudra déterminer ce qui est un « piano » ou un « mezzo forte ». Une partition comporte donc des champs, plus ou moins vastes, mais qui ont la particularité d’être fixés et que l’on doit respecter.

Cependant, l’écriture d’une partition, aussi élaborée fût-elle, ne pourra jamais déterminer intégralement touts composants nécessaires à la production de la musique. La somme des phénomènes sonores que nous entendons dépasse largement celle qui provient de la notation. En d’autres termes la notation peine à déterminer la fréquence exacte d’un vibrato, la durée exacte d’un son comme la courbe exacte d’une transition entre deux sons. Elle propose un cadre qui, par son impuissance même à tout déterminer, ouvre tout un espace à l’interprétation. Il suffit de prendre l’exemple des suites pour instruments seuls de Bach, dans lesquelles ne figure aucune indication de tempo, de nuances ou d’expression, pour se faire une idée de tout ce qu’un interprète se doit de compléter pour produire un discours musical pourvu d’un sens. Une grande part d’oralité se greffe sur l’écrit pour que la musique advienne. Il ne s’agit pas d’improvisation ; mais de l’espace de l’interprétation. Ce temps de l’interprétation est fondamentalement un « temps réel » qui n’est pas fondé sur une prédétermination totale. Ces deux grandes entités, valeurs absolues ou fixes, et valeurs relatives ou mobiles, qui séparent l’écriture de l’interprétation, se trouvent aussi dans la manière dont fonctionnent les ordinateurs.

Dès leur invention, il existait deux manières fondamentales de les faire fonctionner :

1-    On leur donnait une série d’instructions précises qu’ils exécutaient au moment voulu ; nous étions alors dans le pur déterminisme.

2-    On leur faisait produire des nombres aléatoires que l’on acceptait ou refusait selon les cas ; nous étions dans l’indéterminisme le plus total.

Depuis l’invention des machines en temps réel 2 et grâce à de nombreux développements technologiques, il existe maintenant une troisième manière de les faire fonctionner : on leur demande de capter des informations dans le monde extérieur et de les traiter selon des règles prédéfinies. Mais dans tous les cas nous observons une séparation entre déterminisme et indéterminisme, entre ce qui est fixé et ce qui ne l’est pas, qui me semble correspondre à la séparation qui existe entre la partition et son interprétation. Ce qu’on appelle alors « temps réel » dans la composition musicale serait un abus de langage puisqu’une part des composants musicaux est souvent déjà fixée, et n’a pas pour vocation à varier d’une interprétation à l’autre. Il doit donc exister une manière de composer de la musique électronique dans laquelle, à l’image de la musique instrumentale, certains composants sont préalablement déterminés, et certains autres, soumis à des variations plus ou moins importantes selon ce que nous cherchons à exprimer. On entre alors dans ce que j’appelle « les partitions virtuelles ».

 

Les partitions virtuelles.

J’ai donné à ce terme la définition suivante : une partition virtuelle est une organisation musicale dans laquelle on connaît la nature des paramètres qui vont être traités mais pas toujours la valeur exacte qu’ils vont recevoir le moment voulu. Une partie de ces paramètres sera fixe et ne changera pas d’une interprétation à l’autre [3. Dans la plupart de mes œuvres électroniques, la notion de « temps réel » se vérifiera cependant toujours, car les procédés de synthèse que j’utilise ont tous en communs de n’être pas des enregistrements préalables mais d’être calculés au moment même où je le décide dans le cours de l’œuvre. Même si certains de ces paramètres ont le statut de valeurs fixes, ils ont la possibilité d’être modifiés pendant les répétitions pour s’adapter aux conditions acoustiques de telle ou telle salle de concert. Il s’agit d’un temps réel technologique mais pas musical.], une autre sera influencée par la captation d’événements extérieurs (un micro, par exemple), qui sera analysée et traitée suivant certaines règles de composition. En ce sens, toute partition ne peut qu’être virtuelle puisque son rôle est d’être interprété et de ne jamais être reproduit de manière identique. Voici quelques exemples de partitions virtuelles, dans lesquelles la musique se crée par le mariage de paramètres déjà inscrits dans la mémoire de la machine avec d’autres, qui proviennent de l’analyse en temps réel du son instrumental pendant le concert.

Lorsque j’ai composé Pluton, pour piano et électronique, en 1987, j’ai conçu des partitions dans lesquelles j’ai déterminé les seules les hauteurs des sons de synthèse. Un suiveur de partition permet de passer d’une configuration harmonique à une autre en se synchronisant avec le jeu du pianiste. Tous les autres composants sonores, nécessaires à la création des sons de synthèse, sont déduits de l’analyse du son du piano pendant l’exécution de l’œuvre. L’ordinateur effectue, au moment où joue le pianiste, une sorte de « film », constitué d’une succession rapide de petites « photographies sonores », dans lesquelles sont représentées les énergies sonores du piano, c’est-à-dire la répartition des sons en composants graves, médiums et aigus à chaque instant. Ces énergies sont appliquées à la liste des harmonies, fixées au préalable dans la mémoire de la machine. La musique de synthèse produit alors une musique dont les composants harmoniques diffèrent de ce que joue le pianiste, mais dont la distribution des énergies dans le spectre reproduit celle du piano. Les différentes attaques des sons, leurs durées, leurs intensités, le jeu des pédales et les résonances viennent nourrir, en temps réel, l’ordinateur qui applique l’image sonore du piano, dans toutes ses évolutions spectrales et temporelles, sur les sons de synthèse. La partition du pianiste est écrite avec suffisamment de liberté rythmique pour que ce dernier puisse, à son tour, réagir à ce que produit la musique de synthèse. Il y a donc une interactivité de part et d’autre.

Dans une autre section de cette même œuvre, le pianiste joue une « toccata » comme une sorte de perpetuum mobile dont chaque note est analysée en termes de hauteur, durée et intensité. La machine reproduit, en temps réel, ce que joue le piano tout en y introduisant des variations d’ordre des notes, suivant le principe des chaînes de Markov et dans une boucle infinie. À divers endroits, le pianiste intervient et, selon son jeu, cette « toccata » électronique change de timbres, de registres, se contracte, s’étire et, pour finir, se fige en grands accords jusqu’à ce qu’elle meure. J’ai utilisé un procédé similaire dans Neptune, pour 3 percussions et électronique, composé en 1990. La machine produit un autre perpetuum qui va être découpé en séquences de proportions diverses par les instruments. Selon le niveau dynamique qu’un des joueurs de vibraphone produit, ces séquences découpées varieront en longueurs, tempi et intensités. Dans ces deux cas, c’est par l’analyse de l’interprétation que cette forme de musique électronique se créé. Il s’agit de la distorsion du temps mécanique de la machine par le temps flexible de l’interprète humain.

Dans En écho, pour soprano et électronique, composé en 1991, une petite partie des paramètres nécessaires à la production des sons de synthèse, est déterminée en valeurs absolues dans le programme. L’ordinateur effectue une analyse en temps réel des variations de hauteurs et d’intensités des formants de la voix de la chanteuse et transmet instantanément le résultat au programme de synthèse. Les formants étant ce qui caractérise les différentes voyelles, les sons de synthèse produisent des harmonies complexes, mais dont le timbre épouse celui des voyelles chantées et de leurs transitions.

Enfin, dans Partita I, pour alto et électronique, composé récemment en 2006, j’ai utilisé une méthode qui permet de mesurer l’accélération d’un mouvement d’archet sur les cordes. La musique de synthèse, lorsque le soliste ne joue pas, n’est qu’une sorte de « bain sonore » tournoyant lentement sur lui-même dans un registre medium. À chaque poussée de l’archet, certains de ces sons sont propulsés dans un registre aigu tout en opérant une accélération continue de leurs rotations. Plus la poussée est forte, plus les sons accélèrent leurs tournoiements et plus ils parviennent dans les régions suraiguës.  Ici, c’est l’énergie physique du soliste qui est convertie en énergie de propulsion sonore, comme lorsqu’on lance des toupies volantes en l’air.

Dans tous ces cas, la part déterminée de la musique de synthèse est réduite, car l’essentiel des composants provient de l’analyse en temps réel du signal instrumental ou vocal. Il est important de souligner que c’est grâce à la nature fondamentalement indéterministe de l’interprétation que ces configurations peuvent avoir lieu. L’ordinateur est capable d’analyser 127 manières différentes d’attaquer une note sur le piano et il serait utopique de demander au soliste de jouer précisément une valeur exacte. Je lui indique, tout au plus, un champ « mezzo forte » sachant que la valeur absolue interviendra lors de l’analyse du son. De la même manière, il serait « inhumain » de demander à une chanteuse de poser les formants de sa voix sur une fréquence précise. Je compose une mélodie sur un texte, sachant que la machine analysera tous les contenus sonores des voyelles et produira la musique de synthèse en fonction de la manière dont cette chanteuse articulera sa partie vocale. Enfin, je ne connais pas à l’avance la durée exacte des poussées d’archet qui propulseront les rotations sonores dans l’aigu, mais j’ai déterminé que dans tels champs de durées, les sons auront un comportement dont je peux prévoir les contours généraux. Il n’y a pas d’improvisations dans ces partitions virtuelles, mais une analyse précise des conditions, toujours vastes, de l’interprétation. L’idée d’un rapprochement de ces deux formes que sont la musique instrumentale et électronique trouve son plus grand intérêt dans l’intégration des phénomènes d’interprétation d’un écrit. C’est ainsi que je parviens à donner à la musique électronique la possibilité d’être interprétée. À tout moment cependant, je peux décider que tel paramètre sera déterminé au préalable et non plus influencé par des événements extérieurs. Ce sont des « verrous » que l’on peut ouvrir ou fermer. Lorsque tout est ouvert, nous sommes dans un monde proche de celui des improvisateurs, lorsque tout est fermé nous retrouvons les conditions de notre vieille bande magnétique. D’un extrême à l’autre nous naviguons entre rigueur et liberté, intuition et construction mais c’est le subtil dosage des échanges entre toutes ces catégories qui me semble le plus fécond.

S’il est possible de construire des structures sonores dotées d’un grand pouvoir de réactivité au jeu instrumental, on perçoit encore une grande résistance à la réunion des musiques acoustiques et électroniques dans un temps musical commun. Une frontière semble encore opaque entre ces deux conceptions temporelles et qui tient à la nature même du contrôle du temps dans la musique. La raison en est que l’être humain utilise des moyens plus visuels que sonores dans ce qui constitue certainement l’élément majeur du contrôle musical du temps : la possibilité de prédiction.

 

La prédiction temporelle.

Il existe une différence fondamentale entre le temps organisé par des machines et celui de l’être humain. Le temps produit par des machines est soumis à de multiples horloges qui le découpent en tranches suffisamment fines pour qu’il soit perçu comme un continuum, tout comme le cinéma nous donne une illusion de la continuité visuelle en déroulant 24 images fixes par secondes. Grâce à des procédés élaborés, on parvient parfois à faire intervenir des mécanismes de mémorisation et de prédiction qui rendent plus souple ce contrôle temporel. Mais, fondamentalement, le temps des machines est celui des horloges et le restera. Le temps psychologique humain, à la différence de celui des machines, est incapable d’une telle finesse dans le découpage temporel en unités si petites. Mais lorsqu’un musicien contrôle le temps, il le fait dans la continuité d’un geste ou d’une respiration. Il a aussi une conscience du passé et du futur, il fait intervenir la mémoire et surtout la prédiction. Le fait que des musiciens puissent jouer à l’intérieur d’un temps commun est un phénomène grandement visuel. C’est par un petit signe de la tête ou du bras qu’ils commencent ensemble. La continuité du geste du chef d’orchestre envoie, sans interruptions, des signaux prédictifs qui orientent les actions musicales dans la direction d’un futur proche. On devine où va « tomber » le deuxième, le troisième puis le quatrième temps. Certes, un musicien est souvent conduit à compter le temps, mais il le fait dans des proportions beaucoup plus larges et, pourrait-on dire, dans une situation de polyphonie. Il a une conscience simultanée des durées des temps et de celles de ses divisions internes. À ce titre, le temps des machines et celui de l’humain paraissent, dans leurs essences, incompatibles. Il serait vain d’attendre des premières qu’elles réagissent avec psychologie, comme des seconds qu’ils puissent compter en millièmes de secondes. Il nous faut donc pouvoir représenter, du mieux qu’on pourra le faire, le temps des machines à l’image de celui des humains. Cette fusion sera rendue possible lorsque ces machines seront capables de suivre et de reconnaître, dans sa continuité, le flux musical produit par des musiciens vivants. Nous savons très bien organiser les dimensions de hauteurs, de timbres et de spatialisations dans la musique électronique, mais nous sommes encore impuissants quant à l’organisation d’un temps qui serait véritablement musical. J’évoquerai, pour cela, une situation concrète.

Lors des répétitions de mon opéra  La frontière, composé en 2003, dans une des sections devait se superposer, dans le même tempo, des glissandi de cordes à d’autres glissandi de sons de synthèses. Pour des raisons dramatiques, il a fallu accélérer le tempo de cette section. J’ai donc dirigé plus vite l’ensemble et me suis évidemment trouvé décalé avec la musique électronique qui se déroulait suivant les durées indiquées dans un programme prédéterminé. Toutes les durées de ces glissandi de synthèse (et il y en avait un certain nombre) étaient rigidement figées en valeurs exprimées en millisecondes qu’il m’a fallu recalculer dans toutes leurs proportions une nuit durant. Cette situation aurait pu être résolue d’une manière plus élégante si les outils de notation qui me servaient à composer cette musique de synthèse avaient été plus proches  de ceux que j’utilise depuis que je compose de la musique. Il est curieux de constater que dans les deux grandes « écoles » qui utilisent la technologie pour faire de la musique, les méthodes de synthèse en temps réel et les systèmes d’aide à la composition musicale, ces derniers sont dotés d’outils de représentation musicale proches de ceux de l’écriture traditionnelle qui font complètement défaut aux premiers. La représentation temporelle dans les systèmes temps réel ne bénéficie d’aucun moyen symbolique qui permettrait de noter des noires, des croches, des triolets ou des indications de tempi. Le système temps réel ne connaît que des valeurs absolues et il est encore impossible de changer globalement un tempo ou de noter un accelerando. Les systèmes en temps réels ne connaissent bizarrement encore que les millisecondes ! Quand bien même ma partition électronique, après son recalcul, se trouverait temporairement mieux adaptée aux circonstances, elle n’est restée pas moins figée comme si elle avait été reproduite sur une bande magnétique. Les musiciens, qui suivaient ma battue des yeux, étaient déjà renseignés sur le moment où allait se produire le temps suivant et la continuité de mon geste était le garant d’un suivi de tempo et de toutes ses déviations possibles. Ce pouvoir était évidemment inaccessible à l’ordinateur, et il le reste, du moins dans l’état actuel de son application à la musique 3.

Si des outils de représentation du temps musical avaient existé dans les programmes en temps réel, il aurait été possible d’adapter le temps courant en suivant, par des moyens visuels, la battue du chef. La dimension visuelle est d’un grand secours pour suivre une musique qui n’est pas fondée sur une fixité de tempo. Il existe cependant des cas de figures où un système de reconnaissance visuel ne serait pas approprié. Pour suivre les variations de tempi dans une pièce pour piano il n’y a guère que le son qui pourrait être pris en compte. De réelles avancées ont été faites dernièrement dans ce domaine 4 mais le jour où il sera possible de suivre, avec des moyens purement sonores, les contours temporels d’un simple prélude de Chopin ou de Debussy, un grand pas aura été accompli. Il existe cependant de nombreux cas où la prédiction temporelle est difficile. Lorsqu’on enregistre en temps réel une phrase musicale ou même parlée, et que l’on veut n’en développer qu’une seule partie, nous sommes dans l’incertitude totale des proportions qui vont être inscrites car nous ignorons pas le tempo exact de cette phrase. Un outil de représentation graphique, qui pourrait analyser en temps réel cette phrase afin de repérer automatiquement le moment recherché, devrait être inventé dans ce but.

 

Peut-on inventer une véritable notation pour la musique de synthèse ?

Il s’agit d’un vieux rêve auquel se sont attelés beaucoup de compositeurs. Stockhausen a poussé la précision de la notation de la musique électronique fort loin dans des œuvres telles que  Kontakte ou Telemusik. Mais l’écrit, dans ces conditions, n’a pas le même statut que celui qui gouverne la pratique instrumentale, car il intervient après le processus de composition, comme une notation a posteriori. En ce sens, il est exhaustif et ne nécessite aucun complément oral. J’ai souvent pensé que l’écriture musicale était l’une des plus merveilleuses inventions de l’humanité. Elle est tout à la fois un langage symbolique, un outil conceptuel, une méthode de mémorisation, un système d’interprétation, un moyen d’écoute et un support de la pensée. À quoi ressemblerait une écriture nouvelle pour la musique de synthèse qui permettrait également d’être un outil puissant pour la composition ? Avec Miller Puckette, à l’Université de San Diego en Californie, nous nous sommes à nouveau penchés sur cette question. L’idée première était de limiter au maximum toute représentation de style numérique au profit de systèmes purement graphiques. Ainsi pourraient être dessinées des valeurs fixes, des courbes représentant des évolutions temporelles, des profils dynamiques, des glissandi, des niveaux d’entrée d’un son dans des modules de traitement, des évolutions de paramètres, etc. Un tel outil pourrait être complété par une bibliothèque de fonctions permettant d’opérer des transformations, des étirements, des contractions, des transpositions, des duplications, le tout étant unifié dans le même type de représentation. Il nous est d’abord apparu que, vu l’énorme quantité de paramètres qu’il nous faudrait représenter, une meilleure solution consisterait à garder la représentation numérique pour toute valeur qui ne serait pas variable dans le temps. Ensuite, de nombreuses questions se sont posées. Comment représenter des évolutions micro-tonales dans un système de coordonnées cartésiennes (les hauteurs en abscisse et le temps en ordonnée) tout en conservant la lisibilité de toutes les voix ? Comment écrire chaque voix, comportant elle-même une grande quantité de paramètres, sur une seule « partition » ? Jusqu’à quel point peut-on intégrer la notation musicale traditionnelle et comment l’unifier avec une notation différente dans les cas où cette première serait insuffisante ? Comment exprimer le temps d’un événement qui nous est connu (lorsqu’il fixé comme dans le cas d’une bande magnétique) par rapport à un autre qui ne l’est pas (lorsqu’il doit être déterminé par l’interprétation) ? Ce sont là des interrogations qui sont encore devant nous. Mais il me semble évident qu’un tel outil permettrait de résoudre de nombreux problèmes, ceux, principalement, qui concernent les structures de temps comme les changements et les variations de tempi.

 

En guise de conclusion: une théorie des « verrous ».

Faut-il le préciser, la musique de synthèse n’a de sens que là où s’arrêtent les possibilités de la musique instrumentale. Le monde sonore qu’elle porte en elle n’a pas les mêmes fondements, le même statut historique ni les mêmes attributs expressifs. Les sons instrumentaux restent chargés d’histoire et s’effacent souvent devant le discours musical. Lorsque nous entendons une symphonie classique, nous ne procédons pas systématiquement à une série d’identifications qui nous ferait dire : ici, joue une clarinette, ici une contrebasse, là un trombone… Nous avons même tendance à oublier qui joue pour nous concentrer sur  ce qui est joué.  Dans l’univers des sons de synthèse, il est parfois difficile de distinguer les éléments qui portent le discours du discours lui-même car, très souvent, ces éléments ne nous sont pas connus et nous ne pouvons donc ni les nommer, ni les identifier. Cette situation ne changera probablement jamais, à moins qu’une volonté de standardisation à très grande échelle soit un jour entreprise pour des raisons de classification mercantile d’étiquetage. Cela n’est pas impossible, mais il ne sera plus question d’art. On a pris conscience, au fil des années, de la nécessité d’intégrer une certaine dose d’historicité dans les sons électroniques, d’adjoindre aux sons électroniques des attributs que l’on puisse nommer et de les doter d’un aspect qui les rapproche d’une catégorie ou d’une famille connue. Que l’on compare les musiques qui se faisaient au temps des premiers programmes de synthèse sonore (Chowning, Risset) avec celles qui se composent aujourd’hui et la preuve sera évidente. Ce rapprochement entre des types morphologiques séparés n’a pas pour but de rendre totalement invisibles leurs différences. Il s’agit qu’un même champ morphologique recouvre les deux univers  musicaux qui continuent de se distinguer par ailleurs. Si l’on veut affiner ce rapprochement, il me semble que l’attitude mimétique que l’on a constatée au niveau des qualités morphologiques des sons doit être conservée lorsqu’on se penche sur les structures de fonctionnement et les modes de composition. La partition et son interprétation nous fournissent un excellent modèle de ces structures. Les ordinateurs, quant à eux, deviennent des instruments à part entière, à la différence près qu’ils ne sont pas uniquement manipulables par des gestes, ou par des informations extérieures, mais peuvent se comporter comme des automates. Ils peuvent, ou non, être « sensibles » au monde extérieur. Sur l’immense chaîne des circuits qui se partagent son activité, on peut poser des « verrous » qui permettent ou interdisent l’accès du monde extérieur. C’est au compositeur de décider de la marge de liberté et d’interactivité qui doit être introduite. De ce fait les catégories du temps réel et du temps différé n’existent, pour ainsi dire, plus. La totale liberté des improvisations et la rigidité fixe de la musique entièrement calculée – reproduisant la bande magnétique – sont les extrêmes de cette situation. Dans les premières, tout est déverrouillé, dans les secondes, tout est cadenassé. Le compositeur, quant à lui,  peut organiser son monde de contraintes et de libertés. C’est ainsi qu’il l’a toujours fait.

 

Philippe Manoury, San Diego, septembre 2007

 

 

 

 

  1.  J’utiliserai le terme « son de synthèse » ou « musique de synthèse » pour représenter tous les sons qui sont produits par les moyens technologiques. Dans la réalité, ils peuvent appartenir au monde de la synthèse pure, mais aussi à celui du traitement. Je considérerai qu’ils sont tous produits par un synthétiseur.
  2.  Ce terme est, bien sûr utilisé par commodité car il faut toujours un temps pour le calcul. En musique, il suffira que ce temps soit suffisamment court pour que l’oreille ne puisse pas le percevoir.
  3. Dans le domaine militaire, le calcul de la trajectoire future d’un missile, en vue de le faire exploser en plein vol, est un problème qui est réglé depuis longtemps. Il peut, à tous moments, être repéré dans toutes ses coordonnées spatio-temporelles et, instant par instant, on peut adapter la trajectoire de l’objet qui devra le percuter. La somme d’énergies et d’efforts qui ont été mis à la disposition de ce type de recherche, comparé à celui de la musique, ne se situe évidemment pas dans le même ordre de grandeur.
  4. Je pense particulièrement aux travaux d’Arshia Cont à l’Ircam.