Archive for the ‘Uncategorized’ Category


Thursday, April 4th, 2019

(Remark : The pages numbering in this document corresponds to the numbering in the file Lab.Oratorium(mnscr).pdf attached to this email, not to the number written at the bottom of pages in the score. As I have composed this piece in disorder, each new section begins with page 1….)

————————————  I : VORSPIEL ———————————————

(Theme: Installation on the boat)

IA – (Duration ad libitum)

The piece begins with an electronic texture made of blows and strings sounds. This is a sort of disorder (page 1 Number 1). After a while (Number 2) come seagulls’ sounds spatialized around the audience. The orchestra and the conductor enter in disorder. Maybe a dialogue in between the actors at the same time… This is my “Fellini section”. Here is the recording of the electronic music:

In IA.2, when the orchestra is seated, it plays a fragment of the piece (IXD bars 89-92). That could appear as a sort of rehearsal (for example it is possible to repeat these 3 bars).

In IA.3, same idea with an other fragment with the 4 groups of brasses (on stage, behind the orchestra and behind the audience)

In IA.4, same idea with a part for the 4 percussions taken from XA)

In IA.5 and IA.6, same system with other fragments from the score.

During all this time the actors could speak

In IA.7 (wrongly notated I.A.6 in the score), the actors should stop talking.

IB (3’ – 4’ flexible – page 7)   Die grosse Fracht

Solo for mezzo soprano, like a free recitativo on top of the orchestra. It is possible to start again with the 2 actors at this point. I would like to continue in the “organized disorder” during the song. The electronic texture continues during all this time as you can listen here:

IC (1’ – 1’15”)

This is a preparation for the departure. The disorder should progressively stop during this section. Here is the electronic part of this section:

(Theme: Departure on the sea)

IIA – IIB (2’30” – pages 11-19)

This is an orchestral piece which is supposed to accompany the departure of the boat. I would prefer no stage actions at all here. It could be a first movement of a symphony…

IIC (1’30” – page 20 – 24)

Second part of the orchestral piece with addition of electronic tremolos moving all around the audience as if it were another string orchestra hidden somewhere. The music becomes more fluid (like waves pp. 23, 24 and 25)

Here is the electronic part

IID (1’30” – page 25 – 30)

Third and last section of the orchestral piece which presents several musical images: big chords played by the groups of brass around the audience and on stage, artificial brass instruments (also to simulate some hidden groups), structures of pizzicatos… When the orchestra stops at page 30, the chamber choir, seated in the hall, is humming (mouth closed) a chord which introduces IIIA.

Here is the electronic part:

—————————- III : GESCHICHTEN (for the moment) ———————–

(Theme: different talks on the boat)

IIIA (2’30” – page 31 – 34) Die Häfen waren geöffnet

Chamber choir a cappella singing from the hall. This choir is supposed to represent a first group of migrants who travels illegally on the boat. At the end the soprano solo takes a solo as if she were getting out of the choir. I forgot some words at the end (und ein größeres Schiff überm Herzen) which I will compose for the next bar.

IIIB (free timing – page 35 – 36)

I imagine here a sort of “vintage cocktail bourgeois for old and rich people” on stage. The music is a sort of “Rumba” with bongos, and Dble bass pizz. At the top of the page 36, the orchestra is playing loops, so the timing is totally free. FXR could also serve Champagne at this moment! The actors (maybe the singers) speak here. This is the time to express positive arguments about the cruise.

Her is how the electronic music looks like :

IIIB.2 (1’max – page 36 bottom)

2 short vocal parts for the 2 singers, when the actors continue to talk together.

IIIB.3 (free timing – page 36 bottom)

Continuation of the cocktail (with Rumba) with addition of string sections. The beginning (bottom of page 37): loops in the orchestra. That means that the time is free for the actors. Then follows a duet for the 2 singers (24”) with a piano accompaniment.

IIIB.4 (1’ – page 38 bottom – 39)

Conclusion of the “Cocktail section” interrupted by chords played by the brasses which will introduce IIIC.

IIIC (2’ – page 40 – 43)

Second choir with orchestra. I have added a solo soprano part (which is not in this score) instead of the spoken voice. This is the continuation of the situation at the end of IIIA when the soprano joined the choir.

IIID (2’ – page 43 – 47)

Dark cocktail. The Rumba is played now with low Dble bass pizz with an accompaniment of strange sonorities in the electronics. It is the time to express negative arguments about the cruise, may be also some lectures of stories of the migrants? Here is the electronic music:

———————————— IV : GRODEK ———————————————-

(Theme: war)

IVA (1’ – page 47 – 48)

Short intermezzo connecting IIID to IVB. Noisy string sounds with some intervention of piano and high bells. Here is the electronic music:

IVB (8’ – page 49 – 64) Grodek

Large choir piece and orchestra (with a speaking voice (actor) page 58). It is the first climax of the piece. This piece is a rewriting of an existing composition of mine for chamber choir only. Here it is, in order to give you an idea of the character:

———————————— V : THEATER ———————————————–

After this dark musical block, I think that it could be good to come back to reality, without music (or maybe with an electronic improvisation based on the actors` voices). The actors read some testimonies from migrants (?)… Maybe a 5-6 minutes long theatrical impromptu. So there is no 5th part in the score….

———————————— VI : ANLEGEN ———————————————

(Theme: arrival on earth)

VIA (approx. 2’ – page 65 – 73)

Orchestral introduction in a mechanical rhythm (slow and “pesante” in the beginning, then progressively in acceleration). At the end of the acceleration, the big amateur choir invades the hall (page 72) in a very “noisy” way. It is a second wave of migrants (greater than the first one) which gets out the boat. At this moment the orchestra repeats the same 4 bars during the time the choir is being installed.

VIB (2’40” – page 74 – 82) Vision

2 choirs and orchestra. As soon as the amateur choir is in place, it sings with the chamber choir. VIA presented this people (migrants) as invaders (the way how a part of the people looks at them), VIB, in contrast, shows directly that they could be also carriers of culture (here in singing a poem by Ingeborg Bachmann). The character here is quite slow, dense, massive and polyphonic.

VIC (2’ – page 83 – 89)

The 2 choirs are in a sort of dialogue and each of them is divided in 2 groups: singing and speaking.

——————————— VII : WANDERLAND —————————————-

(Theme: travels all around the cities and countries…)

VIIA (approx. 1’50” – page 90 – 97) Reklame

Dialogue between soprano (singing) and mezzo (speaking). Publicities, promises of happiness, consumerism….

VIIB (approx. 1’50” – page 97 – 106) Wanderland

“Perpetuum mobile” for orchestra (symbolizing people running to escape the authorities and the police).

VIIC (approx. 1’40” – page 107 – 11) Meine Schreie

Song for mezzo and orchestra. The text could evoke a woman exhausted and screaming…

——————————— VIII: NACHTMUSIK —————————————-

(Theme: after traveling and escaping: exhaustion, sleep, dream…)

VIIA (approx. 2’- page 112 – 116) Nachtmusik

Adagio for orchestra very slow and quiet.

VII-B-C-D (approx. 4’20”- page 117 – 130) “Wake”

Long crescendo, starting as a dream. The speaking voice(s) is/are transformed into a recitativo by the computer. Progressively the music goes toward the high register and becomes more and more intense. The 2 voices are superposed to the speaking voices. They have to begin very slowly and progressively to accompany the orchestra in the progression. I will give a sort of vague timing for the actors following this progression. This moment reproduces the structure of the end of my orchestral piece Ring but organized in a different way. Here is the end of Ring:

VIIE (approx. 30’’- page 131) Das Spiel ist aus

At the end of the long progression, Patrycia recites a part of the Bachmann’s poem. The voice should be quite fast and intense.

——————————— IX : GRAND TUTTI  —————————————-

(Theme: climax of the whole piece)(Climax of the whole piece)

IXA (approx. 2’- page 132 – 136)

On a very active electronic structure, the strings play a free ostinato. Then come a monody played by the orchestra, interrupted by little sequences sung by the choirs. It is possible to add speaking voices on the top of that. At the end (p. 136) the electronic music slows down.

IXB (approx. 2’20”- page 137 – 140)

On a pedal of C#, the music is made of punctuation of piano and dble bass pizz, and very slow chords sung by the choirs. The music goes slowly toward a complete immobility.

IXC (approx. 30”- page 141 – 147)

Variation of IXA (active electronic structure) with a speaking voice.

IXD (approx. 40’’ page 147 – 150)

Continuation of IXC with interruptions by the choirs.

IXE (approx. 40’’ page 147 – 150)

On pedals on G, played by all the trumpets, this is a dialogue between the 2 singers and the choirs. Each choir is divided in speaking and singing parts.

IXF (wrongly notated IXG in the score – approx. 2’- page 153 – 159)

Slow moment for mezzo, choirs and orchestra. With large chromatic chords, the music seems sometimes going down indefinitely.

IXG (wrongly notated IXH in the score – approx. 2’- page 160 – 169)

Finale with choirs, electronics and orchestra (without singers). It is possible to add actors here, but it is already very dense.

——————————— X : NACHSPIEL —————————————-

(Theme: dispersion of the refugees and song against patriotism)

XA (approx. 2’- page 170 – 178)

On a series of 3 crescendi of the 4 drums, the choirs will disappear in singing loops. From time to time, some singers in the choirs will scream short phrases. The effect should evoke people which want to disperse in different countries. In the same time the 2 actors will have a dispute concerning the (non)acceptation of the migrants. I do not want to finish in a consensual way but prefers to have the superposition of all these images: disappearance of the singers, dispute of the actors and crescendi of percussions. At the end, a trumpet solo will prepare XB. The composition of this section reproduces a section from Ring which could be heard here:

XB (approx. 3’- page 179 – 185)

Final duet for soprano and mezzo, on 2 texts: one by Nietzsche, the other (spoken at the end) by Hannah Arendt, about the idea of having or not a homeland, a citizenship. The music is made of superposition of very high sounds, and a low noise. The end reproduces the end of the second piece of this cycle: In situ. Here is the musical texture produced by the electronics:


Sur le Thinkspiel

Saturday, March 17th, 2018

Il y a tout juste un siècle, pendant la Grande Guerre, Guillaume Apollinaire inventait l’épithète nouveau, « surréaliste ». Qu’il me soit permis ici de le paraphraser : pour caractériser cette œuvre scénique, je me suis servi d’un néologisme qu’on me pardonnera, car cela m’arrive rarement, et j’ai forgé le substantif Thinkspiel.

Mélange d’anglais et d’allemand, le vocable Thinkspiel est un néologisme délibérément hybride[1].

Dans mon esprit, le concept de Thinkspiel renvoie surtout au « jeu » entendu comme association et action combinée de la recherche expérimentale, de la pensée conceptuelle et du « langage » artistique. Mûri en collaboration avec le metteur en scène allemand Nicolas Stemann, ce premier Thinkspiel est une proposition commune d’un « objet » musical et scénique nouveau, issu du laboratoire de nos idées, de nos expérimentations et de nos désirs respectifs, confrontés et mis en œuvre lors d’une assez longue période de réflexions, de répétitions et d’ajustements, qui se poursuivra jusqu’à la veille de la « création ». Et même au-delà de cette dernière, les deux dimensions de la pièce, musicale et théâtrale, seront susceptibles d’évoluer au gré des performances, suivant nos observations et nos trouvailles instantanées.

La référence au Singspiel n’en est pas absente, bien sûr, car il s’agira, ici aussi, d’alterner, de mêler, voire d’accoupler voix parlées et voix chantées. La scène sera occupée – ensemble avec la musique acoustique et électronique – par des acteurs et des chanteurs qui se chargeront de toute la diversité des registres vocaux, du parler naturel jusqu’au chant le plus stylisé.


La voix humaine se meut en permanence entre hauteurs et bruits. Elle est dotée de deux attributs essentiels, du sens et de l’expression. Excepté dans les langues à tons (pourtant nombreuses), le sens, dans nos contrées occidentales, n’a besoin que du bruit pour se transmettre. Mais l’expression ne peut se passer des hauteurs. Dans chaque langue existe un vaste répertoire de formes mélodiques permettant de discerner l’humeur, l’état d’esprit du locuteur et le type d’assertion (affirmation, interrogation, exclamation). N’étant pas linguiste, je ne peux me prononcer plus avant sur ce sujet. Mais je suis compositeur et comme tel, je suis intrigué par une question : où commence et où s’arrête la musique ? D’ordinaire, la voix parlée n’est pas perçue comme étant de la musique, et pourtant…


Pour concevoir la composition de ce Thinkspiel, je suis parti d’une découverte que j’avais faite déjà dans les années 80 : la voix parlée est une voix chantée chaotique ! Tout un chacun peut comprendre que les inflexions vocales – comme par exemple celles qu’on entend dans une phrase interrogative – correspondent à des mélodies qui changeront de forme si l’on passe à un énoncé affirmatif. Cependant, comme les intonations qui composent ces mélodies de la voix parlée sont chaotiques, elles peuvent se placer sur n’importe quelle hauteur. Les avancées scientifiques et technologiques nous permettent désormais de les capter avec précision.


Pour donner à entendre le parler comme de la musique, il faut transposer ses « notes » anarchiques sur celles, les plus proches, qui relèvent d’une structure musicale (une gamme ou un mode, par exemple). Savoir sur quelles notes on veut placer les inflexions vocales parlées est une chose, c’en est une autre que de réaliser cette opération en temps réel, au moment même où elles sont produites. Il s’agit de transposer la voix de l’acteur ou de l’actrice sur les hauteurs que l’on souhaite. (Ne fût-ce qu’en cela, les technologies du temps réel sont inappréciables !) Ainsi se conservera la spontanéité de la voix parlée, mais qui se donnera à entendre comme un récitatif (Sprechmelodie, mélodie du parler).

Est-ce donc du parler, est-ce du chanter ? C’est la question des limites de la musique qui est ici posée. Créer des formes à partir du chaos, du non prédictible, est pour moi, aujourd’hui, un des moyens les plus excitants de façonner l’expression musicale.


La question du choix de la forme vocale se pose à chaque instant de la composition. Quelles raisons me poussent à adopter ici un chant lyrique, là un récitatif, ailleurs un chœur polyphonique, un parler libre ou rythmé, un chuchotement ? Cela tient avant tout à la teneur du texte. Je me sens mal à l’aise lorsque j’entends un chant déclamé, voire emphatique, porter un texte prosaïque, un langage de tous les jours. Ce que le cinéma peut très bien accomplir – une plongée dans le réalisme total par exemple – s’avère malaisé en musique dès que l’on a recours à une stylisation propre à l’opéra. Le partage entre le sémantique et l’expressif est au centre de toute composition vocale. Il est impossible d’avoir les deux au même moment à un niveau d’intensité égal. Plus je chanterai avec fougue, moins vous saisirez le sens du texte que je porte, mais plus vous partagerez (a priori) mon émotion. Il est préférable de ne pas comprendre les mots que Tristan et Isolde s’échangent au second acte de l’opéra éponyme. Les inflexions des deux voix nous transmettent plus puissamment que les mots la passion qui unit les deux amants. Le Thinkspiel – et j’aimerais que ce soit là une de ses singularités – veut convoquer toutes les formes de vocalité suivant la nature des textes employés.


C’est lors d’un long séjour au Japon en 2011, au cours duquel j’ai pu assister à plusieurs représentations des théâtres Nô et Bunraku, que j’ai commencé à envisager la composition d’un opéra d’une manière nouvelle. Le Bunraku surtout m’avait fasciné. Ce théâtre déploie sur la scène frontale, avec une virtuosité étourdissante, des actions dramatiques mais muettes de grandes marionnettes, tandis que leurs voix, la narration et les commentaires sont portés par un seul acteur situé à droite du public et accompagné par un joueur de shamisen (luth japonais à trois cordes). La dissociation du sonore et du visuel est ici assumée si magistralement qu’on est saisi par cette forme de représentation aussi intensément qu’on peut l’être par une pièce de Shakespeare, Büchner ou Beckett.

Ma rencontre en 2014 avec Nicolas Stemann a enfin précipité le cours des événements. Il m’a relaté comment, un jour, il avait été obligé, pour des raisons assez cocasses, de faire interpréter un même personnage par plusieurs acteurs. (C’est souvent sous la contrainte que l’on fait des découvertes !) Et aussitôt m’est revenue cette idée de disjonction, ou plus exactement de distribution du rôle d’un seul personnage entre plusieurs. Ne savons-nous pas assez qu’un personnage (Lady Macbeth, Wozzeck ou Estragon) porte en lui, souvent, tout un monde qui le dépasse, et que son histoire transcende son destin individuel.


Kein Licht est basé sur un corpus de textes que l’écrivaine autrichienne Elfriede Jelinek a écrit après la catastrophe de Fukushima. Pourtant jamais le nom de Fukushima n’y apparaît. Il s’agit là d’une atopie, c’est-à-dire d’un non-lieu, d’un en-dehors des lieux familiers, où se déroule une « vie » après la catastrophe. Comment vivre après un séisme ? Nous sommes tous concernés, autant par ses conséquences que par ses causes.

Le récit de Jelinek ne raconte pas une « histoire » linéaire ; ses phrases expriment des pensées chaotiques, mais non dépourvues de sens. Il repose grandement sur un « dialogue » entre A et B, dont on ne saura jamais qui ils sont. Des survivants à la catastrophe ? Des musiciens ? Des particules dotées d’une conscience ? Le texte est obscur. La réalité l’est tout autant. Les repères spatio-temporels sont brisés. Des animaux errent dans ce qui reste de la nature, des musiciens ne s’entendent plus les uns les autres, une femme endeuillée se lamente, la communication est troublée, ruinée. Pour autant, le spectateur n’est pas inondé par la noirceur d’un drame pathétique, car l’ironie et parfois même le comique l’emportent sur l’angoisse et la désolation.

Comment, à l’époque de l’internet, rendre une histoire qui fournit des couches de données, de réalités (et de pseudo-réalités) en superpositions proliférantes, et qui sous les strates accumulées viennent ensevelir la réalité « vraie » ? Notre réel est un immense palimpseste ; ainsi, le texte de Jelinek investit cet abîme sans fond.


Qu’est-ce qui pourrait caractériser le mieux cette forme que j’ai choisi d’appeler, par esprit de jeu plutôt que par ambition théorique, le Thinkspiel ?

Le temps du théâtre est un temps libre. Celui de la musique est mesuré, contraint. Nous tentons ici l’interpénétration des deux. Il ne s’agit pas de « déposer une mise en scène le long de la musique » mais de construire une forme organique qui naisse de la confrontation entre les forces du théâtre et celles de la musique. Ainsi la partition musicale se présente-t-elle en modules séparés (et parfois ouverts sur des temporalités malléables) qu’il va falloir intégrer au tissu théâtral. À d’autres moments il sera demandé au théâtre d’épouser le temps musical.


C’est le temps qui façonne, qui sculpte les formes.


Philippe Manoury

Strasbourg, 29 mai 2017






[1] Le mot allemand Denkspiel fut à éviter, d’autant qu’il renvoie au casse-tête, au puzzle ou au « brain game ».

Sur la finition du “Livre pour quatuor” de Pierre Boulez

Monday, March 5th, 2018

Tout a commencé par un coup de téléphone d’Irvine Arditti qui me demandait si j’accepterais de compléter le quatrième mouvement du Livre pour quatuor, composé par Pierre Boulez en 1948/49. Il en avait fait la proposition à Daniel Barenboïm en vue d’une création à la Pierre Boulez Saal de Berlin. Je répondis qu’il me fallait étudier de près la question, ignorant l’ampleur du travail et, le cas échéant, la responsabilité esthétique qui m’incomberait. Je me doutais bien que si Boulez avait abandonné son projet, c’est qu’il devait avoir de bonnes raisons. Reconstituer le fil conducteur qui l’avait amené là où il était lorsqu’il s’est désisté n’était pas une mince affaire.

Dans un premier temps j’ai eu accès à une partition, copiée à l’encre, impressionnante par la densité d’écriture qui la constitue. Sur de grandes pages, Boulez avait élaboré un premier jet fait de blocs compacts, semblable à une matière minérale et dense qui ne serait pas encore travaillée. Cela m’évoquait quelques tableaux de Pollock, ou même de Gerhardt Richter, par l’accumulation des signes qui se bousculaient sur des espaces assez réduits. Irvine Arditti m’avait prévenu : il n’y avait aucune indication de tempo, ni de nuances, ni de phrasé, seulement des hauteurs et des rythmes. De plus, ces derniers étaient proprement « injouables », et j’ai donc compris qu’il fallait d’abord résoudre ce problème avant de compléter ce qui manquait à la partition. Ce quatuor était contemporain de la Deuxième sonate pour piano, que je connais assez bien, et je décelais ici et là quelques similitudes dans les motifs entre ces deux œuvres ; mais, connaissant l’attrait irrésistible de Boulez pour les déductions, je me doutais bien qu’il me faudrait avoir accès à de très nombreuses sources d’informations pour comprendre comment il en était arrivé à ce stade. Une question me revenait sans cesse à l’esprit : comment peut-on écrire une telle quantité de musique sans marquer le moindre signe d’expression, sans donner d’indications de tempo et d’intensité, sans indiquer s’il faut ralentir ou accélérer ? Cette incertitude m’a amené à comprendre que, cette fois, l’intuition ne me serait pas d’un grand secours. Finalement, par sa complexité même, le projet m’intrigua et je téléphonai à Arditti pour lui dire que j’acceptais de relever le défi.

Je me renseignai alors auprès de Robert Piencikowski, grand spécialiste de Boulez, qui a longtemps travaillé à la Fondation Paul Sacher à Bâle où sont conservés les esquisses et les manuscrits. Il me conseilla de prendre contact avec le musicologue Jean-Louis Leleu, qui avait déjà mené une étude très approfondie sur le Livre pour quatuor et venait de publier un ouvrage qui contenait les informations que je cherchais. Ce que je fis. À mesure que nos discussions avec Leleu avançaient, il devenait clair que la tâche dans laquelle je m’étais engagé était encore plus complexe que je ne l’avais imaginé. Ce quatrième mouvement – je commençais maintenant à m’en apercevoir – était construit sur les décombres des autres mouvements de ce quatuor. Il me fallait alors sonder les autres mouvements pour saisir le sens de celui-ci. Pour donner un exemple, il me fallait savoir que tel passage de ce mouvement trouve sa source dans la fin du premier mouvement, mais dans une lecture rétrograde des rythmes et en intervertissant l’ordre des parties instrumentales, selon un principe de « marches d’escalier »… Il m’apparaissait de plus en plus clairement que la manière dont Boulez composait à cette époque s’apparentait aux techniques du montage sur bande magnétique adaptées à l’écriture musicale. Pierre Boulez allait bientôt faire un séjour houleux dans le Club d’Essai de Pierre Schaeffer, dans lequel on découpait des bouts de bandes magnétiques pour les recoller dans un ordre différent. Club dont il claquera la porte, le qualifiant de « marché aux puces des sons »[i]. Néanmoins il existe ici une convergence, non dans la pratique, mais dans la théorie, entre les procédés d’écriture utilisés par Boulez et ces techniques de montage ; c’est aussi la raison pour laquelle cette partition demeurait injouable.

Je progressais peu à peu dans les méandres de cette « jungle musicale » et commençais le travail de réécriture, toujours renseigné par les connaissances dont Jean-Louis Leleu me faisait part, et sans lesquelles je n’aurais guère pu mener à bien ce travail dans un délai aussi bref. J’avais achevé environ un bon tiers de cette réécriture quand, au cours d’un voyage en train, ma valise fut volée avec mon manuscrit à l’intérieur. J’étais catastrophé. Près de deux mois de travail s’étaient envolés. Il fallait trouver une solution pour recréer ce qui avait disparu, et parmi toutes celles auxquelles j’ai pensées, l’une d’elles m’apporta, à ma plus grande surprise, LA solution. Il fallait que je consulte toutes les esquisses de ce mouvement ! Je savais par Leleu qu’il existait une partition que Boulez avait commencé à rédiger au propre dans le but de rendre ce mouvement jouable. Je décidai de passer une journée à la Fondation Sacher pour y étudier les esquisses et les manuscrits de ce mouvement. On me montra tout ce qui existait et, à ma grande joie, je tombai finalement sur cette fameuse partition mise au net mais, hélas, incomplète ! Boulez avait donc commencé (peut-être dès 1951 selon Leleu) à faire le travail auquel je m’étais attelé et, ironie du sort, il l’abandonna précisément à l’endroit où j’en étais (à quelques notes près) lorsque mon manuscrit me fut volé ! J’ai pu ainsi repartir de là et achever ce premier travail.

Restait la question des tempi, des dynamiques et des phrasés. J’ai proposé à Jean-Louis Leleu de déterminer les tempi, car il connaissait les sources de chacune des structures de ce mouvement et pouvait alors imaginer comment reporter les tempi qui y étaient associés. J’ai ensuite complété les dynamiques dans un esprit de clarté polyphonique pour différencier les couches les unes des autres. L‘intuition a quand même fini par s’inviter dans ce travail, d’autant qu’en musique, il est impossible de ne procéder que par déduction.

Est-ce que cette reconstruction est celle que Boulez aurait souhaitée ? Je me souviens d’une remarque qu’il m’avait faite à propos de l’orchestration par Friedrich Cerha du 3ème acte de Lulu d’Alban Berg, orchestration qu’il jugeait par moments trop respectueuse des sources.

Ayant bien connu Pierre Boulez, je peux espérer qu’il aurait plutôt apprécié la manière dont je lui ai « manqué de respect » !


Philippe Manoury, mars 2018

[i] Cf . son article dans l’Encyclopédie de la musique, Ed. Fasquelle, 1958.


Chaire de Création Artistique du Collège de France

Tuesday, October 25th, 2016

Résumé du cours annuel : Musique, sons et signes.


La musique est un monde parallèle au monde réel. Cela ne signifie pas qu’elle n’est pas reliée au réel ni qu’elle lui est indifférente, mais que les affects, les sensations, les émotions et les pensées qu’elle suscite sont provoqués par des formes qui lui sont inhérentes. Stravinsky proclamait que la musique était impuissante à exprimer quoi que ce soit. Je suis convaincu que c’est faux. Mais je suis tout autant convaincu que la réaction qu’elle provoque en nous ne relève pas tant de ce qu’elle est susceptible de nous évoquer que de ce qui la constitue intrinsèquement. Il m’est difficile de dire en une phrase ce qu’exprime la musique, en revanche je sais que ce qu’elle véhicule ne peut l’être par aucune autre voie : ni par les arts plastiques, ni par le cinéma ou la vidéo, ni par la danse, ni par l’informatique, par les mathématiques, par la philosophie, la poésie, le roman, le théâtre, ni non plus par les sciences. La musique est faite de vibrations qui nous font vibrer à notre tour en nous procurant des sensations, des émotions, en suscitant des réflexions, en laissant des empreintes du passage de son propre temps dans notre mémoire. Ces vibrations touchent nos sens comme aucun autre art ne saurait le faire. C’est sans doute pour cela que tant de gens entretiennent une relation purement sensitive ou affective avec la musique. Il est courant que nous associions des affects et des émotions à l’écoute de la musique, mais ceux-ci appartiennent à des registres très personnels et subjectifs de chacun et aucune relation profonde ne les relie fondamentalement à la nature de ces vibrations. Ces dernières sont le support de nos émotions mais n’en constituent pas l’essence. Ces multiples vibrations ne se superposent pas mais s’additionnent en créant des vibrations beaucoup plus complexes. Cependant elles ne sont qu’une infime partie de toutes celles que nous percevons et, aussi minuscule que cette partie puisse être, elle est remarquable en ce qu’elle se constitue en formes organisées qui se détachent du chaos et finissent par acquérir un sens. Ce sens n’est pas de nature proprement sémantique ou logique, comme dans un langage verbal ; c’est une contexture particulière qui met en éveil tout notre être sensitif et intellectuel. Alors se pose la question : où commence la musique et où finit-elle ? C’est un problème insoluble et pourtant cette question ne cesse de hanter les esprits depuis des siècles. La musique n’est pas présente partout dans le monde sonore. Or si dans notre cerveau une relation nouvelle se crée entre deux sons – fussent-ils des « bruits » – alors nous sommes au seuil de la musique. En 1843, Berlioz apportait déjà une réponse à cette question en écrivant : « Tout corps sonore mis en œuvre par un compositeur est un instrument de musique ». Je peux prolonger en disant : composer, c’est insuffler un sens au sonore.


L’histoire de la musique occidentale est faite par des compositeurs qui n’ont eu de cesse de redéfinir la nature même de ce qu’on appelle « musique ». Cette remise en question, qui pouvait parfois prendre des tournures assez radicales, est ce qui caractérise le mieux cette tradition que, pour d’opportunistes commodités, on continue d’appeler « classique ». Or la « musique classique » n’existe pas. Cette appellation n’est qu’une simplification conceptuelle pour des besoins d’étiquetage ! En vérité, ces compositeurs – du moins les plus grands d’entre eux – étaient aussi et avant tout des expérimentateurs qui ne voulaient pas s’endormir dans le lit de leurs aînés, tout en sachant pertinemment combien ils leurs étaient redevables. Ils inventaient ce qui n’existait pas. C’est cette même volonté de renouveler les formes et les moyens d’expression sonore qui, aujourd’hui, continue de nous relier à eux. Nos technologies numériques remplissent des fonctions comparables à celles des luthiers de la Renaissance, et nos recherches sur de nouveaux modes de représentation s’inscrivent dans la continuité de celles qui ont donné naissance, vers le XIème siècle, aux premières partitions musicales. Mais, hélas, on assiste aujourd’hui à une désaffection progressive des institutions culturelles et politiques, des intellectuels, des médias et, par effet de bord, celle du public à l’égard des musiques qui ne sont pas destinées au plus grand nombre. Ce n’est pas un problème propre à la création contemporaine, contrairement à ce que l’on entend affirmer trop souvent, mais bien à toute la tradition que l’on appelle, faute de mieux, la « musique savante ». Les produits de l’industrie culturelle, dont les buts ne peuvent être que mercantiles, sont devenus dominants dans nos sociétés, inondées de ce fait par des formes sonores standardisées et terriblement pauvres. Face à cette déferlante, la seule arme valable est, évidemment, la connaissance.


« L’art n’est pas une marchandise », entend-on rabâcher nos politiques à longueur de journées. Mais que font-ils pour l’éducation musicale ? Rien. La musique devient donc une marchandise et un simple divertissement pour le plus grand nombre. Les œuvres d’art ne sont pas toujours des objets consommables immédiatement. De tous temps ont existé des œuvres accessibles, et d’autres qui l’étaient moins. Parfois certaines musiques nous résistent, tellement elles apparaissent obscures à la première écoute, parfois c’est nous qui leur résistons, pour des raisons extérieures à la musique. Mais pour qu’un rapprochement ait lieu – elles vers nous et nous vers elles – il faut que nous nous forgions des clés, sinon les portes resteront fermées. Il faut éduquer son oreille, aiguiser son écoute, savoir reconnaître des formes sonores plus raffinées et plus complexes, si différentes de celles que nous entendons partout chaque jour. La plupart des musiques que nous entendons obéissent à des lois du XVIIème et du XVIIIème siècles – je pense entre autres à la tonalité classique, mais aussi à la voix, à l’orchestre symphonique, à la représentation d’opéras – or nous savons que les sons eux-mêmes sont beaucoup plus complexes qu’on ne l’imaginait alors et qu’il peut exister bien d’autres manières de disposer un orchestre dans une salle ainsi que d’autres façons de raconter en musique une histoire. Notre époque n’est plus celle de la tabula rasa, elle n’est pas pour autant celle d’un retour à un ordre « classique » qui a fait ses preuves dans le passé. Il convient surtout de faire tomber quelques préjugés, comme celui qui consiste à se figurer que la musique « contemporaine » est trop technique, trop scientifique. Certes, il faut de la science pour composer aujourd’hui, mais on en trouverait d’avantage dans un motet du XIVème siècle de Guillaume de Machaut que dans bien des œuvres contemporaines. Il faut aussi de la science pour produire de la synthèse sonore par ordinateur. Mais n’en faut-il pas autant pour fabriquer tous les instruments d’un orchestre ?


Les sciences aujourd’hui nous apprennent des choses étonnantes sur la réalité physique qui nous entoure et nous constitue. Il nous faut parfois faire abstraction du sens commun, de tout ce que nous avons appris à percevoir et à interpréter pour appréhender la réalité complexe de ces univers. Il nous faut postuler l’existence d’objets que nous ne verrons jamais car trop lointains ou trop petits. Or ces objets ne laissent pas de nous fasciner. Ces univers ont une beauté – en rien comparable à celle que nous avons quotidiennement  sous les yeux – qui s’approche de celle que l’on peut trouver dans la musique. A l’époque du quadrivium, la musique faisait partie des sciences, et bien qu’aujourd’hui cette relation de la musique à la science ne soit plus clairement présente, les parallèles entre ces deux domaines restent manifestes. La musique possède ses propres lois de « gravité », avec ses champs d’attractions, ses trajectoires obligées. N’en déplaise à certains, les lois de la tonalité, quand on s’en échappe, ne sont pas plus niées que celles de Newton au sein de la théorie quantique. Elles ne constituent aujourd’hui qu’un cas particulier de champs attractifs sonores possibles, car les sons eux-mêmes, depuis quelques décennies, ont changés de statut. Il nous faut explorer de nouveaux champs d’attraction qui pourraient venir de la structure même des sons. La tradition musicale nous a appris à considérer les sons comme des atomes : jusqu’à une époque assez récente ils étaient appréhendés comme des unités indivisibles. Mais comme ce fut fait pour les particules physiques, nous sommes aujourd’hui capables de décomposer les sons en un grand nombre de paramètres sonores indépendants, et donc de considérer leur nature intrinsèque comme substance même de la musique. L’informatique nous a permis de pénétrer plus profondément dans les structures des sons, de les analyser et d’en faire la synthèse. Voici qui bouscule nos habitudes de compositeurs, favorisant l’éclosion de pensées formelles nouvelles qui stimulent fortement notre imaginaire. L’intuition créatrice serait-elle pour autant paralysée par la technique ? Une machine seule, en utilisant des règles ou du hasard, peut-elle composer aussi bien qu’un être humain ? Ces questions, parmi bien d’autres, appellent à un examen sérieux et les réponses qui se profilent peuvent parfois être surprenantes.


Ce cours exposera divers aspects touchant à la composition musicale d’aujourd’hui, de notre connaissance du matériau sonore jusqu’à la situation actuelle de la « musique savante » dans notre société, en passant par les nouvelles modalités d’écriture et de syntaxes musicales, des réflexions sur l’orchestre, les voix, les technologies et l’opéra. Il s’articulera autour de deux thématiques distinctes :

  • Repenser les formes (3 -10 – 17 – 24 février)
  • Temps et musique (19 mai, 2 – 9 – 16 juin)

Un colloque (6 juin) réunira des compositeurs et des théoriciens pour tenter de dégager l’état de l’art de la composition aujourd’hui : Où en est-on de la réflexion théorique ? Vers où la recherche musicale dans la composition devrait-elle se diriger et s’intensifier ? Comment se conjuguent aujourd’hui les grands principes musicaux tels que la thématique, la polyphonie, l’harmonie, l‘organisation temporelle, la forme ? Disposons-nous de moyens de représentation suffisamment puissants et fertiles pour créer de la musique ?


Un concert (16 juin) conclura le cours sur la musique électronique en temps réel avec deux de mes compositions : Partita II (pour violon et électronique) et Le temps, mode d’emploi (pour 2 pianos et électronique)


6 séminaires viendront prolonger cette série de cours :

  • 10 février : Philippe Leroux (compositeur) parlera d’espaces, trajectoires, figures et mouvements en musique.
  • 17 février : Mathieu Langer (astrophysicien) traitera de l’émergence des formes et des motifs dans la nature.
  • 24 février : grand séminaire de 2 heures sur le projet Kein Licht (« Thinkspiel » pour acteurs, chanteurs, musiciens et électronique sur un texte d’Elfriede Jelinek) avec Nicolas Stemann (metteur en scène), Thomas Goepfer (réalisateur en informatique musicale), et des acteurs et chanteurs (à préciser)
  • 19 mai : Jean-François Heisser et Jean-Frédéric Neuburger (pianistes) montreront des extraits de Veränderungen et Hommage à Richter autour d’un séminaire sur les stratégies de l’écoute.
  • 2 juin : séminaire (intervenant à préciser) sur l’organisation temporelle dans la narration (littérature, cinéma, etc.).
  • 16 juin : Gérard Berry (informaticien, titulaire de la Chaire d’Algorithmes, machines et langages au Collège de France) et Arshia Cont (informaticien, spécialiste du suivi automatique de partitions) traiteront des problématiques liées au temps réel dans la musique.


Site de la Chaire Annuelle de Création Artistique du Collège de France

En prélude à B-Partita (in memoriam P. Boulez)

Monday, June 20th, 2016

Beaucoup de choses ont été dites ou écrites sur la personnalité de Pierre Boulez depuis sa disparition le 5 janvier dernier. Mais puisque nous nous trouvons ici près de l’IRCAM, au cœur du Festival Manifeste, c’est sur son rapport à la musique électronique que j’aimerais me pencher. Ce chemin, comme je vais tenter de le montrer, était loin d’être une ligne droite. Autant dire que ce n’était pas un long fleuve tranquille.

Suivant une trajectoire bien personnelle, Pierre Boulez a entretenu une relation complexe avec la musique électronique. L’intérêt qu’il nourrissait pour elle n’avait d’égal que la méfiance qu’elle lui inspirait. Son goût pour l’expérimentation était sans cesse combattu par son irritation envers des formes d’expression que gouvernait l’intuition seule, dépourvues de pensée théorique forte. C’est au début des années 50 qu’éclatèrent ses querelles et brouilles célèbres, notamment avec Pierre Schæffer, l’inventeur de la musique concrète, chez qui Boulez composera quelques Études. « Un marché aux puces des sons », écrira-t-il après avoir claqué la porte du Club d’essai de la RTF. Premier échec. Cela a du mal à se concevoir aujourd’hui, mais cette époque vivait une guerre permanente entre les compositeurs nourris au sérail, maniant le crayon et le papier, et ceux qui pensaient « libérer » les sons de leur carcan historique à l’aide d’un micro et d’une paire de ciseaux. D’un côté une musique pensée avec le support de la notation symbolique, de l’écrit comme générateur de formes, et de l’autre, une musique qui prend sa source dans les sons mêmes, sans autre mode de représentation ; « un beau son est déjà de la belle musique », disait Schæffer. Lors de mes études à Paris, à la fin des années 60, l’orage était encore loin de s’être dissipé. Boulez n’épargnera pas non plus son ami Stockhausen qui, croyant avoir inventé des spectres sonores au moyen de sons sinusoïdaux, se verra par lui fraîchement accueilli sous prétexte que ce n’étaient là que des accords ! L’alchimie sonore, la synthèse – presque mystique – si intensément rêvées par Stockhausen n’étaient pour Boulez que de simples… superpositions.

Cependant, loin de se détourner des promesses que la musique électronique continuait de faire planer, Pierre Boulez, tel un Sisyphe roulant sans relâche son rocher en haut de la montagne, revenait toujours à la charge. Pour les raisons que presque tout le monde connaît, Boulez a quitté la France pour s’établir en Allemagne. Poésie pour pouvoir, sur des poèmes d’Henri Michaud et réalisée en 1958 dans les studios de la SWR à Freibourg, est sa première tentative pour se confronter à la bande magnétique. Un nouvel échec, aux yeux mêmes du compositeur qui n’avait de critique plus sévère que lui-même. L’œuvre est retirée. Cette matière sonore nouvelle se devait d’avoir un support théorique, l’intuition seule – et ce, malgré les travaux de Stockhausen ! – était selon lui trop faible pour venir à bout de la résistance qu’opposait ce matériau. Boulez veut aller au plus profond de la structure, et ce qu’il réalise entre poésie et musique lui résiste lorsqu’il aborde le champ des sons électroniques. Il ne veut plus tâtonner et pense alors sérieusement à la nécessité de fonder un centre de recherche musicale qui aurait une assise scientifique. Il entreprend de le fonder en collaboration avec le Max-Planck Institut à Göttingen. On demande l’avis sur le projet à deux personnalités allemandes dont l’autorité – musicale chez l’un et scientifique chez l’autre – est incontestable. Le baryton Dietrich Fischer-Dieskau tout comme le grand physicien Werner Heisenberg qui, aux dires de Boulez, préférait rentrer chez lui pour jouer du Mozart à la maison, s’expriment défavorablement. Le centre ne se réalisera donc pas. Troisième échec. Quelques années plus tard, Boulez est nommé à la tête du New York Philharmonic. Il élabore en 1971 une première version d’…explosante-fixe… pour un groupe de solistes. Un système de transformations analogique en temps réel est cette fois-ci à l’œuvre. Encore un échec, le quatrième. Cette version de l’œuvre sera aussi retirée du catalogue. Pour Boulez les échecs ne sont jamais définitifs, comme les succès ne sont pas des trophées que l’on accroche dans son salon. Poésie pour pouvoir servira de canevas pour Répons et …explosante-fixe… sera entièrement réécrite. Mais où donc cela coinçait-il ? Il m’apparaît clairement aujourd’hui que c’est au niveau du temps que le bât blessait. L’écriture, aussi fixée et sophistiquée soit-elle, laisse toujours une marge de manœuvre à l’interprète qui produit ainsi une part d’inattendu au moment du concert. La bande magnétique condamnait les sons à un carcan perpétuel et les systèmes en temps réel étaient encore beaucoup trop rudimentaires à cette époque. L’informatique n’existait pas encore. Le temps libre et flexible de l’humain se mariait difficilement avec le temps mécanique des machines. Et pour Boulez, ce n’était pas un problème philosophique, mais une question – cruciale entre toutes – d’esthétique.

Le temps passe, le Président Pompidou appelle Boulez, on connaît la suite. L’IRCAM est finalement créé. Lorsqu’on lui demande ce qu’il espère trouver dans cet Institut de recherche, Boulez répond : « si on le savait, on ne chercherait même pas ! ». Il est alors attaqué de toutes parts. On dit que c’est un dictateur qui veut un Institut sinon pour lui-même, du moins pour ceux qui feront comme il leur ordonnera. L’histoire peut désormais parler pour elle-même ! Au cours des années pendant lesquelles je venais travailler à l’IRCAM, j’y ai croisé, entre autres figures, Luciano Berio, John Cage, Gérard Grisey, Steve Reich, Karlheinz Stockhausen, Iannis Xenakis et Frank Zappa. Bref, une assemblée pas particulièrement obéissante !

Toujours en poste à New-York, Boulez visite les universités américaines et s’informe sur l’état des connaissances, en particulier auprès de Max Matthews, l’inventeur de la synthèse sonore par ordinateur. L’informatique se développait et, n’étant pas scientifique lui-même mais se renseignant tous azimuts, Boulez a très vite compris qu’elle portait en elle le germe de ce qui, précisément, lui manquait dans l’électronique de grand-papa : le temps réel. Sur les conseils de Luciano Berio, Boulez fait venir un physicien italien qui travaille au CERN à Genève, Peppino di Guigno, qui mettra au point toute une série prototypes d’un genre nouveau. Ce sont des « machines-caméléons », aimait à dire ce dernier. « Contrairement aux autres machines, les miennes ne savent rien faire par elles-mêmes, il faut tout leur apprendre. » Peppino di Guigno était un « original », et Boulez aimait les originaux. Di Guigno va ainsi inventer la fameuse 4X, sur laquelle Boulez composera Répons.

Le temps réel était LA priorité pour Boulez. Il a engagé un tout jeune mathématicien américain qui n’avait pas encore obtenu son Doctorat de l’Université de Harvard, Miller Puckette, qui allait mettre au point le programme Max, devenu depuis une des références mondiales en matière de musique électronique en temps réel. J’ai eu l’honneur de participer pendant près de 10 ans à ces recherches au cours desquelles il nous a fallu tout construire, tellement nos « bibliothèques » étaient dégarnies. Nous nous rencontrions avec Boulez le plus souvent déjà à 6 heures du matin car, plus tard dans la journée, ses fonctions de directeur de l’Institut l’accaparaient totalement. Au cours de nos discussions, l’esthétique et la technique se bousculaient fréquemment. Rien ne l’irritait plus qu’une pensée entièrement soumise à la technique et sans vision esthétique. Réputé théoricien, Boulez n’a cependant jamais été éloigné de la matière. Lorsque la 4X est devenue une dame trop âgée, Boulez engagea Eric Lindemann, un chercheur américain totalement autodidacte, pour concevoir une nouvelle station de travail. Ce dernier augmente la machine Next – mise au point par un certain Steve Jobs – qui rendra possible, entre autres, la détection acoustique, qui jusqu’alors n’était que mécanique.

Jusqu’à une date récente, Boulez s’est montré toujours à l’écoute, non seulement des jeunes générations de compositeurs, mais aussi des chercheurs, tel Arshia Cont qui a conçu et mis au point le logiciel Antescofo, sur lequel va être jouée B-Partita tout à l’heure. Boulez a su accompagner l’évolution de la technologie, sans fétichisme, sans dogmatisme, et, bien sûr, sans nostalgie. Celui qu’on représentait si souvent comme un homme autoritaire, voire dogmatique, n’aimait rien tant que laisser les chercheurs – en tout cas ceux qu’il jugeait inventifs – travailler en toute liberté. Il savait mieux que personne que ce n’est ni sous la contrainte, ni sous la férule d’un programme centralisateur que pourrait surgir l’invention. « Il faut les laisser inventer, disait-il souvent, c’est la meilleur manière de tirer bénéfice de leurs travaux ».

Ce n’est pas le moindre des paradoxes que de comparer les œuvres avec électronique de Boulez, Répons, Dialogue de l’ombre double, …explosante-fixe…, Anthèmes II, faibles en nombre mais riches en contenu, avec l’effort continu et intense qu’il a pu déployer tout au long de sa vie, au point d’avoir fourni un outil dont il ne se sera, finalement, que peu servi. Il a créé cet Institut, l’IRCAM, unique au monde, pour entrelacer les formes d’expressions artistiques et les moyens modernes de les créer, pour confronter sans cesse la technique, source de fascination comme de répulsion, avec l’esthétique, qui est, elle, l’autre face du même visage, plus intérieure, parfois moins partageable.

Un ami m’a fait remarquer un jour que, lorsqu’on se trouve à l’angle de la rue du Renard et de la rue Saint-Merri, on aperçoit Notre-Dame en face, lieu d’où sont issues les grandes recherches de l’école polyphonique occidentale au Moyen-Âge, et, qu’en tournant la tête de 45° sur la droite, on voit l’IRCAM, le dernier avatar de cette longue tradition ; et qui est toujours à renouveler, à réinventer. Cette filiation, Pierre Boulez ne l’a, bien sûr, pas intentionnellement recherchée. Mais il nous appartient symboliquement de la perpétuer. À bon escient. Dans un monde où l’appât du gain trouve dans la frivolité sa plus parfaite partenaire, il nous faut rester vigilants. Il nous faut sans cesse rappeler à qui veut l’entendre que la recherche, qu’elle soit scientifique, musicale ou celle au service d’autres arts, ne doit jamais s’arrêter. Boulez avait fait sienne la phrase de Stravinsky qui disait : « Nous avons un devoir envers la musique, c’est celui de l’inventer ».


Texte lu avant la création de B-Partita à Paris le 16 juin 2016.

Entretien avec Sarah Pieh.

Tuesday, May 10th, 2016

Sarah Pieh : Philippe, tu étais „Porträt-Komponist“ du Festival de Witten 2014. Est-ce que c’était la première fois qu’un festival allemand faisait cela ?

Philippe Manoury : À ce point-là, oui. Je n’avais jamais eu encore une rétrospective aussi large, incluant d’ailleurs des créations. Cela m’a donné l’occasion de montrer plusieurs aspects de mon travail, que ce soit avec des œuvres pour orchestre, pour musique de chambre ou pour musique électronique. Il y a dix ans, je n’étais pratiquement jamais joué dans les festivals allemands. Alors un jour j’ai décidé d’écrire une lettre aux directeurs de ces festivals pour le leur faire savoir. Deux d’entre eux ont immédiatement réagi : Hans-Peter Jahn à Stuttgart et Armin Koehler à Donaueschingen. Depuis, la situation a fort heureusement grandement évolué.

On reviendra tout à l’heure sur ta pièce pour deux pianos et électronique en temps réel, mais tout d’abord je voudrais faire un retour en arrière, à tes débuts. Tu es né et tu as grandi en « province », comme disent les Français, en Corrèze. As-tu vraiment découvert la musique par hasard ?

Non, je n’ai pas découvert la musique par hasard. Il y avait de la musique chez nous, mais ce n’était pas du tout la même sorte de musique que celle que je pratique aujourd’hui. Mon père était un spécialiste de l’accordéon, du folklore du Massif central. Il y a toujours eu des musiciens autour de nous, depuis que je suis né. Cela dit, c’était dans un milieu rural et provincial qui n’avait absolument aucun contact avec la culture classique ou la musique savante. Mais il ne fait pas de doute que cette musique populaire a été pour moi une sorte de tremplin. Lorsque j’évoque cela, je ne peux pas m’empêcher de penser qu’il existe une appropriation sociale et géographique de la musique. La musique savante a toujours été liée aux classes citadines, aristocrates d’abord, puis bourgeoises. C’est un phénomène totalement artificiel qui est très nuisible à la vie de la musique. Il n’y a aucune raison pour que cette musique soit la propriété d’une classe particulière. Ce faisant, on en prive une immense partie de la population. Le plus fâcheux, dans cette situation, c’est que de nos jours elle incite le personnel politique (et en particulier celui qui, malheureusement, se dit « de gauche ») à pratiquer toujours plus la démagogie. Il considère la musique savante, toutes époques confondues, comme une forme d’élitisme intimidant. C’est consternant. Je peux servir, en quelque sorte, de contre-exemple de cette fausse vue des choses. Mon milieu d’origine était celui de la musique populaire et c’est pourtant grâce à lui que j’ai pu accéder à la musique savante. C’est ensuite, en allant à Paris – j’ai vécu à la campagne jusqu’à l’âge de 7 ans – que des horizons nouveaux se sont ouverts à moi, mais d’une manière assez particulière, parce que la musique s’était révélée à moi d’abord comme un refuge. Ayant été habitué à vivre à la campagne, Paris a été pour moi un choc violent, et particulièrement mon premier contact avec l’école pour laquelle j’ai nourri une vive répulsion qui ne m’a d’ailleurs guère quitté. La musique a été une manière de sortir du monde un peu noir et fermé que représentait l’école. Je me suis plongé dans la musique pour fuir cette situation-là, et c’est en apprenant qu’un de mes professeurs de musique à l’école donnait des cours de piano que je me suis réfugié dans le piano, et ensuite dans la composition ; mais ça, c’est une autre histoire.

Tu es donc arrivé dès l’âge de 7 ans à Paris. Quand tu as commencé tes études au CNSM, bien après, au début des années 70, à quoi ressemblait le paysage musical parisien ?

Du côté de l’enseignement musical, on décelait encore les relents de l’entre-deux-guerres dans le sens où les compositeurs qui sont aujourd’hui reconnus comme des figures importantes – toute la génération des années 50, comme Stockhausen, Boulez, Berio, Nono, Ligeti – n’étaient absolument pas étudiées. On le faisait entre nous, ce n’était pas interdit, mais les classes d’écriture, d’analyse, ne les traitaient absolument pas. C’était un enseignement académique de bon niveau, je dirais même de très bon niveau, mais entièrement basé sur une conception de l’écriture traditionnelle tonale, et je préciserais même, d’obédience très française. Je me rappelle que la grande figure dans les classes d’écriture en France était encore Gabriel Fauré, que l’on définissait alors comme le summum de la perfection dans l’harmonie. Des compositeurs comme Richard Strauss, Mahler ou le premier Schönberg – et même le dernier Wagner – n’étaient absolument pas enseignés à Paris. Le néo-classicisme français, avec ce que cela comportait d’anti-germanisme, restait donc encore très présent. Bien sûr, il y avait quand même la figure de Messiaen qui jouissait d’un certain prestige. Boulez n’habitait pas la France. Xenakis, le groupe du GRM (Groupe de recherches musicales) de Pierre Schaeffer étaient très présents et l’école spectrale était en train de naître. Je me souviens des concerts de Xenakis, de Stockhausen ou de Boulez qui faisaient salle comble. L’esprit d’aventure régnait à cette époque dans Paris. Personnellement je courrais d’une salle de concert à une salle de théâtre pour y assister à des mises en scènes d’Antoine Vitez ou de Peter Brook, ou à une salle de cinéma pour y voir le dernier film de Bergman. Je ne regrette absolument pas d’avoir vécu cette période à Paris.

À quel moment as-tu découvert la musique électronique ?

Je crois que cela s’est passé dans le cadre de mes études au Conservatoire de Paris. Il faut savoir que dans ces années-là, ceux qui composaient pour l’électronique ne composaient pas pour les instruments, et vice versa. Beaucoup ont du mal à se le représenter aujourd’hui. Il y avait une scission très forte entre les deux et je me trouvais vraiment dans un dilemme car, venant de l’écriture traditionnelle, je ne maîtrisais aucune technique de l’électronique pour laquelle j’avais cependant une assez grande attirance. Il y avait donc la classe du GRM de Pierre Schaeffer dans laquelle je me suis inscrit comme auditeur libre, pour voir ce que cela donnerait. Mais le déclic escompté ne s’est pas produit. Je n’ai jamais pu adhérer à cette esthétique de la musique concrète, purement intuitive et sans bases théoriques. La personne qui, sans le vouloir puisque je n’ai jamais travaillé avec elle, m’a montré la voie, c’est Stockhausen. Il venait à Paris chaque hiver et y donnait des concerts. C’est ainsi que j’ai assisté à la première de Mantra et découvert Kontakte, Hymnen, Telemusik, Gesang der Jünglinge, toutes ces œuvres extrêmement puissantes. Et j’ai pu découvrir que quelqu’un avait fait non seulement le pont entre les musiques électroniques et acoustiques, mais qu’il l’avait fait au sein de la même œuvre, et de plus, comme dans Mantra, en temps réel. Pour le tout jeune homme que j’étais, ce fut là véritablement une onde de choc. C’est là que j’ai découvert le temps réel, qui était rudimentaire à l’époque. Les outils dont Stockhausen disposait dans les années 70 permettaient seulement de transformer le son du piano ; on ne pouvait pas faire encore de synthèse complexe ni de spatialisation avec le temps réel à cette époque. Mais c’est quand même Stockhausen qui m’a fait découvrir le temps réel. J’ai l’habitude de dire que Stockhausen est à la musique électronique ce que Monteverdi est à l’opéra. Ce n’est pas lui qui l’a inventée, mais c’est le premier à en avoir dégagé une vision forte. Et quand s’est créé l’IRCAM, au milieu des années 70, je me suis dit alors que c’était vraiment l’endroit où il fallait que je travaille. On entendait parler de ce qui se faisait dans les universités américaines, comme celle de Stanford, dans laquelle s’opéraient les premières synthèses sonores par ordinateur. Pouvoir « composer le son » m’apparaissait comme ce qui allait enfin unir ces deux mondes qui, jusque là, demeuraient incompatibles entre eux. Je sortais enfin de mon dilemme. Je suis un des premiers enfants du numérique.

Mais alors justement le temps réel, « la musique du temps réel », c’est aussi le titre d’un ouvrage paru en 2012 et qui rassemble des entretiens avec Omer Corlaix et Jean-Guillaume Lebrun. Il me semble que tu as fortement marqué cette notion, peut-être même inventé. Qu’est-ce qu’elle veut dire exactement ?

Non, je ne l’ai pas inventée. Pour te l’expliquer, je te donnerai une comparaison simple tirée de la musique instrumentale. Cette musique est composée « en temps différé », c’està-dire que le temps nécessaire à son écriture, à sa conception, n’est pas le temps réel de l’œuvre. Il faut parfois de longues heures pour écrire quelques secondes de musique. Mais quand les interprètes jouent ensuite la composition, alors on bascule dans un temps réel pur. Il s’y produit des événements qui ne se reproduiront plus jamais de la même manière. Les notes, qui ont été fixées sur du papier, sont destinées à produire des sons qui auront une naissance, une existence, une vie et une mort absolument uniques et non reproductibles. Ce sont deux facettes du temps, le temps différé – celui de la composition, de la réflexion et de la mise en forme – et le temps réel dans lequel ce qui a été fixé est maintenant interprété. Dans la musique instrumentale ces deux temps ont toujours été présents. Par bonheur, la notation musicale laisse une énorme marge de liberté à l’interprète. Si elle était exhaustive, il n’y aurait pas de place pour le temps réel. Or les premières musiques électroniques étaient enregistrées sur des bandes magnétiques, un support fixe et rigide comme celui d’un film. On ne pouvait pas modifier le temps, ni le gauchir, ni le rendre flexible. L’intuition du moment présent, à la base de toute interprétation, n’y avait pas droit de cité. L’arrivée des ordinateurs très puissants dans les années 70 a soudain permis de sortir de cette impasse. Ce qu’on appelle le « temps réel » en musique correspond à la situation suivante : la machine calcule les sons avec une vitesse supérieure au temps dans lequel l’oreille arrive à percevoir. Je n’ai donc pas inventé cette notion car elle appartient à l’univers technologique. Évidemment le temps réel pur n’existe pas, pour cela il faudrait un ordinateur quantique dans lequel les informations circuleraient à la vitesse de la lumière. Or, il faut toujours du temps à une machine pour calculer quoi que ce soit. Mais, disons que j’en ai théorisé ces aspects dans le domaine de la composition, dont l’un des plus visibles est la réintégration de l’interprétation dans l’univers de la musique électronique. Les sons n’y sont plus nécessairement prédéterminés dans tous leurs composants, mais sont calculés au moment même où on les entend, et surtout – c’est cela le plus important – en prenant en compte l’interprétation. Ce faisant, on peut alors intervenir sur eux, les modifier, les contrôler, exactement comme le fait un interprète dans la musique acoustique. L’interprétation, dans la musique instrumentale traditionnelle, peut s’entendre comme le gauchissement d’une structure existante ; avec le temps réel en informatique, elle peut modifier considérablement la structure en question, voire l’engendrer dans sa totalité. Une structure prendra telle ou telle morphologie suivant la manière dont l’interprète jouera. Mais cela n’a rien à voir avec l’improvisation. Il revient au compositeur de donner un sens et une expression à tout cela. Il ne faut surtout pas tomber dans une « idéologie du temps réel ». Il y a beaucoup d’actions qui ne sont pas possibles à effectuer en temps réel. Par exemple, si je veux transformer un son de synthèse en fonction de la durée d’un son instrumental, il me faudra attendre l’extinction de ce dernier pour en connaître la durée. Donc, je ne pourrai jamais synchroniser les deux. Le temps réel fonctionne très bien à partir du moment où je ne cherche pas à connaître précisément le futur. Mais je peux l’anticiper avec une vision probabiliste, et là, cela devient très passionnant. On touche ici de près un paradigme bien connu des sciences contemporaines : notre vision du monde est de moins en moins linéaire et de plus en plus indéterministe, voire chaotique. Cette non-linéarité, je la fais aussi entrer dans ma musique. On parle le plus souvent des possibilités sonores de la musique électronique, mais il faut aussi considérer que ces technologies de l’informatique ont profondément bouleversé le paysage conceptuel des musiciens, leurs manières de penser. Souvent des interprètes me demandent s’il serait possible d’avoir des versions avec la musique électronique totalement enregistrée. Ce serait ainsi plus facile pour eux car il suffirait de l’enregistrer et la faire tourner sur un CD. Je dois alors leur dire : « Mais c’est impossible, vous oubliez que cette musique sera tout le temps différente suivant la façon dont vous l’interpréterez. Elle est conçue comme cela ! »

Après ce que tu as dit et pour l’illustrer, je pense qu’on pourrait revenir à Witten et la création de « Le temps, mode d’emploi » pour deux pianos et électronique en temps réel par le duo GrauSchumacher. Comment as-tu vécu cette collaboration avec le duo et qu’en retiens-tu pour ton travail de manière générale ?

Ça s’est très bien passé car, d’abord, j’avais affaire à deux formidables pianistes, et aussi parce que j’ai été aidé par l’entente qui règne entre eux. Cette connivence se remarque tout de suite chez eux comme c’est le cas avec un orchestre qui a passé plusieurs années avec le même chef ; il suffit d’un clin d’œil pour comprendre ce que veut dire l’autre, il n’y a pas besoin d’expliquer les choses. Ils n’ont jamais demandé « pourquoi ? Qu’est-ce qui se passe techniquement à ce moment-là ? ». Ils sont entrés dans cette œuvre avec une approche purement musicale, comme si c’était un quintette avec piano ou un concerto, sans chercher à passer pas un prisme différent. Bien sûr, je peux expliquer des processus ou des techniques en détail, si c’est nécessaire, mais s’il n’y a pas cette étincelle musicale au départ, un élément fondamental se perd. Avec le duo, ça a été tout de suite très clair. J’ai connu d’autres interprètes, et non des moindres, pour lesquels ce que pouvait produire l’ordinateur n’existait tout simplement pas, qui se concentraient uniquement sur leur propre jeu. Dans Le temps, mode d’emploi, l’ordinateur produit des structures qui se renouvellent à chaque fois. Je peux donner un exemple : à la fin d’une des sections, je fais intervenir ce qu’on appelle des matrices de Markov (qui sont des systèmes aléatoires, néanmoins très contrôlés). Elles produisent des formes musicales bien reconnaissables, et cependant toujours différentes. C’est un peu comme des volutes de fumées ; on les reconnaît tout de suite et pourtant rien n’est plus chaotique que leurs formes toujours changeantes. Par exemple, il y a des figures qui s’ouvrent sur des accords qui, eux, débouchent sur du silence. Les probabilités d’apparition de ces trois formes varient sans cesse au cours du temps ; il y a de plus en plus de silences ou de plus en plus d’accords, mais qui n’ont jamais la même durée. Il faut que les pianistes s’habituent à cela. J’ai écrit la musique des deux pianistes de manière à ce qu’elle leur laisse beaucoup de liberté, pour qu’ils puissent réagir à ce que fait l’électronique, alors qu’ils ne peuvent pas du tout prévoir dans le détail les moments de grands silences et d’action. Je leur ai dit « c’est à vous de savoir quand vous allez attaquer telle ou telle séquence ». Et là je trouve qu’ils ont eu une compréhension instinctive de cette situation ; c’était le plus remarquable pour moi. Ils arrivaient à se mettre dans la disposition d’esprit où ils étaient surpris et répondaient en même temps à la surprise. Donc ils participaient du même jeu tout en ignorant ce qui allait se passer. Cela donnait une tension très excitante à la musique. L’auditeur n’avait aucun moyen de savoir si cela était totalement prédéterminé ou s’il y avait une incertitude, mais il n’aurait pas perçu la même tension dans un contexte totalement prévu. On n’agit pas de la même manière lorsqu’on sait ce qui va se passer et lorsqu’on l’ignore.

Nous avons parlé de la musique électronique, du temps réel, mais n’oublions pas que tu as composé ces dernières années plusieurs pièces pour orchestre qui témoignent de ton affinité pour les grandes formes, pour l’orchestre. Est-ce que tu te considères comme un « Orchesterkomponist » ? Et peut-on te ranger dans un tiroir, un courant, une école ?

Orchesterkomponist certainement, car mes deux terrains de prédilections sont le grand orchestre et l’électronique (cette dernière est d’ailleurs pour moi comme une sorte d’orchestre nouveau). Je compose assez peu de musique de chambre, sinon avec de l’électronique. L’orchestre me fascine depuis très jeune. Très tôt j’ai senti que c’était pour cela que je voulais composer. Avec l’orchestre on peut faire « parler » 100 personnes en même temps tout en restant dans un monde cohérent. Par exemple, on peut diviser les cordes en autant de voix qu’il y a d’instruments, on n’alourdi jamais la texture sonore. Toutes ces voix se superposent comme par miracle. Écrire pour orchestre, c’est comme jouer aux échecs. Les combinaisons semblent infinies, même si l’on connaît toutes les règles. Il y a quelque chose de vertigineux pour moi dans cette vision. J’aime penser, même si cela ne veut pas dire grand-chose, que le son de l’orchestre est le plus beau son qui soit. La musique électronique offre également des possibilités immenses, mais on obtient rarement la même plénitude, le même foisonnement sonore. Il faudrait pour cela avoir une centaine de haut-parleurs. Cela existe dans certains lieux, mais je pense que je ne verrai jamais le jour où les grandes salles de concerts seront équipées de la sorte. Je doute même que ce jour advienne.

Me « ranger dans un tiroir », comme tu le dis ? Pourquoi pas ? Mais il faudrait m’accorder le don d’ubiquité, qu’ont ces particules quantiques qui sont en plusieurs endroits à la fois ; je serais alors simultanément dans plusieurs tiroirs. On me trouverait à la fois dans les tiroirs symphonie, opéra et musique électronique ; mes particules seraient présentes également dans les tiroirs expérimentateur, chercheur et théoricien ; on trouverait probablement quelques traces de moi dans le tiroir sériel, dans le tiroir aléatoire ou même spectral ; quelques atomes de moi pourraient être observés aussi dans le tiroir bruitiste. Il n’y a guère que dans les tiroirs néo-tonaux et minimalistes qu’il n’y aurait rien à chercher. Ceux-là, il ne vaut même pas la peine de les ouvrir ! On me définit le plus souvent comme un compositeur de musique électronique, mais, comme tu viens de le remarquer, une grande partie de mon œuvre concerne l’orchestre. De toutes manières, l’électronique ou l’orchestre ne sont pas des catégories esthétiques, mais des moyens d’expression.

Quant à savoir de quels courants je proviens, je peux en parler sans problème. Je dirais que le compositeur qui m’a directement influencé, c’est Wagner. La plasticité de sa musique, dans laquelle la polyphonie s’élargit ou se rétrécit, et ces étirements et contractions du temps, ont définitivement posés les bases de la musique que je veux écrire. Wagner, on peut le détester (je rencontre beaucoup de gens qui ne supportent pas sa musique), mais c’est le maître du temps. C’est de lui que je tiens ce goût pour les formes mobiles et évolutives. Debussy, évidemment, reste pour moi une référence très forte. C’est un des plus grands inventeurs de formes que je connaisse et c’est lui qui a fait voler en éclats les hiérarchies dans l’orchestre. Je m’en suis souvent inspiré. Bien sûr Mahler, avec son temps suspendu et son contrepoint si singulier, m’a très vite attiré. On le ramène le plus souvent à un compositeur « tragique », mais il est tout autant sarcastique, comique ou grinçant. Bien sûr, les trois Viennois ont été mon « petit lait maternel » dans la composition. Je n’ai pas un grand attachement à la musique baroque à laquelle je préfère celle qui la précède, Josquin, Monteverdi, ou celle qui la suit, Mozart surtout. Il n’y pas assez d’accidents ou d’imprévu dans le style baroque. On sent que Mozart aurait composé des œuvres différentes s’il les avaient écrites un autre jour, tandis que Bach semble insensible au passage du temps.

Dans le monde contemporain, je citerais Boulez et Ligeti. Boulez a trouvé des solutions très intéressantes dans le domaine du temps avec l’orchestre. Comme il y a une très grande diversité d’éléments, d’individualités dans l’orchestre, il a trouvé des manières pour que chaque groupe puisse réagir avec une temporalité précise. Par exemple dans Répons, il y a des solistes placés autour du chef qui réagissent de manière relativement libre, alors que l’orchestre, sous sa direction, réagit de manière plus métrique. Cette interpénétration de couches temporelles n’est pas souvent remarquée alors que cela donne une tension dramatique à sa musique tout à fait singulière. Ligeti a trouvé une poétique du temps et de l’espace très attirante. Parfois la musique semble venir de très loin, parfois elle paraît se figer comme dans une hallucination. Plus près de ma génération, je me sens très proche de ce qu’a trouvé Lachenmann, bien que nous n’ayons pas la même esthétique. Je me sens plus proche de lui que des compositeurs du courant spectral avec lesquels j’ai pourtant grandi. Lachenmann réussit ce que Boulez appelait des « fantasmagories sonores », et qui sont confondantes. Parfois, il est tout à fait impossible de deviner quels instruments jouent. Je n’aime rien de plus que ce qui met en échec mes facultés d’analyse. De ce point de vue, je ne suis pas du tout un « objectiviste ». Mais c’est vrai que ce qui m’intéresse maintenant dans la musique d’orchestre, c’est l’orchestre spatialisé.

On y reviendra sans doute une prochaine fois. Pour conclure, j’aimerais parler de la citation de Beckett qu’on trouve sur ton site Internet : « Avec toute cette obscurité autour de moi, je me sens moins seul. » Dans cette citation, je perçois un certain sarcasme, peut-être du regret mais surtout un mécontentement. Alors, as-tu espoir ?

Il ne faut jamais perdre espoir, mais il ne faut pas se bercer d’illusions non plus. C’est vrai que la situation présente du monde ne nous réconforte pas. Oui, tu as très bien vu. Je parle de cette solitude – Beckett est un de mes auteurs favoris – teintée de sarcasmes, comique et tragique à la fois. J’ai vraiment l’impression que la culture musicale savante, c’est-à-dire la musique comme objet de la pensée et de l’expression, et pas seulement comme divertissement auquel on la réduit le plus souvent, est en train de disparaître doucement de notre société, et par-delà aussi – et c’est là, le plus grand risque – de notre civilisation. On ne parle que de restrictions budgétaires, on se demande comment on va maintenir les festivals, des orchestres disparaissent, l’argent privé n’existe plus pour la musique, et le discours politique sur la musique devient uniformément cynique, stérile et sans imagination. L’art est réduit à un produit de consommation et de divertissement pour les masses. L’élite intellectuelle en France, éclairée lorsqu’elle s’exprime sur la philosophie, la littérature, voire la politique, est incapable d’aligner deux ou trois idées originales concernant la musique. Nos philosophes sont d’une inculture musicale dramatique. Je sais qu’il n’est pas facile de parler de musique, mais Descartes, Diderot, Baudelaire, Mallarmé, Nietzsche ou Proust ont très bien su le faire à leur époque. Nos intellectuels sont, comme le reste de la population, le pur produit d’une absence d’éducation totale en matière de musique. Si rien n’est entrepris au niveau de l’éducation pour rehausser le niveau de connaissance en musique, la musique savante ne sera bientôt plus qu’une langue morte dans notre civilisation. C’est déjà le cas dans celle des USA, et comme l’Europe n’aime rien de mieux que de singer ce qui se fait là-bas, je ne pense pas faire preuve d’un pessimisme exagéré en imaginant ce que cela pourrait donner chez nous dans quelque temps.

Mais on pourrait dire que c’est encore pire pour les arts plastiques, quand on parle d’abstraction, de comment aborder une œuvre…

Les arts plastiques survivront peut-être mieux car ils charrient des sommes d’argent considérables, parfois démesurées, et surtout parce que, contrairement à la musique, on ne leur demande pas de plaire immédiatement au plus grand nombre. Ils ont une valeur intrinsèque, qui change avec le temps, mais ne se volatilise jamais. En revanche, ils n’ont jamais pu servir les aspirations sociales et politiques comme la musique a su le faire. Le rock, par exemple, a pu porter un désir de liberté nécessaire pour s’affranchir des normes sociales trop coercitives. Je me souviens d’une phrase de Wim Wenders – on lui demandait dans une interview pourquoi il était autant attiré par le rock. Sa réponse (je cite de mémoire) : « pour moi, c’est une musique beaucoup plus intéressante que cette musique classique allemande qu’écoutaient mes parents. » D’un côté, je comprends qu’il l’ait dit, mais d’un autre je trouve très triste qu’un créateur comme lui perd toute espèce de sensibilité dès qu’on parle de musique savante et qu’il ne regarde cette dernière que sous un angle sociologique et générationnel, restant sourd et aveugle aux richesses qu’elle contient. Les « images » que renvoie la musique, celles qui symbolisent les appartenances à des classes sociales, à des ethnies, à des générations ou des lieux géographiques, ont tendance à occulter complètement la musique elle-même. La pop-culture était au début une forme d’underground. Elle est depuis devenue le nouvel art officiel des régimes occidentaux dits démocratiques. La maire de Paris, par exemple, voudrait que la nouvelle salle de la Philharmonie accueille plus de « musiques urbaines ». Elle ne parle évidemment pas des symphonies « Prague » ou « Linz » de Mozart ! Très bien ! Maintenant, est-ce que les salles dédiées au rock vont dorénavant inviter des quatuors à cordes jouant Schubert et Schœnberg ? C’est ridicule, à la fois démagogique et absurde. Stupide même. Nous vivons dans un monde saturé de sons organisés de façon industrielle. C’est cela qui nous tient lieu de « culture » musicale. L’accroissement des connaissances musicales est l’arme qui permettrait de résister à tout cela en faisant aussi émerger un discours critique. Il faudrait enfin considérer l’art en tant que source d’épanouissement spirituel des individus singuliers et cesser de vanter la culture uniquement comme génératrice de richesses matérielles pour des collectivités diverses (un grand festival fait vivre l’hôtellerie, la restauration et les commerces aux alentours, etc.). Il y a un grand risque qu’à terme la musique savante disparaisse. Il paraît que des percussionnistes africains allaient à Cuba pour y étudier des techniques qui s’étaient taries chez eux. Il se peut que dans un futur assez proche nous soyons, nous aussi, obligés d’aller au Japon, en Corée ou en Chine pour y étudier notre « grande » tradition musicale.

Ceux qu’on appelle les « classiques » (je n’aime pas ce terme) ne ressemblent pas à ces statues emperruquées et amidonnées qu’on continue sottement d’arborer. C’étaient des inventeurs qui faisaient de la recherche, de l’innovation, de l’expérimentation. C’était une famille spirituelle de laquelle je me sens être issu. Donc cette phrase que j’ai mise en exergue dans mon blog énonce un peu ce sentiment d’isolement que je ressens en moi-même. C’est comme ce sentiment de solitude que l’on ressent au milieu d’une foule. Je m’aperçois que ce que je peux vouloir dire et exprimer est de moins en moins compris et partagé par mes contemporains. Et, malheureusement, l’espoir que cela change est mince, car les phénomènes économiques et surtout financiers exerceront une emprise, voire une tyrannie, de plus en plus forte. Alors non, je ne perds pas espoir ! Mais je ne le montre pas trop. Et s’il faut parfois évoquer cet enlacement de la solitude, à une plainte grandiloquente je préfère la voix inimitable de Beckett. C’est une métaphore métaphysique mais que l’on peut parfaitement accoler à l’actuel monde musical. Elle exprime mieux que toute autre ce vide autour de nous, et le rire salvateur qui doit le combler.


Entretien réalisé à Berlin le 29 juillet 2014.



Entretien avec Patrick Hahn (à propos de “Ring”)

Sunday, May 8th, 2016

Patrick Hahn : Cette fois-ci, l’Orchestre de Cologne, c’est aussi l’orchestre municipal de Cologne. Est-ce que cela joue un rôle pour toi comme compositeur d’écrire aussi pour une ville ou d’être partenaire d’une ville ? Quel rôle joue la ville ou l’endroit pour lequel tu composes dans ton imagination ?

Philippe Manoury : N’habitant pas Cologne, il m’est difficile de répondre à cette question. La salle joue un grand rôle. Mais ce que je trouve intéressant, c’est l’idée de cycle. J’ai composé d’abord une seule pièce, qui s’appelle In situ, et je l’avais conçue comme une pièce isolée. Et ce n’est que quand François-Xavier Roth a été nommé à la Philharmonie, et qu’il m’a dit qu’il fallait que nous réfléchissions à d’autres projets, que j’ai pensé à faire tout un cycle pour Cologne. Et du coup, je l’ai appelé La Trilogie Köln. Il y aura donc Ring, composé tout récemment mais qui sera la première pièce du cycle, In situ sera la deuxième, et une troisième pièce sur laquelle je n’ai pas encore beaucoup réfléchi mais qui sera beaucoup plus développée. Je pense que pour cette dernière pièce, je vais faire un travail plus en profondeur avec la ville de Cologne. J’aimerais bien que cette pièce fasse intervenir certains éléments liés à l’histoire de Cologne, voire à son histoire récente. Et peut-être même travailler avec d’autres entités qui existent à Cologne, comme par exemple un grand chœur amateur aux côtés d’un grand chœur professionnel, dans une espèce de dramaturgie de manière à ce que le projet soit plus ancré dans la ville même de Cologne. In situ a été créé à Donaueschingen, Ring le sera vraiment à l’intérieur de la Philharmonie et la troisième devra être davantage attachée à la ville de Cologne. Je ne peux pas dire exactement ce que cela va être mais j’imagine que je vais aussi faire appel à certains textes littéraires liés à Cologne. Or je pense aussi prendre quelques poèmes d’Ingeborg Bachmann, et utiliser pour cela des acteurs allemands. La composition sera une espèce d’oratorio, plus ou moins scénographié, avec des chanteurs, des acteurs, un chœur professionnel et un grand chœur amateur, de la musique électronique et l’orchestre, bien sûr. Mais ça reste encore tout-à-fait ouvert… Je pense que la pièce se représentera comme une immersion progressive… Je suis venu à Cologne plusieurs fois mais je n’y ai jamais vraiment vécu. Mais il faut dire que d’ici là, en plus de ces trois pièces, j’aurai encore d’autres projets à réaliser !

Comment ces trois pièces seront-elles liées au sein de la Trilogie ?

Comme la troisième n’existe pas encore, je peux difficilement en parler, mais il est évident que ces trois pièces auront des similitudes et se partageront parfois un même matériau. Ce que je peux dire, c’est que, par exemple, Ring commence au moment où le public rentre dans la salle. J’ai voulu casser l’idée de rituel du concert dans lequel le public s’installe, l’orchestre arrive, on applaudit, le chef arrive, on applaudit, et la musique commence. Donc là, pour Ring, les musiciens de l’orchestre vont arriver par petits groupes selon un timing très précis et vont faire ce qu’ils font d’habitude, c’est-à-dire se chauffer en répétant de façon anarchique de tout petits fragments de la pièce, faire des exercices, et puis à certains moments ils vont jouer des séquences, spécialement composées celles-là, qui seront des préfigurations des motifs qu’on entendra plus tard dans la pièce. Ce seront des fragments assez courts, de deux ou trois mesures, par exemple un motif joué par des cuivres, lequel motif va apparaître dans la 4e section de la pièce. Donc déjà pendant qu’ils vont s’installer, les gens vont entendre aussi – en dehors des gammes et des exercices que les musiciens font d’habitude pour se chauffer –, des séquences beaucoup plus structurées. Et quand ils entendront sept cuivres jouer toute une phrase, ou à un autre moment des flûtes et des clarinettes, ils vont prendre conscience que quelque chose se passe, que ce ne sont pas juste les musiciens en train de se préparer. Et petit à petit, tout ce magma sonore va s’harmoniser, devenir quelque chose de très calme, moins anarchique et plus organique. La musique aura donc déjà commencé, mais le public ne s’en apercevra qu’après. La lumière va baisser dans la salle et le chef d’orchestre va prendre place. À partir de là, il prendra l’orchestre en main et imperceptiblement l’œuvre commencera vraiment. Voilà pour le début de Ring. Et en quoi, au fait, consiste ce début ? Ce début de Ring relit à l’envers la fin de In situ. Cette fin d’In situ est une musique qui part d’un tutti très articulé qui petit à petit se déchire et s’écarte en se résorbant en une monodie qui monte de plus en plus vers les aigus, jusqu’à l’extrême aigu de l’orchestre pendant qu’interviennent des phénomènes bruités des percussions qui descendent vers les graves. Et tout cela se termine aux limites de l’extrême aigu et de l’extrême grave. Et dans Ring, je commence comme cela. J’ai donc réécrit toute la partition de la fin d’In situ à l’envers. C’est comme un « backward movement ». Donc ce magma-là des extrêmes aigus et graves va se rétrécir progressivement jusqu’à se concentrer sur l’orchestre central, sur un tout petit noyau seulement, minuscule, à partir duquel la musique va commencer à se redévelopper. Et à part cette réécriture de la fin d’In situ, il y a dans Ring tout un passage, notamment dans la 3e section où des blocs de cuivres interviennent très souvent et qui reprennent des motifs d’In situ, mais dans un tout autre contexte. C’est une technique, apparentée au procédé du palimpseste, que j’utilise assez souvent. Lorsque j’ai une structure complexe, j’en isole des fragments, puis je compose une autre structure autour d’eux dans une expression toute différente. Je peux répéter cela à l’infini. Ainsi une section de Ring peut être un « pré-écho » d’une autre dans In situ. J’ai l’image d’une œuvre en expansion qui s’étend de tous les côtés à la fois. C’est comme cela que le cycle se constituera. Évidemment, les trois pièces peuvent être données en concert séparément, mais pour qu’on puisse parler de cycle, il faut que les pièces qui le composent aient des relations entre elles. Donc il est sûr que la troisième pièce du cycle va contenir des éléments issus des deux pièces précédentes. Néanmoins Ring est totalement différent d’In situ qui est une pièce avec un ensemble de solistes très virtuoses, très difficile à jouer, avec un orchestre autour. C’est une sorte de concerto grosso. Ring est une musique d’orchestre, moins virtuose, plus lente, moins dense, qui place l’auditeur à l’intérieur de l’orchestre.

Nous nous sommes retrouvés ici, dans ton atelier à Strasbourg, et c’est ici que tu rêves tes nouvelles pièces. Est-ce que l’endroit où tu travailles est important pour ton travail ?

Je peux travailler n’importe où, mais l’aspect pratique est très important : j’ai besoin de beaucoup d’espace. Je compose sur de très grandes feuilles, j’écris à la main, pas à l’ordinateur, donc quand je fais la musique d’orchestre, j’ai besoin d’avoir une table d’architecte, j’ai besoin de pouvoir étaler mes partitions. C’est différent pour la musique de chambre. Mais par exemple pour Ring, la pièce que je suis en train de terminer, c’est typiquement une pièce que je ne peux pas emmener en voyage. Quand je vais faire des concerts, il m’arrive d’amener du travail, car j’ai souvent un peu de temps libre entre les répétitions. Mais ces grandes pièces là, je ne peux les faire que chez moi. Oui, j’aime bien avoir un atelier où je peux travailler calmement, un chez moi. C’est un peu « old fashion », parce que je ne travaille pas juste avec un iPhone ou un macintosh ou autres gadgets… Pour la musique d’orchestre, je ne fais pas de simulations par ordinateur, j’ai la musique toute entière dans ma tête. J’ai été éduqué comme cela et rien n’est plus important que mon écoute intérieure lorsque je compose. Je suis très attaché au papier et au crayon, à la gomme aussi, et je passe donc beaucoup de temps à composer comme cela, donc j’ai besoin d’avoir un endroit où j’ai tout ce qu’il me faut ; et n’avoir pas à m’occuper des choses inintéressantes. C’est heureusement le cas ici à Strasbourg.

Ceci est donc important pour écrire la musique. Mais qu’est-ce qu’il est important pour inventer la musique ?

C’est l’imagination ! Soit on en a, soit on n’en a pas ! Mais aussi – dans mon cas du moins – c’est une préoccupation constante. Je ne me dis jamais « demain je ne vais pas penser à la musique, je vais faire autre chose ». Bien sûr, je fais aussi autre chose, mais je passe peut-être 80 % de ma vie à composer. C’est donc un processus permanent, toujours en activité. Mais il m’arrive parfois, quand je compose, d’être soudain un peu coincé, par exemple je commence une section et puis je me rends compte que telle qu’elle se profile, elle ne va pas marcher. Je n’en suis pas content, bref c’est une panne. Et très souvent je trouve une solution en dehors du travail. Par exemple quand je marche ou quand je vais donner des cours au Conservatoire ou quand je prends le train pour aller à un concert, je réfléchis à la musique que je suis en train d’écrire, j’imagine dans la tête comment ça sonne, ce qui pourrait se passer juste derrière, et c’est là, très souvent, que viennent les idées. Alors comment je fais ? J’ai une technique – qui n’en est pas une – je sais que d’autres compositeurs écrivent les idées qui leur viennent partout où qu’ils soient, sur des bouts de papier ou dans un cahier – moi, je ne note jamais rien. Je me dis que si l’idée est bonne, elle va rester dans ma tête ; et si je l’oublie, c’est qu’elle n’était pas bonne. Je ne suis pas du genre à accumuler des esquisses, bien que j’en aie produit de grandes quantités. Vous voyez, là haut sur les étagères, tout cela sont des esquisses, mais ce sont celles que j’écris sur ma table d’architecte. Mais ce qui est important pour moi quand je compose, c’est d’essayer de me représenter la musique réelle, telle qu’elle va sonner. Pas trop du point de vue structurel ou formel – cela fait partie du travail même de composition – mais d’un point de vue perceptif ; j’imagine par exemple comment ça va sonner si je mets des cuivres, des percussions, qu’est-ce je pourrais faire jouer ici à la trompette ou là au trombone, je vois que ça fait déjà un moment que le basson n’a pas joué et donc qu’il ne faut pas que je l’oublie, que ce groupe-ci a été moins utilisé que celui-là, etc. Donc je me fais un « film » de la pièce que je suis en train de composer. C’est ça, l’imagination. J’essaie de m’imaginer comment sonne ce que j’ai écrit, parce que je l’ai en mémoire – pas en détail mais globalement -, et parfois je me dis « tiens ! je n’avais pas pensé à cette solution-là ! Si je mettais ici un accord pour les cors, par exemple, et si je le doublais avec les violoncelles, ça pourrait donner quelque chose de très intéressant », et c’est là que la musique se crée, où elle s’invente. Alors l’image que je vous dresse est un peu floue, pas très exacte. Je ne peux pas me dire que je mettrai ici un mi bémol et là un fa dièse, ce n’est pas ça. Mais j’entends à peu près quel type d’harmonie je vais mettre, quel rythme, si ça va être doux ou fort, enfin, ce sont des espèces de caractères musicaux qui me viennent comme ça. Et après, quand je me mets à ma table de travail, je réalise ces idées-là. Et pendant le travail de la réalisation, je suis naturellement amené à découvrir d’autres aspects. On ne fait évidemment pas que retranscrire ce qu’on avait en tête. Le processus même d’écrire de la musique nous fait évoluer, nous fait changer. C’est donc quelque chose qui est toujours en mouvement. Tout cela pour dire que je ne compose pas uniquement quand je suis à ma table de composition, mais aussi en dehors, dans d’autres circonstances.

Donc c’est un processus continuel, perpétuel. Quand es-tu entré dans ce processus ?

Ô la, très tôt ! J’avais neuf ans. C’est-à-dire que j’avais appris la musique à neuf ans, ce n’était pas très tôt – il y a des gens qui apprennent la musique beaucoup plus tôt – j’ai appris la musique en faisant du piano, j’étais fasciné par le piano, je voulais d’ailleurs être pianiste. Et dès que j’ai appris à lire la musique, j’ai voulu l’écrire. Je ne sais pas pourquoi, mais ça me taraudait, d’avoir quelque chose en tête et de savoir comment on peut l’écrire. Tout jeune, on n’y arrive pas ou on y arrive maladroitement. Mais je peux dire que j’ai appris à lire et à écrire la musique en même temps. La lecture, on prenait des cours de solfège, il y avait une éducation, donc c’était contrôlé, quant à l’écriture, personne ne m’a jamais appris à écrire la musique. Plus tard, j’ai appris l’harmonie et le contrepoint, j’ai fait des études de composition etc., mais au début, je l’avais fait comme ça, spontanément. Et depuis cela ne m’a jamais quitté vraiment. Le rapport le plus fort avec la musique, pour moi, ça a toujours été par l’idée de l’inventer et de l’écrire, plus que de la jouer. Bien que j’aie aussi été pianiste, je n’ai pas continué.

Est-ce qu’il y avait une idole dans tes débuts ?

Oh, il y en avait plusieurs ! C’est d’abord les compositeurs qu’on connaît. Quand j’ai commencé à écrire, mes premiers essais ont été très influencés par la musique que je jouais. J’avais le texte, et je savais qu’avec ce texte-là, ce code-là on pouvait jouer. Donc les premières compositions que j’aie pu faire – je ne m’en souviens plus exactement – n’étaient que des pièces pour piano. Donc en effet, j’ai eu comme idoles d’abord Chopin, Liszt, évidemment, ensuite j’ai découvert Debussy, Ravel, Stravinsky, puis l’École de Vienne, etc. Après je me suis intéressé à des musiques plus anciennes, et même à des musiques autres que des musiques traditionnelles savantes européennes, la musique japonaise, balinaise, certaines musiques africaines. Donc les idoles ? J’étais très polythéiste, je changeais de dieux régulièrement.

Parmi les grandes révolutions du XXe siècle, il faut compter aussi l’ordinateur, et la musique par l’ordinateur. Quand as-tu commencé à inclure l’ordinateur dans ton travail de composition et comment ça a influencé ta composition ?

J’ai commencé là aussi assez tôt, ça devait être en 1976-77, c’est-à-dire à une époque où il n’y avait pratiquement pas d’ordinateurs. Il y en avait, mais l’ordinateur n’était pas un outil qu’on pouvait avoir chez soi. J’ai travaillé avec un monsieur qui s’appelait Pierre Barbaud, aujourd’hui un peu oublié, mais qui était, avec Xenakis, une des premières personnes à faire des expériences de composition avec les machines. J’allais travailler dans un centre au sud de Paris qui s’appelait l’IRIA (et qui est maintenant très connu sous le nom de INRIA) – car il fallait aller dans un centre où il y avait des ordinateurs – et les premières expériences que j’aie faites, c’était avec des cartes perforées. La plupart des gens maintenant ne savent plus ce que c’est.

Des Lochkarten.

Oui, ou punched carts en anglais. Ces machines-là, ça faisait un bruit… On appelait cela à l’époque la musique algorithmique, c’est-à-dire qu’on définissait des règles de composition, le résultat nous était livré sous une forme de codes numériques, qu’il nous fallait ensuite retranscrire en notation musicale pour que ce soit joué. Par la suite, j’ai étudié des aspects plus concrets, comme la musique électronique, et là j’ai travaillé très tôt, au milieu des années 70, avant de partir pour le Brésil, et surtout à mon retour en France en 1979. Là j’ai suivi les premiers stages de composition de l’IRCAM. Donc depuis le début des années 80 jusqu’à aujourd’hui, une partie de mon activité est dédiée à la musique électronique. Pas seulement à elle, mais aussi à tout ce que peuvent maintenant nous offrir, conceptuellement, les outils de l’informatique, de ce qu’on appelle la « computer science » ou l’« intelligence artificielle ». Ses outils conceptuels sont très intéressants, ils ont beaucoup nourri mon imaginaire musical, y compris pour la musique instrumentale pure. Mais la grande révolution s’est produite il y a très longtemps, je n’étais pour ainsi dire pas né, car Stockhausen a composé ses deux études électroniques, je crois, vers 1952, l’année de ma naissance. Je n’ai donc pas connu cette révolution-là, je suis rentré directement dans la musique numérique. J’ai fait très peu de musique concrète, cela ne m’intéressait pas. Je n’aimais pas tellement ce qui ce faisait à Paris autour de Pierre Schaeffer ou Pierre Henri, ce n’était pas trop mon truc.

Pourquoi ?

C’était purement intuitif. C’était plus du collage que de la composition. Même si parfois ça pouvait donner un résultat intéressant, je préférais personnellement retrouver des conceptions musicales aussi solides que celles qu’on utilise quand on écrit de la musique instrumentale ; avoir une idée théorique. Il ne m’intéressait pas de me dire juste, « ah, je vais mettre ceci ou cela, parce que ça sonne bien », non, mais je voulais savoir vraiment composer. La musique concrète à Paris était très intuitive. Bien sûr, cet intuitivisme pouvait donner parfois des résultats intéressants. Etudiant, j’avais suivi au Conservatoire des cours de musique concrète. Il y avait des gens du GRM (Groupe de recherches musicales) comme Guy Reibel, François Bayle, même Pierre Schaeffer venait donner des cours de temps en temps. Ça m’intéressait, ça m’intriguait, mais leurs conceptions étaient, pour moi, beaucoup trop floues. Le « Traité des objets musicaux » de Pierre Schaeffer est tout au plus un manuel du parfait bricoleur, mais pas un traité. En revanche, la grande personnalité pour moi a été Karlheinz Stockhausen. Je n’ai jamais travaillé avec lui, ni pris de cours avec lui, mais son exemple m’a beaucoup guidé. Et c’est grâce à lui que j’avais compris surtout que la même personne pouvait composer de la musique instrumentale et de la musique électronique. Alors qu’en France c’était impossible. Pierre Schaeffer et Pierre Henry n’ont jamais écrit un seul quatuor à cordes ou une seule pièce pour piano ou pour violon ! Ces gens-là n’ont jamais écrit une seule note pour clarinette ou pour flûte, ils ne travaillaient que dans le domaine de la musique électronique. Pendant toute ma jeunesse j’ai entendu dire que la musique instrumentale était finie. C’était une utopie purement idéologique, sans projet esthétique derrière. En échange, des gens comme Messiaen ou Dutilleux n’ont jamais écrit de la musique de synthèse, bien que Messiaen ait fait, je crois, une petite tentative au GRM, mais enfin il n’a jamais publié d’œuvre. Donc autrefois, ces deux univers étaient totalement séparés, c’étaient deux mondes différents. Et Stockhausen était pour moi celui qui avait réuni les deux. Je me rappelle, quand j’ai assisté à la création française de Mantra, c’était je crois en 1971 ou 1972, je devais avoir dix-neuf ou vingt ans, j’ai découvert là que l’on pouvait faire de la musique électronique et instrumentale en même temps, mélangées dans la même œuvre, et aussi que ça pouvait être fait en temps réel ! L’électronique donnait des sons au moment où l’on jouait. Chez Stockhausen il y avait déjà ça. Et l’électronique en temps réel est ce sur quoi, par la suite, j’ai travaillé le plus. C’est ça qui m’a beaucoup intéressé comme démarche.

Revenons encore une fois au processus créatif. Qu’est-ce que l’intuition d’un compositeur selon toi ?

Ah, s’il n’y a pas d’intuition, il n’y a pas de musique. C’est sûr !

Mais dans son dialogue avec l’ordinateur ?

Non seulement l’intuition doit être très forte, mais il ne faut pas oublier que – l’ordinateur ayant tendance à proposer des solutions – on doit garder à l’esprit ce que l’on veut vraiment exprimer, ce qu’on veut dire ; quel type de sons on veut, et dans quel but. Je vais vous donner un exemple très concret. Avec l’ordinateur, dans la musique électronique, on tombe parfois sur des résultats sonores qui sonnent très bien. Mais on se trouve face à un bel objet dont on ne peut rien faire. C’est comme une statue, on la met sur une cheminée, c’est beau, mais on ne peut rien en faire. Et à cela, il n’y a pas d’explication. Mais dans un cas comme ça, il m’arrive souvent de me dire que si je réfléchis bien, je peux transformer cette statue, en tirer quelque chose d’autre. Donc mon imagination peut intervenir tout de suite, et mon intuition fait que des idées me viennent. Mais le contraire est vrai aussi, on écarte d’emblée certains objets car ils ne conviennent pas, ils ne sont pas assez souples, etc. Et il y a aussi l’aspect esthétique, bien sûr, car il faut pouvoir se dire si cela sonne bien ou pas bien. Alors il n’y a pas de critères pour l’esthétique sonore. Il y a des musiques qui, en dehors de leurs qualités propres, pour moi, sonnent mieux que d’autres. Pourquoi la musique de Debussy sonne mieux pour moi que celle de Saint-Saëns, pourquoi celle de Berg sonne mieux que celle de Honegger ? J’aurais du mal à l’expliquer. Donc si je compose, c’est d’abord pour que ça sonne bien, au moins à mes propres oreilles ; à celles des autres aussi, si possible. Quand on compose de la musique électronique, on a plein de possibilités, parfois très intéressantes, mais il faut toujours avoir l’esprit critique. C’est comme si j’étais chef d’orchestre, et que je dirigeais une symphonie de Brahms : à un moment je dis, non, il ne faut pas jouer comme cela, il faut le jouer comme ça ! Il y a des moments où l’on se dit, non, ce n’est pas ça que j’ai envie d’entendre, je veux l’entendre comme ça. Donc il faut surtout que ce côté-là, intuitif, esthétique, reste inentamé, intact. On peut avoir la plus belle machine du monde, si elle ne provoque pas notre imagination, et si on n’a pas l’esprit critique, on ne pourra rien en faire de bon.

Tu disais qu’il faut se demander si ce qu’on trouve avec l’ordinateur est lié à ce qu’on veut exprimer. Qu’est-ce que tu veux exprimer avec la musique ?

La musique s’exprime souvent elle-même. Il y a des expressions dans la musique qui n’appartiennent à rien d’autre qu’à elle-même. Par ailleurs, il y a aussi des nécessités dans l’expression. Par exemple dans Ring, que je suis en train de terminer, j’ai composé deux sections qui en elles-mêmes marchent assez bien, mais les deux sont assez lentes. Et je me dis que si je mets les deux sections l’une à la suite de l’autre, elles risquent de se nuire l’une à l’autre à cause de leur lenteur commune. Tandis que si j’introduis entre les deux une section avec une expression différente, qui va renouveler le paysage sonore, rafraichir (re-stimuler) l’imagination de l’auditeur, je pense que quand la seconde section lente arrivera, ce sera après un moment qui l’aura rendue beaucoup plus nécessaire, et on va l’entendre alors comme une conséquence de ce qui a précédé. Voilà un exemple de nécessité dans l’expression. Voici maintenant un exemple d’expression dans le domaine de l’orchestration. Hier, j’ai mélangé les trompettes, les hautbois et les flûtes de manière à ce que ça évoque fortement les sonorités des orgues à bouche asiatiques, le shô japonais ou le khên cambodgien. Ça donne des nappes très aiguës qui tiennent pendant assez longtemps sur des roulements de percussions – c’est vraiment une expression musicale, l’expression d’un certain statisme musical, mais très harmonique et très continu. Si j’avais mis ces notes-là sur d’autres instruments, par exemple sur les violons, cela n’aurait pas donné la même couleur. Pour obtenir ce statisme j’ai choisi des intervalles pas très tendus, comme les quartes ou les secondes majeures. Donc c’est aussi un type d’expression musicale extrêmement précis pour moi, et pourtant j’ai beaucoup de mal à en parler avec d’autres mots que ceux qui servent à le décrire. Vous savez, je me souviens d’un fragment de correspondance entre Beckett et, je crois, Roger Blin sur En attendant Godot, où Blin demande à Beckett qui est Godot, qui sont Estragon et Vladimir, qui attendent-ils, et Beckett de répondre « je ne sais pas qui ils sont, je ne sais pas pourquoi ils attendent. » Donc, il n’y a rien derrière ! Par contre tout est dans le texte. Je dirais que c’est un peu la même chose avec la musique. Je ne sais pas ce que la musique exprime, mais elle exprime assurément quelque chose. On reçoit une émotion et on ne sait pas pourquoi. Mais la musique exprime quelque chose qui, fondamentalement, est elle-même. Mais c’est une expression. Ce n’est pas abstrait, ce n’est pas des mathématiques.

Bien que tu aies trouvé l’ordinateur comme un instrument de travail, tu travailles – comme peu de compositeurs d’aujourd’hui – aussi avec l’orchestre. Alors qu’est-ce qui te fascine dans l’orchestre considéré comme instrument.

Je dis toujours que l’orchestre est pour moi le plus beau son qui existe. Toute ma vie de compositeur, j’ai voulu aller vers l’orchestre. J’ai composé assez peu de musique de chambre, excepté avec l’électronique qui est pour moi aussi une sorte d’orchestre. L’orchestre est un instrument totalement fascinant, qui a beaucoup évolué, mais en plus, si on veut le considérer d’une manière nouvelle, c’est un instrument qui a beaucoup d’avenir. Alors le problème, justement, est que d’une manière générale, les orchestres sont considérés comme des outils appartenant au 19e ou au début du 20e siècle, disons à une époque passée. Ce que je fais pour la pièce que je suis en train d’écrire, c’est déjà de disposer l’orchestre différemment pour créer des expressions musicales, des musiques que l’électronique ne pourra jamais donner. Et en plus, ce qui me passionne beaucoup, c’est l’idée que l’orchestre peut parfois parler d’une même voix, mais peut aussi être 80 ou 90 individus, suivant la manière dont on le traite. Si l’on veut faire jouer à chacun des séquences totalement individuelles, on peut créer des textures extrêmement complexes. Donc l’orchestre est pour moi quelque chose de protéiforme, d’infini. Alors j’ai eu la chance d’avoir à Cologne comme partenaire François-Xavier Roth qui m’a donné cette possibilité d’écrire pour la salle de Philharmonie et de prévoir pour l’orchestre une certaine disposition. Savoir que même pour le chef et pour l’orchestre, c’est quelque chose d’intéressant, quand on sent que tout le monde est d’accord pour tenter cette expérience-là, c’est déjà extraordinaire. Malheureusement c’est assez rare, parce que la plupart du temps, quand on vous demande une pièce d’orchestre, en général on vous dit, voilà, il faut jouer une symphonie de Schumann après votre pièce, donc il faut que vous restiez dans la disposition de Schumann, il ne faut pas que votre pièce soit trop longue, un quart d’heure, car suivront telle ou telle pièce, donc on vous met des limites, des cadres, qui sont assez contraignants. Et cela ne m’intéresse pas trop, même si j’en fais de temps en temps. En revanche prendre l’orchestre comme outil et imaginer comment est-ce qu’on peut le disposer, tout en en gardant les mêmes musiciens, il ne s’agit pas de remplacer qui que ce soit par l’électronique, il n’y en a pas du tout dans Ring, ces mêmes musiciens vont après jouer du Mozart, même si cet orchestre est plus grand que celui de Mozart, mais il pourrait jouer une symphonie de Mahler ou de Bruckner, donc au niveau du nombre de musiciens je ne rajoute rien, ni électronique, ni des tam-tam africains, je garde l’orchestre tel qu’il est, par contre je le dispose différemment. Car je veux créer un monde sonore dans lequel l’orchestre n’est pas juste un point sonore en face des auditeurs, mais que ceux-ci soient à l’intérieur de l’orchestre. C’est impossible de mettre beaucoup de gens à l’intérieur de l’orchestre, en revanche on peut mettre l’orchestre autour du public, et créer ainsi des polyphonies que l’on n’a jamais imaginées encore. Car quand tout le monde est concentré dans le même endroit, les voix se mélangent et on n’arrive pas à les distinguer. Mais dès qu’on écarte les musiciens, dès qu’on dispose différents groupes de musiciens dans l’espace, on permet d’entendre les polyphonies différemment. Donc je dirais que – si l’on faisait les choses bien – l’orchestre n’en est, d’un certaine manière, qu’à ses débuts. Ce n’est pas la fin de l’orchestre, c’est le début. Mais pour cela, il faudrait une volonté politique d’organisation, il faudrait des chefs d’orchestre qui acceptent ce genre de propositions, des musiciens qui acceptent, des salles qui soient adaptées…, quand toutes ces conditions sont réunies, c’est magnifique, c’est magique ! Malheureusement, ce n’est pas souvent le cas. L’orchestre est maintenant trop souvent considéré comme un objet de musée. Cela fait 150 ans qu’on le dispose de la même manière, comme si seule celle-là était la bonne ! C’est très bien, évidemment, de jouer du Brahms ou du Beethoven, ce n’est pas la question, mais je crois qu’avec cet outil on peut aller beaucoup plus loin qu’on ne l’a fait jusqu’à présent.

Je reviens au début de ta réponse quand tu as dit que le son d’orchestre était pour toi le plus beau son du monde. Quel son d’orchestre a imprégné ton imagination ?

Il est vrai que je suis très attaché à l’orchestre romantique et postromantique. Je ne suis, par exemple, pas très attaché à la musique baroque, je l’avoue. J’écoute assez peu Haendel, chez Bach j’aime beaucoup les œuvres pour clavier, mais je n’écoute pas souvent ses Concertos brandebourgeois, par contre très volontiers l’orchestre classique de Mozart, Haydn et Beethoven. Puis ce qui m’a vraiment fasciné, ce sont deux compositeurs qui ont inventé l’orchestre moderne, Berlioz d’abord, mais plus au niveau de l’imagination orchestrale que de celui du discours musical, et surtout Wagner. Lui a vraiment fait décoller l’orchestre à un point incroyable. Il a traité cet outil vraiment comme une matière sonore, ce que peu de gens ont fait après lui ! Prenez le début de Lohengrin qui est dans l’extrême aigu. Qui a fait cela avant lui ? Personne ! Qui l’a fait après lui ? Personne. Si, il faudra attendre Ligeti, Stockhausen, Boulez après la Seconde guerre mondiale. Si l’on prend le Prélude de Parsifal, on a vraiment une musique en fusion dans laquelle il est presque impossible d’identifier quels sont les instruments qui jouent ! Donc chez Wagner – mis à part, évidemment, le génie dramatique – l’imagination sonore est vraiment extraordinaire. Donc cette période là m’a beaucoup intéressé, j’ai beaucoup étudié Mahler et Strauss, et puis un compositeur sur lequel je passe de plus en plus de temps, c’est le dernier Debussy. JeuxLa Mer, les Images pour orchestre, c’est pour moi quelque chose de vraiment mystérieux. Ravel m’intéresse moins. Il est très virtuose, c’est un technicien magnifique de l’orchestre, mais je le trouve moins inventif que Debussy. Par contre Debussy est, selon moi, le premier compositeur à avoir imaginé justement que l’orchestre pouvait être autre chose qu’un orchestre romantique (celui de Wagner, Mahler et Strauss), dans lequel les cordes étaient la composante principale. Dans Jeux, dans La Mer ou même dans les Images, il y a comme une mise en abyme, c’est-à-dire que les flûtes, les trompettes, les bassons, les clarinettes sont souvent aussi importants que les cordes. Debussy a réussi à casser cette hiérarchie pour créer une esthétique sonore totalement nouvelle. Et cela m’influence beaucoup même aujourd’hui. C’est pour moi un très grand modèle.

Tu as parlé de l’avenir de l’orchestre et tu as dit qu’un possible avenir serait que le public fasse partie de l’orchestre, soit placé à l’intérieur de l’orchestre. Ça veut dire que tu voudrais aussi surpasser une certaine hiérarchie, qui était toujours là…

Oui, il est intéressant de brouiller cette hiérarchie qui impose que la musique ne nous vienne que d’un point qui est en face de nous. Et ce qui est intéressant avec la musique électronique, c’est que celle-ci sort d’un haut-parleur, et… qui joue ? On ne sait pas ! C’est un mystère. Quand on voit un violoniste jouer, on comprend pourquoi on entend cette musique-là, parce que on connaît les gestes. Avec la musique électronique, on ne sait pas. Il y a donc une partie de mystère et même de magie qui se crée. Avec l’orchestre tel que je l’imagine dans Ring ou même dans In situ, il va y avoir ce même « effet » parce que certains musiciens seront placés derrière le public. Donc les gens ne pourront pas les voir jouer la musique qu’ils vont pourtant entendre. La différence entre le regard et l’oreille, c’est que le regard est directif. Par contre avec les sons, c’est un peu comme dans la mécanique quantique selon laquelle une même particule peut se trouver dans deux endroits à la fois. Ça paraît paradoxal, mais si l’on se représente la matière non pas sous forme de particules mais en termes d’ondes, ça se conçoit très bien. Le son se décrit par une onde. Si j’écoute une musique même dans une salle normale, la musique vient d’un endroit mais elle est reflétée par un mur et va dans un autre endroit et ainsi de suite, donc elle me vient de partout. Le son est partout. Cela m’intéresse beaucoup, notamment pour Ring, car une partie de l’information va venir de l’orchestre et du chef qui dirige, et que l’on verra, mais une autre partie de la musique qui, dirigée elle aussi, ne sera pas vue par le public. Elle ne sera donc pas perçue de la même manière. Le public sera à l’intérieur du son, et non juste spectateur extérieur. C’est un enjeu intéressant que de faire exister ainsi des structures musicales beaucoup plus mystérieuses. Voilà sur quoi je réfléchis beaucoup quand je compose.

Faire exister de la musique dans l’espace crée toujours des problèmes. Pourquoi le fais-tu quand-même ?

Les problèmes, il faut s’en occuper, il faut les résoudre, justement. Alors je ne compose pas de musique spatialisée, comme en faisait par exemple Stockhausen, ou Emmanuel Nunes aussi, qui était aussi un spécialiste de cela. Je ne considère pas l’espace comme un élément de composition aussi important que les hauteurs, les timbres ou le temps. En revanche, je pense que l’endroit d’où vient la musique importe. L’espace n’est qu’un medium qui porte l’information qu’envoie une trompette ou un violon jusqu’à nos oreilles. Dans la musique électronique par exemple, j’ai des outils qui me permettent de simuler qu’un son vient d’une distance de 20 mètres et qui se rapproche petit à petit. La manière dont on va le percevoir dépendra donc de sa distance. Je pense soudain à un exemple qui vient de la littérature, de Proust : quand le narrateur voit les jeunes filles sur la plage, elles sont très loin, il sait à peu près qui elles sont mais n’arrive pas à les distinguer. Est-ce Albertine, est-ce Madame une telle, ou telle autre ? Et comme il ne les voit pas bien, il imagine. S’il les voyait, il n’imaginerait pas. Et le fait de les imaginer le fait réfléchir à qui elles sont ; à comment elles se ressemblent et comment elles ne se ressemblent pas. Donc là, tout un processus d’imagination se déploie parce qu’il ne les voit pas bien. Et c’est la même chose avec la musique dans l’espace. En mettant les musiciens dans l’espace et en les rendant pour ainsi dire invisibles ou du moins lointains, comme je vais le faire, les auditeurs ne vont pas identifier d’entrée de jeu les sons des instruments, mais vont entendre quelque chose de plus mystérieux sur quoi ils ne pourront pas facilement mettre un nom. Là, la perception esthétique des auditeurs va être puissante, enfin, je l’espère. Car dès que l’on peut nommer, identifier, se dire que ceci est rouge, cela est bleu, ou vert, etc., on en est pour ainsi dire quitte. Mais quand c’est, bleu-vert, jaune-orange, bref, incertain, difficile à dénommer, à étiqueter, cela suscite déjà une perception beaucoup plus complexe, plus fascinante. Alors tu dis que distribuer la musique dans l’espace pose des problèmes. Bien sûr. Or cette pièce-là, Ring, je l’ai imaginée pour la Philharmonie de Cologne, mais si l’on veut la jouer dans une autre salle – ce que j’espère -, on ne pourra pas avoir exactement les mêmes dispositions. J’ai donc intégré cet aspect-là dès le départ. À Cologne, il y aura un orchestre au centre, de petits groupes de musiciens au-dessus de l’orchestre et un anneau de musiciens autour du public. Mais dans d’autres salles, on pourra tourner. Il n’y a pas d’indication stricte sur la disposition des groupes. En revanche, leur contiguïté doit absolument être respectée ; comme dans une circonférence définie par de points A, B, C, D, E, F, G. Mais que le point A soit en face du public ou sur les côtés, cela n’a guère d’importance. Donc j’essaie de faire en sorte que ce problème-là par rapport aux configurations spécifiques des salles ne se pose pas, je l’intègre d’emblée dans la dramaturgie de la pièce, en lui laissant assez de souplesse et la rendant assez modifiable.

Parlant de la Philharmonie de Cologne, comment trouves-tu cette salle ?

Je la trouve magnifique. Elle est belle, on s’y sent bien, elle sonne très bien, et en plus elle a un côté très chaleureux. Et puis, elle est extrêmement pratique ! Elle permet d’imaginer et de réaliser plein de choses. Pour une pièce comme celle-là…, enfin, on peut y faire ce qu’on veut ! Et cette idée que j’ai eue pour Ring, de placer les auditeurs au centre d’un anneau, lui va bien car ce n’est pas une salle éclatée dans toutes les directions. Dans d’autres salles, on ne pourra pas le faire aussi facilement. Dans la salle de Cologne, il y a ces deux balcons, celui réservé aux étudiants, et l’autre pour les gens qui arrivent en retard, toutes ces nacelles au-dessus, et il y a beaucoup de place derrière. Comme il y a la Symphonie n° 40 de Mozart qui va être jouée au même programme ainsi que quelques-uns de ses airs de concert, j’ai conservé l’orchestre de Mozart au centre. C’est-à-dire les bois par deux, deux cors et les cordes. Alors il faudra peut-être mettre un peu plus de violons, il y aura aussi trois percussions, un piano et une harpe. Mais j’ai tenu à garder l’image de Mozart dans l’orchestre qui est au centre.

Y a-t-il dans Ring aussi une allusion à Wagner ?

Non, pas du tout. On me pose souvent cette question. Désormais, je n’ai qu’à répondre qu’il faut lire le titre en anglais ! (Rires)

François-Xavier Roth t’a invité à travailler plusieurs œuvres avec notre orchestre. Qu’est-ce que cela te fait d’avoir la possibilité de travailler en continu avec un orchestre et son chef ?

Je connaissais l’orchestre de réputation, bien sûr, mais je n’ai encore jamais travaillé avec lui, donc je n’ai pas encore d’expérience. Ce que j’en sais, c’est que le Gürzenich-Orchester est destiné plutôt au répertoire symphonique traditionnel, alors que l’autre orchestre, avec lequel il se partage la salle, celui de la WDR, est davantage orienté sur la musique de notre temps. À vrai dire, j’avais un peu peur que ça crée des étincelles, qu’une rivalité se déclenche, mais finalement, ça c’est très bien passé et ça se passe toujours très bien. Quant au chef, François-Xavier Roth, c’est lui qui a créé In situ ; je l’avais écris pour lui quand il était à la tête de l’orchestre de la SWR de Baden-Baden et l’Ensemble Modern. C’est un chef qui – chaque fois que je le vois diriger – affirme de plus en plus sa personnalité. De surcroît, il est aussi à l’aise dans le répertoire classique que dans le répertoire contemporain. Un matin, il m’a appelé et m’a demandé si je ne voudrais pas écrire une pièce pour l’orchestre de la SWR et l’Ensemble Modern. Je n’ai même pas réfléchi, j’ai dit oui. (Rires) Pour moi, c’est un très grand plaisir de retravailler avec lui, nous nous connaissons très bien et je sais qu’il va très bien défendre Ring.

Tu avais parlé de magie. Lachenmann parle souvent, lui aussi, de la magie de la musique, aussi comme des reliques (?) dont l’écoute est attachée (tributaire ?). Est-ce que des souvenirs sonores jouent un rôle dans les pièces que tu écris, comme chez lui ?

Ce ne sont pas des souvenirs sonores très particuliers, ou concrets, qui jouent un grand rôle. Ce sont plutôt des images sonores qui me viennent, comme celle de l’orchestre comme d’une figure qui peut se démultiplier. Par exemple, la fin de Ring est un adagio très lent, la noire à 46, c’est une musique qui part d’une seule voix qui va se démultiplier, qui semble retourner toujours sur la même image, mais la démultiplie. Et cette image qui a présidé à la composition de Ring, c’était celle que nous connaissons tous, quand on jette une pierre dans l’eau, ça crée des anneaux ou des cercles concentriques sur la surface de l’eau, comme des vagues qui partent du centre et qui s’écartent. Ce sont des anneaux qui ne cessent pas de naître d’autres anneaux. On va donc entendre dans Ring plusieurs fois, du moins je l’espère, les retours sur le même qui, cependant, ne cessera de s’agrandir en se développant continuellement. On percevra comme des rappels, du « déjà entendu », mais ces retours ne conduiront jamais l’auditeur au même endroit. Ils seront emmenés toujours plus loin. Donc, il ne s’agit pas chez moi d’une magie qui, comme chez Lachenmann, est liée à des souvenirs sonores précis. La magie dont je parlais tout à l’heure est liée à l’image, absente ou invisible, de la source ou de la provenance d’une forme que pourtant on perçoit clairement.

Tu dis que nous en sommes au début d’un avenir de l’orchestre, ou d’un devenir de l’orchestre. Comment est-ce que tu regardes la situation du rituel ou de la forme du concert ? Est-ce qu’on peut changer cela ?

Oui, absolument. Du moins on le devrait.

Pourquoi ?

Je ne dis pas qu’il faut arrêter le concert tel qu’il a été conçu il y a fort longtemps. Mais il faut vraiment que l’on puisse aussi explorer de nouvelles possibilités. L’orchestre n’est pas fait pour jouer uniquement de la musique du 18e, du 19e et du début du 20e siècle. Ce serait vraiment trop triste. Il suffit de penser qu’on a 90 musiciens et qu’on les fait asseoir toujours de la même manière. Ce sont des standards : les bois derrière, les cuivres derrière, les percussions derrière, les cordes au devant, où que l’on aille, à Chicago, à Seoul, à Tokyo, Londres, Paris ou Berlin, l’orchestre est disposé toujours de la même manière. Ce n’est quand même pas pensable qu’il n’y ait qu’une seule manière d’imaginer l’orchestre ! Il faut créer de nouvelles manières ! En plus, ça donnerait au public une image de l’orchestre beaucoup moins stéréotypée. Ce qui dans les concerts d’orchestre pose problème, c’est justement cette relation sociale. La musique symphonique – on le sait – reste réservée plutôt pour la bourgeoisie ou pour les classes aisées, autrefois c’était surtout l’aristocratie le public habituel, comme si c’était une musique faite pour une classe sociale particulière. Non. Cette musique est composée par des artistes, des compositeurs, des musiciens inventeurs, elle est jouée par des musiciens interprètes, et elle peut être écoutée par n’importe qui, par tout un chacun. Il faut casser ce « mariage forcé » ! Et une des manières d’y arriver est justement de proposer une image de l’orchestre différente de celle du rituel auquel ou est tant habitué ; avec le public qui s’installe, l’orchestre qui arrive, qui s’accorde, le chef qui rentre, les applaudissements, etc., et le déroulement propre du concert avec l’ouverture, le concerto et la symphonie, etc. Donc casser cette habitude-là, ce qui ne veut pas dire qu’il faut abandonner le répertoire, bien sûr que non. Il faut que l’orchestre continue à jouer Bruckner, Mahler, Brahms, Debussy, c’est très bien. Mais il faut maintenant pouvoir le mettre aussi dans des situations moins stéréotypées et ne pas se contenter de la reproduction du même. Je suis très intéressé par le théâtre – je vais d’ailleurs bientôt en faire une nouvelle expérience avec le metteur en scène Nicolas Stemann – et je trouve que le théâtre a réussi beaucoup mieux à casser ses propres modes de fonctionnement. On ne joue plus Tchekhov (Tschechow) comme on le jouait au 19e et au 20e siècle. Je ne dis pas qu’on le jouait mal ! On ne joue plus les classiques du 18e et du 19e siècles comme on les jouait à l’époque. On en repense la présentation, or les textes restent toujours les mêmes. On ne va pas s’amuser à réécrire les phrases de Molière, de Goethe ou de Büchner. Mais la manière dont ces pièces sont présentées – au risque de faire un théâtre poussiéreux – est beaucoup plus adaptée à l’imaginaire des spectateurs d’aujourd’hui. Or en musique, surtout dans la musique savante, on a beaucoup de mal à faire évoluer les formes de présentation, les choses restent très figées, très ancrées dans ce qui est, selon moi, moins un rituel que simplement une convention. Alors je n’ai rien contre le rituel. Je ne suis pas particulièrement religieux, mais le rituel peut avoir quelque chose de magique, de sacré, une fonction cathartique, etc., mais la forme de présentation de la musique savante n’est pas vraiment de cet ordre-là. C’est une convention sociale surannée.

Ce moment de silence avant la musique et après la fin de la musique, n’est-ce pas là un rituel ? Ce sont des seuils, un seuil est le silence au début avant que le chef ne commence à diriger, l’autre seuil avant que le public n’applaudisse.

Oui. Mais moi, j’ai justement cassé ce rituel du début. Et j’ai pris cette idée dans le théâtre, justement. Il y a un metteur en scène à Berlin que j’aime beaucoup, c’est Thomas Ostermeier, dont j’ai vu plusieurs représentations de pièces qu’il a montées, d’Ibsen, de Shakespeare, Tchekhov, aussi La Mort à Venise d’après Thomas Mann. Quand on arrive dans son théâtre, les comédiens sont déjà sur scène et ils parlent. Ou ils marchent, ils sont déjà là, il n’y a pas les trois coups, le rideau qui se lève, donc il y a tout de suite une proximité qui se crée, et on sait que la pièce va nous parler de manière plus directe, plus vraie. Et c’est ça que j’aimerais obtenir avec le début de Ring. Les gens vont rentrer dans la salle, ils vont se parler et ils vont se retrouver d’emblée à côté des musiciens, qu’ils vont voir de près, certains seront derrière, d’autres devant eux, et ils vont les entendre jouer, comme ça, des bouts de musique. Et j’aimerais bien que ça soit même un peu désordonné. J’ai composé quelque chose de très ordonné, parce qu’il faut que ce soit mesuré dans le temps, mais je voudrais que ça donne l’impression d’un petit désordre un peu intrigant. Il n’y aura donc pas de vrai début. J’espère que ça peut créer un sentiment différent de ce que le public peut éprouver d’ordinaire. En plus on va faire ce dégradé de lumières qui va, petit à petit, faire comprendre aux gens que la pièce va commencer, qu’elle a déjà commencé ; et qu’ils ne s’en sont pas aperçus. Ils seront déjà dans la musique. Il n’y aura donc pas d’applaudissements quand François-Xavier va rentrer et partir de cette musique un peu aléatoire, un peu chaotique, et se mettre à la construire.

En revanche à la fin, il y aura une fin, car il en faut une. Donc j’aimerais bien – si ça fonctionne, on va voir – que cette dramaturgie-là suscite chez les auditeurs une disposition d’esprit et d’écoute différente, qui n’obéit pas ou ne ressemble pas à une convention existante. Tout à l’heure on a évoqué Wagner. S’il y a quelqu’un qui a brisé les conventions, c’est bien lui. Les prima donna et les applaudissements après les arias – il n’y en aura pas ! Ce que je vais vous faire écouter, leur disait-il, ce n’est pas du divertissement ! No entertainment ! Pour les gens qui veulent écouter Madame une telle faire son contre-ut … non, non, non, vous allez écouter une œuvre, une musique qui ne va pas s’arrêter pour que vous applaudissiez. Cela crée quand même un rapport à l’œuvre autrement plus intense. Voilà. Il n’y aura jamais assez de révolutionnaires en art !


Entretien réalisé à Strasbourg le 29 février 2016


Lire aussi “La trilogie Köln


Wednesday, July 1st, 2015



The architectures of the new symphony halls now being built in most of the great capitals of the world are among the most daring buildings of our time. Ignoring the principles based on which symphony halls used to be built, they provide entirely new viewpoints (as well as listening points). Built mostly during the 19th and early 20th centuries, the older halls were designed to accommodate the larger orchestras required by Postromantic works as well as the growing audience of symphonic concerts. In most cases the shapes of those halls were simple rectangular parallelepipeds on one of whose sides stood the stage, while the great majority of the audience sat in the space facing the stage, with in addition in some cases balconies at the far end and on the sides. The reason for this standardized shape is not random: it privileges a frontal perception of music that is the very basis of the sound constructions created by Classical and Romantic symphonies.[1] The arrangement of the orchestras also satisfies criteria related to this frontal principle: the louder instruments (percussions and brass) are placed at the back, while woodwinds are placed forward and higher up, and the strings are in the foreground. Another criterion is numerical: there are fewer low-pitched instruments than high-pitched instruments, whose spectrum is more limited. 32 violins to 8 double basses is a typical ratio. Such orchestras produce highly hierarchical sound constructions. Instruments are gathered together to form “families,” and even within each family, the woodwinds for example, identical instruments (flutes, oboes, clarinets, etc.) are also gathered together. During that entire age homogeneity was the golden rule that determined the ideal sound image. Classical and Romantic music imposed the hegemony of string instruments over the rest of the orchestras, and that hierarchical organization was also observed in the very make-up of instrument groupings. It is well-known that in the Classical age viola players were failed violinists, while double bass players were failed cellists. While absolutely necessary to the construction of symphonic sound, violas and double basses never played the most important parts.

Without attempting a simplistic analogy between orchestra and society,[2] it can be said that orchestras were often viewed as mirror images of the bourgeois European societies of the 18th and 19th centuries. The gradual emancipation from the hierarchical constraints that ruled with an iron fist the sound canons of that age goes back to the very end of the 19th and the beginning of the 20th centuries. Wagner’s orchestra–as fusional as ever was an orchestra–attempted to do away with the excessive unbalance among families of instruments. The famous orchestra pit of the Festspielhaus at Bayreuth, which places the orchestra underground, below the stage, produces a global sound with such a degree of fusion that it is almost impossible for the audience to determine whether, for instance, the flute is located on the right or left side.[3] From this perspective Parsifal’s orchestration, just like that of most of Wagner’s later works, ensures a brilliant match between sound and architecture. The works of Mahler and Strauss also give increasing importance to the expression of individual instruments, while still allowing, as in Wagner, for highly massive sound events. But the clearest “redistribution of the roles,” no longer assigned mainly to string instruments but also found in all the other families, is heard in Debussy’s works. From this specific perspective Jeux is the most premonitory work.

This example was not ignored by the generations of composers that followed Debussy, and their attempts to pursue this direction were met with some success. Those approaches appeared to take a decisive turn in the 50s and 60s. Stockhausen’s Gruppen, and later Carré, Xenakis’ Terretektorh and Nomos Gama, Boulez’s Figures-Double-Prisme, tried each in its own way to redefine the orchestra in its internal arrangement as well as placement relative to the audience. At the time it was believed that the musical world was finally about to shake off its drowsiness, as did the world of theater and dance, which was seeking emancipation from Classical frontal principles. Unfortunately, tradition, which in Mahler’s words is sometimes nothing more than a set of bad habits, crushed those attempts at emancipation. If required, a convention hall could be converted, or an orchestra moved to a “neutral” venue to allow for a chosen spatial arrangement, but those were only isolated attempts. We must recognize that neither Berlioz’s Requiem nor Mahler’s placement of brass orchestras in the wings, Charles Ives’ attempts at a construction of space, or the experiments pursued by composers during the postwar years were able to found any kind of tradition. As brilliant as some of them may have been, all those experiments were only isolated cases without continuity or consequences.

Today the frontal principle faces a surprising paradox. The new halls, designed for the same repertory as older halls (from this perspective pop music or jazz, now often welcomed by those halls, bring nothing new) provide spatial arrangements that radically disrupt the position (the “listening point”) of part of the audience. An orchestra placed at the center of the stage, for instance, makes it possible for the listeners sitting in the gallery to face the conductor, but at the cost of a great unbalance in sound perception: to them brass instruments (because of the direction of the horns) sound louder than do violins, while percussions, also placed in the foreground relative to the listeners, overhang the rest of the orchestra. This is only one example of today’s domination of visual over auditory criteria, or rather the sacrifice of the auditory to the visual realm.

I would like to approach this problem differently. My questions are the following: Isn’t there another valid way to place symphony performers than the way we have been familiar with for almost two and a half centuries? Should we keep cultivating forever this hierarchical “symphony sound” that is the legacy of the Classical and Romantic traditions? Shouldn’t we be able to express ourselves through a resolutely contemporary esthetic and finally leave behind us the codes modelled on an outdated social order? Isn’t it time to consider new sound esthetics that would derive their wealth and power from diversity and multiplicity and, instead of isolating the audience in the periphery, would welcome it at the center? Couldn’t those united families of instruments, highly homogenized according to venerable ancient designs, carry a new wealth of sound once disunited (though not disconnected!) and more freely spread out into space? Now that those new halls exist, isn’t it time for them to serve as settings for new works that finally fit them?

What I would like to propose is not so much a spatial arrangement as sound effect as it is a new conception of sound, less hierarchical and “symphonic.” By placing musicians around the audience, my goal will not be to add another spectacle to the “spectacle” of the concert itself, but to create a sound paradigm that has not yet been attempted. Fusional sound found its apex in the works of the composers of the spectral trend who, each in his own way, pursued the old Wagnerian dream of a single undivided sound. Now is the time for multiplicity to speak, not in a single voice, but in a multitude of voices. This challenge, however, also involves risks, one of which is an esthetic (poetic) of sound mass, and its direct corollary: global perception. Xenakis successfully explored those territories, but his purely probabilistic conception of music precludes any form of true polyphony.[4] “Polyphony,” in a very broad sense of bringing together heterogeneous temporalities, encourages the listener to enter deep inside the sound structures from which emerge the complexity of their textures as well as the variability of their constituent relationships. We cannot be at the same time inside and outside, just as we cannot stand from our window and watch ourselves walk in the street. Another risk would be, by seeking to loosen the homogeneity of traditional sound families, to create new families. This is even a dual risk, since from the perspective of their architectures the new symphony halls are highly dissimilar. True, a few similarities (or even imitations) are observed among some halls, but we must recognize that they are not based on the same criteria. To return to rigid and overly strict conceptions of spatial geometry (as in the case of works such as Gruppen, but also my own composition In situ) would make it impossible to perform works in a large number of concert halls. We should therefore take care to avoid replacing one norm by another just as constraining. We should think in terms of modularity in the composition of works, and not give space a status other than its own: an environment for the propagation of sound. In the same way that the forms of time should not be reified, neither must the forms of space.[5] Groups of instruments chosen to constitute those “temporary families,” whether homogeneous or heterogeneous, can be placed according to considerations that will vary depending on the architectures of concert halls. If those groups are impossible to place on the right side, then they will be placed on the left.

The heterogeneous dimension of sound is strongly underlined by the latest research on the constituents of sound, which could be brought to the fore only by computer science. We misunderstand the role of computer science when we view it only as a means of sound production (through synthesis, spatial arrangement, transformation, etc.), while ignoring its abilities as an instrument of analysis and knowledge of sound. Audio descriptors have reinforced our awareness of a plurality of behaviors in sound, while history has made us realize its fusional nature. Roughness, inharmony, noise, brilliance, whisper, friction, and perforation have found their place in the list of the descriptions of what constitutes sounds. I could also refer to “sound attractors” and Generative Musical Grammars as instruments both conceptual and compositional of a rethinking of orchestral sounds outside traditional categories. Rather than fusion and hierarchy, the guiding principles of my Köln Trilogy will be the diversity and multiplicity of sound behaviors.

Articulated around In situ, first performed in 2013 at the Donaueschinger Musiktage by the Ensemble Modern and the SWR Sinfonieorchester conducted by François-Xavier Roth, the Köln Trilogy will begin with Ring, a 36 minute-long piece, and end with X[6], a composition for a large orchestra joined by a choir and a few singers and actors, as well as electronic music performed in real time. The three pieces of this cycle will first be performed respectively in 2016, 2017, and 2018 by the Gürzenich-Orchester Köln led by its own conductor, François-Xavier Roth, in Cologne’s Symphony Hall.

The spatial arrangement for the first piece, Ring, will be the following: as a symbol of past history, a small Mozart-type orchestra will take up the stage proper, while different groupings will be distributed in several areas of the hall. Two groups of 9 performers on the right and left sides (amounting to 6 trios) will be placed in loggias in elevation behind and overhanging the orchestra, while 2 other groups of around 10 musicians will take up the side gondolas usually reserved for students (on the right) or late-comers (on the left), and 4 groups will be placed in the back of the hall in a single elevated row. Each of those groups will be heterogeneous, that is, made up of instruments from different families. This sound “ring,” so arranged in Cologne, can be distributed on different levels in other concert halls, provided that the contiguity of the different groups is preserved. A light scenography will support the unfolding of the composition. When the audience enters the hall, the different groups will already be in place. Each group will be provided with a small video monitor, which from time to time will display a digit, signaling for the group to perform a short sequence as a subliminal anticipation of upcoming musical material. For instance, when the digit 1 is displayed, Group A will perform a given sequence; when 2 is displayed, so will the rear groups; when 3 is displayed, so will one of the side groups, etc. Meanwhile the central orchestra will take its place on stage and, during the tuning process (tuning keys will be supplied to every performer, because the oboe will not provide a sufficient reference for the entire tuning), a fairly legible sound texture will begin to emerge. The music has therefore already begun, and the lowering of the hall lighting will indicate the “true” beginning of the piece. There will therefore be no applause upon entrance of the performers. Thus will emancipated music evolve, and within this context the conductor (already sitting in the middle of the orchestra, to preclude any applause) will emerge to take the work, now rigorously and tightly structured, into his hands, and bring it to an end.



Philippe Manoury

Strasbourg, June 2015

(Traduction Jean-Louis Morhange)



[1] In the Baroque and pre-Baroque age spatial distributions of orchestras were not uncommon. The best-known example is Giovanni Gabrieli’s placement of brass bands at the four corners of St Mark’s Basilica in Venice; but we also know that the choir arrangements in Bach’s Passions were not frontal.

[2] Federico Fellini developed this analogy brilliantly in his film Prova d’orchestra.

[3] We know that this stroke of genius was in fact a cast of the dice. While posted in Riga, Wagner had been struck by the sound of an ensemble in a hall with a very low ceiling. This discovery inspired him to take the risk to design the orchestra pit. This initiative could have failed. In it, genius met intuition. Having had the chance to attend entire acts from the pit and from the hall, I was surprised to observe how the dry and analytical sound heard from within the pit becomes when heard from the outside a truly alchemic and miraculous synthesis.

[4] His piece Nomos Gamma, where the audience sits freely among the performers, is very ambiguous on this level. Its musical figures, designed to serve only a global purpose and without their own intrinsic values, are foregrounded due to the fact that, if the listeners sit next to the bassoon, the detail of its part, which is not supposed to be more important than others, appears “inflated.” The paradox is that to experience the entire work properly, rather than a mere detail, the listener would have to be at the same time inside the orchestra (this is the reason for being of the piece) and far away from each performer.

[5] It is impossible to recognize spatial forms with the same sharpness as melodic or rhythmic forms. Beyond identifying primary forms such as rotations, panoramic movements, and zigzags, the human brain is unable to recognize more complex forms. Even the shape of a sound that turns around the listener is perceived identically whether it is a circle or a square.

[6] The title of this final piece is yet to be determined.

La Trilogie Köln

Tuesday, June 9th, 2015

…ou comment repenser l’orchestre pour les nouvelles salles de concert.


Les architectures des nouvelles salles de concert symphonique que l’on voit s’ériger dans la plupart des grandes capitales mondiales figurent parmi les constructions les plus audacieuses de notre époque. Tournant le dos aux principes des salles historiques du passé, elles offrent des points de vue (des points d’écoute également) tout à fait nouveaux. Ces dernières, construites pour la plupart au cours du XIXe et au début du XXe siècle, ont été conçues pour satisfaire à l’élargissement des formations que requéraient les œuvres du postromantisme ainsi qu’à l’accroissement des publics des concerts symphoniques. Dans la plupart des cas, les formes de ces salles-là se limitent à de simples parallélépipèdes rectangles dont un des côtés est occupé par la scène, la grande majorité du public occupant l’espace qui lui fait face, avec parfois des balcons au fond et sur les côtés latéraux. La raison de cette forme standardisée n’est pas fortuite : elle favorise globalement une perception frontale de la musique, perception qui est à la base même des constructions sonores produites par les orchestres symphoniques classique et romantique[1]. L’organisation de l’orchestre obéit, elle aussi, à des critères qui relèvent de cette frontalité : les instruments les plus sonores (les percussions et les cuivres) sont disposés à l’arrière, les bois sont surélevés à l’avant, et les cordes sont au premier plan. Autre critère : le nombre. Les instruments aigus, dotés d’un spectre plus limité, sont en plus grand nombre que les instruments graves. Il arrive fréquemment que l’on ait 32 violons pour 8 contrebasses. Le son qui provient de ces orchestres est une construction sonore extrêmement hiérarchique. Les instruments sont rassemblés en « familles », et même à l’intérieur d’une famille, comme par exemple celle des bois, les individus (les flûtes, les hautbois, les clarinettes…) sont regroupés à leur tour. L’homogénéité a été durant toutes ces époques la règle d’or de l’image sonore idéale. La musique classique et romantique a imposé une hégémonie des cordes sur le reste de l’orchestre, et cette organisation hiérarchique se retrouve également dans la constitution même des groupes d’instruments. On sait qu’à l’époque classique les altistes étaient des violonistes qui n’avaient pas réussi, tout comme les contrebassistes – des violoncellistes ratés. Ces instruments, absolument nécessaires à la construction du son orchestral, ne jouaient jamais les parties les plus importantes.

Sans chercher à dresser un parallèle grossier entre l’orchestre et la société[2], il est vrai que le premier a souvent été considéré comme le miroir des sociétés européennes bourgeoises des XVIIIe et XIXe siècles. La progressive « libération » des contraintes hiérarchiques qui tenaient d’une main de fer les canons sonores de ces époques date de la toute fin du XIXe et du début du XXe siècle. L’orchestre de Wagner – fusionnel s’il en fut – cherchait à éliminer les trop grandes disparités entre les familles. La fameuse fosse d’orchestre du Festspielhaus de Bayreuth, plongeant l’orchestre dans les sous-sols de la scène, renvoie un son global qui se construit à un degré de fusion tel qu’il est presque impossible pour le public de savoir si, par exemple, la flûte se trouve à droite ou à gauche[3]. L’orchestration de Parsifal, ainsi que celle de la plupart des œuvres tardives de Wagner, constitue de ce point de vue une adéquation géniale entre l’architecture et le son. On voit aussi dans les œuvres de Mahler et de Strauss une place de plus en plus grande laissée à l’expression des instruments individuels, ce qui n’empêche pas, comme chez Wagner, la présence d’événements fortement massifs. Mais c’est chez Debussy que l’on entend le plus clairement cette « redistribution des rôles » qui n’est plus confiée principalement aux cordes mais s’applique à toutes les autres familles. Une œuvre comme Jeux est la plus prémonitoire de ce strict point de vue.

Un tel exemple n’a pas laissé indifférentes les générations de compositeurs postérieures à Debussy et les tentatives de poursuivre dans cette direction ont connu certains succès. C’est au cours des années 50 et 60 que les démarches ont semblé prendre une tournure décisive. Stockhausen avec Gruppen, puis Carré, Xenakis avec Terretektorh et Nomos Gama, Boulez avec Figures-Double-Prisme, ont, chacun à sa façon, cherché à redéfinir l’orchestre tant dans sa construction interne que dans sa disposition par rapport au public. On pensait alors que la société musicale allait enfin sortir de son engourdissement, à l’image du monde du théâtre et de la danse qui, à son tour, cherchait à s’émanciper de la frontalité classique. Las ! La tradition qui, pour reprendre l’expression de Mahler, n’est parfois qu’un cortège de mauvaises habitudes, a eu raison de ces volontés d’émancipation. Certes, s’il le fallait, on aménageait un Palais des Congrès ou bien on déplaçait un orchestre dans un « lieu neutre » afin de pouvoir le disposer à sa guise, mais ce n’étaient là que des tentatives isolées. Il faut se rendre à l’évidence, ce ne sont ni le Requiem de Berlioz, ni les dispositions des orchestres de cuivres dans les coulisses chez Mahler, ni les tentatives de spatialisation de Charles Ives, ni non plus les expérimentations des compositeurs des années d’après-guerre qui auraient réussi à fonder une quelconque tradition. Toutes ces expériences, aussi géniales fussent-elles pour certaines d’entre elles, n’ont été que des cas isolés, sans continuité ni conséquences.

La frontalité est aujourd’hui confrontée à un étonnant paradoxe. Les nouvelles salles, conçues pour accueillir le même répertoire que les salles anciennes (la pop music ou au le jazz qui s’invitent souvent dans ces salles n’apportent rien de nouveau de ce point de vue) offrent des dispositions spatiales qui bouleversent radicalement la place (le « point d’ouïe ») d’une partie du public. Un orchestre situé au centre de la scène, par exemple, a pour les auditeurs placés au « paradis » l’intérêt de pouvoir regarder le chef d’orchestre en face, mais cela, inévitablement, au prix d’un grand déséquilibre de l’écoute : ils percevront plus forts les cors (en raison de l’orientation des pavillons) que les violons, et les percussions, placées ainsi pour eux au premier plan, surplomberont le reste de l’orchestre. Ce n’est qu’un des exemples de la domination que le visuel exerce de nos jours sur le sonore ou, devrais-je dire, du sacrifice du sonore au visuel.

J’aimerais aborder ce problème d’une autre façon. Voici les questions que je me pose : N’existe-t-il pas une autre manière valable de disposer des musiciens d’orchestre que celle que nous connaissons depuis près de deux siècles et demi ? Doiton continuer à l’infini de cultiver ce « son philharmonique » hiérarchisé que nous ont légué les traditions classique et romantique ? Ne devrait-on pas pouvoir s’exprimer dans une esthétique résolument contemporaine et délaisser enfin les codes calqués sur l’ordre social de jadis ? N’est-ce pas le moment pour réfléchir à de nouvelles esthétiques sonores dont la richesse et la force viendraient précisément de la diversité et de la multiplicité, et qui, au lieu d’isoler le public à la périphérie, l’accueillerait au centre ? Ces familles d’instruments unies, très homogénéisés selon de vénérables desseins anciens, ne porteraient-elles pas une richesse sonore nouvelle une fois désunies (mais point désolidarisées !), dispersées plus librement dans l’espace ? Maintenant que ces salles nouvelles existent, n’est-il pas temps qu’elles servent d’écrins pour des œuvres nouvelles qui enfin leur correspondent ?

Ce n’est pas tant la spatialisation comme effet sonore mais une nouvelle conception du son, moins hiérarchique, moins « philharmonique », que je veux proposer. En plaçant des musiciens autour du public, je ne chercherai pas à ajouter du spectacle supplémentaire au « spectacle » même du concert, mais à créer un paradigme sonore qui n’a pas encore été tenté. Le son fusionnel a connu une apogée avec les œuvres des compositeurs de la tendance spectrale qui, chacun à sa manière, ont poursuivi le vieux rêve wagnérien d’un son un et indivis. Désormais c’est à la multiplicité de pouvoir parler, non d’une seule, mais d’une multitude de voix. Cependant ce défi comporte aussi des risques. L’un d’entre eux serait de tomber dans une esthétique (poétique) de la masse sonore et, son corollaire direct, la perception globale. Xenakis a exploré ces territoires avec le succès que l’on sait, mais sa conception purement probabiliste de la musique a rendu impossible toute forme de réelle polyphonie[4]. La « polyphonie », dans un sens très large comme une mise en commun de temporalités hétérogènes, invite l’auditeur à pénétrer dans la profondeur des structures sonores qui révèlent la complexité de leurs textures ainsi que la variabilité des relations qui les composent. On ne peut pas être à l’intérieur et à l’extérieur à la fois, comme on ne peut pas être à la fenêtre et se regarder marcher dans la rue. Un autre risque serait, en voulant desserrer l’homogénéité des familles sonores traditionnelles, d’en recréer de nouvelles. Ce risque-là est même double car, du point de vue de leurs architectures, les nouvelles salles de philharmonie sont fortement dissemblables. Certes, on voit parfois quelques similitudes (sinon carrément des imitations) d’une salle à l’autre, mais force est de constater qu’elles ne reposent pas sur les mêmes critères. Retomber dans des conceptions rigides et trop strictes de la géométrie spatiale (c’est le cas d’œuvres comme Gruppen, mais aussi de ma propre composition In situ) aurait pour conséquence de rendre impossible l’exécution des œuvres dans un grand nombre de salles. Il ne faut donc surtout pas substituer à une norme une autre norme tout aussi contraignante. Il faut réfléchir en termes de modularité dans la composition des œuvres et ne pas donner à l’espace autre statut que celui qui est le sien : un milieu de propagation. De la même manière qu’il ne faut pas chosifier les formes du temps, il ne faut pas non plus chosifier les formes de l’espace[5]. Des groupes d’instruments choisis pour composer ces « familles provisoires », homogènes ou hétérogènes, pourront être placés suivant des considérations variables en fonction des architectures des salles. S’il est impossible de les placer à droite, alors on les placera à gauche.

La dimension hétérogène du son est fortement mise en avant par les dernières recherches sur les constituants sonores que seule l’informatique a pu nous révéler. On méconnaît le rôle de l’informatique si l’on n’y voit qu’un moyen de la production sonore (synthèse, spatialisation, transformation, etc.), tout en négligeant ses capacités d’analyse et d’outil de connaissance sur le son. Les descripteurs audio ont renforcé en nous l’image d’une pluralité de comportements dans le son, tandis que l’histoire nous a fait prendre conscience de sa nature fusionnelle. Les rugosités, les inharmonicités, les caractères bruités, les brillances, les souffles, les frottements, les perforations se sont invités, parmi bien d’autres, dans la liste des descriptions de ce qui constitue les sons. Je pourrais également invoquer les « attracteurs sonores » et les Grammaires Musicales Génératives comme outils à la fois conceptuels et compositionnels pour repenser le son de l’orchestre hors des catégories traditionnelles. La diversité et la multiplicité des comportements sonores, plutôt que la fusion et la hiérarchie, sont les principes qui vont me guider dans la réalisation de la Trilogie Köln.

Articulée autour d’In situ, créé en 2013 lors des Donaueschinger Musiktage par l’Ensemble Modern et le SWR Sinfonieorchester sous la direction de François-Xavier Roth, la Trilogie Köln commencera par Ring, d’une durée d’environ 36 minutes, et se conclura par X[6], une composition pour un grand format auquel se joindra un chœur, quelques chanteurs et acteurs, ainsi que la musique électronique en temps réel. Les trois pièces de ce cycle seront créées, respectivement au cours des années 2016, 2017 et 2018, par le Gürzenich-Orchester Köln sous la direction de son chef, François-Xavier Roth, dans la salle de la Philharmonie de Cologne.

Ring, la première pièce, sera distribuée de la manière suivante. Un petit orchestre mozartien, en tant que symbole de l’histoire passée, occupera la scène proprement dite, tandis que différents groupes seront répartis dans différents endroits de la salle. Deux groupes de 9 musiciens à droite et à gauche (à savoir 6 trios) surplomberont l’orchestre dans les loges situées en hauteur derrière l’orchestre, 2 autres groupes d’environ 10 musiciens occuperont les nacelles latérales habituellement réservées aux étudiants (à droite) et aux retardataires (à gauche), et 4 groupes seront placés à l’arrière de la salle en hauteur sur une seule rangée. Chacun de ces groupes sera de caractère hétérogène, c’est-à-dire composé d’instruments de familles différentes. Cet « anneau » sonore, disposé ainsi à Cologne, pourra très bien être orienté sur des degrés différents dans une autre salle, si toutefois est conservé la contiguïté des groupes entre eux. Une légère scénographie viendra soutenir le déroulement de cette composition. Lors de l’entrée du public, les différents groupes seront déjà installés dans la salle. Chacun disposera d’un petit moniteur vidéo qui, de temps à autre, affichera un chiffre, signal donné à un groupe particulier pour jouer une courte séquence, en guise d’anticipation subliminale du matériau musical à venir. Par exemple au chiffre 1, le groupe A jouera une séquence, au chiffre 2 ce sera le tour d’un des groupes arrière, au chiffre 3 un des groupes latéraux, etc. Pendant ce temps, l’orchestre central prend place sur scène et, durant l’accordage (prévoir des diapasons pour tous les musiciens car il n’y aura pas d’accordage à partir du hautbois), commence à s’installer une texture sonore d’aspect assez libre. La musique a donc déjà commencé et c’est la baisse de l’éclairage de la salle qui signifiera le « vrai » début de la pièce. Pas d’applaudissements d’entrée donc. Ainsi la musique libre évolue et c’est dans ce contexte que le chef fait son apparition (pour éviter les applaudissements, il sera déjà assis au milieu de l’orchestre) pour prendre en main l’œuvre, désormais structurée de façon rigoureuse et dense, et la mener à son terme.



Philippe Manoury

Strasbourg, juin 2015


Lire aussi Entretiens avec Patrick Hahn (à propos de “Ring”)

[1] Les distributions spatiales des orchestres n’étaient pas rares à l’époque baroque et prébaroque. Giovanni Gabrieli disposant ces fanfares au quatre coins de la Basilique St Marc de Venise est l’exemple le plus connu, mais on sait que la disposition des chœurs dans les Passions de Bach n’était pas frontale.

[2] Ce parallèle a été traité avec maestria dans le film Prova d’orchestra de Federico Fellini.

[3] On sait que ce coup de génie fut en réalité un coup de dés. Autrefois en poste à Riga, Wagner avait été frappé par le son d’un ensemble provenant d’une salle avec un plafond très bas. Inspiré par cette découverte, il prit alors le risque de dessiner la fosse de l’orchestre. Cette initiative eût pu tout aussi bien échouer. Ce fut la rencontre du génie et de l’intuition. Pour avoir assisté à des actes entiers dans la fosse d’orchestre et dans la salle, j’ai pu constater avec étonnement à quel point le son sec et analytique à l’intérieur de la fosse devient une synthèse proprement alchimique, miraculeuse, lorsqu’il en sort.

[4] Son œuvre Nomos Gamma où le public est placé librement dans l’orchestre est très ambiguë à ce niveau. Les figures musicales, n’étant conçues que pour servir un propos global et n’ayant pas de valeurs intrinsèques propres, se retrouvent au premier plan par le fait que si l’on est assis à côté du basson, on perçoit « gonflé » le détail de cette partie alors qu’elle n’est pas censée avoir plus d’importance que les autres. Le paradoxe réside en ce qu’il faudrait être à la fois à l’intérieur de l’orchestre (c’est la raison d’être de cette pièce) et également loin de chaque musicien pour bien percevoir l’ensemble, et pas surtout un détail.

[5] Il est impossible de reconnaître des formes spatiales avec la même acuité qu’on peut le faire pour des formes mélodiques ou rythmiques. Passée l’identification de formes primaires, comme les rotations, les panoramiques, les zigzags, notre cerveau échoue à reconnaître des formes plus complexes. Même la forme qu’épouse un son tournant tantôt en cercle, tantôt en carré autour de l’auditeur est perçue par lui comme identique.

[6] Le titre de cette dernière pièce reste encore à trouver.


Wednesday, February 18th, 2015

À 15 ans, les sonorités mystérieuses du début de « Tombeau » ont suffi pour me détacher du répertoire romantique. À 17 ans, j’avais tout écouté de lui, beaucoup lu aussi, et analysé. Pierre Boulez m’apparaissait comme une évidence ; pas seulement dans sa musique, mais aussi dans sa réflexion sur la musique. Je n’ai jamais été son élève ni pris le moindre cours avec lui. Mais pendant plus de trente ans j’ai parlé avec lui, confronté mes expériences avec les siennes. On a dit à tort qu’il imposait ses propres volontés musicales, alors qu’il n’avait de cesse de provoquer les autres à forger les leurs.

Tout jeune il se méfiait des maîtres, tout autant que, parvenu à la maturité, de la sagesse. Allergique au superflu, rétif à l’anecdote, il cherchait la logique dans le désordre et accueillait le hasard en poursuivant la rigueur. Comme Wagner et Debussy, il ne s’est pas laissé attirer par l’épure quand l’âge est venu.

Sa méfiance initiale vis-à-vis de la musique électronique l’a conduit à créer l’IRCAM, le plus grand centre au monde de création musicale avec les technologies informatiques. Il a fallu tout inventer, construire des machines, expérimenter, théoriser. Il a voulu la primauté du musicien sur la technologie. Il appelait de ses vœux une musique électronique en temps réel, finalement advenue grâce à son opiniâtreté et son acharnement.

Il s’est aventuré tellement loin dans l’art de la direction d’orchestre que certains en oublient qu’il est surtout compositeur. Ses positions théoriques dures des années 50 l’ont conduit vers une conception du temps libre et multiple en musique. La rigueur et l’écriture certes, mais aussi le geste, l’impulsion, la suspension, l’écoute. L’oral et l’écrit ne s’opposent pas chez lui, ils sont inséparables dans leurs spécificités respectives.

Il n’a jamais séparé sa pratique de la musique de ses attirances pour le théâtre, l’opéra, la littérature, la peinture. Rien de ce qui touche à la création artistique n’a pu le laisser indifférent. Seule l’agaçait la désinvolture.

Aujourd’hui encore, je ne vois aucun compositeur dont la musique serait le portrait à ce point fidèle de sa personne. Tel un félin, alternant détente et brusques coups de griffe, dès sa Première sonate pour piano, sans le vouloir, peut-être sans le savoir, Boulez s’est peint en composant.


Philippe Manoury

Strasbourg, février 2015


(Texte écrit à l’occasion des 90 ans de Pierre Boulez pour la Cité de la Musique à Paris)

Les chaînes de Markov… à l’infini

Saturday, January 24th, 2015

 1 -Introduction

Pourquoi composer avec des systèmes probabilistes ? L’indéterminisme peut-il apporter des solutions intéressantes à la musique ? Ces questions me sont venues à l’esprit lorsque je commençais la composition de Pluton, en 1988 à l’IRCAM, avec l’aide du mathématicien américain Miller Puckette. Ma principale préoccupation de l’époque était de faire sortir la musique électronique en temps réel du rôle passif qui jusqu’alors était le sien. La plupart des œuvres en temps réel (y compris dans certains moments de mes propres compositions, comme Jupiter composé juste avant) utilisaient la musique électronique surtout comme un prolongement de l’instrument. Celle-là produisait des transformations du son instrumental, parfois synchrones et parfois avec des retards mais, encouragés en cela par les tout nouveaux systèmes de suivi de partitions, quelques compositeurs donnaient la primauté à l’instrumental qui assurait la domination temporelle de toute la musique électronique. L’instrument était devenu le maître du temps, s’opposant en cela à des décennies de musique mixte au cours desquelles les instrumentistes devaient se caler sur une bande magnétique d’une rigidité temporelle très contraignante. Cette domination du temps instrumental était un atout majeur pour le développement de toute la musique en temps réel mais comprenait un écueil : l’instrument précédait l’électronique mais jamais le contraire ne se produisait, d’où parfois le sentiment que l’électronique n’était qu’un coloriage, un habillage, ne produisant que rarement un discours autonome. En exagérant quelque peu, je me disais qu’il fallait trouver un moyen pour que la musique électronique en temps réel sorte de son rôle d’accompagnement, et puisse produire, comme un véritable orchestre, un discours musical qui s’articule, se déploie indépendamment de tout déclenchement instrumental. Je réécoutais Mantra de Stockhausen – l’œuvre proprement initiatique pour moi de toute la musique en temps réel – et comparais les textures de cette musique électronique avec des œuvres plus anciennes du même compositeur, et en tout premier lieu, Kontakte. Il était clair que, malgré la présence de la bande magnétique dans cette dernière, empêchant toute modulation temporelle, la musique électronique y était beaucoup plus travaillée, autonome et plus riche que dans Mantra. Ce qu’il fallait faire, me disais-je à cette époque, c’était conserver les acquis du temps réel tout en permettant à la musique électronique de prendre son essor dans des textures polyphoniques aussi travaillées que ce fut le cas dans les anciennes musiques composées pour bande magnétique. La situation principale du temps réel était marquée par le sceau de l’incertitude temporelle. Comme pour la musique instrumentale, il est souvent impossible de savoir avec exactitude quand va intervenir le prochain événement. Nous pouvons en avoir une “connaissance floue” mais rarement exacte. Lorsqu’un interprète fait un point d’orgue, prend un tempo particulier, fait un ralenti ou un accéléré, il est impossible de connaître la durée exacte d’une phrase. Il fallait alors concevoir des méthodes de composition qui puissent être « infinies » dans le sens où la musique électronique durerait le temps qu’elle doit durer, compte tenu de cette absence de connaissance temporelle dans le futur. La machine devra travailler et produire des séquences musicales pendant un temps variable qui sera toujours différent d’une exécution à l’autre. C’est alors que l’idée d’utiliser des systèmes indéterministes s’est présentée clairement à mon esprit. Si la durée du temps devant nous est inconnue, alors les structures qui vont l’habiter devront participer de cette incertitude. Désormais, on ne va pas conclure, faire une transition, une progression, bref, une grande partie des stratégies compositionnelles que l’on connaît déjà. Non, on va créer des états sonores qui doivent exister en tant qu’états, mais se renouvelant sans cesse. Ou bien des états qui vont se transformer en d’autres états. La machine devra calculer sans cesse et produire en temps réel une musique qui naîtra au moment même où on l’entend. Les ordinateurs, de façon très générale, ne savent faire que trois choses :

  1. Ils font ce qu’on leur ordonne de faire. C’est un processus déterministe dans lequel on pose un problème que la machine va traiter, calculer, jusqu’à sa résolution. Dans la musique, le cas typique de ce mode d’action est la composition algorithmique dans laquelle tous les paramètres sont indiqués dans le programme qui tourne ainsi en « interne » suivant les procédures qu’on lui a données. J’ai une suite d’intervalles et je donne des règles pour les regrouper en accords. La machine va explorer la totalité des possibilités, puis arrêter son calcul lorsque celle-ci sera atteinte.
  2. Ils prennent des informations dans le monde extérieur. Via un micro, une caméra, un capteur quelconque, un ordinateur peut se saisir d’informations extérieures, les analyser, puis les traiter. En musique cela concerne tous les systèmes de traitement, de suivi de partitions, de détection d’événements sonores en temps réel. Les paramètres, contrairement à la méthode précédente, ne sont pas connus à l’avance même si, comme c’est le cas du suivi de partitions, ils peuvent être « reconnus » parmi un flot sonore. La machine se nourrit alors de données externes pour faire marcher son programme et ne produit rien tant que ces informations ne lui sont pas données.
  3. Ils produisent des nombres aléatoires. Il s’agit de la seule manière que l’on connaisse pour « donner la main » à un processeur de calcul afin qu’il agisse de façon autonome. Ils peuvent produire de l’aléatoire le temps que l’on veut sans autre forme de calcul ou de captation. Le processeur tourne de nouveau en « interne » (comme dans a) mais sans apport aucun de paramètres extérieurs[1].

C’est donc cette dernière solution qui m’a d’abord semblé la plus adéquate à la situation que j’ai décrite plus haut. Mais très vite je me suis rendu compte que ce serait la conjonction des deux dernières méthodes qui serait la plus intéressante : la machine produira de l’aléatoire, mais à partir d’éléments fournis par les interprètes. J’avais trouvé la façon de produire une musique électronique autonome et non simplement réactive au monde instrumental et, à la fois, de laisser ce travail s’exécuter pendant un temps qu’a priori je ne pouvais pas définir. Le procédé des chaînes de Markov est venu très rapidement à mon esprit comme la meilleure façon de traiter ce problème car il se charge d’une situation bien connue des musiciens, celle de la succession des événements dans le temps. Qu’est-ce qui fait que la succession de certains intervalles dans un contexte donné produise un sens musical tandis qu’une autre succession n’en produit aucun ? Comment se fait-il que, en écoutant certaines musiques, nous sommes parfois capables de deviner ce qui va suivre ? De nombreuses réponses à ce problème sont bien connues, ce ne sera donc pas le thème de ce papier. Mais il faut admettre que l’ordre de succession des événements musicaux est d’une importance aussi grande que les événements eux-mêmes. C’est lui qui donne un « sens » à ce que nous écoutons. Une question m’avait préoccupé lors de mes études musicales : à quoi reconnaît-on une mélodie comme typique de telle ou telle œuvre ? J’avais même passé mon prix d’analyse musicale au Conservatoire de Paris en faisant un relevé statistique de toutes les mélodies qui se trouvent dans une section de la Grande Fugue de Beethoven. À la suite de fastidieux calculs, j’avais déterminé des pourcentages pour qu’après un intervalle a apparaisse un intervalle b, c ou d. J’avais ensuite reconstitué des chaînes mélodiques qui ne se trouvaient aucunement dans l’œuvre de Beethoven mais qui, obéissant à ces statistiques de successions, avaient des airs de familiarité avec les mélodies que l’on trouve dans la Grande Fugue. La raison pour laquelle le premier prix d’analyse m’avait été accordé à la présentation de ce travail est restée pour moi, jusqu’aujourd’hui, un grand mystère ! Il est évident que les mélodies, très curieuses et excentriques composées par Beethoven, même dans une œuvre aussi radicale et révolutionnaire que sa Grande Fugue, reposent toujours sur un substrat harmonique et ne sauraient être expliquées d’un simple point de vue statistique de successions d’intervalles. Mais, comme cela arrive parfois, un point de vue totalement subjectif – voire erroné – sur une œuvre apporte parfois plus d’idées créatrices qu’une étude, plus juste et rationnelle, mais dépourvue de toute vision subjective[2]. Mon angle d’analyse n’expliquait pas grand chose quant à cette œuvre de Beethoven, mais j’avais néanmoins appris une propriété intéressante de la musique : elle a beau se dérouler dans le temps, il existe néanmoins des structures dont le sens musical ne repose pas sur un quelconque ordre temporel. Quel que soit l’ordre (et en ce sens le calcul probabiliste permet de le renouveler en permanence) dans lequel les éléments de cette structure seront distribués, cette dernière sera identifiée comme telle. Ainsi si je dis « accord de do majeur », je peux accepter les ensembles {do, mi, sol}, {do, sol, mi}, {mi, do, sol}, {mi, sol, do}, etc., chacun attestant parfaitement la propriété de « accord de do majeur ». L’ordre temporel n’a ici aucune importance car, dans tous les cas, la structure sera conservée et reconnue. C’est ce que Iannis Xenakis appelait les « structures hors-temps »[3]. Une des manières de réaliser ce petit exemple consiste à créer des chemins possibles entre ces notes et à définir des probabilités de successions entre elles. Ainsi les probabilités de successions {do->mi} et {do->sol} pourront être également déterminées à 0,5 (soit 50%), la somme des probabilités devant être toujours égale à 1. Cela élimine la possibilité que la répétition du do n’intervienne. Reste maintenant à déterminer les probabilités de successions à partir du mi et du sol comme par exemple : {mi->mi = 0,8 / mi->do = 0 / mi->sol = 0,2} puis {sol->sol = 0 / sol->do = 0,2 / sol->mi = 0,8}. Cet ensemble de relations peut s’écrire sous la forme d’une matrice, ce qui donne :


ou encore sous la forme d’un graphe :




À partir de ces probabilités, il est possible de créer une chaîne d’événements dont voici un exemple :

do mi mi mi do sol mi mi mi do sol do mi mi mi sol mi do sol do sol mi mi mi….


C’est la base de ce processus que l’on appelle les « chaines de Markov »[4].


2 – Un exemple de transition entre désordre et ordre.

Vers le milieu des années 70, j’ai utilisé un tel procédé pour contrôler des successions d’intervalles suivant une procédure dont le but était de partir d’une distribution totalement aléatoire pour arriver à un ordre totalement déterministe. Cela se produisait en plusieurs étapes, dont voici la description.

a) On tire au hasard n intervalles parmi 6 intervalles possibles : 1, pour le demi-ton, 2 pour le ton, 3 pour la tierce mineure, 4 pour la tierce majeure, 5 pour la quarte et 6 pour la quarte augmentée). Les intervalles supérieurs à 6 ne sont que des redoublements des précédents.

b) On fait une analyse statistique de cette série de n intervalles en relevant les successions obtenues à partir de laquelle on construit une matrice de probabilités.

c) On tire une nouvelle succession de n intervalles à partir de la matrice précédente.

d) On répète les étapes b et c jusqu’à ce que l’on obtienne une boucle. Certains intervalles, les moins fréquents lors de a, auront tendance à disparaître, pendant que d’autres, parmi les plus nombreux au début, tendront vers une augmentation de leur probabilités. Une fois la boucle obtenue, on arrête le processus.

Voici un exemple simplifié de ce processus.

6 1 4 5 5 6 5 1 5 4 3 5 4 5 4 3 4 6 2 3

(tirage aléatoires de 20 intervalles)

Voici la matrice résultante de l’analyse des successions précédentes :



Deuxième tirage aléatoire de 20 intervalles à partir des probabilités précédentes :

5 4 5 5 4 5 4 5 4 6 5 5 4 6 2 3 5 6 2 3

Ici, une nouvelle matrice d’analyse des successions obtenues précédemment :


Troisième tirage aléatoire de 20 intervalles à partir des probabilités précédentes :

3 5 4 5 4 5 4 5 4 6 2 3 5 6 2 3 5 4 5 4

Encore une nouvelle matrice d’analyse des successions obtenues précédemment :


Quatrième tirage aléatoire de 20 intervalles à partir des probabilités précédentes (identique au précédent):

3 5 4 5 4 5 4 5 4 6 2 3 5 4 5 4 5 4 5 4

Voici maintenant la transcription musicale avec les 4 séquences obtenues :



Mais, comme je l’écrivais au début de cet article, c’est dans le cadre de la musique électronique en temps réel que ce procédé des matrices de Markov a été le plus important. C’est dans Pluton (1988-89) que je l’ai utilisé pour la première fois.


3 – Comment engendrer des séquences aléatoires mais identifiables ?

Reprenons l’exemple le plus simple d’une matrice décrivant les probabilités de succession entre 4 événements : a, b, c et d :

matrice à 4


Nous pouvons en déduire une succession telle que : a c c c b a c c d c c c c b a b d c c c…

Maintenant supposons qu’au lieu d’une matrice à 4 éléments, nous en ayons une qui traite de 88 éléments ordonnés de 21 à 108 :

matrice à 88


Cette échelle de 21 à 108 correspond, bien évidemment, aux 88 touches du clavier d’un piano dans la notation MIDI. Il s’agira donc, lorsque le pianiste jouera, de marquer les successions de note à note. Ainsi pour une séquence telle que :



nous obtiendrons les connections suivantes (les croix indiquent uniquement qu’il existe des successions entre les notes) :



Cependant, comme il est facile de le constater, il existe plusieurs chemins en partant d’une note : 62 peut aller sur 60, 62 et 70 :


63 peut aller sur 62 ou se répéter :


67 peut aller sur lui-même ou sur 65:



Et 70 peut aller sur 69 ou sur lui-même :


Seuls 65 et 69 (le fa et le la) iront, dans tous les cas, respectivement sur 63 (mib) et 67 (sol) et leurs probabilités seront alors de 100%. Il s’agit maintenant de décider quel chemin suivre, lorsqu’il s’en trouve plusieurs qui se proposent à partir d’une même note, et d’en déduire des pourcentages. Avant de répondre à cette question, je donnerai une information complémentaire. Comme pour l’expérience de jeunesse que j’avais tentée en construisant artificiellement des mélodies dans le style de celles de la Grande Fugue de Beethoven, il s’agira ici de créer des musiques qui, même en se renouvelant constamment, ne feront que reproduire des connexions existantes. En d’autres termes, rien qui n’aura pas été joué au moins une fois, ne pourra se reproduire. Le système markovien ne crée rien qui n’ait déjà existé. Pour que ces mélodies ressemblent à celles qui ont servi de modèles, il ne suffit pas de prendre en considération les seules hauteurs, mais aussi le temps qui a été joué entre deux notes, ainsi que la valeur d’intensité. De la sorte, lorsqu’à partir de la première note de cette mélodie (mib) nous observons deux chemins possibles, nous conserverons les durées qui ont servi à effectuer ces transitions. Ainsi la transition {mib-ré} se reproduira toujours avec les valeurs de croches qui ont été jouées :


tandis que la répétition de ce même mib vers la fin se fera avec une distance de noire :



Notons que si nous reproduisons ici les valeurs sur la partition notée, dans la réalité, ce seront les valeurs interprétées (ajustées à la milliseconde près) qui seront prises en compte. Mais que se passe-t-il lorsque, comme c’est le cas ici, une même connexion se reproduit deux fois ?



Comme il ne peut y avoir qu’un seul chemin possible à partir d’une transition entre deux notes, la solution choisie est que la répétition d’une même transition effacera la première et la remplacera par la seconde. Ainsi si la transition {63-62} est répétée, la valeur de temps de la seconde occurrence (ainsi que leurs valeurs dynamiques) se substituera à la première.


Venons-en maintenant à l’établissement des probabilités de successions lorsque plusieurs chemins se proposent. La solution que j’ai choisie, mais bien arbitrairement il faut l’avouer, est que les probabilités suivront les rapports entre les valeurs dynamiques. En d’autres termes, plus une note sera jouée forte, plus sa probabilité d’apparition sera élevée, et vice versa. Ainsi pour les successions telles qu’elles apparaissent au début, nous aurons les pourcentages égaux à 100 puisqu’il n’existe, pour le moment qu’un seul chemin possible : le mib va sur lequi, lui se répète.


Mais, juste après il se produit une nouvelle bifurcation : le peut, soit se répéter, soit monter au sib. Admettons, pour la démonstration, que le soit joué « p »  alors que le sib le soit « f » (soit par exemple avec les valeurs de 20 et 80 sur une échelle d’intensité de 100), les pourcentages se déduiront alors ainsi :



Ainsi, lors du jeu du pianiste, le processeur produit une sorte de double en temps réel en créant un discours probabiliste qui ne contient cependant que ce qui a été strictement joué. Résumons la situation. Comment cela se passe-t-il dans la continuité ?

1) Le piano joue une séquence qui, via le protocole MIDI, est envoyé à la matrice de Markov. Chaque transition mémorise les hauteurs concernées, leurs niveaux dynamiques ainsi que le temps entre chaque transition.

2) Dès le début, lorsqu’elle reçoit les premières informations venant du piano, la matrice de Markov est active. A chaque nouvelle note produite s’effectue un tirage aléatoire (un nombre entre 0 et 99) qui déterminera quelle note vient ensuite.


4 – Incrustations des structures musicales.

Voici un exemple, extrait de mon œuvre Pluton pour piano et électronique en temps réel (1988-89), dans lequel différentes structures musicales sont incrustées les unes dans les autres. La première précaution à prendre est évidemment de faire le maximum pour que ces structures ne se confondent pas. Voici donc une première séquence dont les caractéristiques principales sont de se dérouler dans l’extrême aigu du clavier et dans un tempo très vif :


(Piano solo : Ilmo Ranta)

Le fait que cette séquence contient plusieurs retours sur les mêmes notes, mais qui sont suivies de notes différentes assure un renouvellement constant de la séquence produite par les chaînes de Markov. Chaque note, revenant 5 ou 6 fois, est à chaque fois suivie d’une note différente, le nombre de chemins possibles se multiplie donc assez rapidement. Une deuxième structure intervient maintenant qui se démarque de la précédente par son ambitus, situé plutôt dans le médium, et son tempo, moins constant et plus modéré que celui de la première séquence :



Si ces deux structures diffèrent grandement quant à leur ambigus et leurs tempi, elles comportent cependant plusieurs notes en commun. Les notes entourées en noir et en rouge (le do aigu et le ) appartiennent aux deux séquences et lors du tirage aléatoire, le système markovien choisit alors de continuer soit dans la première séquence, soit de passer à la seconde. Les temps de stagnations ou de passages entre ces séquences étant dépendants du choix aléatoire, il s’opère un constant renouvellement structurel par l’absence totale de régularité. On entend alors clairement que la première séquence (aiguë et rapide) est peu à peu contaminée par la seconde (medium et modérée) :


Vient ensuite un troisième niveau avec une autre séquence, celle-ci déroulée dans le grave et dans des durées beaucoup plus longues. Cette troisième séquence comporte son propre matériel, mais aussi des notes en commun avec la deuxième (entourées en bleu et en vert) et aussi avec la première (entourée en rouge). Trois niveaux s’interpénètrent donc, du plus aigu au plus grave et du plus vif au plus lent, et se contaminent les uns les autres :



Il est clair que plus le nombre de chemins devient grand, plus les caractéristiques dominantes du début tendent à disparaître. Ainsi, avec le temps, on ne remarque la présence de la première séquence (notes très rapides et aiguës) que sporadiquement, l’ensemble de ces processus donnant naissance à une forme en perpétuel changement. On peut ainsi « incruster » un grand nombre de séquences les unes dans les autres, le système produira toujours des transitions entre elles, cela pour l’histoire immédiate, mais dans la grande histoire (si je puis m’exprimer ainsi au niveau d’une œuvre) se produiront des changements structurels constants par le fait que de nouvelles structures viendront peu à peu effacer le souvenir des anciennes. Il se crée donc une forme en perpétuelle évolution qui, au fur et à mesure qu’elle accueille de nouvelles structures, a tendance à éliminer les plus anciennes.


5 – Comment le son est-il produit ?

Comment ce résultat aléatoire se transforme-t-il en matière sonore ? Ce que produisent les matrices de Markov n’est ni plus ni moins qu’une partition virtuelle qui se crée en temps réel et se régénère d’elle même. Dans Pluton la partition calculée à partir des chemins markoviens va agir directement sur un échantillonneur. Ce module mémorise un son de piano (qui peut être une simple note comme un accord ou une figure quelconque) qui va être transposé suivant les hauteurs fournies par la matrice. Par convention, la hauteur 63 (le mib du milieu du clavier de piano) correspond à la fréquence originale de l’échantillon. Ainsi l’accord échantillonné suivant :


sera joué tel quel lorsque la matrice produira la hauteur 63. Lorsqu’elle produira 64, cet accord sera transposé au demi-ton supérieur et pour 62, au demi-ton inférieur, etc. La partition, vue par pianiste, est organisée ainsi :




Sur la partie droite (en vert) se trouvent 5 séquences destinées à nourrir les matrices de Markov, telles que j’en ai exposé certaines précédemment. Sur la partie gauche (en rouge) se trouvent des séquences d’échantillonnage. Les deux processus s’interpénètrent ad libitum dans ce qu’il est convenu d’appeler une « forme ouverte », c’est-à-dire une forme dans laquelle l’ordre de succession des séquences est laissé à l’appréciation de l’interprète. Contrairement aux célèbres formes ouvertes, telles que la Troisième sonate pour piano de Boulez, le Klavierstück XI de Stockhausen ou encore les Archipels de Boucourechliev, œuvres où l’ « ouverture » de la forme n’est pas audible mais n’existe que conceptuellement pour l’interprète, la forme ouverte ici aura une répercussion immédiate sur la musique électronique et s’entendra comme telle. Le déroulement de cette musique ne sera pas le même suivant les chemins parcourus par le pianiste. Pour faire une comparaison, je dirais que les séquences markoviennes constituent la partition en terme de hauteurs, de dynamiques et de temps, tandis que les séquences d’échantillonnage représenteraient plus un travail d’orchestration. En termes plus précis, les séquences échantillonnées dans la partie gauche (en rouge) seront transposées sur les hauteurs, avec les durées et les intensités produites par le résultat des calculs aléatoires sur les matrices de la partie droite. Il est possible de modifier à tout moment cette orchestration, c’est-à-dire de changer l’échantillon qui sera transposé par les matrices. Cela se fait grâce à un système, inventé par Miller Puckette, qui était très nouveau à l’époque où je l’ai utilisé. Il s’agit d’un procédé d’échantillonnage à la volée. L’échantillonneur lit une table d’onde correspondant au son échantillonné en cours. Lors d’un nouvel échantillonnage, il substitue progressivement l’ancien échantillon par un nouveau. Le graphique suivant donne un aperçu de ce procédé : l’onde dessinée en bleu est la première qui est progressivement remplacée aux temps T1, T2, T3, etc. par une nouvelle (marquée en rouge). Cela se produit en temps réel au moment même de l’enregistrement et sans arrêt du son ni, fort heureusement, sans les « clics » habituels que l’on entend dans ce genre d’opération :



Voici quelques exemples de ce procédé. Ici une série d’accords, lorsqu’ils vont être joués, vont servir d’échantillons pour la production des séquences markoviennes. On entend très bien les changements harmoniques ainsi que les variations d’intensités qui sont répercutées en temps réel sur la partition qui ne cesse pas de se régénérer :




Un autre exemple est donné ici par la séparation en deux voix des processus markoviens. Deux matrices tournent en parallèle avec le même contenu. Il est évident que même dotées de probabilités identiques, les matrices parallèles produisant des tirages aléatoires ne reproduiront jamais le même résultat. L’une des matrices se servira du premier échantillon joué, un trille, tandis que l’autre se servira du second, un accord. Chacune d’entre elle est alors « orchestrée » de manière différente :



Le même procédé est utilisé ici, mais avec un arpège et un accord staccato. Il faut bien comprendre que la partition jouée par cet arpège en reproduira une transposition différente pour chaque note produite par la matrice de Markov :



Là se fait jour une loi de perception propre à ce genre de musique. Cette loi, qui nulle part n’est exprimée, repose sur la relation entre un son de référence et son organisation musicale. Par son de référence j’entends l’élément qui va être échantillonné et transposé sur les hauteurs fournies par les chaînes de Markov. À ce stade le son de référence devient un “instrument”. Si ce son est simple, voire consistant en une seule note, la partition qu’il donnera à entendre révèlera sa propre structure, car les hauteurs comme les durées seront clairement exprimées. Une partition indiquant « do, mi, sol » sonnera comme « do, mi, sol ». Mais lorsque le son de référence devient plus complexe, c’est-à-dire qu’au lieu d’un simple son apparaît tout une figure, alors cette dernière morphologie viendra peu à peu supplanter celle de la structure. Il ne faut pas oublier que, dans ce dispositif, la structure (comme les matrices de Markov ici) est une information de transposition pour un son échantillonné. Voici quelques exemples dans lesquels les sons de références sont des objets composites et complexes, qui aideront mieux à faire comprendre cette situation. Voici d’abord un arpège échantillonné :



Et voici maintenant la structure (la partition) sur laquelle cet arpège va être transposé, qui est à sa manière une sorte d’arpège plus lent :



Nous obtenons donc, comme résultat, un arpège d’arpèges :



Voici maintenant un exemple plus complexe. Ici nous avons une structure composée de plusieurs accords qui servira à la fois de son de référence et de partition :



C’est-à-dire que chacune des notes de cette structure sera le prétexte à sa propre transposition. Ainsi, lors du première accord de 3 sons, nous obtiendrons 3 transpositions différentes de cette même structure avec le fait, bien connu des utilisateurs d’échantillonneurs, que plus une transposition est grave, plus son tempo sera lent, plus elle sera aiguë, plus son tempo sera rapide. Le résultat sera une séquence complexe dans laquelle nous ne reconnaîtrons aucune des notes la composant, la seule forme qui survivra à cette transformation sera son enveloppe générale. On entend encore une évolution du medium vers l’aigu et une petite redescente à la fin. La perception formelle est ici placée sur un terrain de la globalité, le détail étant noyé par une accumulation de formes intriquées les unes dans les autres :




6 – La réécriture des hauteurs et des durées.

Dans une autre section de Pluton, j’ai utilisé ce procédé des matrices de Markov dans un contexte assez différent. Les matrices ne reproduisant que ce qui a été joué, il s’ensuit que la musique qui en provient est très proche de celle qui en a été l’origine. On peut dire que, ainsi utilisées, les matrices de Markov constituent un double infini de ce que joue l’instrumentiste soliste. J’ai cependant voulu créer des formes qui, bien qu’elles prennent toujours leurs sources dans le même jeu du soliste, s’éloignent un peu du modèle, en tout cas n’en poursuivent que certains aspects. En voici un exemple dans lequel seule l’ossature rythmique est conservée, mais plus les hauteurs. Ici la matrice prendra sa source sur une « toccata » basée sur un “mi bémol” central du piano et se développera au fur et à mesure que le piano enverra de nouvelles informations à l’ordinateur en remplissant peu à peu la matrice de Markov, créant du même coup de nouvelles transitions entre les notes :





La matrice déroulera cette « toccata » de façon autonome et pratiquement infinie car le système trouvera tout le temps au moins une succession pour chaque note exprimée[5]. Après avoir fait franchir à ces matrices plusieurs étapes, j’ai décidé de les réduire à leur seul squelette rythmique en compressant toutes les valeurs de hauteurs sur un simple unisson. Ce procédé est un peu équivalent à celui qui consisterait à concentrer tout un clavier de piano sur une seule et unique note centrale, voire le réduire ou l’étendre au delà de ses limites habituelles. Voici donc l’effet que produit cette réécriture des hauteurs qui, avant d’arriver sur le « mib » central passent par des échelles compressées en micro-intervalles :


Vers la fin du processus l’ambitus revient progressivement à sa valeur originale (la gamme chromatique tempérée) en passant par des transitions de micro-intervalles :



Mais la plus radicale des transformations est donnée par la réécriture de la structure des durées. J’ai déjà expliqué que lorsqu’une transition entre deux notes est rejouée, la première transition est effacée par la seconde. C’est ainsi que j’ai eu l’idée de « verticaliser » progressivement toute cette toccata. Voici un exemple simple de ce fonctionnement. Lorsque je propose une succession mélodique telle que :


chaque note est soumise à un temps de transition qui sera respecté à chaque fois qu’elle celle-ci s’effectuera. Si maintenant je condense chacune de ces notes en un accord, j’efface tous ces temps en les ramenant à un temps zéro :


Le groupe {do, ré, fa} se reproduira chaque fois qu’une de ces trois notes aura été choisie comme successeur d’une précédente, et quelle que soit cette note parmi les trois, c’est en groupes qu’elle seront désormais produite. Le groupe {sol, lab} provient dans ce contexte de la transition {fa->lab} dans l’exemple mélodique précédent, et comme le sol a été maintenant ramené au même temps que le lab, il se produira également tout le temps que le lab aura été choisi. C’est ainsi que lors de la fin de cette « toccata », je lui fais subir une destruction progressive par l’annulation de ces composants mélodiques. En prenant toutes les notes de la séquence qui a servi de modèle à la « toccata » et les regroupant en accords, je produis un effet de contraction rythmique remarquable dans son comportement. Bien qu’il subsiste toujours quelques bribes de mélodies, l’ensemble suit la tendance à se verticaliser en grands accords. Certes, dépendant de tirages probabilistes, le résultat  sera toujours différent. La verticalisation interviendra parfois un peu plus tôt, parfois un peu plus tard. Mais la tendance sera la même. Le pianiste, ici, a d’ailleurs la possibilité de rejouer plusieurs fois les accords jusqu’à obtenir une musique pratiquement toute verticalisée, où ne subsistent que quelques rares moments mélodiques :



L’expérience a prouvé que lors de très nombreuses interprétations de cette œuvre, ce passage a toujours été le plus surprenant par son comportement anarchique. La tendance est à la verticalisation progressive, mais on ne sait jamais à quelle vitesse celle-ci va s’accomplir. Dans ce cas particulier, plus le pianiste répètera ces accords plus il forcera cette toccata à se bloquer sur de grands agrégats jusqu’au moment ou il s’apercevra que la probabilité d’obtenir encore quelques bribes mélodiques est devenue tellement faible, que le moment est venu de clore cette section et de passer à la suivante. Il en résulte un dramatisme très particulier, qui est propre à la musique en temps réel, et qui n’existe dans aucune autre sorte de musique. Les musique écrites ou les musiques électroniques sur un support fixe reproduisent, dans les grandes lignes, toujours les mêmes proportions, et la musique improvisée est incapable de gérer des processus aussi complexes. Il n’y a que dans les situations de temps réel interactif que l’on peut avoir ce genre de « challenge » où l’on connaît le chemin mais ignore le temps qu’il va nous falloir pour le parcourir. Tout le suspens réside dans ce mélange de certitude et d’incertitude, dans cette relation entre notre capacité à prévoir le futur et notre étonnement, lorsque cette capacité est battue en brèche..


7 – Filtrage des durées : comment passer d’un discours discontinu à continu ?

Dans une autre composition, La partition du Ciel et de l’Enfer, j’ai également utilisé ce procédé des matrices de Markov en y effectuant un contrôle sur les durées. Ce genre de procédé fait partie d’une catégorie très importante dans les techniques de composition en temps réel : les critères sélectifs. L’analyse de l’interprétation peut se faire avec l’établissement de seuils, ou de fenêtres d’observation qui ne laissent passer qu’une partie des données produites par l’interprète. Dans ce cas, la différence entre la séquence-modèle et sa conséquence aléatoire, via les matrices de Markov, sera marquante. Autant la partition du jeu instrumental sera discontinue et abrupte, autant la « réponse » markovienne sera continue. Il suffit pour cela de mettre un seuil dans l’acceptation des durées de transition de note à note. Ainsi, lors de l’exécution d’une séquence rythmique telle que celle-ci



(Pianos: Pierre-Laurent Aimard et Florent Boffard. EIC : direction Pierre Boulez)

il faudra établir une limite de temps au dessous de laquelle les transitions ne sont pas prises en compte. Si cette limite est fixée sur une valeur très basse, par exemple de l’ordre de 300 ms, seules seront prises en compte les transitions se situant en dessous et, donc, le résultat de cette reproduction markovienne donnera une sorte de continuum ne reproduisant que les transitions exprimées en triples croches et n’inclura pas les valeurs de points d’orgues plus longues :




8 – Transitions et interférences d’arpèges et d’accords : aux limites de l’informel.

Dans une composition plus récente, Le temps, mode d’emploi pour 2 pianos et électronique en temps réel, j’ai utilisé à nouveau ce processus des matrices de Markov. Je me suis particulièrement attaché à m’en servir dans le but de traiter des formes tout à fait reconnaissables, voire des archétypes, et à en étudier les interférences qu’elle peuvent avoir les unes sur les autres. Le début de ce processus est exposé par les deux pianos sous forme d’une suite d’accords de 7 à 8 sons donnant naissance à 4 matrices superposées[6]. Le résultat donnera une déflagration d’accords dérivés de toutes ces successions :



(Pianos solos : Andreas Grau et Götz Schumacher)

On peut ici entendre la partie électronique seule sans la participation des 2 pianos solistes :

Évidemment les transitions qui peuvent exister entre deux accords concernent toutes les notes. Par exemple, la succession de ces 2 accords de 4 sons portera à 16 le nombre de probabilités différentes grâce auxquelles ils pourront se reproduire :



Quelques instants après intervient une autre forme tout aussi reconnaissable que ces accords : l’arpège. Deux arpèges surgissent ici qui vont interférer avec les accords :



Voici comment ces deux arpèges, introduits au milieu de ces déflagrations d’accords vont interférer avec ces derniers dans la musique électronique, grâce aux chemins empruntés par les matrices de Markov. On y entend très clairement des bribes mélodiques très rapides, sortes de résidus d’arpèges qui viennent s’insérer entre les groupes d’accords :

Bien sûr, ces arpèges doivent posséder des notes communes avec les accords. Lors du tirage aléatoire, la matrice choisit la note suivante ; si celle-ci fait partie d’un arpège, alors la succession de l’arpège est confirmée pour un instant, si elle fait partie d’un accord, c’est cette forme qui est choisie :


De ce fait, nous obtenons des formes intermédiaires dans lesquelles des bribes d’accords ses disputent avec des lambeaux d’arpèges. Les textures qui se créent dans ce contexte musical peuvent aller jusqu’aux limites de l’informel. Dans ce cadre, l’informel naît de l’excroissance du formel. Rien d’autre n’existe que ces formes répertoriées que sont les accords et les arpèges. Pas de figures plus complexes ou ambiguës, mais des interférences de plus en plus rapides qui finissent par créer un brouillage sonore. La découverte de ces délires texturaux m’a tout de suite fait penser à des équivalents visuels qu’on trouve dans les surfaces très chargées des tableaux de Jackson Pollock, ou dans certains autres de Gerhard Richter.





Voici un exemple dans lequel le système est poussé jusqu’à son paroxysme. Ici la différence entre les deux formes de base (accord et arpège) s’estompe par le fait que les notes qui les jouent sont de plus en plus courtes et atomisées. Les accords perdent leurs résonnances et ne sont que des agrégats très brefs. Ici les textures sont de plus en plus violentes :


Il est important de souligner un détail d’ordre général. Un algorithme de composition, ou de génération aléatoire comme c’est ici le cas, n’a vraiment d’intérêt compositionnel que s’il se prête à des transformations puissantes et non à de simples imitations. Il est toujours important, dans l’écriture de telles procédures informatiques, de prévoir un assez grand nombre de paramètres pouvant faire varier les résultats de façon à obtenir des expressions musicales riches et diverses. C’est grandement de quoi il va être question dans la seconde partie de ce texte portant sur une utilisation différente des matrices de Markov.


9 – Comment inverser la courbe proliférante des matrices de Markov ?

Une des particularités de ces procédés de générations aléatoires, basés sur les successions de notes à notes, est qu’ils se comportent tout le temps par accumulation. On accumule différentes séquences qui interfèrent les unes avec les autres, et le système évolue toujours dans le sens d’une prolifération et d’un accroissement de la complexité texturale. Je me suis toujours demandé comment il serait possible d’obtenir des matrices négatives et, jusqu’à présent, je n’ai pas encore trouvé de résultat satisfaisant. Cependant, j’ai utilisé un procédé de filtrage qui parvient à peu près, et de manière très simple, au même résultat. Il consiste à dresser une liste de notes qui seront éliminées avant d’être synthétisées. Dans Le temps, mode d’emploi j’ai utilisé ce procédé pour opérer un filtrage progressif de toute une structure musicale jusqu’à la réduire à une seule note. Voici la structure de base avec toutes les hauteurs qui la constituent. Elle repose sur un ensemble de hauteurs dont chacune entretien une probabilité de succession avec toutes les autres. Comme ce procédé est ici multiplié sur 4 couches, cela donne des distributions de ces mêmes hauteurs dans des ordres différents. Le résultat sonore n’est, ni plus ni moins, ce que l’on appelle une hétérophonie :


Voici maintenant la même séquence, mais avec les deux pianos solistes qui, eux aussi, reproduisent ces éléments hétérophoniques :




Quelques mesures plus loin, le processus continue de se dérouler mais avec des filtrages. Seules les notes figurant entre parenthèses dans la partie électronique de l’exemple ci-dessous seront jouées. La manière dont ce filtrage est réalisé est extrêmement simple : dès qu’une hauteur n’appartient pas au groupe sélectionné, son amplitude est mises à 0 :



Voici ici une étape plus avancée de ce filtrage : seules 6 notes échappent aux filtres :



Et pour terminer, les deux séquences finales où ne subsistent  respectivement que deux et une seule note :



10 – Smerdiakov : un autre modèle, ou comment fabriquer de la synthèse sonore markovienne ?

Voici un modèle différent de l’utilisation des chaînes de Markov pour engendrer des séquences musicales. Ce modèle, dû à l’ingéniosité imaginative de Miller Puckette, m’a servi dans de nombreux cas[7]. Je montrerai deux exemples de ce nouveau principe de distribution sonore. Les valeurs composant les matrices, ici, ne sont pas prises en temps réel dans le jeu d’un interprète mais sont données comme des paramètres. Parmi celles-ci, les valeurs de temps qui sont contrôlées par un métronome dont la vitesse peut varier. Dans le premier exemple, les chemins markoviens sont utilisés pour les besoins de la synthèse de sons. Il s’agit d’un modèle inventé par Miller Puckette alors que je lui demandais s’il était possible de trouver une méthode pour que les paramètres principaux pour construire des spectres soient extraits de l’analyse du son instrumental[8]. Ici, il n’y a pas d’analyse du son instrumental, mais uniquement de la synthèse pure. Voici ce modèle brièvement décrit.


Le modèle est basé sur 3 fréquences (je lui ai donné le nom de synthèse 3F) qui, par leurs relations harmoniques, vont construire des spectres le plus souvent inharmoniques. Comme les fréquences de ces spectres dont calculées en effectuant les sommes et les différences de ces 3 fréquences dans toutes leurs combinaisons possibles, il est normal de trouver, lorsque ces fréquences sont à l’unisson ou à l’octave, des spectres harmoniques, puisque 100 + 100 + 100 + 100… donnent 100, 200, 300, 400… comme 200 -100 = 100, 300 -200 = 100, 400 – 200 = 200, etc. Lorsque les fréquences ne sont pas égales ou à l’octave, les spectres sont plus ou moins teintés d’inharmonicité suivant la complexité des relations intervalliques de ces fréquences de base. Un des intérêt de ce type de synthèse est qu’il permet d’obtenir une grande variété de spectres différents à partir des mêmes fréquences de bases suivant que l’on va chercher les fréquences ainsi obtenues par additions et soustractions dans des régions plus ou moins éloignées dans l’aigu, dans des ambitus plus ou moins serrés ou étendus. Voici, à titre d’exemple, une série de spectres obtenus à partir de 3 fréquences qui, pour la démonstration, sont toutes accordées suivant l’accord parfait de do majeur : do, mi et sol. On entend ici très clairement cet accord à l’intérieur de tous ces spectres inharmoniques :


Et les matrices de Markov dans tout cela ? Elles vont servir à faire se promener une des trois fréquences pendant que les deux autres seront accordées fixement. Ainsi sur les 3 fréquences A, B et C, nous aurons A qui obéira à une distribution de type markovien pendant que B et C seront figées sur des hauteurs fixes. La vitesse de déroulement de ces spectres est donnée par un métronome :


Pour que ces matrices fonctionnent, elles doivent prendre des informations dans un fichier qui remplit, à certains égards, le rôle qui était celui de l’analyse instrumentale dans les exemples précédents : il fournit une série de paramètres. Voici un exemple de ces paramètres :

69 204  1843 57 57

Le premier chiffre (en partant de la gauche) représente le pitch en notation Midi, le second est le temps (en ms) depuis le pitch qui a été donné précédemment, le troisième est la durée, le quatrième est la probabilité d’apparition de ce pitch et le dernier sa vélocité (ou intensité). Ce sont surtout le premier et l’avant-dernier chiffres qui nous intéressent car ce sont eux qui créeront les chemins entre les hauteurs. Voici maintenant une liste dans laquelle on peut lire les probabilités de successions. On peut y lire que le « la » (69) à 47% de probabilité d’être suivi par un « sol# » (56) et, quelques lignes plus loin, 54% par un « sib » (58) :

58 0 3125 42 56
69 204  1843 57 53
56 697  1631 47 49
61 777  1380 48 58
50 182  1318 45 49
47 1015 3740 52 50
69 105  567  66 68
58 494  292  54 44
60 709  718  59 63
58 130  1484 45 58
61 562  141  59 62


Mais comme on va le voir maintenant, à partir de ces réseaux de transition, ce modèle dispose de beaucoup de paramètres permettant des variations importantes sur les résultats. La première de ces variations concerne à la fois le tempo et les valeurs de durées. Voici un petit exemple dans lequel nous entendons une distribution rythmiquement régulière (comme s’il s’agissait d’un métronome), mais partant d’une très grande vitesse pour arriver à une très grande lenteur :

Dans un tempo fixe, un autre paramètre fera varier les différences de durées séparant les transitions entre les hauteurs successives. On peut, de façon continue, partir des durées initiales (celles exprimées dans la liste ci-dessus par exemple) et, petit à petit, les rassembler sur une durée unique, une moyenne commune à toutes ces transitions. C’est ce qui se passe dans l’exemple suivant :


D’autres types de transformations sont également possibles dans le domaine des hauteurs. Lors d’une distribution de type markovien, ce sont évidemment les chemins entre les hauteurs bien précises qui sont concernés. Il est toutefois possible de transposer globalement et dynamiquement ces successions de hauteurs de l’extrême grave à l’extrême aigu. Ainsi chacune des notes de ces chemins markoviens peut être transposée sur un intervalle différent lorsqu’on fait glisser l’indice de transposition en continu d’un point à un autre. Le résultat est ici déjà très éloigné de l’original, puisque chaque note est transposée et ne correspond donc plus aux hauteurs calculées réellement par les matrices de Markov. Ici ce sera l’ambitus général qui subira une interpolation entre une distribution très élargie se réduisant à une stagnation sur une seule note :

Voici le début de ma composition Illud etiam, pour soprano, clarinette et électronique, dans laquelle toute la partie de synthèse est assurée par ce modèle markovien :

(Soprano : Françoise Kubler, clarinette : Armand Agnster)


11 – Les matrices de Markov : comment varier un modèle continu ?

Dans ma composition Le temps, mode d’emploi, pour 2 pianos et électronique (2014), j’ai utilisé ce modèle en tâchant de profiter de toutes les possibilités de transformations qu’il comporte. Une sorte de « toccata » se met en place entre deux notes principales. Chacune de ces 2 notes – (50) et fa (65) – peuvent soit se répéter soit passer de l’une à l’autre, ainsi que c’est montré ici :

3smer-smerdyakov~ 65 120 80 50 10

3smer-smerdyakov~ 65 120 80 50 10

3smer-smerdyakov~ 50 120 80 70 10

3smer-smerdyakov~ 50 120 80 10 10

3smer-smerdyakov~ 50 120 80 50 10

3smer-smerdyakov~ 65 120 80 50 10

Cela peut s’interpréter ainsi : le fa (65) peut dans 50% des cas se répéter, soit descendre au (50) dans 10% des cas seulement. Le (50) peut se répéter dans 70% (ou dans 10%) des cas, soit revenir au fa dans 50% des cas. Cela donne cette stagnation un peu chaotique et irrégulière entre ces deux notes :


Voici la réalisation sonore pour laquelle j’ai utilisé des sons de piano par modélisation physiques (Logiciels Pianoteq et Kontakt) :


A partir de ces deux notes s’insère une échelle montante qui peut, soit aboutir de nouveau à la stagnation précédente par une montée en ligne droite :

4smer-smerdyakov~ 65 120 80 70 10

4smer-smerdyakov~ 65 120 80 50 10

4smer-smerdyakov~ 50 120 80 10 10

4smer-smerdyakov~ 50 120 80 70 10

4smer-smerdyakov~ 50 120 80 10 10

4smer-smerdyakov~ 65 120 80 50 5

4smer-smerdyakov~ 65 120 80 50 10

4smer-smerdyakov~ 37 120 80 50 10

4smer-smerdyakov~ 40 120 80 50 10

4smer-smerdyakov~ 43 120 80 50 10

4smer-smerdyakov~ 44 120 80 10 10

4smer-smerdyakov~ 45 120 80 70 10

4smer-smerdyakov~ 50 120 80 10 10

4smer-smerdyakov~ 54 120 80 10 10

4smer-smerdyakov~ 59 120 80 10 10

4smer-smerdyakov~ 60 120 80 10 10

4smer-smerdyakov~ 65 120 80 10 10

(on voit dans la partie en rouge que les notes ne se reproduisent pas et donc n’ont qu’une seule possibilité : passer à la suivante).


soit y parvenir suivant une progression plus irrégulière :

1smer-smerdyakov~ 65 120 80 50 10

1smer-smerdyakov~ 65 120 80 70 10

1smer-smerdyakov~ 50 120 80 10 10

1smer-smerdyakov~ 50 120 80 10 10

1smer-smerdyakov~ 65 120 80 50 5

1smer-smerdyakov~ 65 120 80 50 10

1smer-smerdyakov~ 37 120 80 50 10

1smer-smerdyakov~ 40 120 80 50 10

1smer-smerdyakov~ 37 120 80 50 10

1smer-smerdyakov~ 31 120 80 50 10

1smer-smerdyakov~ 34 120 80 50 10

1smer-smerdyakov~ 35 120 80 50 10

1smer-smerdyakov~ 44 120 80 50 10

1smer-smerdyakov~ 31 120 80 50 10

1smer-smerdyakov~ 44 120 80 10 10

1smer-smerdyakov~ 45 120 80 70 10

1smer-smerdyakov~ 50 120 80 10 10

1smer-smerdyakov~ 31 120 80 50 10

1smer-smerdyakov~ 54 120 80 10 10

1smer-smerdyakov~ 59 120 80 10 10

1smer-smerdyakov~ 60 120 80 10 10

1smer-smerdyakov~ 65 120 80 10 10

(on voit ici que les notes 37, 31 et 44 ont plusieurs portes de sorties)


Voici toutes la séquence, à laquelle viennent se greffer les deux pianos solistes :


Vers la fin de cette section, trois transformations vont venir déstabiliser la régularité de cette « toccata ». L’une consistera à faire varier grandement les distributions dynamiques, ce qui aura pour effet que les notes ne seront plus jouées avec la même force mais produiront des contrastes qui briseront la linéarité du début. L’autre, plus radicale, sera une transposition de tous ces processus dans les régions de l’extrême grave. Parallèlement à cette transposition, le tempo subira un ralenti massif. Il y aura donc continuité structurelle, puisque ce sera toujours le même processus qui sera à l’œuvre, mais avec de grandes différences expressives car, partis d’une toccata très mécanique dans le médium, qui semblait pouvoir tourner sur elle-même indéfiniment, nous sommes arrivés progressivement à une distribution totalement chaotique faite de points épars, non prédictibles, dans l’extrême grave. C’est une structure stable qui s’écrête progressivement pour ne constituer qu’un fond sonore indistinct et instable :


Quelques 35 minutes plus tard, nous retrouvons ce processus dans l’état où on l’avait laissé, c’est-à-dire sous cette forme indistincte. Et c’est alors le mouvement inverse qui se produit. Chacune des voix, il y en a 4, se reconstitue alors pour retrouver la registration, la régularité et la linéarité de la toccata initiale :

Suivra maintenant une section au cours de laquelle la toccata sera transposée dans l’extrême aigu avant de se condenser sur des notes-pivots. À ce stade de sa transformation, il ne subsistera que l’alternance entre deux notes, comme c’était au début, mais celles-ci seront ici différentes et varieront dans le temps :

Enfin, la toccata retrouvera sa forme initiale grâce à une transition au cours de laquelle sa forme réduite s’épandra vers l’aigu et vers le grave simultanément :



Mais la transformation la plus radicale est pour la fin de cette grande section. Je fais intervenir un deuxième processus aléatoire superposé à celui-ci. Cette toccata, produite par les chemins markoviens, va peu à peu être interrompue par l’intrusion d’éléments étrangers : des accords. Ces accords n’interviendront pas de façon déterministe mais suivant des probabilités qui vont augmenter au cours du temps. La règle est que, dès qu’un accord intervient, la toccata s’arrête. Il faut alors décider du moment où celle-ci reprendra sa course. Là aussi interviendra un autre facteur probabiliste. Il s’agira de définir un temps minimum et un temps maximum entre lesquels sera déterminé le moment exact de cette reprise. Pour parvenir à une destruction progressive, ou une diffraction, de cette toccata, j’ai opté pour le choix que plus la probabilité d’apparition d’un accord est élevée, plus long sera le temps d’attente avant la reprise de la toccata. Voici quelques exemples de ce long processus de transformation. Mais d’abord une transcription d’un processus de Markov de type « toccata », dans lequel les notes répétées et des montées plus ou moins régulières s’échangent continuellement :



Ici commencent à intervenir les accords. La probabilité qu’intervienne un accord dans la succession de tirages aléatoires de la matrice de Markov est ici fixée à 4%, et le temps de reprise de la toccata se situera entre 0,5’’ et 2’’. Voici une transcription d’une voix de ce processus ainsi qu’un enregistrement. Dans ce dernier, comme les 4 voix sont superposées, on n’entendra pas l’arrêt d’une des toccatas, mais on percevra la faiblesse de probabilité d’apparition de ces accords :



Un peu plus loin dans le processus, cette probabilité d’apparition des accords augmente à 25% et le temps de reprise de la toccata sera compris entre 2,5’’ et 10’’. Parallèlement à cela on notera, une nouvelle fois, une destruction de l’équilibre dynamique de ces flux sonores. Les notes ne seront plus jouées avec la même intensité, produisant des accents intempestifs et participant à cet effet d’écrêtement que l’on a entendu précédemment :



Tout cela ne fera qu’augmenter jusqu’à la section finale. La probabilité d’apparition sera ici beaucoup plus élevée (40%) tandis que le temps de reprise sera compris entre 6’’ et 12’’. Le résultat sera que, dès qu’une toccata débutera, elle sera très vite bloquée par un accord qui résonnera pendant un temps de plus en plus long avant de laisser la toccata reprendre, et ainsi de suite. Voici ici un exemple de transcription de la fin de ce processus ainsi qu’un enregistrement de la section sonore :



12 – Poétique des chaînes de Markov.

La puissance expressive qui peut sortir des chaînes de Markov m’a plus d’une fois impressionné. Très souvent elles semblent se régénérer d’elles mêmes comme si elles étaient mues par une force cachée mais terriblement efficace. Elles peuvent tout aussi bien exprimer des états musicaux, faits de densités, de textures, de déflagrations, que des devenirs lorsqu’elles prolifèrent ou se métamorphosent quand plusieurs structures entrent en collision. Elles ont également l’attrait des musiques qui, même si l’on croit très bien les reconnaître, nous surprennent toujours car elles n’empruntent jamais exactement les mêmes chemins. C’est pour cela qu’elles sont à la fois les mêmes et toujours différentes. Il m’est arrivé de les écouter pendant des heures, et même de les faire tourner toute une nuit durant pour voir si, le lendemain matin, elles auraient perdu quelque chose de leur mystère et de leur force. Mais jamais cela ne s’est produit. Parfois elles produisent des situations qui nous étonnent et que l’on aimerait bien retrouver, mais souvent, ces situations ne reviennent plus. Lorsque les choix deviennent réellement explosifs (n’oublions pas qu’elles fonctionnent sur le modèle des réactions en chaînes !), quelque chose d’incommensurable se fait jour. Aucun autre modèle ne pourrait mieux qu’elles donner l’idée d’une musique qui naît spontanément sous nos oreilles au moment même où on l’écoute. C’est un flot ininterrompu qui peut se montrer récursif, proliférant, stagnant, fuyant, qui peut lui-même s’engendrer comme se résorber. Et le plus étonnant dans tout cela, est que ces matrices de Markov semblent inventer un monde sonore fantastique à partir d’une situation réelle parfois assez simple. Elles développent par moments de fabuleuses excroissances et tirent toutes les conclusions nées de la potentialité exhaustive de prendre tous les chemins possibles à partir d’une situation qui peut être minime et confinée. Elles nous donnent l’illusion d’une machine dotée d’un cerveau et sachant composer. Et pourtant ! Ce qu’elles produisent possède une force musicale qu’aucun compositeur ne saurait imiter. Les rythmes catapultés qu’elles nous donnent à entendre seraient, pour la plus grande majorité d’entre eux, inconcevables dans une notation musicale classique dans laquelle on divise un temps en 2 ou 3 ou 4. On ne saurait produire une succession de durées provenant de divisions totalement différentes. Mais, ce qu’il y a de plus fascinant en elles, c’est qu’elles nous donnent une idée de l’infini en musique. Les chaînes de Markov sont, par essence, infinies. Il existe toujours un chemin à prendre, quand bien même se chemin reviendrait indéfiniment sur lui-même. Tant qu’elles tournent et qu’on ne les arrête pas brutalement, elles ne cessent de se reproduire. Dans Pluton déjà, mais aussi dans Le temps, mode d’emploi, je les fais tourner en permanence, même lorsqu’on ne les entend pas. Elles font partie d’un temps qu’on peut habiter à volonté.

Les chaînes de Markov peuvent être exploitées avec des concepts tout à fait différents de ceux que j’ai exposés ici. Elles ont, j’en ai l’intuition, des potentialités musicales qu’on est encore loin de soupçonner.


Strasbourg, janvier 2015












[1] La question de savoir si les ordinateurs produisent véritablement de l’aléatoire est, je le sais, débattue. Mais, pour nos oreilles, car c’est de cela qu’il est question, l’utilisation d’un flots de données réellement ou partiellement aléatoires ne fait guère de différence.

[2] Olivier Messiaen décrivant des personnages rythmiques dans un théâtre imaginaire lorsqu’il analysait la danse finale du Sacre du printemps, ou encore Karlheinz Stockhausen, étudiant les variations de densités harmoniques dans la musique d’Anton Webern, sont des exemples connus de ces points de vue subjectifs qui ont rendu plus de services aux travaux créatifs des analystes qu’à la connaissance des ouvres analysées.

[3] Xenakis a été le premier compositeur à utiliser les chaînes de Markov en musique autour des années 1957-58. D’abord pour réaliser des œuvres électroniques, il s’est ensuite servi de ce formalisme pour composer une œuvre pour orchestre à cordes : Analogique A.

[4] Du nom du mathématicien russe Andreï Markov (1856-1922) qui, pour l’occasion, étudia en 1913 la succession des lettres dans le roman de Pouchkine : Eugène Onéguine.

[5] Il peut évidemment toujours se trouver un cas ou, pour une raison quelconque comme une erreur du pianiste au moment ou il produit le « remplissage » des matrices, une note ne trouve aucune succession possible. Ici théoriquement le système s’arrête net et, par la même occasion, la pièce également ce qui, dans le cadre d’un concert, serait catastrophique. Il faut alors trouver des solutions de rattrapage comme envoyer la première note (qu’on est sûr d’avoir jouée) qui, elle, trouvera un ou plusieurs chemins à suivre.

[6] Comme cela a été remarqué pour Pluton, les matrices peuvent avoir des contenus de probabilité absolument identiques, elles produiront des résultats divergents.

[7] Je l’ai utilisé dans mon opéra La nuit de Gutenberg, ma composition pour soprano et électronique Illud etiam, mon cocnerto pour piano et orchestre Echo-Daimonon, ainsi que dans mon œuvre pour 2 pianos et électronique Le temps, mode d’emploi.

[8] J’ai utilisé ce modèle dans mon second quatuor à cordes Tensio, dans lequel chacune des trois fréquences était donnée par 3 des 4 instruments.

Interlude symphonique entre I,1 et I,2

Thursday, December 25th, 2014

ex1ex1ainterlude1Voici donc le premier interlude symphonique. La fonction de ces interludes est double. Dramatique d’abord : il faut changer le décor et passer à la scène suivante. Et musicale bien sûr : il faut résorber le matériau qui à précédé tout en introduisant celui qui va venir. Alban Berg avait une grande admiration pour les interludes musicaux que Debussy avait composé pour Pélléas et Mélisande. On sait que beaucoup de ces interludes n’avaient pas été prévus dans le plan initial de l’opéra et que Debussy les avait composé pour permettre justement ces changements de décors. C’est la fluidité avec laquelle Debussy a traité le matériau musical qui impressionna tant Berg. Il est vrai que Berg aurait pu tout aussi bien trouver cette fluidité dans les derniers opéras de Wagner (Parsifal en particulier). On retrouvera donc, dans la texture orchestrale de ces interludes, la plupart du matériel motivique qui a servi à la scène précédente.

Cet interlude s’ouvre par une reprise du thème de la Pavane, donnée ici à la trompette :



Voici, ici, ce motif tel qu’il apparaît dans la Pavane :



Pour assurer une continuité musicale, surtout du point de vue rythmique, Berg va maintenant utiliser des procédés de transformation qui feront qu’un motif se dirigera imperceptiblement vers un autre, comme lors d ‘une interpolation. Le premier de ces exemples est donné par la conservation des figures en triolets de croches, caractéristique du motif de la Pavane que l’on vient d’entendre, mais en leur accolant des profils intervalliques différents. C’est exactement ce qui se passe ici :



Cette succession de notes { la#, la, mi, mib, fa#, mi, do, sol et lab } ne nous est pas inconnue. Pour en trouver l’origine, il nous faut aller du côté de la Gavotte. Il s’agit même du thème principal sur lequel le Capitaine faisait à Wozzeck la remontrance de ne pas avoir donné à son fils une éducation religieuse :



A partir de cette transformation, Berg va immédiatement obliquer vers une autre. Il profite de ce demi-ton montant {sol-lab} qui termine ce thème de Gavotte pour amorcer une imitation : sol-lab-sol-la-sol#-fa# qui passe successivement de la première flûte aux violons I :




Nous voilà maintenant arrivé dans la Gigue. La cellule la-sol#-fa# était répétée ironiquement par les cors, lors de la moquerie du Capitaine :



Ainsi, dans cette accélération, qui constitue la première section de cet interlude, nous trouvons à son terme le rappel de plusieurs motifs liés à la Gigue, puisque c’est sur la référence à ce mouvement qu’aboutit cette section. En rouge, aux cordes, la reprise de ces accords montrés aux cors dans l’exemple précédent, mais ici dans une répétition qui va en s’accélérant, en bleu, le thème principal de la Gigue, en vert, le résidu du thème de la Gavotte entendu précédemment, et en jaune, on reconnaît le motif que jouait les trombones toujours dans la Gigue (mesures 93 à 96) :


Voici, ici les motifs correspondants dans la Gigue : à la mesure 83, le thème principal (bleu), et le motif des trombones qu’on trouve aux mesures 93 à 96 (en jaune) :






Vient ensuite une transition préparant le développement final. On y reconnaît trois éléments : les sextolets de cordes sont évidemment ceux de la Gigue (la description du vent), la partie « Haupstimme » aux cors reprend le motif de la Gavotte (« Er hat keine Moral ! »), quant aux accord de quatre sons joués par les flûtes, hautbois et clarinettes, il nous faut aller dans l’Aria pour en trouver l’origine :



Ici les références dans le début de la Gigue au trio de flûtes :



Et les accords provenant de l’Aria :



La dernière section de cet interlude, sera presque intégralement basée sur les éléments de l’Aria. Elle s’articule sur une basse obstinée de « do# » que nous connaissons déjà bien : le motif de la soumission (« Ya Wohl ! Herr Hauptmann ! »), répété quatre fois suivant 4 métriques différentes, d’abord en noires, puis en croches, triolets de croches et double-croches :



Les violons entonnent le « Wie arme Leut » de l’Aria de manière à joindre le début et la fin. On se souvient que cet Aria se terminait par une colère de Wozzeck symbolisée par l’alternance de deux notes, comme s’il s’agissait de quelque chose d’asséné vigoureusement : « Nous sommes tellement pauvres que, si nous allions au Paradis, on nous demanderait aussi de faire le tonnerre ! ». Lors de l’Aria, cette phrase était superposée avec la scansion du « do# », note de la soumissions :



Lors de cet interlude, Berg donne la mélodie intégrale du « Wie arme Leut » qui se termine sur une seconde majeure {ré-mi}, qu’il va répéter dans la dernière figure :



Cette répétition de seconde majeure lui ouvre, en quelque sorte, la porte pour introduire la phrase qui suit, qui est basée sur les mêmes intervalles répétés, et qui est une reprise, jouée par les bois aigus, de la « colère » de Wozzeck mentionnée précédemment :



Enfin, pour réunir le tout, Berg reprend les accords en tierces, déjà utilisés dans la fin de l’Aria, en « battuto » des cordes comme montré ici :



La même configuration se retrouve ici à al fin de cet interlude : le motif de la soumission sur « do# » aux basses et les accords en tierces aux cordes, la seule différence se trouve dans le retour du thème de la Gigue (reconnaissable à son rythme pointé) qui est joué ici aux violoncelles (en bleu dans l’exemple ci-dessous) :



La fin de cet interlude reprend donc la colère de Wozzeck qui, dans l’Aria, était calmée par le Capitaine (« Schon gut, schon gut ! »). Ici la transition sera brusque. Ce crescendo impressionnant, scandé par la grosse caisse sur le motif de la soumission, cache un objet qui entre imperceptiblement et ne se découvrira qu’à la fin du crescendo. Il s’agit du premier accord de la Rhapsodie qui va suivre (2ème scène) qui, écrasé par toute la puissance orchestrale, entre « ppp » aux cor, trompette, et 3 trombones :



© With kind permission by UNIVERSAL EDITION A.G., Wien








1.1.6 Rétrogradation du Prélude

Wednesday, December 24th, 2014

La fin de cette première scène se termine par un bref intermède du Capitaine tenant de calmer Wozzeck par un : « Schon gut , schon gut ! ». Wozzeck, dit-il, est un brave homme, seulement il pense trop. Ce dialogue l’a épuisé. Il demande à Wozzeck de sortir, mais « langsam ». La scène se termine donc par le mot avec lequel elle a commencé. Pour bien marquer cette symétrie, ce retour au début indiqué par ce « langsam », Berg choisit une forme qui est une rétrogradation de certains éléments du Prélude. Pour commencer, il nous propose ce qui paraît être une reprise du Prélude. Nous y retrouvons les accords et les motifs du début, mais enchaînés dans cette répétition de double-croches qui concluent celles qui accompagnaient la fin de l’Aria de Wozzeck :





Voici les 3 premières mesures pour comparer :




Ce qui suit est le début de ces petits mouvements rétrogrades du Prélude. Voici d’abord les mesures 13 et 14 du Prélude :


Puis la rétrogradation ici :


Une petite exclamation du Capitaine « Er sieht immer so verhetzt aus. » :


qui reprend un demi-ton plus bas la phrase et la mélodie qu’il avait déjà chanté à la mesure 52 :



Vient ensuite des suites d’accords groupés par 3 :



qui sont un rétrograde de ceux des mesures 11 et 12 du Prélude :



Puis, après une stagnation sur les deux derniers accords avec un ralentissement rythmique :



vient la rétrogradation des accords en tierces des mesures 8 à 10, introduites par la réexposition du motif du Capitaine aux violoncelles :



Ici, les mesures 8 à 10 du Prélude :




Puis dans leurs rétrogradations à la fin, mais transposés une octave au dessous. On remarque le retour du quatuor d’anches « obligato » qui était celui du Prélude :




La fin se termine dans une stagnation des derniers accords dans l’extrême grave avec la conclusion du Capitaine sur le mot « langsam » répété deux fois sur les notes fatidiques « fa » et « si » :



Voici un plan général de cette première scène, avec, en rouge, les entrées successives de Wozzeck jusqu’à son Aria final :



© With kind permission by UNIVERSAL EDITION A.G., Wien

1.1.5 Suite (Aria)

Wednesday, December 24th, 2014

1.1.5 Suite : Aria

Pas de transition donc, l’Aria surgit de derrière les trombones comme une libération de la parole de Wozzeck, trop longtemps contenue et brimée. Il s’agit d’un Aria en trois parties. Le « do# » des basses, depuis un certain temps, préparait ce moment. La condition d’homme (première partie).

 Wozzeck va exprimer sa « condition d’homme » : «Wie arme Leut ! » (« Nous, pauvres gens »). Deux intervalles composent ce motif : les tierces (en vert dans l’exemple ci-dessous) et les secondes (en bleu) :



Il faut noter que la succession de tierce mineure et seconde mineure constitue le motif de Marie et qu’elle est clairement énoncée dans la fin de ce motif sur les mots : « Wer kein Geld hat ! » (« lorsqu’on n’a pas d’argent »). La relation entre Marie et le manque d’argent sera une constante dans ce texte et ce n’est pas un hasard si, la première fois où est exprimée l’indigence, Berg choisit précisément les intervalles constituant le motif de Marie :


Bien plus que son propre leitmotiv, ce « Wie arme Leut » sera la mélodie qui suivra Wozzeck et le représentera. Ce motif interviendra dans certains moments-clés de l’opéra. Marie en donnera une évocation, sous une forme plus exacerbée, un peu plus loin dans ce premier acte :




Mais surtout, il préludera, en péroraison aux trombones et aux bois, au grand « climax » orchestral du troisième acte sur le motif du « Malheur de Wozzeck ». Le motif de cet Aria et celui du « Malheur » sont, en quelque sorte, corollaires l’un de l’autre car, dans cette histoire, le manque d’argent est bien entendu l’une des principales sources du malheur :



L’accompagnement est ici confié aux cordes de l’orchestre : c’est l’obligato de ce mouvement de la Suite. Deux choses sont à remarquer. D’abord le chant s’élève sur le motif de la soumissions, ces fameux « do# » des violoncelles et contrebasses. Ensuite les cordes suivent la courbe mélodique de la voix, d’abord montante, puis descendante, en isolant les structures d’intervalles qui composent cette mélodie. Les tierces mineures (en vert)sont utilisées pour la partie montante (un accord de 12 sons en tierces superposées[1]) et les secondes (en bleu)pour la descente :

ex3 Une petite série de très courtes variations (seconde partie).


Le motif de cet Aria va subir de très courtes variations, qui vont le distribuer, d’abord à l’extrême grave, aux contrebasses, avant de le hisser vers les notes les plus aiguës de l’orchestre au violon solo. Dans un premier temps, lorsqu’il est joué par les contrebasses, il se superpose à un motif d’accords basé, sur une formule de 6 notes, dont les trois premières sont répétées. Ce motif se reproduit ensuite avec une variation dans le plus pur style classique : A B et A B’. Notons qu’il s’agit ici d’accords parallèles, excepté le dernier de la première mesure. Ce dernier accord, qui devrait être {fa#, sol#, do, ré et la} s’il devait respecter le parallélisme, se trouve décalé sur {ré, mi, sol# do et la} a une explication. Il peut s’entendre comme l’accord appogiaturé du suivant (qui n’est autre que la reprise du premier) car toutes les voix montent chromatiquement sauf la voix supérieure qui, elle, descend :



La même constatation peut être faire des accords de la seconde mesure, qui évoluent, eux aussi, par mouvements chromatiques superposés. Cette petite variation se conclue par une stabilisation sur un accord de Mib Majeur (un des premiers emprunts harmonique au langage tonal, très fréquent dans cet opéra) avec une conclusion qui nous offre une nouvelle image de la séparation des intervalles telle qu’elle avait eu lieu dans l’accompagnement des cordes au début de cet Aria. Ici ce sont les tierces mineures et les secondes mineures (encore le motif de Marie) qui sont traités indépendamment, les tierces à la voix du haut, et les secondes à la voix du bas. Le tout se conclut par une évocation du motif « Wie arme Leut » (en bleu dans l’exemple suivant) :


Une seconde variation fait intervenir des éléments musico-sémantiques qui vont nous éclairer un peu plus sur cette relation argent/Marie. Wozzeck explique au Capitaine qu’il ne peut pas se comporter comme un « Monsieur » qui aurait un chapeau, une montre et des lunettes, bref, les objets que possède la classe sociale dominante que lui, bien sûr, n’a pas.




Ce qu’exprime l’orchestre ici est double. Il présente simultanément deux motifs imbriqués l’un dans l’autre. Le premier à une double caractéristique : d’abord son rythme pointé, ensuite son écartement d’intervalle ne partant de la même note (ré-mi, ré-fa puis ré-lab). Il s’agit du motif de l’obsession qui jouera un très grand rôle dans cet opéra. Ce motif est déterminé par un profil rythmique et mélodique, mais pas intervallique. C’est dans ce dernier composant que va se loger le second motif. Les notes qui s’écartent progressivement du « ré » obstiné sont : mi, fa et lab (en rouge ci-dessous) : il s’agit, encore ici, des intervalles de seconde et tierce mineures, donc du motif de Marie. L’obsession de ne pas posséder les objets de la classe sociale dominante est nourrie, sans nul doute, par de nombreuses récriminations de Marie. Voilà un exemple, et il y en aura beaucoup dans cet opéra, de la façon dont ce que n’expriment pas les personnages sur scène est clairement énoncé dans l’orchestre. Les non-dits, les ressentiments et l’inconscient trouvent dans la fosse d’orchestre un écrin parfait :


La troisième variation fera intervenir le motif principal de l’Aria en canon en partant de l’extrême aigu. Dans le solo de violon nous retrouvons le motif lui-même puis une conclusion descendante, non pas sur les secondes, tel que cela avait été le cas au début, mais sur les tierces. A noter qu’il s’agit du même accord de 12 sons que celui utilisé au début mais dont les notes extrêmes ont été échangées (do en bas et do# en haut).


La descente de violon se déroule sur les mêmes hauteurs que celles qui sont tenues au début de la mesure (accord en tierces superposées). L’accord précédent est, comme souvent ici, un accord appogiaturé. On le déduit par le déplacement chromatique, soit en montant, soit en descendant, de chacune des notes. Une petite série de très courtes variations (troisième partie).


Cette troisième et dernière partie de l’Aria va exprimer la « libération de parole » de Wozzeck. En trois phrases il va petit à petit prendre de l’ampleur, et même faire grandir sa colère, au point que le Capitaine aura, peut-être pour l’unique fois, quelques mots aimables à son encontre, dans le principal but de le calmer. Les deux premières phrases sont constituées de transpositions d’une même structure, avec un court point d’orgue au milieu. Dans cet Aria, basé sur les sonorités de cordes, ces deux courtes phrases apportent un contraste par le fait qu’elles sont totalement distribuées entre les cuivres et les bois :

a) Le motif de la soumission aux trombones et tuba qui va descendre : de do#, il passe au do naturel, puis au si. Superposé à ce dernier, on reconnaîtra dans la partie vocale le « Wie Arme Leut ! » :


b) L’accord en tierces superposées, remarqué au début de cet Aria dans l’accompagnent des cordes) se trouve déployé entre les cuivres, les hautbois et les piccolos. A noter que, si cet accord accompagne la descente chromatique des basses, il progresse en ambitus. Le premier accord monte au lab, tandis que le second accède au sib, ce dépassement dans l’ambitus donne en fait l’illusion d’un écartement entre les graves qui descendent et les aigus qui montent :


La troisième phrase replace le motif de la soumission sur sa note originale (do#) qui va subir une accélération accompagnant l’énervement de Wozzeck (« Nous autres, on est malheureux dans ce monde comme dans l’autre. je crois que, si nous allions au ciel, il faudrait encore aider à faire le tonnerre. »). Les accords en tierces se distribuent maintenant entre des « col legno » (que Berg suggère éventuellement de jouer « pizzicato ») sur différentes transpositions, dont la seule règle semble être qu’aucun de ces accords réunis ne comporte de « do# », réservé aux contrebasses :


Cette dernière phrase marque un changement de timbre brusque par la réapparition des cordes. De telles coupures seront fréquemment utilisées dans le cours de cet opéra :



La fin de l’Aria, mêlant battements de cordes et percussions, sera tout de suite jugulée par l’entrée du Capitaine (« Schon gut, schon gut ! ») qui introduit la dernière partie de cette Suite en rétrogradant le Prélude.



© With kind permission by UNIVERSAL EDITION A.G., Wien

[1] Cet accord est en fait une superposition de 3 accords des septième diminuée qui, comme c’est bien connu, superposent les 12 sons de la gamme chromatique : {do#-mi-sol-sib}, {ré-fa-lab-si} et {mib- fa#- la-do}.

En quoi le projet de la Philharmonie de Paris est-il visionnaire ?

Sunday, November 9th, 2014

Cet article a été publié dans Le Monde du Dimanche 9 et du Lundi 10 novembre 2014, dans la rubrique Débats. Ce journal l’a présenté sous une forme remaniée et raccourcie sans jamais m’avoir consulté. En voici la version originale :

Les débats au sujet de l’ouverture de la Philharmonie de Paris, auxquels on assiste depuis des mois, en disent long sur la place qu’occupe la musique savante au sein de notre société. Quels arguments y avance-t-on ? Cette salle va coûter cher. Il va falloir la rentabiliser. Il s’agira de faire venir le public des concerts classiques qui a ses habitudes à la Salle Pleyel et au Théâtre des Champs-Élysées dans les quartiers populaires de l’Est parisien. Contrairement au théâtre, à la danse, aux arts plastiques, voire au cinéma – il suffit de regarder la diversité d’âges de leurs publics respectifs -, la musique est un terrible outil de discrimination sociale qui met à nu les clivages profonds dont souffre notre société. Pascal Quignard qualifiait la musique d’« agroupante »[1]. Je me désole qu’elle soit devenue aussi redoutablement « cloisonnante ». Elle est désormais calibrée pour toutes les tranches d’âge, pour toutes les classes sociales, tous les groupes ethniques, toutes les configurations géographiques. Il y a de la musique pour les enfants, pour les jeunes, pour les adultes, pour les vieux, pour les gens aisés, pauvres, pour les blancs, les noirs, les beurs, pour les habitants des villes, des banlieues, des campagnes. De ce point de vue, la musique s’apparente aux habits ; elle dit l’origine, elle désigne le niveau social, elle dénote le lieu de résidence de celui qui l’écoute. Elle est marqueur social, certes, elle est divertissement (pour toutes classes confondues, assurément). Mais par qui, diable, est-elle considérée encore comme un art ? Dans les médias et pour la plupart des intellectuels, le mot « art » est devenu synonyme des seuls arts plastiques ; comme le mot « musique » est désormais ramené à la seule « musique rock ».


La gauche et la droite s’opposent, comme de coutume, sur le projet de cette Philharmonie de Paris. L’une le juge trop élitiste, l’autre y redoute la perte ce qu’elle considère son patrimoine historique. Que n’a-t-on pas entendu ? Madame Hidalgo, maire de Paris, a fait savoir que la grande salle de la Philharmonie (construite pourtant pour accueillir les grandes formations symphoniques) doit impérativement s’ouvrir aux « musiques urbaines » si elle veut bénéficier de sa subvention. Je lui proposerais volontiers les symphonies « Linz » ou « Prague » de Mozart, « Londres » de Haydn, Les pins de Rome de Respighi, Un Américain à Paris de Gershwin, San Francisco Polyphony de Ligeti et, dans la foulée, tant qu’à faire, ma propre Passacaille pour Tokyo ! Or la maire, elle, malheureusement ne plaisante pas. Subventionner un projet qui ne va toucher qu’une fraction de la population de sa ville, la plus aisée de surcroît, écornerait son image. Dans le camp adverse (sic !), on entend des propos tout aussi ahurissants, comme par exemple : « La musique classique est un art élitiste, et il en ira toujours ainsi. »[2] L’élite se résume-t-elle à un club dans lequel on ne peut être admis que si l’on habite les quartiers chics de la capitale ? Quel risque y a-t-il à laisser cette musique atteindre les populations n’appartenant pas à ce sacro-saint « entre-soi » ? La musique « classique » ne se confond-elle pas avec « cet obscur objet du désir » d’une classe sociale vieillissante qui ne veut pas comprendre que continuer à le garder jalousement ne ferait que le mener à sa perte ?


Pour la droite et la gauche, la musique ne semble avoir d’intérêt qu’en tant que symbole d’agroupement social. Elles s’entendent, ici aussi, comme larrons en foire. L’idée de briser ces clivages, cet ordre hérité plus que mérité, fait naître une peur ; cette peur, jamais avouée publiquement, de voir surgir une explosion sociale, latente, tapie dans l’ombre, mais toujours menaçante. Si le discours politique, au sujet de la musique, est truffé de démagogie, le discours plus général, celui des intellectuels et des sociologues, révèle un vide abyssal en matière de culture musicale. Il ne s’en trouve guère, parmi eux, pour se pencher de manière critique sur cette situation. Cela s’explique, toutefois. Ces gens-là peuvent difficilement s’inventer un rapport à la musique qu’ils n’ont pas. Ils manquent autant d’éducation en la matière que le gros de la population, l’enseignement musical ayant partout, en France, fait cruellement défaut.


Il y aura toujours des musiques destinées à satisfaire de grandes foules, et d’autres qui, à l’instar du théâtre ou de la littérature, nourriront des relations plus personnelles, voire intimes. Au nom de la paix sociale, il faudra toujours – c’est une évidence – toucher le plus grand nombre, entretenir ce qui déjà fait consensus, magnifier le présent (festif, si possible), et surtout l’organiser, le contrôler. Un signe des temps : Patrick Modiano, notre prix Nobel fraîchement émoulu, fut comparé sur France Culture au groupe Daft Punk ; non sur son parcours esthétique, bien sûr, mais sur sa valeur d’exportation ! Va-t-on se satisfaire de ce type de balivernes encore longtemps ? Ne devrait-on pas plutôt créer des passerelles qui permettraient aux habitants des quartiers populaires de découvrir un univers riche d’« œuvres musicales » qu’ils n’ont jamais eu l’occasion d’entendre ? À l’époque où l’internet offre l’accès libre à un savoir horizontal, ouvert, non hiérarchisé, pourquoi faudrait-il que la musique reste, elle, enfermée dans des cloisons étanches, figée dans une verticalité proprement pyramidale ?


Certains pays, comme la Finlande et le Venezuela, ont mis en œuvre des politiques musicales ambitieuses qui devraient nous servir de modèle. Ils ont su, eux, marier l’ambition artistique au souci social. Le programme El Sistema au Venezuela permet aux enfants des bidonvilles non seulement d’apprendre à jouer d’un instrument, et même de s’épanouir au sein d’un orchestre, mais aussi de trouver, à la sortie des répétitions et des concerts, quelque chose dans leurs assiettes. Ces politiques ont porté leurs fruits. Ce n’est pas un hasard si les deux derniers directeurs musicaux du prestigieux Los Angeles Philharmonic ont été un Finlandais et un Vénézuélien[3]. Il faut voir aussi les immenses orchestres de jeunes qui existent au Japon pour mesurer le fossé qui nous sépare de ces pays-là. Que l’on pense à Claudio Abbado, qui a fondé, il y a près de trente ans, l’Orchestre des jeunes Gustav Mahler, ou à Daniel Barenboïm qui, avec Edward Saïd, en 1999, a créé le West-Eastern Divan Orchestra, regroupant de jeunes instrumentistes israéliens et palestiniens. Ces musiciens-visionnaires ont prouvé que la pratique de la musique pouvait se hisser au-dessus de tout clivage générationnel, ethnique, culturel, politique. Et cela, qu’on se le dise, sans rien retrancher de l’ambition artistique. Mieux, ils ont d’emblée élevé ces orchestres au rang des plus grandes formations internationales, car ils savaient que les grandes œuvres musicales transcendent tous les contextes. Pas besoin de les qualifier d’universelles – L’Ode à la joie est toujours plus universelle chez nous que chez les Papous – pour comprendre que ces œuvres peuvent toucher les individus d’où qu’ils viennent, si toutefois on a su leur en parler.


Il ne s’agit pas de placer les musiques savantes au-dessus d’autres musiques, selon des échelles de valeurs conjecturales, mais de décider d’instaurer une éducation musicale digne de ce nom. Certes, les conservatoires de musique français regorgent de candidatures qu’ils n’arrivent même pas à satisfaire. S’agit-il là d’un regain d’intérêt pour l’étude de la musique ? Rien n’est moins sûr. Aux yeux de nombreux parents, faire pratiquer la musique à leurs enfants est une aide à leur réussite scolaire. Malgré l’absence de toute preuve scientifique en la matière, cela montre que la musique jouit en France, notamment auprès des classes sociales les plus aisées, d’un statut semblable à celui qu’avait jadis l’apprentissage du latin et du grec : langue morte qu’on délaisse une fois son rôle formateur accompli. On entend parler, sempiternellement, de la nécessité de dispenser un enseignement artistique dans les collèges et les lycées, mais la musique reste toujours sur les bas-côtés. À Strasbourg, la ville où j’habite, les salles de théâtre, au contraire des salles de concert, regorgent de lycéens. Pas de quoi s’étonner : les professeurs de français les y préparent en les faisant entrer dans les subtilités des textes de Molière ou de Beckett. Où est le professeur de musique ? Qui parle aux lycéens des grands textes musicaux d’hier et d’aujourd’hui ? Qui les leur met dans les oreilles ? Pourra-t-on un jour en France voir un élu initier dans sa ville, dans sa région ou dans son pays un programme d’éducation et de sensibilisation à la musique en tant qu’art ?


Le projet de la Philharmonie de Paris, mené par Laurent Bayle, veut relever ce défi. Il comporte des risques, certes, mais il est audacieux, et surtout visionnaire. Il vise à dépasser les cloisonnements qui contribuent au ravalement de la musique au rang d’une marchandise vouée à être remplacée, tôt ou tard, par une autre, voire à disparaître. La tâche est énorme. Et alors ! Si l’on ne dynamite pas ces clivages surannés, archaïques, on ne fera que conforter cette vision détestable selon laquelle les musiques ne sont que des objets de consommation pour des classes sociales bien répertoriées. Si à une vue conformiste (la musique savante comme patrimoine), la politique culturelle répond par une autre tout aussi conformiste, malgré les apparences (le hip-hop dans une salle philharmonique), si donc elle se contente d’organiser le divertissement du peuple, entretenant, encore et sans fin, les vieux clivages qui gangrènent notre société, alors, les yeux fermés, elle va droit dans le mur. Et le choc risque d’être rude. Le projet de la Philharmonie de Paris va bien plus loin que la construction d’une nouvelle salle de concert. L’ensemble de sa programmation vise à instituer la possibilité d’un « vivre ensemble » de la musique dans ses diversités, ses passerelles, dans son inscription dans la ville, sa volonté de briser enfin les enclos dans lesquels les différents publics ont été depuis trop longtemps parqués. Mais pour que ce projet réussisse, il doit être appuyé par une politique ambitieuse.


Mesdames et Messieurs, vous qui décidez, cessez de répondre à ce projet visionnaire par la frilosité, par le seul souci de rentabilité économique. Cette salle va coûter cher. Mais rassurez-vous. Si vous mettez en œuvre une véritable politique d’éducation musicale dans les écoles, les collèges et les lycées, cette salle va finir par porter ses fruits. Et, bien sûr, pas seulement des bénéfices financiers ! Ne pensez pas juste à gérer le présent. Regardez plus loin, par-delà l’horizon de vos mandats respectifs. Ouvrez les yeux sur ce qui existe à l’extérieur de vos frontières. Qu’un projet d’une telle ambition se mette enfin en marche chez nous, en France, il y a déjà de quoi être fier. Devriez-vous décider de ne pas prendre le risque de le soutenir, vous donneriez une bien curieuse idée de ce que pourtant vous aimez à appeler « l’exception culturelle française ».


La musique a été comme verrouillée dans des chambres sourdes et fortifiées. Alors, acceptez de faire sauter leurs verrous ! Arrêtez, enfin, de suivre les diktats de l’industrie culturelle ! C’est un défi que vous devriez avoir le courage de relever. Sinon, après vous le déluge.



Philippe Manoury, 30 octobre 2014.




[1] La haine de la musique, Calmann-Lévy, 1996.

[2] Cf. Le Monde du 13.06.2014 : « Pleyel est morte, vive la Philharmonie ! »

[3] Esa-Pekka Salonen a occupé ce poste entre 1992 et 2009, date à laquelle Gustavo Dudamel lui a succédé.

IN SITU : réflexions sur la grande forme.

Thursday, August 1st, 2013

La grande forme m’intéresse tout particulièrement lorsqu’elle développe un réseau riche et complexe de renvois, de rappels, d’allusions, de prémonitions, lorsqu’elle fait que plusieurs moments communiquent entre eux à des distances temporelles éloignées. Notre perception du temps est hétérogène et « polyphonique », pour reprendre ce terme musical auquel je ne peux trouver aucun synonyme réel. J’entends par là que nous avons très souvent la sensation de plusieurs couches de temps superposés et que ces temps interfèrent les uns avec les autres. Un souvenir, parfois ancien, vient modifier notre présent et celui-ci nous fait projeter un avenir. J’aime penser que la musique doit être le reflet du tissu temporel que nous éprouvons dans la vie de tous les jours. C’est une autre façon de dire que la musique doit être avant tout « organique ».

Depuis quelques années, j’utilise un procédé auquel j’ai donné le nom de « Grammaires Musicales Génératives », qui m’aide à réaliser ces grandes formes. Parfois, ce procédé s’applique à l’œuvre entière, parfois – comme c’est le cas dans In situ – il n’intervient qu’à certains moments. Ce procédé consiste à construire des « phrases » à partir d’entités sonores déterminées (cela peut-être un motif, une figure, mais aussi une simple morphologie sonore ou encore une situation particulière comme un soliste face à un groupe) qui s’enchaînent dans un ordre précis. Cet ordre finit par acquérir un sens musical précis car il détermine les relations qu’entretiennent ces entités entre elles : par exemple, tel événement A se situera toujours avant l’événement B, ou tel événement C sera toujours associé à tel événement D. Je construis alors de nouvelles phrases en changeant légèrement la structure de départ et en modifiant peu à peu les relations entre les événements. Cela donne des phrases qui s’enchaînent suivant des logiques diverses mais n’implique nullement une expression particulière. Je peux décrire ce procédé par une métaphore : lorsqu’on veut exprimer une idée, il faut penser à l’idée en soi mais aussi au moment où l’on va l’exprimer. Ces idées se trouvent alors à des moments parfois très éloignés les uns des autres et c’est ce contact au delà de toute successivité qui m’intéresse dans la composition des grandes formes. Il s’agit donc des grandes durées mais ce n’est pas tant la longueur de l’œuvre que sa richesse formelle dans le temps qui m’attire dans les grandes formes musicale. A ce titre, certaines œuvres de Morton Feldmann, comme son second quatuor à cordes dont la durée avoisine 6 heures de musique ininterrompues, ou encore le quatuor de Luigi Nono qui déploie une expression unique sur plus de quarante minutes, ne m’apportent pas ce que j’aime dans les grandes formes. Mais si la grande forme est une de mes préoccupations majeures dans la création musicale, j’aime aussi son exact opposé, la forme brève, l’aphorisme, la concentration sur une idée qui n’est pas destinée à se développer. Dans la composition pour 2 pianos et orchestre sur laquelle je travaille en ce moment, un des mouvements n’excèdera pas 10 secondes pendant lesquelles « tout doit être dit ». De ce point de vue j’aime autant la 10ème Bagatelle opus 119 de Beethoven que sa sonate Hammerklavier, autant Webern que Mahler, autant Borges que Joyce. La forme brève est comme une photo que l’on prend pendant un voyage, alors que la grande forme est ce voyage lui-même. Et, comme dans tout voyage, je souhaite que le paysage ne soit pas trop monotone, et que le temps soit habité par des sensations riches et diverses.

Dans une grande durée, il existe des moments qui finissent par prendre une certaine autonomie dans notre mémoire par rapport au tout. C’est en pensant à cela que j’ai composé In situ. Ce sont ces « moments » indépendants qui ont attirés mon attention au début. L’œuvre n’a pas été composée en suivant la chronologie qui est la sienne dans la rédaction finale. Je d’abord composés des moments sans trop savoir dans quel ordre j’allais ensuite les disposer. En écrivant cela, je fais explicitement référence à la Moment-Form, chère à Stockhausen, que je ne suis pas rigoureusement mais dont je garde quelques souvenirs. Ces « moments » sont caractérisés par des centres à l’intérieur desquels la musique se cristallise sur des expressions très individualisées. Il y a ainsi des « pluies de sons », des « surfaces tremblées », des « échos », des « effondrements », des « déflagrations », des « colonnes sonores » qui agissent comme des centres de gravités dans le temps et qui sont reliés, soit par des transitions, soit par des séquences hétérogènes composées de textures plus hétérogènes, plus complexes et ambiguës. Je me suis ensuite efforcé à brouiller les pistes, c’est-à-dire à rendre flou le passage d’un moment à un autre, comme cela se passe le plus souvent dans notre réalité psychique mais aussi dans la nature : on passe le plus souvent d’un paysage de montagnes à un paysage de plaines par degrés successifs.

In situ a pour objet la situation géographique. C’est la disposition spatiale des groupes instrumentaux qui a été, pour une grande partie, à l’origine de cette musique. Il y a sur scène un ensemble de solistes qui est groupé en familles homogènes : les bois, les cuivres et les cordes. En face de lui se trouve à un orchestre à cordes, puis le grand orchestre, lui, est dispersé tout autour du public. Sa disposition semble chaotique, en tout cas non-conventionnelle. Les bois et les cordes ne sont pas regroupés en familles homogènes mais constituent des petits groupes individuels. Cependant dans cet apparent désordre se créent des symétries : les percussions forment un carré autour de la salle, tout comme les 3 groupes de cuivres se répartissent dans un triangle, si les flûtes et les clarinettes se situent au devant gauche et au centre droit du public, les hautbois et bassons sont, eux, au devant droit et au centre gauche, etc. Ainsi l’auditeur aura une image sonore homogène en face de lui et celle-ci deviendra hétérogène dès qu’elle se répartira dans la salle autour de lui. L’espace joue également un rôle déterminant sur la manière dont les sons vont circuler dans la salle : parfois les aigus sont à l’avant et les graves à l’arrière, comme si une immense partition était inscrite dans la salle et qu’on puisse suivre les évolutions graphiques de haut en bas comme on suit les mouvements sonores de l’aigu au grave. Très souvent j’ai dessiné les situations et les mouvements spatiaux avant d’avoir écrit la moindre note. Dans In situ les lieux d’où proviennent les sons sont aussi importants que les sons eux-mêmes.

Philippe Manoury,
Strasbourg, le 1er août 2013

Mais de quoi donc ce “néo” veut-il nous parler ?

Wednesday, April 24th, 2013

Le pianiste Jérôme Ducros fait une conférence au Collège de France intitulée : « L’atonalisme et après ? ». (On peut la suivre ici). Ça commence ainsi : on projette juste quelques secondes d’une vidéo où le grand pianiste Maurizio Pollini écrase le clavier d’un piano avec ses deux bras. Bien sûr qu’en quelques secondes on ne peut rien saisir. Arraché à tout contexte, cela paraît même à la limite du respectable. Un peu plus tard, Ducros nous fera écouter plusieurs minutes d’une musique qu’il trouve belle. Cette fois-ci, la durée de l’exemple nous permettra d’en saisir le contexte, et la cohérence sera retrouvée. Cette stratégie, Jérôme Ducros l’emploiera tout au long de sa conférence : la mise hors contexte de ce qu’il désire attaquer pour obtenir plus facilement l’adhésion de son public. Le postulat dont il part et dont il cherche à nous convaincre est le suivant : la musique atonale n’a plus d’avenir, seul le retour à la tonalité pourra sauver la création musicale.

Cela fait plusieurs décennies que se déploie, dans le domaine de la musique, un discours prônant le retour pur et simple à la tonalité d’autrefois, le modernisme du XXe siècle étant même vu comme une sortie de route dans le cours de l’Histoire, comme une erreur. Ce type de réaction vis à vis de l’époque qui a précédé est, somme toute, assez naturel ; il ne s’agit assurément pas du premier du genre. Ceux qui tiennent ce langage ne sont pas des ermites, loin de là, puisque la chaire de création artistique du très prestigieux Collège de France leur a été attribuée cette année dans la catégorie « musique ». Rien de scandaleux dans ce choix car, après tout, un débat esthétique pourrait ainsi naître dont notre époque a grand besoin.

Le modernisme en art serait devenu un nouvel académisme, nous dit ce « néo ». Et pourquoi n’en serait-il pas ainsi ? Pourquoi devrait-il échapper à un phénomène qui, sans exception, a existé à toutes les époques et a touché les plus importants courants artistiques ? Rappelons-en quelquesuns parmi ceux qui ont jalonné la musique depuis l’après-guerre : le sérialisme, la musique conceptuelle, les œuvres aléatoires, les musiques à contenu politique, le théâtre musical, la musique concrète, la musique spectrale, l’improvisation totalement libre, le minimalisme, la musique répétitive, la computer music… J’ai connu de très près tous ces styles, et tous, à un moment de leur histoire, ont engendré leur propre académisme. Aujourd’hui les tendances esthétiques se cristallisent autour des musiques bruitées (telles que celle de Lachenmann en Allemagne ou celle de Sciarrino en Italie), et plus récemment un courant « saturationniste » est né en France (Bedrossian, Cendo, Robin) ; courant peut-être encore trop jeune pour avoir engendré son propre académisme. Tous ces courants ont aussi apporté quelques chefs-d‘œuvre. Rien de nouveau sous le soleil. Là où, selon Jérôme Ducros, le bât blesse, c’est que le modernisme, qui s’est toujours distingué par la volonté de briser les règles, entre en contradiction avec lui-même car son propre académisme prône l’obligation d’obéir à des règles dont la première est de ne pas les respecter.

Comme tant d’autres l’ont fait avant lui, Jérôme Ducros, au nom des néo-tonaux, reproche au modernisme d’avoir tout saccagé. On a, bien sûr, entendu cela à différentes périodes de l’histoire : Beethoven, Berlioz, Wagner, Cézanne, Flaubert, Mallarmé, Debussy… faut-il sempiternellement rappeler les mêmes situations ? Les fils de Jean-Sébastien Bach refusaient le style contrapuntique de leurs aînés (dont celui de leur père) et lui ont substitué un style plus linéaire, basé sur le développement. Ce style allait devenir très vite celui que l’on nomme aujourd’hui « le style classique ». Certes, ils n’ont pas brisé les règles de la tonalité, mais celles, plus générales, de la composition. Selon Jérôme Ducros, la tonalité est La règle à ne pas briser car sans elle disparaîtraient les fondements mêmes du « sens de la musique », de ce qui fait que nous la suivons, l’anticipons parfois, et avec laquelle nous entretenons un rapport qu’il qualifie de « naturel ». Je m’attacherai à montrer que cette vision des choses non seulement est loin de pouvoir être prouvée, qu’elle confond un cas particulier avec une situation générale, qu’elle passe volontairement sous silence des pans entiers de l’Histoire, mais aussi qu’elle fait l’économie de toute pensée autocritique ; et, plus grave, qu’elle se sert d’explications et de pseudo-démonstrations ahurissantes de contre-vérités. Là, les bras nous en tombent ! Comment est-il possible qu’un musicien de cette qualité, compositeur (il ne montre cependant pas ses propres compositions), brillant conférencier, excellent pianiste et musicien doté d’une très solide culture, puisse traiter le sujet avec autant de grossières approximations, de désinvolture et surtout de mauvaise foi ? Ce pourrait être un canular, mais le Collège de France n’est pas vraiment le lieu le mieux approprié à ce genre de plaisanteries.

La comparaison risquée entre musique et langage.

Jérôme Ducros nous expose d’abord quelques notions fondamentales, indispensables à notre rapport intelligent avec la musique, et entreprend ensuite de nous montrer que le système tonal constitue non seulement l’appareil théorique et pratique le plus puissant pour nous permettre d’entretenir ce rapport, mais nous laisse encore entendre qu’il serait même le seul qui vaille. Ce côté « naturel » (c’est moi qui souligne) s’expliquerait par le fait que nous obéissons à des règles implicites, non formulées, inconscientes, qui régissent à la fois notre perception de la musique et notre usage du langage. De là à comparer la musique au langage il n’y a qu’un pas, hasardeux autant que réducteur, et Ducros n’hésite pas une seule seconde à le franchir. Il commence par invoquer les règles « implicites » auxquelles nous nous soumettons dans le langage parlé et que nous appliquons inconsciemment tous les jours. Il en irait de même, selon lui, pour la musique tonale. Nous appliquerions implicitement des règles dans notre perception de la musique, par exemple les résolutions mélodiques et harmoniques, les anticipations, et ces règles sont explicitement codifiées dans le système tonal. Musique (tonale) et langage seraient donc de même nature. Regardons-y d’un peu plus près. Ce n’est pas la première fois qu’on assimile la musique au langage. On parle souvent du « langage harmonique » de tel ou tel compositeur. Les constructions de thèmes dans le style classique avec leurs membres qui se répondent, s’enchaînent avec des systèmes de transitions, se referment sur une clausule finale, s’ouvrent sur une continuation ont été parfois mises en relation avec les constructions de phrases dans le langage parlé. On évoque aussi le « rythme » du langage, la « mélodie des mots », on a assimilé certains textes à des constructions symphoniques (comme on a comparé aussi certaines structures musicales à des architectures). Les deux champs sont néanmoins loin de se recouvrir, même si des influences ont pu s’exercer de part et d’autre. Certains écrivains, Joyce ou Faulkner par exemple, ont tentés des expériences polyphoniques dans leur écriture. Quant à moi, il m’arrive d’utiliser des formalismes que j’appelle les Grammaires Musicales Génératives (qui ne doivent rien aux différentes grammaires des langues) pour composer certaines de mes partitions. Il peut y exister des analogies, des similarités, des ressemblances entre le langage parlé et la musique, mais en aucun cas celles-ci ne renvoient à une quelconque structure profonde qui les engendrerait. Les « idiomes », les « métaphores », les « métonymies », les « enharmonies », les « modulations », les « cadences évitées » ou les « syncopes » sont des éléments fondamentaux et du langage et de la musique mais ne s’échangent pas les uns contre les autres. Cette convergence que tente Jérôme Ducros pour expliquer l’impossibilité à saisir un sens implicite dans les musiques privées du support de la tonalité, alors que ce sens serait pratiquement donné dans le cas du répertoire tonal, Ducros ne la démontre absolument pas, ne pouvant rien trouver qui unifierait plus profondément les structures du langage et celles de la musique, ou qui permettrait au moins une telle comparaison. Ce type de propos n’est qu’une pâle fumée qui cache une réalité bien plus complexe.

Si, en revanche, il y a une comparaison possible entre la musique et le langage (et comparaison n’est pas raison), ce n’est pas celle qui repose sur leurs constitutions propres mais sur un aspect qui semble être commun à la manière dont nous les appréhendons l’une et l’autre : leur charge cognitive respective. Comme le langage, la musique s’apprend et s’apprivoise par l’accoutumance, la répétition, l’apprentissage, et rien ne ressemble plus à un auditeur dérouté à l’écoute d’un style de musique tout à fait nouveau pour lui qu’une personne égarée dans un pays dont elle ne comprend pas un traître mot. La différence réside avant tout en ce que nous cherchons à établir un rapport esthétique avec la musique (elle doit nous « plaire ») alors que notre rapport avec le langage est surtout d’ordre sémantique (nous cherchons à le comprendre).

A propos du peuple chinois, Berlioz écrivit : « Il a une musique que nous trouvons abominable, atroce, il chante comme les chiens bâillent, comme les chats vomissent quand ils ont avalé une arête ; les instruments dont il se sert pour accompagner les voix nous semblent de véritables instruments de torture. » De telles comparaisons ne sauraient être avancées de nos jours, et pourtant, ce que l’on entend parfois dire à propos de certaines musiques contemporaines y ressemble étrangement. Parlant de la musique atonale, Jérôme Ducros n’hésitera pas, au cours de sa conférence, à insister sur les miaulements des chats. Un bébé acquiert les rudiments du langage parce que ses parents lui parlent tous les jours. De la même façon, un individu apprend à apprivoiser une musique quand il a la possibilité d’en entendre souvent au cours de sa vie. L’environnement musical dans lequel la plupart de nos contemporains sont plongés est ultra-schématisé, la muzak est dans tous les lieux publics, le conditionnement, les habitudes et le goût pour la musique sont rudement forgés par son omniprésence. Un bébé bambara n’est pas sensible aux mêmes sons qu’un bébé allemand, que ces sons soient ceux du langage ou de la musique qui les environnent au cour de leur croissance respective.

De cela, il ne sera bien sûr jamais question au cours de la conférence de Ducros, l’essentiel de sa réflexion se concentrant sur les rapports entre les sons comme le système tonal les a définis : la vieille opposition consonance/dissonance. Comme si la musique se résumait à ce seul particularisme ! Aucune musique ne repose jamais exclusivement sur des relations qu’entretiennent ses hauteurs les unes avec les autres ; toutes les (bonnes) musiques possèdent, pour notre plus grand bonheur, une riche palette de caractéristiques qui relèvent du rythme, du phrasé, des timbres, des contrastes, bref, de toutes les combinaisons de formes. Le système tonal est une merveille de construction – aucun musicien sensé ne saurait le contester – il n’en est pas pour autant le roc inébranlable sans lequel tout vacille. Jérôme Ducros, comme l’ont souvent fait avant lui plusieurs musiciens néo-tonaux, réduit la perception de la musique aux seules relations de hauteurs.

La chasse aux fausses notes.

À ce sujet, notre pianiste-conférencier est maintenant parti à la chasse aux fausses notes. Un vrai problème ! Il nous démontre qu’une seule fausse note dans Mozart s’entend immédiatement tandis que plusieurs dans Donatoni passent inaperçues. Il est vrai qu’il sera toujours très difficile de repérer des fausses notes dans des musiques auxquelles nous ne sommes pas habitués. Et les musiques atonales, quoiqu’aient pu penser Schœnberg et Webern, sont souvent trop complexes pour le permettre. Que ne tente-t-il pas, notre Aristarque, l’expérience avec des êtres qui n’ont pas été éduqués dans notre culture ? Pense-t-il peut-être que la musique tonale est universelle ? Croit-il qu’un Touareg ou un Pygmée pourraient facilement déceler la fausse note chez Mozart ? Bien sûr, rien n’est dit des musiques extra-européennes ni, d’ailleurs, de leur influence sur la « nôtre ». Tel n’est pas le propos, pourrait-on m’objecter. Mais pourquoi les exclure d’office de notre réflexion ? Les musiques du Japon, de Bali, de l’Afrique, de l’Inde, du Moyen Orient (dans lesquelles Ducros peinerait probablement à déceler des fausses notes) ne reposent pas sur le système tonal. Pourquoi ne chasse-t-il pas les fausses notes également chez Stravinsky ou Bartók ? Faisons l’expérience avec le début du Sacre du Printemps. L’un des exemples est une transcription exacte, l’autre est truffée de « fausses notes ». Pour qui n’aurait pas l’oreille suffisamment formée ni une connaissance approfondie de cette partition, les deux sonnent « acceptables » au regard du style.

Il n’y a pourtant pas moins de 27 différences entre ces deux fragments ! Nous décelons des fausses notes chez Mozart car nous connaissons fort bien les particularités du style tonal, pour y être habitués depuis longtemps, pour ainsi dire depuis toujours. De la même manière, une personne déjà assez cultivée en musique constatera des « fausses notes » si nous introduisons un accord non-classé chez Mozart

ou une cadence tonale chez Webern.

Et notre expert de nous expliquer que les accords s’entendent différemment selon les contextes dans lesquels ils sont plongés. Nous ne le savions pas ! Je l’ai dis, nos oreilles – ô combien ! – sont conditionnées. Mais la tâche du créateur consiste-t-elle à jouer sur des réflexes « quasi-pavloviens » du plus grand nombre de façon à s’en faire comprendre, ou, au contraire, à proposer des mondes alternatifs qui peuvent se révéler infiniment plus riches que celui de notre quotidienneté sonore ? C’est là une question d’éthique autant que d’esthétique dont Jérôme Ducros est décidé à ne point s’embarrasser. C’est une manière bien étrange que de recevoir les œuvres d’art en prenant comme principal critère de jugement notre habilité à y déceler les éléments censés ne pas leur appartenir. La reconnaissance est-elle l‘unique critère qui nous attache à elles ? Il est plus que probable, comme Ducros le dit, que la musique atonale ne sera jamais aussi populaire que la musique tonale. Est-ce là un critère pertinent pour juger de la valeur des œuvres ? Demande-t-on à la poésie de Ronsard, de Leopardi, de Mallarmé ou de Trakl d’être aussi populaire que les paroles des chansons de variété ou de rock ? Demande-t-on aux pièces de Racine, Büchner ou Beckett d’être aussi populaires que le sont les films de Walt Disney ou de Steven Spielberg ? Le succès commercial de certaines formes d’expressions populaires actuelles, tel le rap, ne s’explique certainement pas par le fait d’être tonales ou atonales. Que les néos ne s’y méprennent pas : en matière de popularité, c’est-à-dire en nombre d’écouteurs, ils sont bien plus proches de ceux qu’ils incriminent comme compositeurs atonaux, qu’ils ne le sont des stars planétaires de la pop-music. Avec cet appel à la chasse aux fausses notes, nous avons, ici encore, un exemple de réduction de la perception de la musique à ses seules relations de hauteurs.

La prévisibilité, l’inconnu et l’attente récompensée.

Jérôme Ducros fait décidément partie de ces personnes – très cultivées dans leur domaine – qui ne trouvent rien de mieux à faire pour le glorifier que de démolir ce qui n’en fait pas partie. Il fait une démonstration magistrale des mécanismes liés au système tonal qui organisent les phénomènes de prévisibilité (on devine une partie de ce qui va suivre car on connaît le contexte général), l’ouverture sur l’inconnu (une cadence rompue qui ne dit rien sur le futur) et l’attente récompensée (ce qu’on nous a fait pressentir n’est pas venu au moment attendu, mais finit néanmoins par arriver… comme une récompense). Ces mécanismes, et surtout le dernier, sont bien connus des spécialistes des neurosciences et ont été depuis longtemps analysés par les psychophysiologistes et les phénoménologues de la perception. C’est donc sur un terrain solide qu’il s’avance cette fois-ci. Le système tonal avec ses anticipations, ses résolutions, ses suspensions et ses retards était, en effet, une merveilleuse machine pour aiguiller la perception des objets temporels. Mais pourquoi, grands dieux, faut-il qu’il cherche à nous convaincre, par des raisonnements d’une absurdité confondante, que seul le système tonal serait apte à y parvenir ? Et il n’hésite pas à caricaturer à grands traits ! Il lance des attaques qui reviennent comme un boomerang sur le sujet-même qu’il veut défendre. Le voici qui se met au piano et joue le début d’une musique atonale. Il en propose plusieurs continuations, aussi valables les unes que les autres selon lui, et veut prouver de la sorte que tout est possible et que tout se vaut puisque les éléments tonaux, qui autrefois organisaient cela à la perfection, ne sont plus là comme les garants infaillibles de la perception d’une œuvre musicale. Il est aisé de faire la même expérience à partir d’une pièce dans le style de Debussy (compositeur que, sans doute, il affectionne beaucoup) et qui n’offre pas, tant s’en faut, les mêmes garanties en termes de prévisibilité et d’attente récompensée. Dans les trois exemples que je propose, un seul est intégralement de la main de Debussy. Pour les deux autres, je me suis permis d’imaginer d’autres continuations « plausibles » en tâchant de respecter ce que je pense connaître du style de ce compositeur. Je serais très curieux de voir en vertu de quelles règles, implicites ou explicites, on arriverait à démontrer que seule la version originale est la bonne solution à la proposition musicale initiale, en quoi cette proposition impliquerait nécessairement celle choisie par Debussy, et en quoi les deux autres ne satisferaient pas à l’attente induite par elle.

J’ajoute, pour ne rien passer sous silence, qu’analyser cette œuvre de Debussy en ne se contentant que de ce que le système tonal nous offre, serait un échec complet. Debussy n’était pas « franchement atonal », au sens où Jérôme Ducros entend ce terme, mais néanmoins suffisamment pour avoir mis en déroute ce que la tonalité impliquait comme prévisibilité dans le déroulement temporel de sa musique. Pour peu que l’on soit naïf fort heureusement je ne le suis pas on pourrait penser qu’un déterminisme absolu sous-tendait tout l’édifice de la musique tonale et qu’à partir d’une proposition initiale, une seule et unique continuation était possible ; ou encore que des procédés de déduction étaient tellement intégrés aux diverses fonctions tonales qu’ils ne laissaient pas le choix aux compositeurs. Tentons alors encore une expérience similaire avec un autre style, celui-ci beaucoup plus ancré dans la tonalité que le précédent : le style classique de Mozart et Beethoven. On y reconnaîtra sans problème certains thèmes connus, mais les conclusions seront différentes de celles que les compositeurs avaient choisies. Sous cet angle, tout est explicable en partant des racines tonales ; cependant qui pourrait ici encore prouver que, parmi toutes ces versions, une seule ne satisferait pas aux attentes suscitées par la tonalité ?

La logique des enchaînements d’accords tonaux était, il est vrai, d’une force indéniable, mais elle ne suffit pas à expliquer toutes les décisions compositionnelles de cette époque. D’ailleurs on n’en finit pas de les admirer pour avoir brisé certaines règles qui étaient alors en vigueur dans le système tonal. Les ruptures rythmiques, les contrastes dynamiques, les silences font partie intégrante de ce style et, parfois, ont plus de prégnance au niveau de l’expression et de la perception que le substrat harmonique qui les sous-tend. Jérôme Ducros ne peut évidemment pas l’ignorer, mais il le passe volontairement sous silence, car son mot d’ordre reste « le respect des règles tonales ». Nous sommes en présence, une fois encore, d’un exemple de réduction de la perception de la musique à ses seules relations de hauteurs.

De quoi les musiques atonales semblent-elles manquer ?

Dans son combat contre la musique « contemporaine », Ducros en appelle à un retour à des principes fondamentaux qui auraient été bannis de l’expression musicale. Il a d’ailleurs bien raison d’en isoler différentes particularités, car c’est grâce à cette « mise à plat » que l’on peut concrètement savoir de quoi il parle. Selon lui, il n’existerait plus de pulsations rythmiques, ni de mélodies chantables, ni d’harmonie, ni, bien sûr, de centre tonal. Les musiques atonales seraient devenues une grisaille sonore dans laquelle il serait impossible à quiconque, même aux compositeurs eux-mêmes, de percevoir des formes un tant soit peu profilées. La musique perdrait alors tout sens au profit de recherches sonores vaines et sans avenir. Examinons le problème de plus près.

Le sérialisme généralisé, qui a eu une très brève existence au début des années 50, avait prôné la tabula rasa. Il s’agissait pour ces compositeurs de refonder une esthétique musicale à partir de bases entièrement nouvelles : le sérialisme (surtout celui d’Anton Webern) et Mode de valeurs et d’intensités de Messiaen en étaient les fondements. Cela constituait une réaction contre les styles nationaux, voire nationalistes, qui avaient fleuri avant la guerre, et de ce point de vue – on ne le dit pas assez – une musique “d’après-catastrophe”. Mais laissons cet aspect historique. La démarche de ces compositeurs visait surtout à se dégager des procédés et de la rhétorique de la musique du passé. Quoi que l’on pense de ces œuvres-limites, elles n’en demeurent pas moins le témoignage important d’un moment fort de l’histoire d’après-guerre et il ne serait pas correct d’en critiquer l’émergence même ; ce que ne font d’ailleurs pas les néos. Les œuvres de cette période, à laquelle il faut également associer les premières partitions de Xenakis, étaient caractérisées par l’abandon des pulsations rythmiques, des mélodies conjointes ou linéaires, d’une pensée harmonique et, bien sûr, de la tonalité. C’était essentiellement un discours pointilliste. La continuité du discours et a fortiori la prévisibilité y étaient malaisées. Deux œuvres sont emblématiques de ce style, toutes deux écrites directement sous l’influence de Mode de valeurs et d’intensités de Messiaen : le premier livre de Structures pour deux pianos de Boulez

et Kreuzspiel de Stockhausen.

Dans la première, on perçoit nettement l’abandon des éléments stylistiques que j’ai décrits plus haut, mais dans la seconde, on peut constater que le discours est sans cesse soutenu par une pulsation régulière fournie par la percussion, ce qui invalide, ne serait-ce que provisoirement, cette affirmation de l’absence de pulsation et de tempo reconnaissable dans les œuvres de ce style. Et là se trouve la plus grossière erreur d’appréciation historique de la critique de l’atonalisme faite par Ducros et plusieurs autres : la musique contemporaine serait, encore aujourd’hui, ligotée par ces traits stylistiques. Cette idée est rabâchée à l’envi depuis de si nombreuses années que l’on finit par se demander s’il s’agit d’une erreur ou d’une négation volontaire : comment ne pas reconnaître que ce style de la tabula rasa n’a duré que très peu de temps et que ce sont les compositeurs-mêmes qui l’avaient forgé qui se sont très vite rendu compte de l’impasse dans laquelle il menait ? Pierre Boulez a songé même à intituler son premier livre de Structures pour deux pianos À la limite du pays fertile, reprenant ainsi le titre d’un tableau de Paul Klee. C’est dire le peu d’illusions qu’il se faisait lui-même à l’époque de sa composition quant à la pérennité d’un tel style !

Comment prétendre qu’il ne se serait rien passé depuis cette époque, donc depuis 60 ans ? Que ces diktats, certes proférés parfois de façon très arrogante, sinon agressive, typique pour cette époque (de ce point de vue, le nouveau roman et la nouvelle vague du cinéma n’étaient pas en reste), seraient toujours d’actualité aujourd’hui ? Pourquoi faire semblant de ne pas voir tout un large pan de l’histoire musicale contemporaine et pourquoi présenter la musique composée aujourd’hui comme victime d’une chape de plomb quasi stalinienne qui continuerait toujours d’oppresser les musiciens ? Quelle rancœur se cache donc derrière ce qui apparaît, sinon comme une négation d’une histoire musicale, du moins comme un aveuglement idéologique ? J’y reviendrai.

Comme je le disais au début de cet article, des académismes ont fleuri autour de ce style de la tabula rasa, mais ce ne sont pas les œuvres des suiveurs qu’il faut scruter, mais bien celles des véritables créateurs.  Je pourrais multiplier les exemples, mais comme les noms de Boulez et de Stockhausen sont si souvent cités comme ayant été les plus radicaux dans ce mouvement, c’est donc exclusivement à partir de leurs œuvres que je construirai ma démonstration. Faut-il dès lors fournir des preuves ? Il semble que ce soit, plus que jamais, nécessaire.

L’abandon de la pulsation ? Dès 1954, dans Le marteau sans maître, œuvre qui a permis à Boulez de se dégager du sérialisme généralisé, on entend déjà très clairement des tempi pulsés.

Nous avons ici les pulsations, un tempo,  mais certes pas une harmonie stable. C’est donc cela qui manque ?

L’absence d’harmonie ? Dans Pli selon pli (1957-60) du même, de nombreuses séquences sont établies sur une stabilité harmonique qui “saute aux oreilles”.

Mais ici, nous n’avons pas de pulsations ! Cela manque aussi alors ?…

Prenons maintenant le fameux Klavierstück IX (1961) de Stockhausen. Qu’est-ce qu’on y entend ? Un accord stable répété 140 fois dans un tempo pulsé et régulier. Nous avons ici une harmonie stable et une pulsation régulière, mais toujours pas de linéarité mélodique. Il y a décidément toujours quelque chose qui manque !

L’absence de mélodie (ou de linéarité mélodique) ? Allons plus loin dans cette même pièce. Qu’y trouve-t-on ? Une gamme chromatique. Stockhausen a écrit cette pièce en prenant justement les éléments qui avaient été bannis du sérialisme généralisé. On pourrait très bien chanter cette gamme chromatique linéaire car elle ne contient plus ces grands intervalles disjoints propres au style post-webernien alors en vigueur.

On retrouve bel et bien ces caractéristiques, censées avoir été bannies, dans les musiques atonales des années 60, mais cela ne convainc toujours pas notre “néo”. Ces éléments répétitions, pulsations, harmonies, linéarités mélodiques – existent positivement, et qu’on n’aille pas croire que ces exemples sont des cas isolés. Écoutons Éclats/Multiple, Répons de Boulez, Momente, Mantra, Inori de Stockhausen, Sinfonia, Circles de Berio, Jonchaies, Rebonds, Pléïades de Xenakis, Kammerkonzert de Ligeti ; ces œuvres en fourmillent. Seul un Luigi Nono ne s’est pas aventuré dans cette reconquête des éléments centrifuges de la perception musicale.

N’existe-t-il jamais de centre tonal dans les musiques dites atonales ? Les musiques atonales respectent-elles toujours le vieux principe de l’égalité fondamentale entre les 12 sons de la gamme chromatique, responsable de cette « grisaille sonore indifférenciée » que les néos dénoncent ? Il semble qu’il faille néanmoins, ici encore, apporter des preuves. Il y a bien longtemps qu’a été utilisée l’idée d’introduire des notes-pivots à l’intérieur d’un discours ne possédant pas de centre tonal (de tonique), ni de hiérarchies définies a priori. C’est justement cette absence de hiérarchies que reprochent les néos à la musique atonale. Pour eux, sans elles tout se vaut car les probabilités d’apparition entre les sons (ou même entre tout objet sonore) seraient toujours également réparties. Il est très fréquent d’entendre des musiques atonales ayant un ou plusieurs centres de gravité (des sortes de pseudo-toniques) qui attirent l’oreille de façon tout à fait prégnante. Il ne s’agit pas là, bien sûr, de véritables toniques, ni de musiques tonales, toutefois une hiérarchisation sonore ainsi se met en place qui occupe une fonction comparable à celle que la tonique a occupée autrefois. Polla Ta Dinha de Xenakis ou Inori de Stockhausen sont grandement fondés sur l’obsession d’une seule hauteur. Dans ma Passacaille pour Tokyo, j’ai également conçu une composition de plus de 20 minutes autour d’une note centrale, point de gravitation sonore de tous les événements qui tournent autour :

N’y a-t-il jamais rien de chantable dans l’atonalisme comme continuent de l’alléguer ces musiciens adeptes du grand retour ? J’ai composé En écho au début des années 90, un cycle de mélodies pour soprano et électronique en temps réel qui utilisait des méthodes très expérimentales. À aucun moment une rhétorique tonale n’est venue chatouiller mon esprit, fût-ce dans un style classique, romantique ou postromantique. Chacun pourra juger de la « chantabilité » de cette musique :

Et pourquoi diable ces néos n’apprécient-ils pas non plus la musique spectrale ? Les harmonies y sont stables et souvent consonantes, le tempo est bien là, la pulsation est très présente, la répétition est à la base même de cette musique, comme le montre le début de Vortex Temporum de Gérard Grisey :

… mais tout cela ne les convainc pas. Il manque toujours quelque chose. Qu’est-ce que cela peut-il être ? Le manque est d’ailleurs justement ce qui a toujours été ressenti lors de l’apparition de nouveaux styles. Souvent ce n’est pas tant le nouveau qui choque que l’absence de l’ancien. Les préclassiques abandonnaient la polyphonie baroque, Beethoven abandonnait la mélodie au profit de petits motifs, Wagner abandonnait l’opéra à numéros et le bel canto, Debussy abandonnait le chant et les enchaînements harmoniques tonaux, Stravinsky abandonnait les délices de l’impressionnisme, Schœnberg (mais déjà Liszt) abandonnait le système tonal, Varèse abandonnait les hauteurs tempérées, la génération des compositeurs de Darmstadt a, elle, tout abandonné (sic), Xenakis abandonnait les lignes musicales au profit des masses sonores, Cage abandonnait la notion même d’œuvre, la musique électronique abandonnait les sons instrumentaux, Lachenmann abandonnait les hauteurs… Voilà le florilège de ces illustres et notoires abandons qui, à chaque fois, ont provoqué des nostalgies et des frustrations, et fait les délices des atrabilaires.

Les descriptions que font certains néos de ce qui manque à la modernité musicale de notre époque cherchent désespérément à s’ancrer dans une réflexion sur le « langage musical » qui apporterait une vision cohérente. Mais ces descriptions tournent lamentablement à vide. Ce qu’ils désirent, c’est le « tout à la fois ». Et ce « tout à la fois », c’est des harmonies tonales, une mélodie chantable et une carrure rythmique dans le même temps. Ce qu’ils désirent ardemment, c’est le retour des rhétoriques classiques et romantiques, des tournures mélodiques chères aux compositeurs du XIXe siècle. Debussy qui déjà voulait « tordre le cou à l’éloquence » s’est affranchi de toute cette rhétorique classique et romantique. À bien y regarder, il apparaît que ces néos ne veulent pas seulement revenir à la période d’avant Schœnberg, mais bien à celle d’avant Debussy ! Ce sont souvent des musiciens complets, bardés de prix de conservatoires et de diplômes, certains d’entre eux ont même été de petits prodiges. Ils cultivent un amour passionné pour la musique classique tonale d’autrefois qu’ils connaissent, pour la plupart d’entre eux, en profondeur. De cela, je ne saurais les blâmer car je suis comme eux. Mais leur amour, à la différence du mien, est exclusif et sans partage. Ils s’imaginent se saisir de l’esprit même de ces chefs-d’œuvre du passé en cherchant à les copier scrupuleusement. Ils me font penser à Pierre Ménard, ce personnage imaginé par Borges qui, reproduisant mot à mot, au XXe siècle, le Quichotte de Cervantes, ergo dans un style « archaïsant », et qui pêchait « par quelque affectation », pratiquait finalement « la technique de l’anachronisme délibéré et des attributions erronées ».

Ces néos veulent construire des meubles modernes dans des formes anciennes, n’hésitant pas à les patiner et même à y creuser des trous, comme pour faire croire que des vers les auraient rongés au fil du temps. Ces néos sont des restaurateurs. Et pour gagner l’adhésion instantanée d’un public à peine informé sur les choses musicales, ils s’amusent à en improviser des caricatures à grands traits ; en un mot, du chiqué !

Tonal/atonal : les limites d’une comparaison hâtive.

La mise en opposition du tonal et de l’atonal, comme systèmes de composition, est un non-sens. Le système tonal a mis plusieurs siècles à s’édifier, et comme bien d’autres systèmes il a fini par s’effondrer. Je ne reviendrai pas sur les conditions de cet effondrement, cette histoire est bien connue. Mais, peut-on opposer un quelconque système atonal à un tel monument séculaire ? Cela n’a pas de sens. À côté de lui, le sérialisme, tentative la plus systématisée pour le remplacer, n’est qu’un édifice minuscule. Il n’a perduré que quelques décennies et ne constitue pas en lui-même un système de composition suffisamment élaboré pour prendre en charge toute la pensée compositionnelle. Le plus grand apport de Schœnberg n’est certainement pas d’avoir mis au point le système de séries, mais plutôt d’avoir supprimé un rapport hiérarchique déterminé a priori entre les sons. Déjà Liszt par ailleurs, dès 1854, avait pressenti cela dans le début de sa Faust Symphonie. Cela n‘implique nullement l’absence de hiérarchies ; celles-ci peuvent désormais être élaborées, si le besoin s’en ressent, sans être imposées de l’extérieur. Il est important de comprendre que, si l’on peut expliquer certains aspects d’une œuvre en se référant au système à partir duquel elle est composée, aucun système, aussi sophistiqué soit-il, ne saurait jamais expliquer l’œuvre. Toute pensée compositionnelle prend des décisions importantes, engage des orientations, affirme un style, cultive une expression, qui ne sont pas répertoriés dans un système de références donné, même s’il lui arrive de prendre appui sur lui. On n’expliquera jamais la richesse d’une œuvre de Mozart par son appartenance au système tonal, pas plus qu’on n’expliquera une musique de Webern par la série qui la sous-tend, ou la beauté d’un tableau de Botticelli par le fait qu’il repose sur la proportion dorée. Une œuvre est un monde en soi, un univers parallèle, qui porte en lui les traces incommensurables des intuitions, des pensées, des choix, des ratures, des utopies et des désirs qui ont présidé à son éclosion. La rage vengeresse qui anime ces musiciens néos leur fait tenir un discours simplificateur qui perd de vue toute perspective et toute hauteur de jugement. Ils finissent par ne voir la musique que par le petit bout de leur lorgnette : celui qui légitime l’acte créateur par le ” système ” au sein duquel il est supposé avoir pris naissance.

La vitesse de l’histoire.

Jérôme Ducros atteint des sommets dans la mauvaise foi quand il aborde le sujet de l’évolution musicale. Il s’étonne tout d’abord que Boulez lui-même ait déclaré qu’il y avait plus de changements autrefois entre les générations de compositeurs qu’il n’y en a aujourd’hui. D’abord est-ce bien sûr ? Ce genre d’exercice est toujours assez scabreux, et l’on peut faire dire ce qu’on veut aux styles et aux dates. Mais regardons des œuvres étalées sur des périodes d’environ 20 ans. Entre Pli selon pli de Boulez, datant du début des années 60,

et Transitoires de Grisey, datant de 1981,

ne s’est-il rien passé ?

S’agit-il de la même esthétique ? Entre Kontrapunkte de Stockhausen (écouter ici), composé en 1952,

et Pression de Lachenmann (écouter ici), écrit dix-sept ans après, n’y-t-il pas de différences ?

Ces œuvres sontelles vraiment de styles plus proches que le dernier concerto pour piano de Beethoven, datant de 1808,

et le second de Chopin, composé vingt-et-un ans plus tard ?

Il ne s’est passé que 90 ans entre la dernière œuvre de Bach et le premier des grands opéras de Wagner. C’est évidemment peu si l’on compare l‘évolution du style. En revanche, si l’on pense aux Bagatelles d’Anton Webern, de 1913,

on aura du mal à imaginer qu’elles ont été écrites un an avant le Trio de Ravel.

Il n’y a pas beaucoup d’enseignements à tirer de ce genre d’exercice, mais il peut parfois être intéressant. Seulement Jérôme Ducros, de ce point de vue, va pousser le bouchon fort loin. Rien, décidément, n’arrête notre homme dans l’exercice de la manipulation historique. Il présente 4 extraits d’œuvres dont les textures musicales se ressemblent à s’y méprendre ; la plus récente de ces œuvres date d’il y a quelques années et la plus ancienne remonte à la fin du XVIIe siècle. Pour éclairer sa comparaison, il a la délicatesse de signaler que l’exemple le plus ancien était censé imiter les miaulements de chat ! Il a dû se donner un mal de chien pour concocter cette démonstration qui cherchait à prouver qu’en dehors de la tonalité rien ne bouge. Sans scrupule, pour éclairer la grande Histoire par une petite anecdote, il est allé chercher de petits extraits, tous composés à partir de glissandi, de micro tonalité, dans un déroulement assez lent, pour nous démontrer que Varèse, Carter et Ferneyhough composaient à peu près la même musique sur près d’un siècle : une sorte de grisaille sonore indifférenciée. Le vieux procédé qui consiste à faire dire à une phrase autre chose que ce qu’elle dit vraiment en la sortant de son contexte semble marcher à fond ! Là encore, l’effet de boomerang est garanti. Ce qu’il profère sur les musiques atonales pourrait très bien se retourner contre les musiques tonales. Prenons, par exemple, une succession d’arpèges montants et descendants rapidement sur un accord parfait et cherchons-en des exemples dans un florilège d’œuvres tonales allant de Bach à Ravel ; et ensuite, déduisons-en que le système tonal n’a pas su produire d’autres figures que celle-ci !

Donner des exemples aussi partiaux et aussi courts relève de la supercherie. Un tel manque de rigueur s’apparente à une grossièreté qui souille les murs de la maison dans laquelle elle s’est étalée. Jérôme Ducros prône le retour à la tonalité ; eh bien, celui-ci est de taille. Voici le Trio qu’il composa en 2007. Cette fois-ci, vous disposez de plus de 13 minutes pour prendre la mesure d’une anti-modernité revendiquée ! (écouter ici).

Le retour : seule alternative à la caducité du modernisme !

L’une des idées les plus appuyées de Jérôme Ducros est la suivante : « Le summum du moderne ayant été atteint, écrire après, quoiqu’il arrive, c’est «revenir». Comment s’étonner dès lors que l’on plaide pour une remise en cause radicale des dogmes vingtiémistes plutôt que pour leur perpétuation sous une forme édulcorée ? ». Les dogmes vingtiémistes ? Ce qu’au détour de ses phrases Ducros dit, sans la moindre nuance, sans la moindre analyse historique un tant soit peu scrupuleuse, s’apparente bel et bien à une rumeur, voire à des ragots. Ducros perpétue cette obsession selon laquelle une évolution darwinienne tiendrait lieu de l’histoire de l’art et que celle-ci, ayant atteint son stade ultime, serait désormais close. Il continue d’insinuer qu’il n’y a pas eu d’assouplissement dans la pensée musicale depuis l’époque de la rigide tabula rasa. Et quand, accidentellement, chez tel ou tel compositeur, il en admet quand même une certaine dose, il l’interprète comme une timide tentative pour renouer avec des codes anciens, sous peine de demeurer incompris. Il colporte, encore et toujours, cette idée saugrenue que les artistes modernes n’auraient jamais admis que l’histoire pouvait être autre chose que progrès. Depuis plusieurs années, certains néos luttent contre une hypothétique ligne droite fléchée qui indiquerait la tendance progressiste (et par là même destructrice) de l’art ! Ils savent pourtant que l’histoire de la musique est truffée de ces « petits retours ». Mozart et Beethoven ont réintégrés la pensée polyphonique préclassique dans leurs dernières œuvres (les fugues). Debussy est revenu aux modes anciens d’avant la tonalité, ainsi qu’au diatonisme d’avant le chromatisme. Dans certaines parties de Parsifal, Wagner a délaissé l’ultra-chromatisme, dont il avait été le champion, au profit de la modalité. Dans Lulu et dans son Concerto à la mémoire d’un ange, Berg a utilisé des séries qui donnaient naissance à des harmonies consonantes sous formes d’accords parfaits. Je ne reviendrai pas sur les styles « contemporains » dont j’ai montré plus haut quelquesuns des « assouplissements ». Dans tous ces exemples, nous ne voyons pas de retours en arrière stylistiques, mais bien des élargissements, des assouplissements de la pensée musicale en vue d’en tirer des expressions inédites. Certains néos dont Jérôme Ducros qui est l’un de leurs porte-paroles simplifient à outrance la réalité : ils arborent les appellations « tonales » et « atonales » comme autant d’étendards derrière lesquels ils aimeraient sans doute voir se presser des esprits grégaires tout juste aptes à se contenter de cette dichotomie à bon marché sans notion aucune de ce qui se joue réellement dans la création musicale. Ils se montrent aussi incapables de considérer les œuvres dans leurs singularités propres qu’ils le sont de proposer pour l’art autre salut que celui de revenir sur ses pas.  Serions-nous donc condamnés à éternellement répéter ce qui a déjà été dit ? Quelles seraient alors les solutions pour sortir de cette impasse, pour éviter cet hapax historique qui très vite, incessamment sous peu, signifierait la fin de l’art ? Ces questions, hélas, ne sont pas posées et, par conséquent, les réponses, fussent-elles provisoires, ne sont point esquissées.

Le langage du ressentiment.

Comment comprendre qu’un tel discours ne se contente que d’une avalanche de récriminations sans que rien ne soit dit des promesses supposées d’un retour aux valeurs tonales ? Mises à part les quelques phrases flatteuses, ô combien complaisantes, sur les beautés de la musique de son hôte Karol Beffa, Jérôme Ducros ne nous donne pas le moindre exemple de ce à quoi il aspire, hormis ce grand retour salvateur. Rien n’est dit sur la nécessité intérieure qu’il y aurait à composer à nouveau des œuvres franchement tonales et tout empreintes des caractéristiques de la musique romantique. Rien n’est dit sur l’urgence de créer des mondes sonores qui auraient leur propre authenticité grâce à l’invention de quelque forme d’expression nouvelle. Ce qui transparaît cependant, caché sous un chapelet de rictus sans joie, est un désir de revanche, de reconnaissance sociale et institutionnelle. Et cela semble tenir lieu de projet artistique à certains de ces néos. Ils veulent récupérer le pouvoir qui, pensent-ils, a été confisqué par les tenants du modernisme. Qu’ils nous montrent leurs œuvres plutôt que leur soif de vengeance. Qu’ils ôtent ce masque d’amertume et nous montrent leurs désirs avec plus de joie, et surtout sous une autre lumière que ce sempiternel ressentiment à l’égard de la génération des prédécesseurs. L‘arrogance qui est la leur aujourd’hui semble singer celle des avant-gardes des années 50 qu’ils condamnent. Mais, à la différence de ces dernières, ils ne nous font partager que leur désolation, ne nous montrant guère d’autres chemins que celui qui nous ramènerait au bercail. Les êtres de ressentiments, écrivait Nietzche, sont une race d’hommes pour qui la véritable réaction, celle de l’action, est interdite et qui ne se dédommagent qu’au moyen d’une vengeance imaginaire. Qu’ils cultivent leur part « active » au détriment de leur part « réactive », et ce serait la condition, nécessaire, pour engager un débat qui en vaille la peine.

Les Grammaires Musicales Génératives

Sunday, October 21st, 2012

Non, pour répondre à une question que l’on m’a souvent posée, les Grammaires Musicales Génératives (GMG) ne sont pas des procédés de composition automatique, ni ne constituent une théorie totalisante ou généralisée de la composition musicale. Cela, du moins, dépend du nombre de composants ou paramètres que l’on veut contrôler avec ce procédé. Certains attributs musicaux, tel que le caractère par exemple – si tant est que l’on puisse le définir avec précision – ne s’adapteraient pas facilement à ce formalisme. En ce qui me concerne, je fais usage de ces grammaires principalement dans le but de trouver une cohérence à un problème qui se pose quotidiennement à un compositeur au travail : dans quel ordre temporel doit-on enchaîner les événements musicaux et suivant quelles relations – causales ou non – devront-ils se succéder ? Lorsque l’on a décidé de la place de certains événements dans le temps, voire qu’on leur a assigné certaines fonctions structurelles, on n’en a pas pour autant résolu, ni même abordé, la question de leurs pouvoirs expressifs, de leurs poids dramatiques ou de leurs caractères. Je ne parle même pas du tempo, de leurs timbres ou de leurs enveloppes dynamiques. Toutes ces catégories pourraient être, si tel est le désir du compositeur, transformées en éléments de ces grammaires et l’on pourrait parvenir alors à une conception globale et totalisatrice de tous les éléments de la composition. Mais ce n’est pas mon but, ni mon souhait. Je tiens tout de suite à préciser que ce terme de « Grammaires Musicales Génératives » n’a pas été influencé par celui de Generative Grammar forgé par Noam Chomsky dans le domaine de la linguistique, mais pourrait plutôt se rapprocher, bien qu’à l’époque je ne les aie pas connues, des grammaires que le biologiste Aristide Lindenmayer a développées pour modéliser les processus de développement et de prolifération des plantes (L-Systems). Une des principales différences avec ces deux modèles est que les GMG ne reposent pas principalement sur des règles de réécriture, bien qu’elles puissent les contenir.

La principale préoccupation que j’avais à l’esprit quand j’ai imaginé ce formalisme pourrait être formulée comme ceci : si l’on doit soigner la manière avec laquelle on expose une idée, il faut également choisir le bon moment pour l‘exposer. C’est-à-dire que le contexte va grandement influencer la disposition des événements dans le temps… quand ce ne sera pas tout bonnement cette même disposition qui créera le contexte ! En d’autres termes : l’ordre d’apparition des événements est aussi important que les événements eux-mêmes. La musique, et tout particulièrement la musique tonale, regorge d’exemples dans lesquels certains accords, certains rythmes, certaines mélodies occupent des fonctions particulières dans le temps et ne peuvent pas être déplacées : les enchaînements des accords dans l’harmonie tonale, les figures cadentielles caractéristiques ou les configurations harmoniques particulières qui terminent les fugues sont les plus connus et ont été maintes fois étudiés. Il ne s’agit bien sûr pas de reproduire ces schémas, pas plus qu’il ne s’agit de prendre des modèles dans le langage parlé. L’idée de base consiste en ceci : la juxtaposition de deux événements finit par créer un sens musical par le fait de sa répétition. Ces deux événements peuvent, à force de répétition, être perçus comme formant une entité et l’apparition du premier fait attendre celle du second. On peut toujours assigner à un motif des fonctions particulières, comme « introduction » ou « conclusion », « antécédent », « conséquent », mais ce n’est pas une nécessité. Il s’agit avant tout de créer une relation entre deux (ou plusieurs) événements afin de faire émerger une cohérence dans la continuité du discours musical.

J’aimerais m’arrêter un instant sur ce terme de « répétition ». La répétition, nul ne peut le contester, est indispensable à la perception de la musique. C’est par la réécoute du même que l’on peut mémoriser des éléments musicaux et donc guider sa propre perception en conséquence. Cependant cette répétition n’est pas à prendre dans son sens le plus littéral. Un segment musical, le plus simple soit-il, est déjà un composite : des profils mélodiques, des successions d’intervalles, des durées, des rythmes, tout cela assemblé, nous offre la perception d’un tout que nous pouvons par exemple appeler, dans un cas simple, une mélodie. Lorsque nous entendons, ou reconnaissons, une mélodie, nous n’avons pas conscience de cette superposition d’éléments aussi divers. Ils se fondent dans un tout que nous identifions en tant que forme et à laquelle nous donnons le nom de mélodie. Jusqu’à Beethoven ces éléments n’étaient guère traités séparément et il était assez rare de voir un profil mélodique perdre son ossature rythmique. Certains autres motifs pouvaient accaparer certains aspects de cette mélodie mais l’unité fondamentale était le plus souvent conservée grâce à la permanence de tous les éléments qui constituait cette mélodie. Schœnberg fut le premier à faire remarquer que Beethoven, déjà, ne concevait plus ses motifs dans une vitesse et un tempo propre mais qu’ils les soumettait à de violentes modifications. Cette technique devait trouver son plus grand accomplissement dans les Variations Diabelli ou encore dans la Grande Fugue. Mais c’est Wagner qui tournera définitivement la page avec sa technique des leitmotive. Chez lui un motif pourra prendre sa mélodie dans un second, son rythme dans un troisième, ou encore son harmonie dans un quatrième. Cela a représenté un bouleversement considérable sur lequel nous sommes toujours lancés. La cohérence de la perception identifie alors des petites cellules atomiques qui gardent certaines de leurs caractéristiques pendant qu’elles en changent d’autres. Le principe de répétition est toujours respecté, bien qu’il ne s’agira plus d’une répétition à l’identique. Ce sera une répétition de structure dans laquelle les relations entre des éléments seront constantes pendant que d’autres varieront. C’est à la lumière de ce principe de séparation des éléments constitutifs des formes musicales que j’ai imaginé la construction de ces GMG.

Quand on veut utiliser ces grammaires, la première opération à effectuer consiste en la définition des éléments morphologiques qui vont servir de critères « thématiques », que l’on pourrait appeler « les invariants formels », et que l’on retrouvera tout au long de ce processus. Plus ces éléments seront atomisés et petits, plus ils auront de possibilités à s’intégrer dans des structures variées et diverses. Je les définirai donc suivant des principes morphologiques très rudimentaires comme suit :

notes répétées irrégulièrement

profils mélodiques réguliers (montant ou descendant)

son en crescendo

pulsation rythmique régulière

son avec résonnance


trémolo (ou trille)



Lorsque j’ai défini, par exemple, un son en crescendo, rien n’est dit sur sa durée, sa registration, son timbre ou la manière dont ce son sera entretenu. De tout cela, je n’en sais encore strictement rien et je me contente de définir son évolution du strict point de vue dynamique. Il en va de même pour tous les autres éléments qui, eux, seront déterminés suivant des principes différents tels que le rythme, le profil ou les évolutions de hauteurs. Il importe de déterminer, de la façon la plus concise et la plus minimale qui soit, des invariants morphologiques qui se trouveront ensuite plongés dans des contextes divers. En 1979, lorsque je composais ma première œuvre pour grand orchestre, Numéro huit, j’avais déjà utilisé ce principe de définition minimale de l’appareil thématique, donc bien avant d’imaginer celui des GMG, encore qu’une esquisse de ce que cela allait devenir puisse déjà s’y trouver. Une série de 7 éléments morphologiques était présentée au tout début, et la section qui suivait immédiatement cette brève exposition s’articulait suivant un principe immuable : chaque section fera entendre en continuité chacun des éléments dans le même ordre, et à tour de rôle, tandis que se dérouleront successivement les autres éléments, toujours dans le même ordre. Il en résulte la succession de structures suivantes :

En superposition à cette construction, j’avais décidé qu’à chaque nouvelle apparition d’un élément se verrait ajoutée une seconde couche, identique dans sa thématique de base, mais différente quant à son contenu réel, ce qui peut être représenté comme suit :

J’ai utilisé ce même principe de superpositions structurelles en boucles continues dans une œuvre plus récente, Partita I pour alto et électronique en temps réel qui est, elle, entièrement construite suivant ce principe. En voici le détail :

Le premier élément consiste en une répétition irrégulière d’une même note :

Le deuxième est un son aigu :

Le troisième, un trait rapide en valeurs régulières :

Le quatrième est un trille :

Le cinquième un ricochet :

Le sixième, un tremolo :

Le septième est défini par des sons en crescendo :

Le dernier est une polyphonie à deux voix :

Ici l’enregistrement de toute cette phrase :

Voici l’exemple de la séquence dans laquelle le second élément (le son aigu) assure toute la continuité tout en subissant des modifications, tandis que se déroulent successivement les autres :

Permutations, emboîtements, groupements…

Ce n’est qu’à partir de la composition de Synapse, mon concerto pour violon et orchestre, que j’ai commencé à réfléchir sur des formalismes plus développés, tant pour contrôler l’organisation interne des séquences musicales que pour imaginer comment déduire de nouvelles séquences de celles déjà existantes. La première idée qui m’est venue à l’esprit ressemblait à une sorte de pyramide couchée sur le côté, découpée en tranches, à l’intérieur desquelles chaque couples de structures, dans une séquence donnée, se fond progressivement en une seule, dans la séquence suivante, engendrant ainsi de nouvelles séquences de plus en plus courtes (10, 9, 8, 7, 6, 5, 4, 3, 2 et 1). On obtient, par ce procédé, un total de 55 séquences :

J’avais déjà eu l’idée de ce processus dans une œuvre pour grand orchestre, Sound and Fury, datant de 1999, mais elle était restée dans un état plus ou moins embryonnaire. Chaque tranche, ou série, de structures correspond à une section bien définie dans le concerto. Ainsi la première (de 1 à 10) est un solo de violon derrière lequel l’orchestre peu à peu s’installe, la deuxième (11 à 19) est un tutti d’orchestre, la troisième (20 à 27) est une sorte de « scherzo concertant », la quatrième (28 à 34) une transition d’orchestre, puis vient un lento, etc. Je tiens à préciser que cette forme, procédurale et dirigée, ne s’entend pas du tout, et je dirais que c’est tant mieux. Je suis, par nature, très peu intéressé par les formes continues, procesuelles et prévisibles telles qu’ont pu les pratiquer, surtout à leurs début, les compositeurs de l’école spectrale. Il ne me semble pas du tout nécessaire que toute l’organisation préalable à une composition soit directement et immédiatement perçue. Bien au contraire. Je trouve beaucoup plus passionnante l’idée qu’une œuvre puisse reposer également sur des fondations plus ou moins cachées qui peuvent à tout moment affleurer la conscience perceptive. Cela ne signifie certainement pas que la perception soit évacuée de mes préoccupations, mais qu’elle se situe sur un autre plan. Une des raisons pour lesquelles on ne perçoit pas de processus continu est d’abord que le nombre de séquences, allant en s’amenuisant, ne représente pas systématiquement des durées de plus en plus brèves, et ensuite, et c’est là un des intérêts des GMG, que les principes d’engendrement de ces séquences ne sont pas les mêmes d’une phrase à l’autre ; il n’y a donc pas de perception d’un processus continu de transformation. J’ajouterai enfin, en reprenant une idée que j’ai exposée tout au début, que les GMG ne contrôlent pas la totalité de la composition et laissent ainsi ouverte la possibilité d’un grand nombre de décisions importantes.

Reste maintenant à déterminer de quelles manières ces couples de structures se fonderont dans une structure unique. Ces emboîtements ne se feront pas dans la successivité immédiate car, comme on le voit, si l’on prend par exemple les structures 11 et 12, elles ne se fondent pas en 13 mais en 20, comme 12 et 13 s’uniront en 21… Cela revient à avoir une succession de phrases qui seront déduites les unes des autres car deux termes d’une phrase donneront naissance à un seul terme de la phrase suivante, et ainsi de suite. Parler de « phrase » n’est pas très correct d’un point de vue musical, car ces tranches représentent en fait des sections très développées et non de simples phrases musicales, mais ce terme prend tout son sens, comme nous allons le voir maintenant, si l’on applique à cette organisation formelle une « grammaire générative » qui contrôle le séquencement progressif de toutes ces séries structurelles s’engendrant les unes les autres. Comme d’habitude, si l’on
veut appliquer une grammaire, il faut définir un vocabulaire dont chaque élément renvoie à un motif musical bien particulier. Pour Synapse, les voici :

Pour donner un exemple de ces mécanismes de déduction je partirai de la deuxième section. Elle comprend les séquences 11 à 19 qui vont présenter les éléments suivants
dans cet ordre chronologique : B, C, D, A, E, F, G, H, I et B pour finir. Ces éléments sont groupés deux à deux, le dernier d’une séquence étant le premier de la suivante. Ainsi nous obtenons les couples
suivants : BC, CD, DA, AE, EF, FG, GH, HI et IB comme il est montré dans le graphique suivant :

J’attire l’attention sur le fait que l’ordre des événements dans un couple donné (par exemple BC) ne conditionne pas une chronologie particulière qui voudrait que C suive B. Cela signifie que dans cette séquence nous trouverons à la fois les éléments B et C. Voici maintenant comment va se déduire la section suivante (séquences 28 à 34) de celle-ci. Comme je le disais plus haut, les séquences 11 et 12 vont engendrer la séquence 20. J’ai décidé de créer, dans la séquence 20, de petits noyaux qui recevront les éléments formant les couples de séquences 11 et 12 comme ce graphique le montre :

De la même manière, les séquences 12 et 13 engendreront les noyaux de la séquence 21 :

Autour de ces noyaux, j’insère maintenant 3 autres éléments, le premier et le troisième étant identiques : A, D et A. Nous obtenons la structure suivante :

Pour préciser la chose, il faut remarquer que l’élément D est issu du second terme du deuxième noyau, ou plutôt l’anticipe car ici, il s’agit bien d’un ordre temporel:

La manière dont va être construite la séquence qui suit (21) correspond à la règle suivante : l’élément qui se trouve aux extrêmes dans la séquence précédente va se placer au centre dans la suivante, et les éléments qui se trouvent aux extrêmes, dans cette dernière, suivent la suite chronologique des éléments qui composaient la section précédente (D, A, E, F, G, H, I, B). Le même type d’engendrement s’appliquera aux séquences suivantes et le graphique ci-dessous montre le processus qui court tout au long des séquences 20 à 27 qui composent cette section :

Voici maintenant, sous une autre forme de représentation, les sections 2 et 3 avec les pointages de la première sur la seconde :

Comme je l’ai dit plus haut, les règles d’engendrement changent d’une section à l’autre, principalement pour éviter les processus continus et trop prévisibles. La façon dont la section suivante (séquences 28 à 34) se construit est plus simple. Un procédé de filtrage structurel supprime tous les éléments se trouvant entre parenthèses (noyaux), il ne reste que les éléments symétriques :
ADA, EAE, FEF, GFG, HGH, IHI, BIB et CBC. Suivant le même principe (deux séquences engendrent une séquence) je prend tous ces éléments dans l’ordre en éliminant les répétitions. Ainsi ADA et EAE donnent
ADE, EAE et FEF donnent EAF, et ainsi de suite.

Voici maintenant l’intégralité de ces engendrements de sections dans lesquels nous pouvons reconnaître la forme pyramidale, qui est ici renversée :

Je vais montrer maintenant comment, à partir de ce séquencement, s’organise la composition et quelles conséquences cela a sur le déroulement et la morphologie des événements musicaux. Là encore, je revendique une liberté assez grande, non parce que je vais m’écarter du chemin tracé par ces grammaires (sinon à quoi bon les utiliser ?) mais parce que j’aurai à prendre un assez grand nombre de décisions qui ne seront pas soumises à ces procédés grammaticaux. A ce titre, j’entends surtout montrer que ces GMG agissent chez moi plus comme une sorte de « catalyseur », de « provocateur », que comme une règle à suivre. Comme je l’ai mentionné au début, les GMG n’ont pas pour but de contrôler la totalité des phénomènes musicaux et laissent donc ouvertes, en tout cas chez moi, un
grand nombre de questions qui ne seront pas résolues par cette méthode. Je ne peux pas nier, en revanche, que la plupart de ces questions ont été provoquées par cette méthode et qu’elles ne
se seraient pas posées sans son usage.

La question qui se pose n’est plus celle de la successivité des éléments dans le temps – il n’y a rien de bien compliqué à faire se succéder (ou juxtaposer) des éléments musicaux – mais de leurs influences, unions, métamorphoses, bref, de tout ce qui peut engendrer de nouvelles formes par le seul fait que ces éléments sont placés l’un à côté de l’autre. C’est ici qu’intervient cette «question» provoquée par le placement concomitant de deux éléments musicaux différents. Revenons un instant à la séquence 20 :

La question qui se pose est celle des influences réciproques entre B et C, comme entre C et D. Il peut exister plusieurs cas de figures :

soit B et C appartiennent à la même catégorie musicale (par exemple des figures rythmiques), auquel cas il est très possible de trouver une écriture commune qui associe certains aspects de ces deux éléments.

soit B et C appartiennent à deux catégories différentes mais qui peuvent être complémentaires (par exemple une figure rythmique et un profil dynamique) auquel cas il n’y aura toujours pas de problèmes pour les superposer tous les deux dans une même forme,

soit ils appartiennent à des catégories antinomiques et contradictoires (comme par exemple un pizzicati et une note de longue durée) et, dans ce cas, il n’y aura pas d’autres solutions que la juxtaposition de B et de C car aucun terrain commun ne peut être trouvé.

Dans Synapse, B est défini comme une figure de deux sons harmoniques (donc très aigus) et C, comme une gamme descendante. C’est ainsi que je l’ai alors esquissé : une phrase descendante dont les termes sont regroupés deux à deux :

Quant à D, il est défini comme une succession de notes répétées de durée égale, et c’est ainsi qu’il va se fondre en C qui est une gamme descendante :

Dans la version définitive de cette section, j’ai senti la nécessité d’insérer encore de nouvelles phrases à celles déjà construites, dans le but d’établir un nouveau
matériau qui, progressivement, va prendre une place plus importante. Ce sont des phrases, jouées par le violon seul, qui se trouvent en début de chaque séquence. Elles aussi obéissent à un processus de développement et d’extension qui consiste en ceci :

soit 3 éléments J, K et L

on permute leur ordre à chaque nouvelle apparition.

on ajoute un nouvel élément à chaque nouvelle phrase.

Nous aurons donc la grammaire suivante :

(J K L)

(J L K M)

(K J L M N)

(K L J M N O)

(L K J M N O P)

(L J K M N O P Q)

(J K L M N O P Q R)

Quand on insère ces structures à celles que j’ai définies précédemment, la séquence définitive de cette section apparaît donc comme suit :

20 (J K L) [A (BC) D (CD) A]

21 (J L K M) [E (CD) A (DA) E]

22 (K J L M N) [F (DA) E (AE) F]

23 (K L J M N O) [G (AE) F (EF) G]

24 (L K J M N O P) [H (EF) G (FG) H]

25 (L J K M N O P Q) [I (FG) H (GH) I]

26 (J K L M N O P Q R) [B (GH) I (HI) B]

27 (J K L M N O P Q R) [C (HI) B (IB) C]

Voici maintenant l’esquisse du début de cette section représentant les séquences 20 et 21 :

Et ici, la partition totalement rédigée à écouter avec l’enregistrement :

Densités et orientations structurelles.

Je vais décrire ici comment est composée la section précédente (deuxième section), qui est une courte transition orchestrale entre le début et le « scherzando » dont je viens de parler. La manière dont ses éléments sont groupés explique également le groupement effectué dans la troisième section comme le montre clairement ce schéma :

Or ce n’est pas exactement ce schéma que j’ai retenu pour cette transition, et cela pour une raison musicale facile à comprendre. La première section consistait en un long processus partant du violon solo derrière lequel l’orchestre peu à peu se construisait. Arrivée à son terme, cette construction ne pouvait pas rester sans conséquences. Or le peu d’éléments apparaissant dans ce schéma (juste des couples d’éléments, tels que BC, CD, DA…) aurait été d’une densité bien trop faible pour répondre à la construction précédente. Il me fallait une réponse musicale beaucoup plus énergique et dense que ce simple schéma initialement prévu. Mon choix s’est alors porté sur une exploitation de tout le matériel thématique disponible dans la première section et les faire apparaître simultanément dans chacune des séquence de cette transition orchestrale. J’avais très présent à l’esprit le vif souvenir de Mozart faisant se superposer les 5 thèmes du final de sa symphonie « Jupiter ». J’ai donc utilisé une matrice de densité assignant à chacun des éléments le nombre de fois qu’il doit apparaître dans une séquence donnée. Cette matrice change à chaque nouvelle section par simple ajout. Ainsi l’élément 1 apparaîtra 5 fois lors de la section 11, 6 fois à la section 12, 7 à la section 13, etc. Voici le tableau général de ces densités :

Les couples BC, CD, DA… représentés dans la GMG de cette section indiquent en fait les éléments qui seront dotés de la plus grande densité structurelle. Ici se trouve l’esquisse du
début de cette section dans laquelle on peut voir les différentes occurrences de ces éléments musicaux superposés.

On peut écouter ici l’enregistrement de cette brève transition :

Ces GMG sont là pour contrôler l’évolution générale de la disposition temporelle et des relations entre les éléments. Il est clair qu’elles sont trop abstraites pour n’obéir qu’à un mécanisme, aussi sophistiqué soit-il, qui ne peut embrasser tous les détails de la partition ainsi que son déploiement dans le temps. A la fin de Synapse je désirais focaliser l’attention de l’auditeur sur un plus petit nombre d’éléments afin d’orienter progressivement sa perception sur quelque chose de plus unitaire. Cet élément, qui est apparu à de nombreuses reprises dans le cours de l’œuvre est celui identifié comme I, correspondant à des traits disjoints. Ma décision était de composer un perpetuum mobile, extrêmement virtuose pour le soliste, qui utiliserait cette morphologie. On peut écouter ici, un extrait de ce perpetuum mobile :

Une fois avoir esquissé cette section, je réfléchissais à la manière dont elle devait être introduite, de façon à amener cet élément I peu à peu à la lumière.Pour bien saisir tout ce processus, je suis obligé de remonter un peu en arrière, de partir de la troisième section et de montrer les règles d’engendrement successives qui conduisent à la septième, le perpetuum.

Le regroupement structurel entre les sections 3 et 4 s’opère par un filtrage des termes mis entre parenthèses et la réunion de tous les termes restants en éliminant toute répétition. Ainsi la séquence 20 : [A (BC) D (CD) A], devient ADA, et la séquence 21 [E (CD) A (DA) E] devient EAE. La réunion des termes ADA et EAE donnera ADE à 28. Le même processus court tout au long de cette section comme c’est montré ici :

La déduction de la section 5 se fait par la mise entre parenthèses des triplets appartenant à la section 4 ainsi que par l’ajout de trois éléments nouveaux dans une séquence organisée comme suit : JKL, KLM, LMN, NOP, OPQ et PQR.. Voici les GMG respectives pour ces deux sections :

L’engendrement de la section 6 est montré ici. On y voit, outre la présence de I, encore la mise entre parenthèses des termes appartenant aux séquences de la section précédente :

Nous voici à la section 7 qui trouve sa thématique en prenant tous les éléments communs dans les 2 séquences de la section précédente : le motif I (présent dans toutes les séquences de la section 6) ainsi qu’un autre motif, changeant à chaque fois : I (K) I (N) I (C) I (C) :

C’est de cette manière, mais il aurait pu y en avoir d’autres, que j’ai installé ce motif I en suivant une progression irrégulière qui regroupait puis éliminait progressivement tous les autres éléments.

Les GMG dans Echo-daimónon

Dans Echo-daimónon, mon concerto pour piano, électronique et orchestre, j’ai également utilisé ce procédé de Grammaires Musicales Génératives mais sous une forme moins « programmatique » et processuelle. J’avais décidé de rendre un discret hommage à la forme du concerto en simulant une double exposition comme c’est le cas dans de nombreux concertos classiques. Les première et troisième sections de cette œuvre semblent en effet s’ouvrir de la même façon en exposant un matériel identique, mais les suites des processus évolueront différemment. L’entrée du piano se fait sur une succession [facd] dans laquelle f est un arpège débouchant sur un accord, a une succession d’accords dans un rythme obstiné, c des trilles et d une séquence composées d’intervalles disjoints dans un rythme rapide et régulier :

Voici, maintenant, comment se présente le début de la dite « double exposition » dans la partie du piano solo, lors de la troisième section de cette œuvre, qui semble
reprendre ce que le piano exprimait au tout début :

La première section comporte 4 phrases dont la seconde insère un nouvel élément entre chacun des termes (successivement : h, b et l) de la premières puis recompose un groupement entre 2 triplets encadrant une unité :

Voici le premier triplet (fha) dans la phrase musicale correspondante. L’élément nouveau, h, est une figure en quintolet avec un cluster tournant sur un axe :

Ici le second (cld). L’élément l est une succession de notes répétées en crescendo qui est confié ici à la percussion :

On retrouve, dans la troisième phrase, ces triplets (fha et cld) formant deux unités autour desquelles un nouvel élément, e, est aussitôt inséré :

L’élément e est une succession de répétitions irrégulières. La réalisation musicale ((e) [fha]) figure ici :

La dernière phrase de cette première partie obéit toujours à une même structure en triplets alternés avec des unités, mais les éléments de ces triplets sont progressivement échangés ([fha] et [cld] deviennent [fla] et [chd]). Quant aux unités, elles s’articulent autour de l’élément e avec la symétrie suivante : [j p e e p j]. On obtient alors la séquence suivante : an

Voici l’intégralité de cette première partie avec la grammaire correspondante (noter la présence d’une cadence pour piano solo, à la fin de la séquence IC, qui n‘est pas totalement intégrée dans cette GMG) :

La double exposition empruntera des chemins plus sinueux et complexes. Partant du même chemin [facd] dans la première phrase, on peut voir un procédé d’insertion dans la seconde ainsi que de substitution dans la troisième (l’élément a remplaçant tous ceux qui constituaient la première phrase) :

L’engendrement de la quatrième phrase se fait de la manière suivante

des couples (al), (ab), (ag) et (ae) ont été formés à partir de la phrase précédente par permutation de ses éléments et juxtaposition avec l’élément a

une structure de 5 nouveaux éléments (h, j b, d et f) intervient toujours dans le même ordre entre ces couples. Les chiffres figurant en dessous de ces éléments, représentent leurs densités, c’est-à-dire le nombre de fois où ils interviendront. Comme on le voit, h et f diminuent de deux en deux, j et d augmentent de deux en deux et b demeure identique :

Les six phrases qui concluent cette partie obéissent aux règles d’engendrement suivantes :

une série de nouveaux éléments apparaît suivant une règle en permutant 6 mais n’en exposant que 5 : [k m n o p], [m n o p i ], [n o p i k], [o p i k m], [p i k m n] et [i k m n o].

Chacun de ces éléments suit un déroulement de densité similaire : 2, 3, 4, 5 et 6.

Le sixième des éléments, superposé aux cinq autres, se déroule en continu, ainsi, lors de la série [k m n o p], [i] sera présent en permanence, lors de [m n o p i ], ce sera [k], etc.

Une succession de nouveaux éléments insérés entre ces successions intervient dans les phrases IIIh (l, j, h et g) et IIIi (f, e, c, d, b et a).

– Les trois phrases restantes (IIIj, IIIk et IIIl) contiennent des couples formés à partir de ces nouveaux éléments : (le), (jd), (hc), (gb)…

Sous une autre forme, voici l’intégralité de la GMG qui contrôle toute cette troisième section :

A titre d’exemple, voici la fin de cette section dans la partition achevée. On y remarque, en rouge, les éléments permanents (ici O et P) ainsi que la disposition temporelle des autres figures :

Ici la liste descriptive de tous les éléments qui forment les GMG de Echo-daimónon :

Ici, l’enregistrement intégral de cette double exposition :

Pour conclure provisoirement…

Il sera toujours possible d’inventer de nouvelles règles d’engendrement suivant les besoins. Dans l’état actuel, je pourrais définir ces règles de la manière suivante :

a) l’insertion ou ajout : [a b c] devient [a d b e c f]

b) la suppression ou filtrage : [a d b e c f] devient [a b e f]

c) la permutation : [m n o p] , [n o p m], [o p m n]…

d) le groupement : [a d b e c f m n o p] devient [a (dbe) c (fmn) o p]

e) le déplacement : [a (dbe) c (fmn) o p] devient [a (fmn)  c o (dbe) p]

f) l’échange : [a (fmn) c o (dbe) p] devient [a (dme) c o (fbn) p]

g) la densité : [a3 (fmn) c6 o4 (dbe) p5]

Cette liste n’est certes pas exhaustive et il est souvent plus intéressant de superposer plusieurs règles que de n’en utiliser qu’une seule dans l’engendrement de nouvelles phrases. Il ne s’agit pas de pouvoir identifier ces règles à l’écoute de ces musiques, auquel cas ces dernières perdraient immédiatement de leur intérêt. Il s’agit bien plus de proposer une continuité structurelle qui puisse garantir une partie de la cohérence dans la succession et les rapports des événements musicaux dans le temps. Un des grands intérêt des musiques complexes – qui sont celles que je préfère car, comme dans la vie, la réalité est faite de textures multiples – provient du pressentiment qu’une architecture gouverne toute la construction. Ce ne doit être cependant qu’un pressentiment et non un dévoilement. Lorsque la structure affleure et se dévoile dans toute sa réalité, quelque chose de fondamental se perd : la musique ne dit plus rien, sinon qu’elle se décrit elle-même. Cette partie cachée de l’iceberg, comme j’aime à l’appeler, doit être agissante sans se dévoiler. Nous la percevons en quelque sorte de façon subliminale. Mais dès qu’elle vient à ne plus exister, son absence fait alors cruellement défaut. Les Grammaires Musicales Génératives sont une manière, parmi plein d’autres, d’aborder ce problème.

Philippe Manoury, San Diego 21 octobre 2012

Les exemples musicaux sont ici interprétés par Christophe Desjardins pour Partita I, James Ehnes (violon) et le St. Louis Symphony Orchestra dirigé par David Robertson pour Synapse, Jean-Frédéric Neuburger (piano) et l’Orchestre de Paris dirigé par Ingo Metzmacher pour Echo-daimónon.

Letter to the young musicians of the Academy of Luzern (English version)

Saturday, September 15th, 2012

First and foremost, I would like to tell you the great joy I lived through in participating to this Academy. The quality and the talent of the organizers had created ideal conditions that have permitted the quality and the talent of the interpreters to be displayed. I must congratulate in particular all of you, young musicians, because in accepting to participate to this Academy, you have accepted to confront you with a repertoire which is exigent, sometimes difficult, not the one that can be heard almost everywhere. This decision of yours itself deserves to be greeted. You have proven, in your work during these 3 weeks, such a remarkable enthusiasm and seriousness that allow me today to foresee with hope and confidence what the orchestras of tomorrow might be.

I am addressing to you also because you embody the present, indeed, but especially the future of music. But not of whatever kind of music ! What matters here is not a simple entertainment or a pass-time, but a very long story I’m going to try to outline quickly today. This music, to which we have been dedicating so much time and effort, isn’t, alas, always supported or defended as it would deserve to be, in our societies. These societies undergo mutations, sometimes very hard ones, and I will not unveil a mystery, stating that to keep alive this art, this wonderful but expensive art, becomes more and more difficult to assure. This art – the musical one – requires financial supports and these, in our time of crisis, tend to disperse toward other horizons. In some of our European countries, music is still enjoying a support of public funds but this support is decreasing from year to year. Other countries, like the US, were able to maintain their orchestras thanks to the private funds provided by riche industrial families. The new big assets and the « nouveau riche », like these currently flourishing in technologies of Silicon Valley and who grew up under a massive influence of pop music, are they going to serve the same cultural and artistic causes as their predecessors did ? It is permitted to be in doubt about it. In a society that is claiming to be an egalitarian, horizontal, non-hierarchized, art is very often on the wrong footing with power and establishment. When the Bavarian king was financing the construction of a theater in Bayreuth for one single composer, it surely did not constitute – according to our current conceptions – a specifically democratic act. The ways our modern democracies are dealing with art – let’s free from illusions – appear as more than paradoxical.

Furthermore, a musical work is immaterial. Therefore it doesn’t constitute an object having in itself a value or market price. The musical creation doesn’t benefit, far from it, from the financial impact the world of visual arts does. The contemporary classical music – or, as we call it in French, la musique savante (which means literally the erudite music) – will never be cost-effective as pop music can be, this is not the point. However, its survival and its continuation cannot be assured unless people become aware of its necessity. This awakening of consciousness can emerge only if a right education exists which assigns to the art its real purpose or ambition, which is not a material, but clearly a spiritual enrichment of a human existence. This is the big challenge we are facing today. And the Lucerne Academy, for several years already, is dealing with it cleverly and with great generosity.

But let’s speak now a little about this music called « contemporary ». It is often being developed inside of the specialized networks, ensembles, festivals, whose mission is to present and also to instigate musical creation. Once premiered, these contemporary compositions, or at least some of them, should find their place in the main repertoire. But it is clearly not what’s happening. We are even witnessing today a great number of properly troubling situations : it became already a custom to put on the same concert program a XIXth century romantic music along with a Hollywood movie music, on the pretext that the latter resembles the former. This way, they want to pose as a daughter simply the pale, bloodless doppel-gänger of a virtual great-granddaughter ! But, it isn’t only a resemblance that makes a filiation. The history of music furnishes us numerous evidences of this statement : Bach doesn’t sound like Monteverdi, Mozart doesn’t sound like Bach, Wagner doesn’t sound like Beethoven, Debussy like Wagner, etc. However, if all these composers were aware of belonging to some tradition – that our time loves so much to class into separate compartments with labels like « baroque », « classical », « romantic », « post-romantic, « impressionistic » or « modern » – all these composers had been, first and chiefly, everyone at his time, contemporaries. All these great creators who perpetuated a long tradition of written music, were also and in the same time great experimentalists and great inventors. I can hardly imagine Beethoven telling himself : «  I am a classical composer », or Mozart thinking : « The great composers have been all sitting comfortably in the chairs of the tradition, this chair that remains empty isn’t waiting for anyone but for me ! » No. These composers had been creating what didn’t exist yet. If there is one specificity of this tradition, it is, for sure, the one of the permanent questioning of the rules and customs in which it is rooted. One could even suggest, exaggerating slightly, that the history of the western music could be an exemplary demonstration of the idea of permanent revolution solicited – for political purposes, of course – by Leon Trotsky. Experimentation and innovation have always been the most important challenges in the long history of music. For sure, its tradition was perpetuated by artistic legacies, by transmission of knowledge and by esthetic oppositions. However, it is much less thanks to the permanence of its rules than to a shared consciousness of its necessary regeneration, re-creation, that music survived through centuries. This consciousness – Stravinsky has summarized it in a single phrase : « We have a duty toward music, which is : to invent it » – this consciousness is what matters for all of us not to lose. And it is with this concern in mind that I am speaking now to you.

For, after all, who are we, contemporary musicians, if not the continuators of this tradition of serious or erudite music ? The new technologies and the last developments of instrumental techniques are not so surprising phenomena, once considered at a much bigger scale. They are just the perpetuation of a story knitted together by novelties, researches and experimentations, as well as by memory. This memory, however, is not a dead memory that would everlastingly revive the same models and the same codes, but indeed a living memory that is inciting us to go the ways that had not been marked out yet. This memory has to be, first, the one of our consciousness. And I don’t think I’ll be perceived as exaggeratedly pessimistic if I say that the music that is assembling us all together here today is progressively disappearing from the minds and from the ears of a big part of the audience. The causes of this process of disappearance are not mysterious ; they flow from concrete social, cultural, economical, political and technological situations which would be too long and annoying to expose here, but which are actual and real. It is important for all of us, interpreters, composers, directors and organizers of musical life to watch over it and, first of all, to try to find remedies for it.

In this respect, one of the most remarkable specificities of this Festival consists precisely in the cohabitation, under the same roof, of all these faces of music as parts of this vast history I have just evoked. This phenomenon, in our times, is rare enough to be greeted. For sure, Pierre Boulez – as personality, composer and conductor of highest importance, has made an essential contribution to its development. Thanks to him, and during his entire carrier as conductor, the musical creation has been confronted with the main repertoire. However, there are only very few artists, like Maurizio Pollini, having the courage to include in their repertoire of pieces of the past also the ones composed today.

So in congratulating Michael Haeffliger and his whole staff for the excellent quality of the organization of this Festival and this Academy, I want to tell them how precious for all the musicians of today will be that this Academy continues and persists in the same spirit. For sure, it is not an easy task. Because the public, as always, is much more comfortable with a music it already knows than with discoveries of the one it doesn’t know yet. There are a lot of things remaining to be initiated. For instance, it would be worth proposing to the audience of philharmonic concerts, in a reasonable dose, some discoveries, well chosen, of contemporary music in a program that would reveal the modernity of those who are usually qualified as classical. Maybe the audience will be surprised ! Maybe it will love the surprise !

But you, my dear friends instrumentalists, you have three assets: the youth, the talent and the enthusiasm. I have in mind a joke made recently by Mick Jagger : « We were young and stupid. We remain stupid ! ». I wish I could imagine you, saying one day : « We were young and talented. We remain talented ». Your youth will be gone, but not your talent. However, you will have to cultivate it, somehow… But what you will have to watch upon is to never lose the enthusiasm you have had all along this Academy.

So that the best phrase getting out of your mouth, when you will be old, could or should be : « We were young, talented and enthusiastic. We didn’t lose anything but the appearance of the youth ». Yet, it will be just an appearance. You will be like this – so-called – classical music, qualified by many people as old, while it can never be old. We have just to change our view of it : we will be able to hear in it the innovative intensity that was the one of its youth.

In keeping playing – as you did here – the music of your time, you will naturally find the keys for playing also the ones of the past, as if they have been just finished to be composed yesterday. Then, perhaps, a new form of the eternal youth and of the myth of Faust could appear. And should this happen, you wouldn’t even have to sell your soul to the devil.

Philippe Manoury.

Luzern, September 8th 2012.

Lettre aux jeunes musiciens de l’Académie de Lucerne (version française)

Saturday, September 15th, 2012

J’aimerais tout d’abord vous dire la joie qui a été la mienne de participer à cette académie. La qualité et le talent des organisateurs ont créé les conditions idéales qui ont permis à la qualité et au talent des interprètes de se manifester. Je tiens à vous féliciter tout particulièrement, vous, jeunes musiciens, parce qu’en décidant de participer à cette académie, vous avez accepté de vous confronter à un répertoire exigeant, parfois difficile, et qui n’est pas celui que l’on entend un peu partout. Cette décision en elle-même mérite d’être saluée. Vous avez fait preuve, dans votre travail tout au long de ces 3 semaines, d’un enthousiasme et d’un sérieux remarquables qui me laissent entrevoir avec espoir et confiance ce à quoi pourront ressembler les orchestres de demain.

Je m’adresse à vous aussi parce que vous incarnez, certes, le présent, mais surtout le futur de la musique. Et pas de n’importe quelle musique. Il ne s’agit pas d’un simple divertissement mais bien d’une longue histoire que je vais tenter d’esquisser rapidement devant vous ce soir. Cette musique à laquelle nous consacrons tant de temps et d’efforts n’est malheureusement pas toujours défendue comme elle mériterait de l’être dans nos sociétés actuelles. Celles-ci sont soumises à des mutations, parfois très abruptes, et ce n’est pas dévoiler un mystère que de constater que le maintien de cet art, magnifique mais coûteux, est de plus en plus difficile à assurer. Cet art nécessite des soutiens financiers qui, par ces temps de crise, tendent à se disperser vers d’autres horizons. Dans certains de nos pays européens, la musique jouit encore d’aides venant de fonds publics mais qui s’amenuisent d’année en année. D’autres pays, comme les Etats-Unis, ont longtemps maintenu leurs orchestres grâce aux fonds privés venant de riches familles industrielles. Les nouvelles grandes fortunes, comme celles qui fleurissent actuellement dans les technologies de la Silicon Valley et qui ont grandi sous l’influence massive de la pop music, serviront-elles les mêmes causes culturelles et artistiques que les grandes fortunes précédentes ? Il est permis d’en douter. Dans une société qui se veut égalitaire, horizontale, non hiérarchisée, l’art se trouve souvent en porte-à-faux avec les pouvoirs. Quand le roi de Bavière finançait la construction d’un théâtre à Bayreuth pour un seul compositeur, cela ne constituait sûrement pas, selon nos conceptions actuelles, un acte particulièrement démocratique. Les relations que nos démocraties modernes entretiennent avec l’art, ne nous leurrons pas, sont des plus paradoxales.

Par ailleurs, une œuvre musicale est immatérielle. Elle ne constitue donc pas un objet qui ait une valeur marchande en soi. La création musicale ne bénéficie pas, peu s’en faut, des retombées financières qui alimentent le monde des arts plastiques. La musique savante ne sera jamais aussi rentable que la pop music, là n’est pas la question. Sa survie et son maintien ne peuvent être assurés que par une prise de conscience de sa nécessité. Cette prise de conscience ne peut émerger que s’il existe une éducation qui attribue à l’art sa véritable finalité, qui n’est point l’enrichissement matériel mais bien celui, spirituel, de l’existence humaine. C’est là le défi qui est aujourd’hui devant nous. Et cette académie de Lucerne, depuis plusieurs années déjà, le relève avec intelligence et générosité.

Mais parlons un peu de cette musique que l’on nomme « contemporaine ». Elle se développe souvent au sein de réseaux spécialisés, des ensembles, des festivals, qui ont pour vocation de présenter et aussi de susciter la création musicale. Une fois créées, ces œuvres « contemporaines », ou du moins certaines d’entre elles, devraient pouvoir trouver leur place au sein du grand répertoire. Or il n’en est rien. On assiste même, parfois, à des situations proprement ahurissantes: il est devenu coutume, de nos jours, de faire se côtoyer dans un même programme une œuvre romantique et une musique de film d’Hollywood au prétexte que celle-ci ressemblerait à celle-là. Ainsi on veut faire passer pour héritière directe le pâle sosie d’une arrière-arrière petite-fille ! Or ce n’est pas la ressemblance seule qui fait la filiation. L’histoire de la musique nous en fournit de maints exemples : Bach ne sonne pas comme Monteverdi, Mozart ne sonne pas comme Bach, Wagner ne sonne pas comme Beethoven, Debussy ne sonne pas comme Wagner, etc. Cependant, si tous ces compositeurs avaient la conscience d’appartenir à une tradition – que notre époque aime tant à ranger dans des casiers avec étiquettes « baroque », « classique », « romantique », « post-romantique, « impressionniste » ou « moderne » – ils ont été avant tout, chacun à son époque, des « contemporains ». Tous ces grands créateurs, qui perpétuaient une longue tradition d’écriture, étaient aussi de grands expérimentateurs et de grands inventeurs. J’ai du mal à imaginer que Beethoven ait pu se dire un jour : « je suis un compositeur classique » ou que Mozart ait pu penser : « les grands compositeurs sont tous assis sur les chaises confortables de la tradition et celle-ci, qui est vide, n’attendait que moi ! ». Non. Ces compositeurs créaient ce qui n’existait pas encore. S’il y a une spécificité à cette tradition, c’est bien celle de la remise en question permanente des règles et des coutumes dans lesquelles elle est enracinée.. On pourrait même avancer, en exagérant à peine, que l’histoire de la musique occidentale serait la démonstration exemplaire de l’idée de révolution permanente souhaitée – pour le domaine politique, il est vrai – par Léon Trotsky. L’expérimentation et l’innovation ont toujours été des enjeux de première importance au cours de cette longue histoire. Certes, cette tradition s’est perpétuée par des legs artistiques, par des transmissions de savoirs et par des oppositions esthétiques. Mais c’est moins par la permanence de ses règles que par le partage d’une certaine conscience de la nécessité de la renouveler qu’elle a survécu par delà les siècles. Cette conscience – Stravinsky l’a résumée en une phrase : « Nous avons un devoir envers la musique, c’est de l’inventer » – il nous importe, à nous tous, de ne pas la perdre. Et c’est ayant ce souci à l’esprit que je m’adresse à vous.

Car qui sommes nous, les musiciens contemporains, sinon les continuateurs de cette tradition de musique savante ? Les nouvelles technologies et les derniers développements des techniques instrumentales ne sont pas des phénomènes si étonnants, si l’on veut bien les considérer sur une plus grande échelle. Ils ne sont que la perpétuation d’une histoire tissée de nouveautés, de recherches et d’expérimentations, autant que de mémoire. Cette mémoire n’est cependant pas une mémoire morte qui réactiverait sempiternellement les mêmes schémas et les mêmes codes, mais bien une mémoire vive qui nous incite à emprunter des chemins qui n’ont pas encore été balisés, quitte à entrer en conflit avec certains codes d’autrefois ou de naguère. Cette mémoire doit être surtout celle de notre conscience. Et je ne pense pas faire preuve d’un pessimisme exagéré en disant que cette musique qui nous réunit tous ici est en train de disparaître progressivement de la conscience et des oreilles d’une grande partie du public. Les raisons de ce processus de disparition ne sont pas mystérieuses, car elles découlent de situations sociales, culturelles, technologiques, économiques et politiques concrètes qu’il serait long et fastidieux d’exposer ici, mais qui sont bien réelles. Il nous appartient à tous, interprètes, compositeurs, directeurs et organisateurs de la vie musicale, d’y veiller et, surtout, d’essayer d’y remédier.

À ce titre, une des spécificités les plus remarquables de ce festival consiste justement en la cohabitation, sous le même toit, de toutes les musiques faisant partie de cette vaste histoire que je viens d’évoquer. Ce phénomène est, de nos jours, suffisamment rare pour être salué. Certes, la personnalité de Pierre Boulez, compositeur et chef d’orchestre de premier plan, y a beaucoup contribué. Grâce à lui, et tout au long de sa carrière de chef, la création s’est trouvée confrontée au grand répertoire. Or il n’y a, hélas, que très peu d’artistes, comme Maurizio Pollini par exemple, qui aient le courage d’inclure dans leur répertoire de musiques du passé celles aussi que l’on compose aujourd’hui. Alors, tout en adressant mes plus vives félicitations à Michael Haeffliger et à toute son équipe pour l’excellente qualité de l’organisation de ce festival et de cette académie, je veux aussi leur dire combien il est précieux pour tous les musiciens actuels que cette académie puisse se poursuivre et persister dans le même esprit. Ce n’est certes pas une tâche aisée. Car le public, comme cela l’a été à toutes les époques, se satisfait plus volontiers des musiques qu’il connaît déjà que des découvertes de celles qu’il ne connaît pas encore. Il reste beaucoup de choses à entreprendre. Par exemple, il serait utile de proposer aux habitués des concerts symphoniques des découvertes, à dose raisonnable, des musiques d’aujourd’hui, bien choisies, au sein d’un programme qui révèlerait la modernité de ceux que l’on qualifie habituellement de classiques. Peut-être le public sera-t-il surpris, peut-être aussi aimera-t-il la surprise !

Quant à vous, mes chers amis instrumentistes, vous possédez trois atouts : la jeunesse, le talent et l’enthousiasme. Pour parodier une plaisanterie qu’a faite Mick Jagger lorsqu’il déclarait : « We were young and stupid. We remain stupid ! », pensez que vous pourriez dire un jour : « We were young and talented. We remain talented ». Votre jeunesse partira, mais pas votre talent. Il vous appartiendra cependant de le cultiver quelque peu. Mais ce à quoi vous devez veiller, c’est à ne jamais perdre cet enthousiasme dont vous avez fait preuve tout au long de cette académie. Ainsi la meilleure phrase qui, quand vous serez vieux, pourrait sortir de votre bouche, serait : « We were young, talented and enthusiastic. We didn’t lose anything but the appearance of the youth ». Mais ce ne sera que cette apparence. Car vous serez comme ces musiques dites « classiques », que d’aucuns s’évertuent à trouver vieilles alors que, en changeant notre regard sur elles, nous pouvons y voir se manifester l’intensité novatrice qui a été celle de leur jeunesse. En continuant à jouer, comme vous l’avez fait ici, les musiques de votre temps, vous trouverez naturellement les clés pour jouer aussi celles du passé comme si elles venaient tout juste d’être composées. Se réaliserait alors, peut-être, une nouvelle forme de l’éternelle jeunesse et du mythe de Faust. Et dans cette hypothèse, vous ne seriez même pas tentés de vendre votre âme au Diable !

Philippe Manoury

Lucerne, 8 septembre 2012

Traité d’inharmonie

Wednesday, March 21st, 2012

1.0 Sur quelques principes acoustiques fondamentaux

1.01 Il existe deux grandes familles de comportements sonores : les sons périodiques et ceux qui ne le sont pas.

1.012 Parmi les sons périodiques, ceux qui sont harmoniques sont constitués de fréquences reliées entre elles par des rapports simples : elles sont des multiples entiers d’une fréquence fondamentale. Les différentes ondes qui composent les spectres harmoniques se retrouvent régulièrement autour d’un point zéro, où convergent et d’où divergent toutes les phases de chacune d’elles. La répétition régulière d’apparition de ce point zéro (nombre d’apparitions régulières par seconde) détermine la fréquence du son qui, d’un point de vue perceptif, provoque une sensation de hauteur tonale.

1.013 Les sons inharmoniques ne comportent pas de points de convergence en phases sur la totalité des fréquences du spectre, comme ce point zéro. Ils ne possèdent pas une fréquence dominante, ou en possèdent plusieurs et, de ce fait, sont ambigus au niveau de la sensation de hauteur tonale.

1.014 Les sons bruités sont apériodiques. Cela ne signifie pas qu’ils ne comportent aucunes fréquences, mais que celles-ci varient en permanence. Comme l’a démontré Fourrier, tout ce que nous entendons peut être décomposé en une somme de sinusoïdes. Le bruit blanc qui contient théoriquement toutes les fréquences audibles est théoriquement décomposable en une infinité de sinusoïdes.

1.02 C’est la nature harmonique des sons qui renforce la sensation de hauteurs, les sons inharmoniques sont, de ce point de vue, complexes. Il est très difficile, voire parfois impossible, de leur accoler une hauteur dominante et repérable. Les sons inharmoniques les plus connus sont ceux des cloches ou des carillons.

1.021 Les sons purement harmoniques sont très rares dans la nature.

1.022 La plupart des sons instrumentaux traditionnels sont à la fois harmoniques, inharmoniques et bruités. On peut dire que la nature harmonique favorise une perception quantitative, la hauteur, tandis que les natures inharmoniques et bruitées révèlent des attributs qualitatifs : ceux qui définissent ce que l’on nomme, de façon approximative, le timbre.

1.023 Si l’on filtre la fréquence fondamentale d’un son harmonique, le cerveau la reconstitue de façon psycho-acoustique.

1.024 Ce que l’on nomme le timbre n’est pas mesurable ni définissable avec précision. Il est incohérent de le considérer comme un composant musical comme cela a été fait autrefois. Le timbre est un composé.

1.025 Ce fut une erreur théorique de la pensée sérielle que de concevoir la musique sous une forme paramétrée dans laquelle le timbre figurait au même titre que la hauteur, l’intensité et la durée.

1.026 Le timbre est composé (entre autres choses) de hauteurs, donc de fréquences. La fréquence est la variation régulière d’une amplitude – d’une certaine manière, d’intensité – dans une durée donnée. Les trois derniers composants sont dépendants les uns des autres. La timbre ne peut donc pas être admis dans la même famille.

1.027 Les composants inharmoniques apparaissent principalement au cours de l’attaque des sons. C’est ce que l’on appelle les transitoires d’attaques qui sont essentiels pour l’identification des différents timbres. Ces composants inharmoniques tendent, pour la plupart, à disparaître après l’attaque, mais le pourcentage d’inharmonicité varie non seulement d’un instrument à l’autre, mais aussi à l’intérieur du même instrument suivant sa registration. Les sons graves d’un piano, par exemple, sont très fournis en composants inharmoniques et ceux-ci tendent à s’amoindrir au fur et à mesure que l’on monte vers l’aigu.

1.028 La nature bruitée des sons est issue des modes d’excitations (frottements, percussion, souffle…) et est indispensable à la reconnaissance des timbres des instruments. Ainsi le bruit du mouvement du chevalet ou celui du crin de l’archet sur une corde sont essentiels à la reconnaissance d’un son de violon.

1.1 A propos de la notion (relative) de hauteur.

1.11 La théorie musicale occidentale classique s’est préoccupé de l’élément le plus mesurable de la dimension sonore : sa hauteur. Ce n’est que parce qu’une pensée abstraite sur la dimension quantitative des sons (les hauteurs) est apparue qu’ont pu se construire les polyphonies et les harmonies de la musique occidentale. Les civilisations non-occidentales n’ont pas opéré cette même abstraction et, de fait, n’ont pas adopté les mêmes modes de construction sonore.

1.111 Le souffle dans le flûte japonaise (Shakuachi) ou les éléments vibrants dans beaucoup d’instruments africains obéissent à des critères esthétiques qui ont été niés dans la pratique musicale classique en Occident. Les éléments hétérogènes y ont été réduits au profit de la construction de la polyphonie et de l’harmonie. La musique occidentale a opéré une standardisation des sons à l’intérieur de laquelle la cohérence du système a pris le pas sur l’individualité des éléments qui le constituent.

1.112 La musique occidentale n’est pas plus savante que certaines autres musiques, elle est seulement plus ordonnée. C’est peut-être parce que, dans le Quadrivium, elle était considérée comme une science mathématique, au même titre que l’arithmétique, la géométrie et l’astronomie, qu’elle a été soumise à une telle rigueur dans ses lois de construction.

1.113 Notre connaissance du phénomène sonore est aujourd’hui d’une complexité sans cesse grandissante, et de cette connaissance naît des musiques dont le matériau et leurs principes d’élaboration ne peuvent plus se limiter à l’ancienne vision des sons avec sa répartition en paramètres simples. Il nous appartient d’élaborer une pensée formelle qui intègre cette connaissance.

1.12 Depuis près d’un demi-siècle on entend des compositeurs dire qu’ils ne composent plus une musique de hauteurs, mais une musique de timbre. Ils disent que ce n’est plus la hauteur qui gouverne en premier lieu la construction de leurs œuvres. Ce mode de pensée a été au départ prôné par les pratiquants des musiques électroniques et électro-acoustiques et a envahit progressivement une grande partie de la communauté des compositeurs. Elle indique que l’ancienne théorie était devenue trop étroite pour les besoins esthétiques actuels.

1.121 Le refus de la hauteur en tant qu’élément prédominant de la composition est une réaction à la fois au système tonal et au système sériel, voire même, plus récemment, à la pensée spectrale. Mais force est de constater qu’aucune théorie réelle n’est venue remplacer les anciennes théories existantes sur les hauteurs, ce qui n’implique pas que de grandes réussites n’aient pas été produites dans ce domaine.

1.122 Ecarter la hauteur du champ de la pensée et de la théorie musicale actuelle est une attitude à courte vue. La négation de la hauteur dans une conception créatrice devrait inclure sa négation dans le domaine de la perception. Ici apparaît un problème fondamental.

1.123 Il convient, avant tout, d’envisager la hauteur sous son aspect le plus important : celui de la reconnaissance de formes la plus instantanée et la plus précise qui se joue dans la perception de la musique.

1.124 Il y a un phénomène que l’on ne peut nier : le pouvoir discriminatoire de l’oreille dans le domaine des hauteurs est de loin l’appareil le plus rapide et le plus précis que l’oreille humaine dispose. Il n’y existe pas un seul composant musical dans lequel l’oreille serait la plus habile à identifier, classer, évaluer. Notre perception des durées et des niveaux dynamiques est beaucoup plus faible, et quant il s’agit des bruits et autres phénomènes instables et non-périodiques, l’éventail de nos possibilités de reconnaissance formelle est encore bien inférieur.

1.125 Demandez à un jeune enfant, totalement dépourvu de culture musicale, d’ordonner une série de 10 clochettes du grave à l’aigu, et demandez à un être adulte, musicalement éduqué, d’ordonner une série de 10 sons du plus faible au plus fort ou du plus court au plus long, et vous aurez un taux de réussite beaucoup plus évident dans le premier cas que dans le second.

1.126 Une hauteur peut se définir comme une coupure dans le continuum sonore. Cette coupure représente un point d’ancrage très puissant pour la perception. C’est une identification de forme qui est perçue comme instantanée, car nous n’avons pas conscience du temps qui est nécessaire pour cela.

1.127 Identifier une hauteur ne signifie pas lui donner un nom, mais percevoir une coupure dans le continuum sonore pendant un temps extrêmement court.

1.128 C’est par le comportement des hauteurs que l’on reconnaît un timbre instrumental d’un autre. Le très court laps de temps de déploiement des transitoires d’attaque constitue un des éléments indispensables pour identifier un timbre instrumental. C’est grandement grâce aux comportements des hauteurs (ces gerbes de fréquences qui apparaissent) que l’on reconnaît les timbres, même si l’on se montre incapable d’identifier ne serait-ce que globalement où elles se situent dans le continuum sonore.

1.129 Le timbre n’est que le nom que l’on donne à tout ce qui ne peux pas être nommé de façon précise. Le timbre est un résultat perceptif, non un paramètre de composition. C’est un effet, pas une cause. C’est pourquoi il n’existe pas de techniques précises dans la composition du timbre comme on en trouve dans le domaine des hauteurs, des rythmes et des proportions. Il existe cependant un grand nombre de techniques pour le contrôle de divers comportements acoustiques qui participent à la création de ce que l’on appelle, faute de mieux, les timbres.

1.1210 Il ne s’agit pas de nier les catégories non mesurables, non périodiques, bruitées, mais bien de replacer la notion de hauteur à sa juste valeur : celle d’un élément de tout premier ordre pour la perception de la musique.

1.1211 Derrière le terme de « hauteur », on entend souvent « hauteur tempérée », ou  « hauteur fondamentale ». On parlera donc de « complexes de hauteurs » qui n’élimineront pas les notions d’intervalles (évaluation de la distance entre deux sons, pas forcément tempérés).

1.13 Nos habitudes d’écoute sont fortement conditionnées par des coupures sonores : les échelles de hauteurs. Les échelles majeures et mineures sont les modèles de coupures les plus fortement ancrés dans notre culture occidentale. Comme d’habitude ces modèles servent d’étalon pour l’appréciation d’autres modèles. Plus une échelle s’éloignera d’un modèle connu, plus elle aura de chances d’être acceptée par l’oreille. A l’opposé, une échelle qui se situera trop près d’un modèle de coupure connu sera identifiée comme une version imparfaite de ce modèle. Par exemple sur une mélodie tonale, une note légèrement éloignée de sa place habituelle se déclarée comme « fausse » tandis que la même note sera acceptée avec plus de facilité lorsqu’elle sera intégrée à une échelle moins fortement ancrée dans nos habitudes (comme, par exemple, dans certaines musiques asiatiques et africaines).

1.131 On peut, d’une certaine manière, assimiler la perception des rapports de hauteurs (les intervalles) à celle des couleurs dans le domaine visuel. Par exemple on peut dire d’une tierce qu’elle est un peu grande ou un peu petite, comme l’on dit d’un bleu qu’il est clair ou foncé. Dans un cas comme dans l’autre nous disposons d’un étalon qui oriente nos facultés de reconnaissance. Cela dit, un intervalle se mesure aussi avec précision (comme le temps), et une tierce est le fruit d’un rapport calculé mathématiquement. Il n’en est rien pour la perception des couleurs qui, bien que dépendant aussi de fréquences, ne possèdent pas d’étalon de base. Il n’existe pas de vérité pour le bleu.

1.132 En ce sens, la réalité des intervalles (pour une oreille un tant soit peu éduquée) serait plus proche de celle des « eidos » dans la phénoménologie : un triangle parfait servant d’étalon à tous les triangles possibles. Mais il n’existe pas de triangle « faux » comme il peut exister de fausses tierces. Lorsqu’un intervalle se situe entre deux intervalles répertoriés on dira de lui que c’est « une grande seconde » ou une petite tierce ».

1.133 Ce n’est pas l’exactitude mathématique d’un intervalle qui le déclarera comme « juste » ou « faux » mais le contexte dans lequel il sera utilisé. Ainsi une tierce pure (ou mésotonique) et une autre, prise dans le tempérament égal, seront reconnues également comme « justes » dans leurs contextes respectifs. Seule la présence simultanée ou très rapprochée dans le temps de ces deux tierces différentes sera apte à montrer la « fausseté » de l’une d’entre elles. La perception de la justesse ou de la fausseté est grandement relative.

1.134 La sensation d’intervalle varie suivant les registrations. Notre perception est beaucoup plus fine dans le registre médium que dans les registres extrêmes, grave ou aigu.

1.135 Seuls ceux (très rares) qui possèdent une audition absolue peuvent donner un nom aux hauteurs. Ce n’est pas cela qui fonde la perception, mais plutôt l’identification des espaces existants entre les hauteurs, c’est-à-dire les intervalles. La transposition est la preuve que nous reconnaissons des formes identiques grâce aux rapports existants entre les composants et non aux composants eux-mêmes. On peut très bien reconnaître les intervalles sans pour autant savoir les nommer.

1.2. Echelles et objets sonores

1.21 Une organisation est hors-temps lorsque l’ordre d’apparition des événements ne modifie pas la structure globale. Ainsi une gamme par tons entiers, ou une gamme chromatique, se vérifient lorsque tous ou une partie des éléments qui composent une séquence sont inclus dans l’ensemble qui constituent cette gamme, quelque soit l’ordre dans lequel ces événements apparaissent. Les musiques tonales ou sérielles ne font pas partie des organisations hors-temps car les mouvements harmoniques et mélodiques dans les premières, comme l’ordre de succession des intervalles dans les secondes, ne peuvent être changés sans détruire les structures premières.

1.22 Dans une organisation hors-temps il existe deux manières de concevoir les relations entre les sons. La première appartient à la structure scalaire, vérifiant l’appartenance à une échelle, et la seconde concerne des objets sonores qui restent parallèles et échappent à toute organisation scalaire.

1.221 Dans une structure scalaire les mouvements internes des différentes voix d’un complexe sonore obéissent à des mouvements obliques (non-parallèles) dont chaque élément vérifie l’appartenance à une échelle de base. La théorie des modes à transpositions limitées d’Olivier Messaien est presque entièrement basée sur ce phénomène.

1.222 Les objets sonores se meuvent par mouvements strictement parallèles et, de ce fait, l’ensemble des éléments qui les constituent ne peuvent pas appartenir à une même structure de base, sauf si cette structure représente l’ensemble des sons possibles dans une situation donnée (ensemble des 12 sons dans une organisation chromatique par exemple) ou encore si elle est elle-même constituée d’intervalles rigoureusement égaux. Ce sont les cas limites de la théorie des modes à transpositions limitées, la gamme chromatique donnant 0 transposition et la gamme par tons entiers n’en donnant qu’une seule.

1.223 Dans la scène de l’étang de Wozzeck, Alban Berg a utilisé successivement ces deux méthodes. Parfois les accords sont transposés de manière parallèle (a) sur des mouvements chromatiques, parfois ils sont déplacés sur les pas d’une échelle préalablement définie (b) et, de ce fait, possèdent des composants intervalliques internes qui évoluent par mouvements obliques.

1.224 Il est possible de créer des objets sonores à l’intérieur d’une organisation qui soit en-temps. C’est ce qu’a fait Anton Webern en créant des accords qui, à l’intérieur d’une organisation sérielle, comporteront toujours les mêmes intervalles. Cette technique consiste à regrouper 3 sons consécutifs d’une série de base de manière à ce que leur superposition forme un objet harmonique identique.

1.23 Il existe des cas où des objets sonores sont intégrés à l’intérieur d’un système d’organisation sans qu’ils n’y participent totalement. Dans ces situations, les objets sonores acquièrent une certaine autonomie sonore qui les éloigne d’une intégration au mode d’organisation global qui gouverne l’œuvre.

1.231 Ainsi, dans son Boléro, Ravel a-t-il superposé la mélodie en plusieurs couches parallèles dont chacune des notes n’appartient pas à l’échelle de base sur laquelle est construite cette œuvre. L’effet produit est assimilable à certaines mixtures d’orgue.

1.232 Dans un même ordre d’idées, Stravinsky a composé des superpositions mélodiques créant des textures sonores qui sont étrangères au contexte modal de la mélodie en question. On a parlé, à ce propos, de polytonalité, ce qui est un abus de langage.

1.233 Dans certaines de ses compositions pour orgue, Olivier Messiaen a choisit des mixtures qui brisent totalement l’organisation modale qui sous-tend la composition de la pièce. Voici un exemple joué d’abord au piano (a) puis à l’orgue (b).

Le piano produisant des spectres hautement harmoniques dans lesquels la sensation de hauteur tonale est très dominante, il s’en suit une claire perception de l’organisation des hauteurs qui sous-tend cette musique. Dans le cas de certaines mixtures d’orgue, la forte présence de fréquences autres que la fondamentale dans les spectres introduit des événements étrangers à la structure d’organisation des hauteurs et, de ce fait, l’altère. Il est clair que la structure harmonique et modale mise en place par Messaien se trouve brisée lorsque les mixtures des jeux d’orgue introduisent des fréquences clairement audibles qui n’appartiennent pas à cette structure. Bien que les mixtures des jeux d’orgue ne peuvent pas être caractérisées comme rigoureusement inharmoniques, nous sommes ici dans une situation qui se trouve aux confins de l’inharmonicité.

2.0 Sur la notion d’inharmonie.

2.01 Un complexe sonore est inharmonique lorsque ses composants ne sont pas le produit d’un multiple entier d’une fréquence fondamentale (définition de la série harmonique).

2.011 Il ne faut pas associer harmonicité avec fréquences tempérées, ni inharmonicité avec fréquences non-tempérées. La plupart des fréquences composant une série harmonique ne sont pas tempérées.

2.012 La théorie de Rameau déduisant l’harmonie de ses principes naturels est, de ce point de vue, un ajustement des composants naturels au tempérament égal.

2.013 Les musiques spectrales, dans leurs premières manières qui consistait à faire jouer par différents instruments les harmoniques naturelles d’un son instrumental, contiennent un grand nombre de fréquences non-tempérées. Elles ne sont pas inharmoniques pour autant.

2.014 Pour créer des structures plus complexes que celles qui sont issues de la série des harmoniques naturelles, les compositeurs de l’école spectrale ont calculés des « spectres » résultants de la modulation d’un complexe harmonique par une fréquence pure (principe de la modulation en anneaux). Dans ces cas, la nature des complexes sonores ainsi obtenus devenait inharmonique.

3.0 Inharmonicité dans la musique instrumentale.

3.1 L’inharmonicité est accessible dans la musique instrumentale comme une complexification des contenus spectraux. Il n’est cependant pas toujours possible d’agir sur le contenu réel des sons inharmoniques car ceux-ci sont donnés par les instruments eux-mêmes. Dans le cas des instruments percussifs et résonnants (piano, harpe, guitare, vibraphones, marimbas…) il est impossible d’agir sur le contenu spectral interne des sons. Dans le cas des instruments frottés, (violons, alto, violoncelles…) la pression de l’archet, ou encore l’usage de sourdines permettent de modifier les spectres. C’est dans les vents que cette possibilité offre le plus d’avantage. Deux techniques ont été fréquemment utilisées par les compositeurs depuis la seconde moitié du XXème siècle. La première consiste à produire des sons multiphoniques (sur les bois exclusivement) que l’on obtient par la combinaison de doigtés inhabituels, la seconde par l’action de chanter tout en soufflant dans l’instruments. Cette dernière technique s’apparente à la technique de modulation en anneau qui sera étudiée plus bas.

3.2 Un objet inharmonique est aussi un objet qui impose son propre contenu spectral et sa propre densité à un contexte étranger. En ce sens, un des ancêtres de ces objets pourrait être le « cluster ». Ce serait un abus de langage que de considérer les clusters comme des objets inharmoniques au sens propre du terme, si tant est que les instruments à claviers tels que le piano ou le clavecin possèdent déjà dans leurs spectres un assez grand nombre de composants inharmoniques. Cependant au niveau de la fonction que ces objets exercent dans la structure de certaines ouvres, il n’est pas interdit de les considérer comme une des premières manifestations de ce que seront plus tard les objets inharmoniques.

3.22 On attribue généralement au compositeur américain Henry Cowell l’invention du « cluster » en 1912. Sans vouloir mettre en doute cette attribution (Cowell n’a certainement pas cherché à s’approprier l’invention de quelqu’un d’autre) il est possible de déceler la présence de clusters dans des musiques plus anciennes. C’est le cas de certaines sonates de Domenico Scarlatti qui présentent parfois des agrégats sonores dont les fonctions harmoniques ne sont pas totalement inconnues mais qui créent des complexes sonores dont la raison d’être est probablement à chercher plus dans la sonorité en tant que telle que dans une conduite harmonique des voix. En voici un exemple dans sa Sonate K. 119 dans laquelle certains complexes sonores accumulent 9 ou 10 sons superposés (pas tous différents) mais créant des dissonances extrêmes pour l’époque :

3.23 C’est surtout un compositeur comme Belà Bartok que l’on peut entendre des clusters dans lesquels les fonctions harmoniques sont totalement absentes au profit de la densité. Bartok écrivit à Cowell une lettre lui demandant l’autorisation d’utiliser ce qu’il pensait être son invention. En voici un exemple, extrait de sa Suite en plein air pour piano :

3.31 C’est principalement avec l’essor des percussions au cours du XXème siècle que l’on va prendre connaissance des possibilités inharmoniques, et principalement dans l’utilisation des instruments métalliques. Les cloches, gongs, tams, plaques et autres instruments résonnants sont les meilleurs outils pour créer des textures inharmoniques parallèlement aux objets qui ne le sont pas.

3.32 Une des premières exploitations de la percussion métallique de façon autonome se trouve déjà chez Richard Wagner dans le célèbre passage des enclumes de son opéra Das Rheingold. Certes, le but était théâtral (représenter le peuple des Niebelungen travaillant aux forges) mais rien, dans la musique occidentale qui précède ne montre un tel exemple de musique reposant sur des sons totalement privés de tout contexte mélodique et harmoniques :

3.33 Les différentes sortes de cloches ont été, dans l’histoire, une des principales sources d’utilisation de l’inharmonicité, même si ce terme n’était pas utilisé par les compositeurs eux-mêmes. L’exemple de Gustav Mahler est, à ce titre, important à signaler. Dans sa sixième symphonie, il fait usage des almglocken, autrement appelés cowbells, cancerros, ou cloches à vache. Certes, ici aussi, l’usage de ces instruments est motivé par une idée de réalisme : Mahler été séduit par ces grappes de sons que l’on entend flotter dans l’air lorsqu’on se de déplace dans les montagnes où se trouvent des troupeaux. L’hétérogénéité de ces sons de cloches superposée à l’homogénéité de ceux des autres instruments de l’orchestre contribue à créer ce charme étrange qui se dégage de ces pages. Mahler, dans sa partition, n’a pas spécifié, comme on le fait aujourd’hui grâce à l’évolution de l’organologie, la manière d’accorder ces instruments :

3.34 Quelques années plus tard, Anton Webern se souviendra de cet exemple dans ses Orchesterstücke opus 10 à l’intérieur desquelles il a composé des fonds sonores d’une très grande puissance d’évocation poétique. Pas plus que Mahler, Webern n’a indiqué dans sa partition quel type d’instrument précis il souhaitait pour ces passages. C’est au chef d’orchestre de prendre cette décision. Ces exemples cependant ne recherchent plus à recréer le même soucis de réalisme que l’on constatait encore chez Mahler et, de ce point de vue, on peut les considérer comme un des premiers exemples de volonté de mélanger des sons complexes, par leurs natures inharmoniques, avec ceux de l’orchestre :

3.35 Un des exemples les plus célèbres de complexe inharmonique à très forte densité se trouve à la fin de Ionisation d’Edgard Varèse. Ces objets sont créés en superposant des frappes métalliques et de larges clusters joués au piano avec tout l’avant bras sur le clavier. La densité extrême de ces objets interdisent toute possibilité d’en analyser le contenu interne :

3.36 On peut créer de l’inharmonicité sans pour autant jouer sur la densité. Les deux phénomènes sont en fait indépendants l’un de l’autre. Il s’agit, dans ces cas, d’un procédé d’orchestration qui consiste à « colorer » des sons harmoniques en leur adjoignant d’autres timbres (inharmoniques) qui jouent « à l’unisson ». Il faut pour cela utiliser des instruments en métal tels que les gongs, cloches, plaques ou encore les steel-drums. Tous ces instruments sont très chargés en inharmonicité mais conservent quand même assez d’harmonicité pour qu’on puisse percevoir une hauteur fondamental, quand bien même celle-ci est brouillée. C’est pour cette raison qu’on dit que ces instruments sont « accordables ».

3.361 A la fin de Tombeau, le dernier mouvement de Pli selon pli de Boulez, on trouve un tel effet. Des accords joués par le piano et la harpe sont doublés par des cloches-plaques qui reproduisent les mêmes profils (comme des neumes) mélodiques. On a en même temps les hauteurs repérables aux instruments à claviers et la reproduction identique du contour mélodique par les cloches-plaques qui eux, produisent des spectres inharmoniques :

3.362 Les instruments tels que les steel-drums jamaïcains possèdent cette double appartenance harmonique/inharmonique de façon très intéressante. C’est probablement les plus « accordables » des instruments inharmoniques (plus que les gongs ou cloches-plaques) et, comme tous les instruments, ils possèdent cette caractéristique acoustique qui fait que la largeur du spectre croît avec le niveau d’intensité. Plus on frappe fort sur ces instruments, plus les partiels aigus vont être perceptibles. La présence ou l’absence de ces partiels aigus va donc modifier le taux d’inharmonicité et l’accentuer dans l’attaque des sons à forte intensité. J’ai utilisé ces instruments dans le début de Strange ritual, dans lequel des accords vont se créer, notes après notes, l’attaque de chaque note étant accentuée par des cuivres et surtout par ces steel-drums. Les résonances entretenues aux bois et au aux cordes pianissimo se mêleront à celles, teintées d’inharmonicité, des steel-drums :

3.41 Il existe aussi des musiques purement instrumentales qui jouent sur une inharmonicité presque totale, en ce sens que les instruments utilisés sont très typés de ce point de vue. C’est le cas de toutes les musiques basées sur les métaux. Seul le vibraphone est un instrument qui possède un spectre très réduit dans sa résonance et qui se réduit à un son pur.

3.42 Les musiques d’Asie ont presque toutes une tendance à l’inharmonicité très développée. C’est le cas principalement des musiques indonésiennes (îles de Bali et de Java) dont les gamelans sont très fournis en claviers et gongs. Ces instruments jouant très souvent un même modèle mélodique, sorte de faux unisson, il en résulte une large variété de résonances grâce aux mélanges de tous ces spectres qui ne sont pas destinés à fusionner parfaitement :

3.43 Un exemple très célèbre a été, bien évidemment, les fameuses Sonates et Interludes pour piano préparé de John Cage. Le principal intérêt de ces pièces, assez simples et rudimentaires dans leurs factures, est qu’elles détruisent l’idée de linéarité qui est à la base de tous les claviers, et particulièrement des pianos. Les timbres des différentes notes d’un piano sont traités généralement de manière à obtenir le maximum de continuité et de cohérence. La technique de l’harmonisation, bien connue des accordeurs, consiste à égaliser les feutres au maximum pour obtenir cette cohérence sur tous les registres de l’instrument. Il s’agit, entre autre, de faire « jouer » la sympathie entre les cordes dans son plus grand rendement afin d’avoir les résonances les plus riches possible. En introduisant divers objets entre les cordes de certaines notes du piano, John Cage a, du même coup détruit cette linéarité recherchée par ailleurs car chaque note aura son propre mode de fonctionnement suivant qu’une vis métallique, un gomme, ou tout autre ustensile sera utilisé. On sait que l’idée lui est venue pour les besoins d’un musique de scène où il n’avait pu déplacer toute une série d’instruments à percussions. Il prit alors la résolution de recréer tout un orchestre de percussions avec un seul piano :

3.45 Le piano préparé a eu un certain succès et, si ce n’est encore quelques compositeurs qui l’utilisent encore aux USA, cette méthode est aujourd’hui très désuète. On peut trouver, de nos jours, des techniques plus intéressantes, et surtout moins agressives pour l’instrument, à l’aide des moyens électroniques. Les principes du frequency-shifting et du modulateur en anneau offrent une méthode plus cohérente et plus contrôlable de cette non-linéarité.

3.51 L’inharmonicité pose le problème de l’accordage. Complexifier des contours mélodiques ou des blocs harmoniques au moyen de ces instruments métalliques consiste à brouiller la notion de hauteur fondamentale. On ne peut pas à la fois rechercher une intonation juste et vouloir l’enrichir par des couleurs qui vont détruire cette impression de justesse. Il n’existe pas deux tams, ni deux cloches-plaques qui donneront le même contenu spectral car ces instruments, faute de répertoire existant, ne seront probablement jamais standardisés comme l’ont été le piano ou le clavecin. Vouloir intégrer ces instruments en tenant compte de la spécificité de leurs résonances est une opération vouée à l’échec. La meilleure solution, si l’on veut les utiliser est de concevoir un système musical qui repose sur d’autres critères que la recherche de la justesse dans le domaine des hauteurs.

3.52 Parmi les instruments les plus imaginatifs qui ont été construits au cours de la fin du XXème siècle on doit citer les les sixxens. Son invention est du au facteur d’instrument Robert Hébrard qui l’a conçu à la demande de Iannis Xenakis. Ce phénomène est d’autant plus intéressant que la recherche dans le domaine acoustique a été, depuis de nombreuses années, totalement supplantée par celle en électronique. Il existe bien sûr de nombreux cas dans lesquels de nouveaux instruments acoustiques ont été inventés (l’exemple le plus célèbre est celui du compositeur américain Harry Parch) mais généralement les utilisateurs de ces instruments se limitaient aux inventeurs eux-même. Plusieurs générations de sixxens ont vu le jour avant celle que nous connaissons aujourd’hui. Il n’y a cependant pas de standards dans ces instruments qui sonnent assez différemment suivant leur construction. On sait, par des témoignages, que Xenakis voulait que ces instruments soient accordés sur une échelle en quart de ton, et qu’il n’avait pas émis d’idées très précises sur la manière dont il voulait les entendre sonner. Il souhaitait simplement qu’ils ne sonnent pas de « façon classique » ce qui est loin d’être précis. On sait qu’il avait imaginé qu’ils soient non pas en métal mais en porcelaine très dure. Quoi qu’il en soit, dans l’état actuel des choses, on peut affirmer plusieurs choses. Premièrement que la nature assez inharmonique de leurs sons rend difficile toute exactitude quant aux quarts de ton que Xenakis souhaitait. L’inharmonicité, comme on le sait, éloigne la sensation de hauteur fondamentale. Ces instruments se composent de 19 lames marchent par groupes de six (d’où leur nom six = 6 et xen = Xenakis) et, seraient « théoriquement » censés être tous « accordés » sur une échelle en tierce mineure, le second sixxen sonnant un quart de ton au dessus du premier, et troisième au quart de ton au dessus du second, etc. L’ambitus total, en partant de la première note du premier sixxen (la plus grave) jusqu’à la dernière du sixième sixxen (la plus haute) couvrirait alors une octave plus une sixte majeure. Pour des raisons de commodité d’écriture, ces instruments proposent des claviers à l’image de celui des pianos partant du fa3 et allant jusqu’au si4 (le la 3 étant celui du diapason). Bien sûr, les lames jouées ne correspondent aucunement à ces notes. Xenakis les a utilisés dans son œuvre Pléïades créé par les 6 membres des Percussions de Strasbourg. Le fait que ces instruments dialoguent aussi avec des vibraphones qui jouent, eux, très souvent sur le mode pelog (gamme balinaise pentatonique sur le mode phrygien 1, 2, 5, 1, soit mi, fa, sol, si et do) laisse penser que l’influence des sonorités des gamlans n’a pas été absente de sa conception de ces instruments.

3.53 Dans mes compositions Le livre des claviers et Métal, j’ai utilisé ces instruments d’une manière toute différente de celle que Xenakis a choisit. J’ai pris comme points de départ, non les intervalles eux-mêmes qui sont assez anarchiques, dans cet instrument, mais des conceptions neumatiques, ou de textures en faux unissons. L’exemple suivant montre une « fausse monodie » qui est jouée par un nombre variable d’instruments (de 1 à 6), chacun des instruments jouant sur les mêmes lames. Il en ressort des épaisseurs de sons différentes, car une même lame ne donnera exactement pas les mêmes hauteurs sur tous les instruments, certains fragments tendant vers des sons a spectre réduit lorsqu’ils sont soit soliste soit à deux, d’autres au contraire tendant vers des spectres chargés :

3.54 Les sixxens possèdent une caractéristique toute particulière. Comme dans tout instrument frappé, les variations dynamiques font résonner des densités spectrales différentes : un son de faible intensité n’aura que peu de partiels quand un son de forte intensité en fera ressoritr un grand nombre. Dans le cas des sons à forte harmonicité (tel que le piano ou le marimba par exemple) la sensation de hauteur ne variera pas avec le niveau dynamique puisque la nature harmonique restera l’élément déterminant pour la perception de la hauteur fondamentale (principe de fusion spectrale). Dans le cas des sixxens, de par leur forte inharmonicité, les variations d’intensités feront ressortir des partiels qui n’entreront pas en fusion avec une quelconque hauteur fondamentale, mais au contraire produiront des « couleurs » supplémentaires et étrangères au spectre d’une même note jouée dans une dynamique faible. La sensation de hauteur variera donc suivant les niveaux d’attaque des sons. C’est ce que j’ai utilisé dans le fragment suivant basé sur des forts contrastes dynamiques et sur une limitation des profils mélodiques :

3.56 La nature « individuelle » de ces instruments qui ne fusionnent pas ensemble est très pratique dans le cas de polyphonies et de polyrythmies. En effet, la perception simultanée des couches est renforcée par le fait que les lignes ne se rencontreront pas autour de lignes communes mais au contraire s’affirmeront dans leur indépendance. La cohérence est alors à rechercher dans un tout autre domaine que celui des hauteurs harmoniques, tel que c’est le cas dans l’utilisation des instruments « classiques », ici ce sera les traitements rythmiques et le jeu des figures entre elles qui assureront cette fonction :

3.57 Un dernier exemple montre quel parti il est également possible de tirer de ces nouveaux instruments. Il s’agit ici d’une composition à base de « neumes », c’est-à-dire de profils mélodiques montant, stables ou descendants qui ne changeront pas dans leurs contours. Le contenu interne des intervalles, lui sera sans cesse varié. Il s’agit en fait d’une vieille technique dont nous avons déjà un exemple dans la 5ème symphonie de Beethoven :

Ici, les 6 instruments joueront en canon un même dessin qui, au niveau de l’écriture, apparaît comme identique :

Par le fait des « accordages » différents entre ces instruments, chaque nouvelle voix sonnera en fait comme une transformation de la précédente et non comme une répétition à l’identique. La figure neumatique va alors successivement se transformer, non dans ses contours, mais en variant son ambitus et ses relations internes. Parfois elle sera contractée dans un très petit registre, parfois elle sera étendue sur tout l’ambitus de l’instrument. On a donc un double procédé de variation d’un même dessin, l’un d’instrument à instrument, l’autre de groupe à groupe de 6 instruments. C’est ici la conservation du « neume » de base qui assure la continuité du discours qui ne repose, sinon, sur aucune relation de hauteurs strictement définie. On peut imaginer que différents jeux de sixxens peuvent sonner différemment (ce qui est d’ailleurs le cas dans la réalité car, comme je l’ai expliqué, ces instruments ne sont absolument pas standardisés) tout en reproduisant une structure musicale qui gardera sa cohérence formelle quelque soit la nature des hauteurs qui la composera :

3.6 L’inharmonicité dans la musique spectrale.

3.61 L’inharmonicité est une technique qui a été utilisée par les compositeurs de l’école spectrale. Il faut rappeler quel est le but ces recherches à leurs débuts. En réaction à la pensée sérielle, un groupe de jeunes compositeurs, élèves de la classe d’Olivier Messaien au Conservatoire de Paris, propose un renouvellement des techniques de composition, non pas basé sur la combinatoire entre les sons, mais sur la construction de complexes sonores dont le modèle est le son lui-même. Les compositeurs les plus connus de ce mouvement sont Gérard Grisey et Tristan Murail. On doit à Grisey la première expérience dans ce domaine qui prendra le nom de musique spectrale (le terme à été inventé par Hugues Dufourt). Grisey a commencé par analyser le spectre d’un trombone en le décomposant en une série de partiels harmoniques, et a reproduit chacun de ces partiels par un instrument de l’orchestre. Il s’agissait d’une volonté de mélanger l’harmonie et le timbre dans le même objet. La structure globale d’un son harmonique possède trois caractéristiques principale : la première d’entre elles montre que les intervalles entre les différents partiels vont en se rétrécissant du grave à l’aigu, la seconde que la série harmonique donne, dans ses premiers termes, les notes formant ce que l’on a appelé un « accord parfait » auquel on ajoute progressivement la septième, la neuvième, la onzième harmonique…., enfin on remarque que cette série fait intervenir assez rapidement des hauteurs non-tempérées comme les tiers, les quarts et cinquièmes de ton. Ces trois caractéristiques décrivent assez précisément certains éléments stylistiques propres aux musiques spectrales. On remarque clairement, dans la construction des complexes sonores, cette constance à « serrer » les intervalles au fur et à mesure qu’ils montent vers l’aigu, et également que ces complexes font résonner des « accords » dont les premiers éléments évoquent une assise tonale (on y entend fréquemment des accords de neuvième). Enfin, et la dernière de ces caractéristiques qui a intéressé au plus haut point les compositeurs de cette école, la présence de micro-intervalles qui leur permettait de créer des complexes sonores qui dépassaient le schéma tempéré qu’avait conservé la méthode sérielle et produisaient des couleurs harmoniques nouvelles.

3.61 Le terme de musique « spectrale » est une analogie, et c’est un abus de langage que de considérer les complexes sonores ainsi produits comme des « spectres » au sens proprement acoustique du terme. Un spectre est un complexe sonore dont chaque élément est un son sinusoïdal. Ainsi, par le procédé de la synthèse additive, on peut reconstituer un spectre instrumental par la superposition de plusieurs de ces sons sinusoïdaux. Or, dans la musique dite « spectrale » chacun de ces éléments est joué par un instrument (flûte, hautbois, trompette, violons…) qui possède lui-même son propre spectre. Ainsi, si l’on voulait reconstituer, par le moyen de la synthèse additive, un fragment de musique spectrale, il ne serait pas suffisant de reproduire chacune des fréquences de la partition par un son sinusoïdal – auquel cas on obtiendrait le modèle acoustique et non le résultat – mais il faudrait un son sinusoïdal pour chaque fréquences produites par l’ensemble de tous les instruments concernés.

3.62 Un des buts de la démarche « spectrale » consistait à assimiler la notion de timbre avec celle d’harmonie. Par analogie, le timbre, étant physiquement constitué par la superposition de plusieurs fréquences sinusoïdales, peut être comparé à un accord lui-même constitué de plusieurs fréquences (non sinusoïdales) superposées.

3.621 Dans son texte Hauteur, timbre, synthèse, harmonie, Jean-Claude Risset apporte des éclaircissements importants quant aux natures harmoniques et inharmoniques des timbres : « Bien des auteurs, parmi lesquels Rameau, invoquent la “résonance naturelle”: selon eux, la consonance de certains intervalles tiendrait aux rapports simples entre les fréquences des premières composantes des spectres harmoniques auxquels donne lieu la résonance naturelle. Or l’harmonicité du spectre résulte de la nature périodique des vibrations forcées, et non des modes de vibration de la résonance naturelle: de nombreux corps sonores ont des modes propres inharmoniques. Ainsi les modes naturels de vibration d’un cuivre comme le cor ou la trompette ne correspondent pas aux partiels harmoniques du son entretenu de l’instrument. De même la résonance naturelle d’une corde filée, excitée par percussion ou par pincement, peut très bien comporter des partiels non harmoniques – la fréquence du quinzième partiel d’une note grave de piano est en général supérieure à seize fois la fréquence du premier partiel: mais, entretenu par un archet, le son d’une corde filée sera harmonique. Le spectre harmonique, avec ses intervalles successifs, tient non pas à la résonance naturelle, qui peut très bien être inharmonique, mais au caractère entretenu et périodique des vibrations forcées: le spectre de Fourier de ces vibrations périodiques est alors harmonique, avec des fréquences successives qui sont entre elles comme 1, 2, 3, 4, 5, etc., correspondant aux harmoniques bien connus. »

3.622 Si l’analogie entre la description physique d’un son et celle d’un accord a été tentée à plusieurs reprises dans l’Histoire (Rameau en était en quelque sorte l’initiateur) il semble qu’il y a une distinction fondamentale à mettre en évidence qui concerne non pas la nature physique du son mais sa perception. C’est à ce niveau que s’opère une véritable distinction entre ces deux objets sonores différents, quoiqu’en pensent ceux qui militent pour leur indifférenciation. Cette différence apparaît clairement lorsqu’on les envisage sous les rapports d’une perception analytique ou synthétique. Lorsqu’on identifie un timbre de trompette il est impossible, même à une oreille extrêmement fine et exercée, d’analyser les contenus fréquentiels de ses composants. Notre oreille le perçoit comme un objet fusionnel dans lequel les différentes fréquences pures qui le composent forment un tout à l’intérieur duquel nos facultés d’analyse sont mises en échec. Le cas d’une harmonie est tout à fait différent. Ce sont les rapports entre les hauteurs qui composent un accord, ou une harmonie, qui créent en nous cette possibilité d’identification. Cette remarque ne s’applique pas uniquement aux accords classés, mais à tout type d’accords, non tonaux et même non tempérés. Il n’est pas nécessaire d’avoir l’oreille absolue, ni la possibilité de pouvoir nommer les intervalles et même leur dérivations, pour faire cette distinction. Cette perception est d’ordre analytique et, avec un peu de pratique et d’attention, nous pouvons être capable de discriminer les différents composants d’une harmonie alors que la chose s’avère impossible dans le cas de l’identification d’un timbre.

3.623 Il peut exister, cependant, des régimes dans lesquels une telle distinction est difficile à établir. Le phénomène des battements entre des sons très proches, par exemple, n’est plus à considérer dans le domaine harmonique, mais plutôt dans celui du timbre. Mais là encore, c’est au niveau spectral, c’est à dire de du voisinage de plusieurs fréquences composants des timbres que se produira ce phénomène. Ainsi nous pouvons avoir deux timbres différents, tels que ceux d’une clarinette et d’un cor par exemple, qui produiront des battements entre eux lorsqu’ils joueront des notes très voisines par le fait qu’ils sont tout deux également composés, pour une part, d’harmoniques naturelles (octaves, quintes, quartes…) tandis que d’autres fréquences spectrales les différentient. Ce sont bien entendu les rapports entre les fréquences proches de ces deux spectres qui créeront les battements, et non ceux qui sont qui sont éloignés.

3.624 Une autre possibilité de rapprocher la dimension harmonique de la dimension spectrale peut s’établir lorsque l’on recréé les conditions de perception de la seconde. On observe des cas semblables lorsque les structures harmoniques deviennent tellement complexes et tellement denses, que la nature de leurs rapports, ainsi que celle de la superposition des timbres qui les portent, rendent impossible toute identification des éléments. C’est ce que l’on entend dans certaines œuvres de Ligeti, qui fût un des inspirateurs de l’école spectrale, mais déjà Arnold Schœnberg en avait donné un exemple dans la plus célèbre de ses 5 pièces pour orchestre opus 16 : Farben. Une brève analyse de cette méthode va nous le montrer. Dans le début, un même accord de 5 sons évolue lentement en passant tout à tour entre un groupe d’instruments et un autre :

Plus tard, au cours de la même pièce, ce changement se produit à une vitesse 8 fois plus rapide qu’au début et il est alors totalement impossible d’identifier ni la nature harmonique de ces accords, ni les timbres qui les jouent :

Bien que l’on ne puisse pas affirmer avec certitude que ce que nous entendons puisse être nommer « timbre » car, comme dans la musique spectrale, chaque note de chaque accord est lui même porté par une organisation spectrale propre, la grande vitesse des changements met en échec toutes nos facultés d’analyse et nous tombons dans un régime de perception qui est voisin de celui qui agit dans l’identification des timbres : l’impossibilité de décomposer le tout en une somme de parties.

3.63 Il convient de faire une distinction entre musiques non-tempérées et inharmoniques. Cette différence n’est pas toujours évidente à l’oreille car la présence de fréquences non-tempérées et de micro-intervalles est aussi une des caractéristiques des complexes inharmoniques. Cependant, d’un point de vue théorique, les premières expériences de la musique spectrale ne se basaient qu’exclusivement sur la décomposition et l’orchestration des sons harmoniques naturels, ceux-ci comprenant de nombreuses fréquences non-tempérées.

3.64 C’est dans un deuxième temps que les compositeurs de l’école spectrale (et Tristan Murail en particulier) ont voulu dépasser l’aspect « tonal » que leur modèles initiaux leur imposaient. Pour cela ils ont utilisés des méthodes qui provenaient de la musique électronique. Une de ces méthode était celle de la modulation en anneau qui permet d’insérer des fréquences étrangères (et non tempérées) à celle d’un spectre harmonique. Le principal intérêt de cette méthode consistait à introduire ces fréquences non tempérées dans les régions graves des complexes sonores et ainsi d’éviter les sonorités dominantes d’octaves, de quintes, de quartes et de tierces qui « colorisaient tonalement » ces complexes dans les premières œuvres écrites suivant ces techniques. A partir ce ce moment, les complexes sonores devenaient réellement inharmoniques.

3.7 Composition de complexes inharmoniques à partir d’accords tempérés.

Les compositeurs de l’école spectrale ont gauchis, par des techniques de modulation, des objets naturels tels les spectres harmoniques, afin de créer des nouvelles configurations. Il est évident que ce gauchissement du spectre harmonique gardait toujours une référence à ce modèle même s’il était criblé de fréquences étrangères. Il est possible de concevoir des complexes inharmoniques sans aucun référence à un modèle naturel, mais à partir d’un modèle spécialement créé pour l’occasion. J’ai utilisé une technique semblable (modulation en anneaux, voir plus bas chapitre 4.1) dans l’une de mes pièces pour chœur mixte dont le titre est justement Inharmonies. Le modèle n’est pas un spectre harmonique, mais une harmonie, un accord :

Chacune des notes de cet accord va devenir sa fréquence de modulation.

Voici pour exemple, le premier accord modulé par sa note la plus grave : le si. L’ensemble des fréquences fondamentales composant cet accord donne la série suivante :

123.47 Hz

174.61 Hz

220 Hz

311.13 Hz

466.16 Hz

Si l’on additionne la première fréquence (123.47 Hz = fréquence de modulation) à chacune des suivantes, nous obtenons :





La soustraction de cette fréquence à toutes les autres donne :





Nous obtenons donc un complexe inharmonique composé des 13 fréquences suivantes :














Dans le cas d’une musique de synthèse par ordinateur, il suffira d’envoyer ces fréquences à des oscillateurs qui produiront avec précision les valeurs voulues. Ce ne sera pas le cas lorsque l’on veut utiliser de tels calculs pour la musique instrumentale ou vocale. Il faut alors « arrondir » ces valeurs à des coupures connues en limitant la précision non seulement en fonction des possibilités de production sonore des instruments ou des voix, mais aussi des seuils de perception. C’est un problème qu’il faut maintenant traiter.

3.71 Ce problème est bien connu des compositeurs de musique spectrale, qui ont toujours eu à rectifier leurs calculs en les replaçant sur une échelle le plus souvent limitées à des coupures en quarts de tons. Les quarts de tons sont une méthode d’approximation qui permettent de noter des hauteurs en dessous du demi-ton mais ne correspondent pas aux résultats exacts que donnent soit la série harmonique des spectres naturels, soit celle résultante de la modulation de ces spectres.

3.72 L’utilisation de ces micro-intervalles provoque une limitation, ou plutôt demande une adaptation des partition qui sont écrites dans une telle échelle. Il y a plusieurs difficultés auxquelles il faut faire face, suivant que l’on s’adresse à des instruments ou à des voix.

3.73 Du point de vue instrumental, il est évident que la lutherie qui est utilisé dans l’organologie européenne n’est pas du tout adaptée à l’usage de ces micro-intervalles. Il faut donc recourir à des doigtés spéciaux, ou à des positions particulières, pour pouvoir obtenir des hauteurs précises. L’utilisation de la grande virtuosité, ou de la grande vitesse, par exemple, est pratiquement impossible si l’on veut respecter une justesse dans ces échelles infra-chromatiques. Les figures qui se déroulent sur de telles écarts de virtuosités sont « toujours » jouées de façon approximatives et ne peuvent pratiquement pas être produites en respectant à la lettre les notations précises des hauteurs. Ainsi, dans Vortex temporum de Gérard Grisey,

3.74 Il faut noter que l’utilisation des intervalles non-tempérés n’est pas seulement limitée par les incapacités des instruments dans la grande virtuosité, mais aussi par nos aptitudes à les percevoir. Il est évident que, dans une très grande vitesse, l’oreille éprouve plus de difficultés à saisir un contour mélodique par « manque de temps » que dans la cas d’une vitesse moindre, mais l’écart éloigné entre deux sons séparés par un grand intervalle amoindrira également l’évaluation exact de cet intervalle. Ainsi une mélodie utilisant des hauteurs non-tempérées sera mieux perçue dans un ambitus restreint que dans un contour fait de larges intervalles. C’est ainsi que l’on peut dire qu’il existe deux modes de fonctionnement optimal pour la perception des micro-intervalles : celui des écarts limités dans le domaine successif (mélodie) et celui du domaine simultané (harmonique) qui, même dans des écarts éloignés créé des couleurs tout à fait riches et surprenantes, et dans des positions proches produit des battements.

4.0 Inharmonicité dans la musique mixte

4.01 C’est avec les moyens de la synthèse sonore et du traitement du signal que l’on peut obtenir un véritable contrôle sur les structures inharmoniques afin de contrôler avec précision les rapports que peuvent entretenir les fréquences des spectres sonores, ainsi que l’espace dans lequel ces spectres évoluent.

4.02 La transformation instrumentale au moyen des techniques électroniques est un procédé qui a eu deux périodes historiques. Toutes deux ne sont apparues que tardivement dans l’évolution des « lutheries électroniques ». Il a fallu attendre l’invention des synthétiseurs analogiques pour que l’on puisse obtenir des transformations en temps-réel des sons instrumentaux. Celle-çi est intervenue plusieurs années après les premiers essais sur la synthèse sonore analogique ou le traitement des sons enregistrés sur support magnétique. De la même manière, il aura fallu plusieurs années entre les premiers pas de l’informatisation de la musique électronique et l’invention des systèmes numériques en temps réels qui, seuls, permettent la transformation des sons instrumentaux.

4.03 Le fait de transformer un son instrumental par une méthode électronique a pour principal but de complexifier le contenu spectral de ce son. Il est évident que, dans le cas d’une transformation simultanée où l’on entend le son de l’instrument en même temps que sa transformation, la seule possibilité est l’ajout de composants spectraux et non le retrait. Dans ce dernier cas, le son original masquerait de fait toute transformation car celle-ci ne représenterait qu’un sous-ensemble du son instrumental. Cependant, dans le cas de transformations différées, les techniques de filtrage et de retrait de certains composants sonores peuvent très bien être utilisées sans précautions particulières.

4.1 Une méthode classique d’inharmonicité : la modulation en anneaux.

4.11 La modulation en anneau (en anglais Ring Modulation) consiste à additionner et soustraire les fréquences d’un spectre avec une onde sinusoïdale. Le résultat produit des spectres inharmoniques dont les fréquences varient suivant les rapports d’intervalles que ses composants entretiennent avec la fréquence modulante.

4.111 On sait que la perception est logarithmique, c’est-à-dire que pour obtenir une sensation additive, par exemple lorsqu’on transpose une fréquence aux octaves supérieures donnant l’impression d’ajout d’une même quantité, il faut non pas additionner mais multiplier cette fréquence. Ainsi le « la 440 » sera séparé du « la 880 » (octave supérieur) par 440 Hz, tandis que le « la 1760 » sera séparé du précédent par 880 Hz. Il se trouve que la différence physique entre ces deux fréquences sera doublée à chaque fois tandis que leur différence perceptuelle semblera identique. Ainsi également, l’engendrement successif des 12 demi-tons d’une gamme chromatique – événement perçu comme l’ajout d’une même quantité pour obtenir le son suivant – est obtenu par la multiplication d’une fréquence par le facteur 1,563941… qui représente la valeur du demi-ton tempéré. Le principe de la modulation en anneau étant l’addition (et la soustraction) et non la multiplication ni la division, il en résulte que les fréquences issues de la modulation en anneau ne seront pas fixées sur la même échelle lorsqu’on les transposera. Pour un même indice de modulation, un son transposé à l’octave supérieure ne produira pas les mêmes rapports d’intervalles dans les fréquences issues de sa transformation.

4.112 Soit une fréquence de base de 220 Hz modulée par une autre de 80 Hz. Les fréquences résultantes seront de 140 Hz (220 – 80) et de 300 Hz (220 + 80). Les rapports d’intervalles respectifs seront 1.57 pour la soustraction (220/180) et 1.36 pour l’addition (300/220). Lorsqu’on transpose la fréquence de base à l’octave (440 Hz), les résultats seront 360 Hz (440 – 80) et 520 Hz (440 + 80), donnant comme rapports d’intervalles 1.22 et 1.18. On voit d’une part que, plus on progresse dans l’aigu, plus les intervalles obtenus sont petits, et d’autre part, que la transposition à l’octave de la fréquence de base n’est pas vérifiée dans les fréquences résultantes. Ce qui est ici montré pour une simple transposition à l’octave est évidemment valable pour toute sorte de transpositions. Il faut également se représenter cette opération comme affectant non seulement la fréquence fondamentale du spectre, mais aussi tous ses composants harmoniques ou inharmoniques. Il est évident que, dans la pratique, nous entendons « à la fois » le spectre modulé et le spectre original (celui de l’instrument) et que c’est de la superposition des deux qu’il s’agit.

4.113 La sensation d’inharmonicité de la modulation en anneau est consécutive à la relation harmonique qu’entretiennent les fréquences du spectre avec la fréquence de modulation. Ainsi lorsque la fréquence de modulation est accordée à l’unisson avec la fréquence fondamentale du spectre, il n’y aura qu’une très faible modulation puisque chaque fréquences sera ajoutée à elle même (c’est-à-dire multipliée par 2 et créant, en cela, des octaves supérieures) et soustraite à elle même c’est à dire 0. Dans les cas de relations harmoniques plus complexes que l’unisson ou l’octave, comme la quinte ou la quarte, la profondeur de modulation se verra renforcée ainsi que la sensation d’inharmonicité. Lorsque cette relation sera encore plus complexe (le demi-ton, la tierce mineure ou la quarte augmentée), les spectres auront une forte tendance à l’inharmonicité.

4.114 Les différents sons d’une échelle musicale soumise à la modulation en anneau varieront en contenu spectral (en quelque sorte en timbre) en fonction de la relation d’intervalle qu’ils entretiendront avec une fréquence modulante, et de là, en taux d’inharmonicité. Il en résultera une non-linéarité des sons et une individualisation de leurs poids respectifs. Certains sonneront d’une manière presque identique au son modulé (et donc avec une sensation de hauteur fondamentale très forte), d’autres seront plus ambigus (sensation de plusieurs fondamentales), d’autres encore seront fortement modulés (perte de la sensation de hauteur).

4.12 Karlheinz Stockhausen est le premier compositeur à avoir intégré la méthode de la modulation en anneau (après plusieurs tentatives expérimentales) d’une manière cohérente et non simplement ornementale. Dans Mantra, sa composition pour 2 pianos et électronique datant de 1970, il a imaginé une solution astucieuse pour utiliser ce principe à l’intérieur de l’organisation structurelle de son œuvre. Une formule de 13 hauteurs sert de base à cette composition, et au cours des 13 sections qu’elle comporte, la fréquence de modulation sera accordée tour à tour à l’unisson de ces 13 hauteurs successives. Il en résulte des catégories sonores dont les poids voyageront de notes en notes créant ainsi des zones de clarté et d’opacité variables.

4.121 Voici l’exposé de cette formule, dont la première et dernière note est un la (220 Hz), hauteur qui sert également de fréquence de modulation. On entend très clairement cette hauteur comme pivot de toute cette section puisque c’est elle qui sonnera avec le moins d’inharmonicité. Le fait qu’il a contracté toute cette formule à l’intérieur de l’ambitus d’une septième majeure (les 12 sons chromatiques) permet également d’apprécier les poids respectifs de chacun des sons qui la composent :

4.122 Dans un autre passage de cette même œuvre, Stockhausen utilise un cas particulier de la modulation en anneau : la modulation d’amplitude. Lorsque la fréquence de modulation est un infra-son (fréquence extrêmement basse) les fréquences résultant des additions et soustractions se trouvent à des intervalles très petits et créent ainsi des battements. Ainsi une modulation avec une fréquence de 5 Hz produira 5 battements par secondes. C’est ainsi qu’est composé cette section :

4.123 Une autre section de Mantra propose, au contraire, des variations continues des fréquences de modulation. Les deux pianistes produisent des glissandi qui modulent des grappes d’accords très fournis qui sont joués dans l’aigu des 2 pianos. Les pianistes égrènent ensuite des notes individuelles de ces mêmes accords qui sonneront différemment suivant la hauteur où se trouvera la fréquence modulante au cours de ses glissandi :

4.13 La nature des spectres inharmoniques résultants de la transformation des timbres par un procédé électronique est dépendante de la nature même de ces timbres puisque c’est sur chacun des harmoniques du spectre que va porter ces opérations d’addition ou de soustraction. Dès lors, il est normal que le spectre d’un piano soumis à une modulation particulière ne donne pas les mêmes fréquences que celui d’un hautbois jouant la même hauteur fondamentale et modulée par la même valeur. C’est de la différence spectrale intrinsèque à ces deux instruments que se produira l’écart entre les spectres résultants de la modulation de l’un et de l’autre de ces instruments.

4.14 Dans ma composition Zeitlauf, j’ai appliqué le procédé du modulateur en anneaux aux voix.

4.2 Le frequency-shifting

4.21 Le frequency-shifting (ou décalage en fréquences) est une méthode très voisine de celle de la modulation en anneau. Il s’agit en fait de la séparation des fonctions additives et soustractives de cette dernière. Le contrôle des spectres vers le grave ou vers l’aigu est ainsi plus précis. Un des problèmes du modulateur en anneaux est sa forte densité spectrale qui, lorsque le son modulé est déjà très riche en contenu harmonique, parvient assez vite à créer une sensation de saturation dans laquelle il est parfois difficile d’identifier des « couleurs » inharmoniques particulières. Lorsque l’on sépare ces deux fonctions, on obtient des spectres inharmoniques qui ne possèdent que la moitié des composants que ceux que fournit la modulation en anneau.

4.211 Voici quatre exemples d’un son de piano dont la fréquence de modulation est identique :

Ici un son de piano :

Sa modulation en anneau :

Son décalage en fréquences dans l’aigu (par addition)

Son décalage en fréquences dans le grave (par soustraction)

4.212 L’autre avantage de cette méthode est qu’il est possible de mixer les deux sorties, additives et soustractives, l’une par rapport à l’autre. Lorsque les deux sorties sont à leur volume maximum, le résultat est identique à celui du modulateur en anneaux, mais il est possible d’obtenir des variations d’amplitudes différentes, et variables, suivant que l’on augmente ou diminue le volume d’une des deux sorties. Voici deux exemples de modulation par frequency-shifting de la même séquence musicale. Dans le premier, la sortie additive est à 100%, la sortie soustractive à 50% :

Dans le second, c’est l’inverse qui se produit :

4.22 Dans son œuvre Répons, pour 6 solistes, électronique et ensemble, Pierre Boulez a utilisé le frequency-shifter d’une manière à la fois très poétique et puissante. Il s’agissait d’ « éclairer » des accords arpégés par les solistes comme si il s’agissait d’un même objet vu sous des lumières différentes. Pour ce faire, Boulez a également utilisé des retards (delays) qui font que chaque nouvelle modulation de ces arpèges intervient l’une à la suite de l’autre.

4.221 Dans un soucis de cohérence, Boulez a composé des séries de 6 objets (un par instrument soliste) suivant un procédé de déduction qui s’apparente, dans son organisation, à un décalage en fréquences (à l’image du frequency-shifter) mais ici dans le domaine des fréquences tempérées. Chacun de ces 6 objets a, en outre, la particularité d’être fixé dans le même ambitus (sib-si sur 2 octaves) ce qui renforce la sensation de familiarité que ces accords entretiennent entre eux. La technique est la suivante. Soit un accord servant de matrice :

Puis une échelle reproduisant cette même série d’intervalle en prenant comme première note le « si » :

En bloquant cette échelle à l’intérieur de l’ambitus général (sib-si) on obtient l’accord suivant :

Si, maintenant on transpose la même échelle en prenant la note « si » non pas comme premier mais deuxième pas de cette échelle, on obtient la transposition que voici :

En bloquant de nouveau cette nouvelle échelle dérivée à l’intérieur du même ambitus, on arrive à l’accord suivant (seul la note la plus basse (sib) est ici ajoutée pour conserver la même unité de l’ambitus :

On réitère alors la même opération en faisant dériver les échelles suivant le principe que la note « si » soit successivement, le troisième, quatrième, cinquième et sixième pas de l’échelle. Voici les 6 accords ainsi dérivés les uns des autres suivant cette technique de transposition scalaire :

Ces accords seront joués successivement par le piano I, le vibraphone, le cymbalum, le piano II, la harpe et, de nouveau, le piano I.

4.222 A cette technique de décalage en fréquences tempérées, Boulez va adjoindre une autre technique de décalage en fréquences non tempérées par le moyen des frequency-shifters et créer ainsi des objets inharmoniques qui auront chacun leur couleur propre suivant la fréquence de modulation qui va leur être apposée. Le choix des fréquences de modulation qui a été retenu s’est fait en fonction des partiels résultants dans les spectres ainsi transformés. L’idée de base est que ces partiels doivent posséder un grand nombre de classe de hauteurs communes avec celles des accords joués par les solistes, comme une sorte d’extension de ceux-ci. Notons que Boulez s’intéresse ici aux classes de hauteurs (do, do#, ré, ré#, mi…) et non à leurs fréquences, c’est-à-dire qu’il ne se préoccupe pas que 2 sons de même nom interviennent sur des octaves différentes. En résumé, si un accord contient un « do# » et un « mi », il choisira des indices de modulation du frequency-shifter susceptibles de lui fournir les fréquences les plus proches de ces deux notes, quelque soient les octaves sur lesquelles ces fréquences se situent. Voici un tableau retraçant l’engendrement de ces groupes de fréquences :

4.23 J’ai fait un grand usage du frequency-shifting dans plusieurs de mes œuvres. En voici un exemple tiré de ma composition Neptune, pour 3 percussions et électronique.

4.3 Filtrage de sons inharmoniques

4.31 Les sons inharmoniques, on l’a vu, ont tendance à effacer la sensation de hauteur tonale par l’accumulation de fréquences qui entretiennent entre elles dans des rapports harmoniques complexes. Il existe des instruments qui donnent des hauteurs très complexes desquelles il est impossible de déduire une ou même plusieurs fondamentales. Ce sont les instruments à percussions métalliques telles que les cymbales, et les tam-tams. Opérer une modulations (en anneau ou par frequency-shifting) sur de tels instruments serait un non-sens, car étant de textures spectrales tellement chargées, elle ne ferait qu’accroître la densité déjà extrême ce ces instruments. Il est donc plus intéressant de contredire leur nature première en les filtrant et en extrayant de leur magma spectral des sous-ensembles de fréquences qui garderont la couleur propre de l’instrument tout en dessinant des lignes à l’intérieur.

5.0 Inharmonicité dans la musiques de synthèse

5.1 Un des premiers exemples de composition inharmonique.

5.11 En 1953, Karlheinz Stockhausen compose sa première pièce électronique dans les studios de la radio de Cologne : Studie I pour sons électroniques. Composé exclusivement à partir de sons purs, c’est aussi une des premières œuvre de synthèse pure que nous connaissons. Il s’agit ici de l’ancêtre que ce qui sera nommé plus tard synthèse additive qui trouvera un grand écho dans les musiques électroniques réalisées plus de dix ans plus tard avec l’aide des ordinateurs. Le compositeur souhaitait ainsi pouvoir contrôler ce qu’il nommait alors les « timbres » de la manière la plus précise possible.

5.111 La notion de « timbre » appliquée à cette œuvre est impropre. La perception de ces complexes sonores relève plutôt d’agrégats ou d’accords que de timbres. Nous savons aujourd’hui que le timbre est une notion vague qui regroupe toutes une série de comportements acoustiques, y compris les phénomènes bruités et instables. Le terme de timbre utilisé par le compositeur pour cette œuvre ancienne constitue un des premiers cas d’utilisation abusive, chose qui se propagera grandement par la suite.

5.112 La multiplication d’une fréquence de base (1920 Hz, correspondant approximativement au si 5) par un rapport 12/5 donne un premier groupe de 6 fréquences : 1920, 800, 1000, 625, 1500 et 1200 Hz. Ces 6 sons purs étant calculées suivant des rapports fractionnaires et non-entiers, il en résulte une répartition inharmonique de leurs fréquences. En prenant successivement chacune des fréquences obtenues comme nouvelle fréquence de base, on obtient ainsi 5 autres complexes sonores toujours calculés suivant la même proportion :

1920 800 1000 625 1500 1200

800 333 417 260 625 500

1000 417 521 325 781 625

625 260 325 203 488 390

1500 625 781 488 1170 937

1200 500 625 390 937 750

Ce principe est identique à celui de la multiplication d’accords prôné par Boulez dans les mêmes années. La même opération est répétée ensuite avec d’autres ratios, successivement 4:5, 8:5, 5:12 et 5:4 (soit 0.8, 1.6, 0.416 et 1.25), 36 autres complexes sont ainsi calculés. Stockhausen utilise alors des groupements de sons en différentes densités, successivement 4, 5, 3, 6, 2 et 1 son. Ainsi est obtenue une première séquence de 6 agglomérats sonores :

1920 1500 260 1000 625 325

800 1200 625 417 260

1000 800 500 521

625 333 325

417 781


5.114 On trouve des procédés de composition semblables dans les premiers Klavierstucke de Stockhausen auxquels il a donné le nom de « Gruppen Form » (ou composition par groupes). Cette méthode lui permettait de dépasser le pointillisme webernien, alors très en vogue chez les compositeurs de cette génération, en proposant des modèles structurels prenant en compte la perception des formes dans leur globalité et non seulement dans les rapports que leurs éléments entretiennent entre eux.

5.115 Les principes de composition issus de la généralisation de la méthode sérielle à tous les composants musicaux (qui faisait rage à cette période) se font jours également dans le domaine des durées. Suivant une correspondance assez simple, consistant à diviser les fréquences par 10 pour obtenir la longueur en cm de la bande magnétique, il obtenait 192 cm pour la fréquence de 1920 Hz, 80 cm pour celle de 800 Hz etc. Compte tenu que la vitesse de défilement des bandes magnétiques était de 76.2 cm/sec, cela donnait 2. 519 secondes pour la fréquence de 1920 Hz et 1.049 sec pour celle de 800 Hz. Le résultat global donne une élongation des durées au fur et à mesure que l’on progresse dans l’aigu. Il faut noter qu’il s’agit ici de la solution inverse de celle préconisée par Messiaen dans ses Modes de valeurs et d’intensité, études pour piano qui avait servi de modèle pour le principe de la série généralisée, dans laquelle les durées des sons graves étaient diminuées arithmétiquement à chaque demi-ton progressant vers l’aigu.

5.116 Outre des profils dynamiques accolées à ces fréquences pures, le seul autre élément sonore de cette étude, est une réverbération qui vient attaquer certains de ces sons. Stockhausen ensuite abandonnera, pour des raisons évidentes, ces calculs trop précis et trop systématiques dans ses compositions futures. Il est évident que toutes ces opérations ont été effectuées avant l’écoute même des sons et qu’il était presque impossible d’avoir une idée, même assez vague, des caractéristiques sonores que ces complexes pouvaient produire.

5.2 Risset/Chowning.

5.3 La méthode 3F.

5.31 J’avais eu, depuis plusieurs années, l’idée de créer une méthode de synthèse qui prendrait l’essentiel de ses paramètres sur l’analyse des sons instrumentaux. Mon idée des « partitions virtuelles » est à la base de ce genre de méthode dont le but est de rapprocher, tant du point de vue mélodico-harmonique que du point de vue rythmique, les musiques instrumentales et électroniques. C’est Miller Puckette qui m’en apporta la solution. J’ai donné à cette nouvelle méthode de calcul spectral le nom de « synthèse 3F » parce qu’elle est basée sur des opérations effectuées à partir de 3 fréquences. En voici le principe.

5.32 Nous prenons trois fréquences fondamentales, f, g et h à partir des quelles on effectue une série complète des additions et soustractions possibles entre elles. A ce titre, cette méthode peut s’apparenter à une modulation en anneau ou à une modulation de fréquences mais en diffère ensuite sur de nombreux points. On peut imaginer de former un grand ensemble tel que :

f 2f 3f 4f….

g (f+g) (2f+g) (3f+g) (4f+g)…

2g (f+2g) (2f+2g) (3f+2g) (4f+2g)…

h (f+h) (2f+h) (3f+h) (4f+h)…

(g+h) (f+g+h) (2f+g+h) (3f+g+h) (4f+g+h)…

(2g+h) (f+2g+h) (2f+2g+h) (3f+2g+h) (4f+2g+h)…


1.02h (f+2h) (2f+2h) (3f+2h) (4f+2h)…

(g+2h) (f+g+2h) (2f+g+2h) (3f+g+2h) (4f+ g+2h)…

(2g+2h) (f+2g+2h) (2f+2g+2h) (3f+2g+2h) (4f+2g+2h)…

On peut également ajouter toutes les possibilités de soustractions comme f-2g+3h etc. Il arrive, bien entendu, que le résultat d’une opération donne une fréquence négative, ce qui n’a aucun sens en acoustique. Dans ces cas, on prendra la valeur absolue (positive) de ce résultat.

Le problème qui surgit tout de suite est que, d’une part, un ensemble de fréquences issues d’une telle somme d’opérations donnerait évidemment un spectre d’une densité trop forte dans lequel les écarts entre les fréquences deviendraient trop réguliers, et d’autre part, les mêmes fréquences de battements entre des sons séparés par un petit intervalle se produiraient partout et deviendrait uniforme.

5.321 Le problème de la densité est primordial et demande un éclaircissement. Il n’est d’ailleurs pas lié à l’inharmonicité et peut se rencontrer également dans toutes sortes de configurations harmoniques. Lorsqu’un complexe sonore est trop dense, il est impossible de lui accoler des caractéristiques harmoniques ou inharmoniques propres qui le distingue d’un autre. Ainsi un il n’est presque impossible de classifier des clusters suivant une quelconque règle de perception. De la même manière, les tentatives d’intermodulation entre différents instruments, comme par exemple l’addition et la soustraction de l’ensemble des fréquences qui constituent deux spectres instrumentaux, n’ont guère fourni de résultats satisfaisants car la trop grande densité des spectres résultants rendaient difficile une quelconque hiérarchie ou une quelconque différentiation sonore.

5.33 Il s’agit donc de cribler ce spectre de manière à obtenir une distribution des fréquences plus irrégulière. Pour cela on organise ces opérations suivant les sommes absolues des coefficients :

1 : f g h

2 : 2f (2+g f-g) (f+h) (f-h) (2g) (g+h) (g-h) 2h

3: 3f (2f+g) (2f-g) (2f+h) (2f-h) (f+2g) (f+g+h) (f+g-h) (f+2h)

(f-2h) (f-g+h) (f-g-h) 3g (2g+h) (2g-h) (g+2h) (g-2h) 3h

On applique maintenant un autre crible en acceptant ou rejetant chacune des fréquences obtenues suivant une probabilité donnée. Lorsque la probabilité est 1, toutes les fréquences sont acceptées et l’on obtient un spectre de grande densité mais qui conserve toutefois certaines caractéristiques perceptuelles identifiables. Si l’indice de probabilité est de 0.5, seule la moitié des fréquences sont acceptées, etc. Mais il importe avant tout de fixer la nombre maximum de fréquences que l’on désire obtenir. Si l’on fixe cette borne, par exemple, à 16, lorsque l’indice de probabilité sera égal à 1, nous obtiendrons les 16 premières fréquences (les plus graves) et plus cet indice ira en diminuant, plus on ira chercher les fréquences dans des régions éloignées (en progressant vers l’aigu) jusqu’à ce que l’on obtienne les 16 fréquences désirées. Ce choix aléatoire est responsable de l’irrégularité avec lesquelles ces fréquences seront distribuées dans le spectre. Si la probabilité est au moins égale à 0.25, il y aura de fortes chances pour qu’un des voisins (f+g), (f+h), (g+h), (2f+g+h), (f+2g+h), (f+g+2h) soit présent ce qui donnera une différence fréquentielle soit de f, soit de g, soit de h, et par là, une prédominance d’une de ces trois fréquences sur les autres. Cette irrégularité de distribution possède de nombreux avantages. D’abord elle permet de régler la distribution de l’énergie sonore dans des registres plus ou moins définis. Ainsi l’on peut obtenir des spectres « compacts » lorsque les fréquences sont regroupées dans le grave (indice de probabilité à 1), ou « écartés » lorsque cet indice diminue. Mais, compte tenu que la méthode de calcul contient un facteur aléatoire, nous obtiendrons, pour chaque tirage inférieur à 1, des spectres différents suivant la distribution des fréquences qui composeront ces spectres. Ainsi à partir d’un même choix de fréquences f, g et h nous pourrons obtenir des variations spectrales très audibles mais qui auront la particularité d’appartenir toutes à la même classe de rapports inharmoniques. Cet avantage est très précieux dans le sens ou les spectres inharmoniques peuvent ainsi avoir des caractéristiques très reconnaissables et donc très efficaces pour la perception. Pour donner une lointaine analogie avec un cas classique de l’harmonie, on peut comparer ce phénomène avec celui d’un accord qui change de couleur et de fonction suivant ses renversements mais conserve ses caractéristiques tonales propres. Mais il s’agit ici d’opérations beaucoup plus complexes qu’un simple renversement d’accord.

5.332 Voici un exemple dans lequel les fréquences f, g et h sont respectivement do, mi et sol# et dont voici un échantillon de spectres résultants suivant un indice de probabilité fixé à 0.5 :

Voici maintenant un autre exemple, toujours à partir du même choix de fréquences de base, dans lequel l’indice est fixé à 0.25, ce qui produit une plus grande variété des contenus spectraux :

5.333 Lorsqu’on accorde les 3 fréquences sur la même hauteur, il s’ensuit, bien évidemment, des spectres harmoniques car les sommes et les additions de ces fréquences produisent des multiples entiers. Un premier exemple montre les 3 fréquences accordées sur un do, avec un indice de probabilité assez bas, de manière à obtenir des spectres variés :

Dans un second exemple, 2 des fréquences sont accordées à l’unisson (toujours sur un do) et la troisième opère des mouvements montants et descendants. L’ordre de ces trois fréquences n’a aucune incidence sur le calcul des spectres. On entend ici clairement des spectres harmoniques chaque fois nouveaux mais possédant tous la même prééminence du do :

Enfin, dans ce troisième exemple, 2 des fréquences sont accordées à la quinte (do et sol), la troisième, comme dans l’exemple précédent monte et descend. La résonance de quinte se vérifie partout, quelque soit le degré d’inharmonicité des spectres :

Il est donc possible d’accorder n’importe laquelle de ces 3 fréquences sur des hauteurs données et de créer des spectres inharmoniques qui reproduiront ces fréquences comme fréquences de base à partir desquelles on peut construire une grande variété de sons inharmoniques. Voici un dernier exemple dans lequel on observe un balayage rapide de sons inharmoniques autour de deux notes-pivots qui sont fa et sol# :

(début de Gutenberg)

5.34 Dès lors que l’on peut accorder ces fréquences comme « supports harmoniques » de sons inharmoniques, il est possible de les raccorder à une écriture instrumentale dont chacune des 3 fréquences génératrices de ces spectres sont captées par l’analyse en temps réel des hauteurs jouées par les instruments acoustiques. C’est l’expérience que j’ai tentée dans la composition de Tensio, mon second quatuor à cordes avec électronique. Voici comment les choses s’articulent.

Un dispositif de détection de hauteurs est adapté sur chacun des 4 instruments du quatuor. Il faut, dans un premier temps, affecter 1, 2, 3 ou 4 de ces instruments aux 3 fréquences de bases de la synthèse 3F. Il est possible, par exemple, d’affecter le premier violon à la première de ces 3 fréquences, le second à la seconde et de donner une valeur fixe à la troisième, ou encore de faire en sorte que 3 des instruments vont contrôler les variations des 3 fréquences du modèle de synthèse. Pour cela on utilise des matrices de distribution qui permettent, via un suiveur de partitions, de configurer ou de modifier le sens de ces affectations. Dans l’exemple suivant, les événements 1 et 3 (entourés dans la partition) affecteront le second violon avec la première fréquence, l’alto avec la deuxième et le violoncelle avec la troisième. Les spectres inharmoniques résultants seront calculés à partir de ces fréquences, mais comme ce modèle de synthèse comporte une donnée probabiliste permettant d’obtenir un grand nombre de spectres différents à partir des mêmes hauteurs (voir plus haut :, chaque nouvelle attaque du même son dans les parties instrumentales déclenchera un nouveau calcul de spectre dans la musique de synthèse. Par ailleurs, les événements 2 et 4 affecteront les 3 fréquences sur le premier violon. Dans ce dernier cas, la résultante des spectres sera harmonique puisque les 3 fréquences étant accordées à l’unisson (chacune des notes jouées par le premier violon) il s’en suivra un calcul des partiels fondé sur la forme f, 2f, 3f, 4f, 5f…

(Tensio page 44)

5.341 Il faut maintenant définir des modes d’interactions qui permettent de contrôler une plus ou moins grande réactivité du modèle de synthèse sur le jeu instrumental. On peut désirer qu’à chaque nouvel événement du jeu instrumental corresponde un nouveau spectre inharmonique, comme c’était le cas précédemment, mais il est possible de jouer sur le degré de réactivité de ce modèle de synthèse par rapport au jeu instrumental. Dans l’exemple suivant, les violons 2, alto et violoncelles sont respectivement responsables des 3 fréquences du modèle 3F, mais un dispositif de criblage, ou de filtre, fondé sur l’analyse du jeu instrumental permet d’obtenir une discrimination qui empêchera toute réaction du système de synthèse lors des groupes de notes très rapides. Ainsi, les figures jouées sul ponticello, dans ces 3 parties instrumentales, dont les durées internes sont inférieures à un certain seuil fixé très bas, seront ignorées et ne produiront donc pas de nouveaux spectres inharmoniques. Seules les notes possédant une durée plus longue et entretenue auront une incidence sur la musique de synthèse calculée en temps réel :

(Tensio page 46 evt 7)

A l’opposé, dans l’exemple suivant, le modèle 3F réagira uniquement sur les groupes de notes rapides et ignorera les notes longues :

(Tensio page 46 evt 7)

5.342 On l’a vu, cette méthode de synthèse offre le grand avantage de pouvoir opérer des classifications entre des sons inharmoniques appartenant à une même famille. C’est-à-dire que les fréquences de bases sont présentent, et audibles, en tant que « seuils » de construction pour des sons complexes. Il s’ensuit que ces fréquences représentent un sous-ensemble des fréquences engendrées par la méthode 3F. Dans le cas d’une musique de synthèse qui prend l’essentiel de ses paramètres dans le jeu instrumental, il ne sera donc pas étonnant de retrouver, dans ses évolutions, le dessin instrumental qui en a été l’origine. En voici la démonstration. Ici une séquence extrêmement fournie jouée par le quatuor, comme une sorte de fouillis thématique propulsé dans des mouvements registres très mobiles :

(Tensio page 53, début 54)

5.343 Tous les instruments participent à la création des sons de synthèse dont les spectres sont créés par la superpositions de toutes les voix. Lorsque l’on écoute la partie de synthèse seule, on entend des textures inharmoniques très mobiles, mais il apparaît nettement que les contours globaux des évolutions de registres se retrouvent dans les évolutions progressives des sons. Il s’agit, en quelque sorte, de ce que l’on pourrait appeler une « inharmonisation » :

Voici maintenant ces 2 partitions, l’une avec l’autre, comme c’est la cas dans la réalité :

5.344 L’engendrement des spectres peut bien évidemment s’appliquer à l’ensemble des instruments. Le cas des spectres harmoniques, à l’intérieur de ce modèle, est un cas particulier des possibilités qui s’offrent. Dans l’exemple suivant, les 4 instruments sont connectés au modèle et chacun affecte les 3 fréquences génératrices. Nous sommes donc dans un cas voisin de celui mentionné au chapitre dans lequel toutes les fréquences agissant à l’unisson provoquent des spectres harmoniques, variant en densités suivant que l’on place l’indice de probabilité inférieur à 1. Le mode d’interaction entre la partie instrumentale et le modèle de synthèse est ici réglé au maximum, c’est-à-dire que toutes les valeurs de durées de chacun des sons émis par les instruments seront prises en compte, et donc le système réagira à chaque nouvelle détection de hauteurs à l’intérieur du quatuor. Le résultat sera ici une « doublure » à l’unisson de tous les instruments. Le modèle agira sur chaque nouvelle détection, quelque soit l’instrument qui jouera. Il s’en suivra une sorte d’ « écrêtement » de la musique du quatuor par le fait que la synthèse 3F sautera sans arrêt d’instrument à instrument dans une très grande rapidité :

(Tensio page 68)

5.4 Spectres inharmoniques et échelles sonores.

On peut considérer deux catégories comme dépendantes l’une de l’autre : le son lui-même et l’espace dans lequel il va évoluer, c’est-à-dire les échelles sonores sur lesquelles il va se déplacer. Cette relation n’est pas une conséquence obligée mais permet de mettre en relation des principes logiques qui font que, d’un son, peut être déduit l’ensemble des positions sur lesquelles il se déplacera. Ce sont comme le microcosme et le macrocosme d’une même configuration.

5.411 Cette méthode a été utilisée dans beaucoup de compositions ne faisant pas spécifiquement appel à la nature inharmonique des sons, mais à des complexes sonores définis dans le champ des fréquences tempérées. On rencontre déjà un tel principe d’organisation déjà dans certaines œuvres de Claude Debussy, et spécialement lorsqu’il utilise la gamme par tons entiers. Il y a ce que l’on pourrait appeler une homothétie entre ces deux constructions. Voici une exemple dans lequel les accords de pianos sont tous issus des éléments d’une gamme par tons entiers, ainsi que leurs déplacements :

5.42 Dans un contexte différent, on peut partir d’un complexe sonore arbitraire et déduire de ce complexe l’ensemble de ses transpositions. Pour cela il faut alors déplacer ce complexe sur chacune des hauteurs qui le constitue. Prenons maintenant un complexe sonore inharmonique et effectuons la même opération. Voici un cas dans lequel des spectres inharmoniques sont calculés à l’intérieur d’un large ambitus qui ira progressivement en se rétrécissant pour parvenir à une sorte de petit cluster. On peut clairement écouter, dans les échelles sur lesquelles se transposent ces complexes sonores, des rétrécissements d’ambitus de déplacement qui coïncident avec ceux qui définissent les fréquences internes des spectres inharmoniques :

(Zeitlauf, extrait)

5.43 Dans Tensio, pour quatuor à cordes et électronique, j’ai déduit une série d’échelles sonores à partir de spectres inharmoniques. Il s’agissait des spectres 3F, expliqués au chapitre précédent. Comme dans l’exemple précédent, il s’agit de déduire une échelle des intervalles qui séparent les différents partiels des spectres, mais à la différence de celui-ci, ce ne sont pas les spectres eux-mêmes qui vont se déplacer sur ces échelles mais une ligne de sons pizzicati en ostinato qui se déploie suivant un principe de chaines de Markov qui ordonne les probabilités de successions des différents pas. Les fréquences constituant ces échelles sont cependant toujours renouvelées car de chaque nouveaux spectre calculé (en principe à chaque note jouée par trois des membres de ce quatuor) sera déduite une nouvelle échelle.

5.431 Un premier exemple est donné ici à partir de cette séquence du quatuor. Les instruments jouant à l’unisson sur la note « mi » produiront des spectres harmoniques sur cette hauteur fondamentale. Cet unisson ira en se déplaçant par glissandi sur un petit cluster autour de cette note puis, progressivement reviendra à sa position initiale. Les échelles qui correspondent à ces déplacements de hauteurs des instruments prendront des profils de plus en plus complexes, dus aux rapports d’intervalles qui constituent ces écarts. On entend très bien ces dérivations d’échelles entre deux échelles « harmoniques » dans l’exemple qui suit :

5.432 Un second exemple est montré ici dans lequel la structure intermédiaire entre les instruments et les échelles, à savoir les spectres de synthèse 3F, n’est pas entendue. Cela ne signifie pas, bien sûr, qu’elle n’existe pas puisque c’est d’elle que se déduisent les échelles, mais elle n’est pas audible. Nous avons donc une musique de quatuor en pizzicati qui se superpose aux pizzicati des échelles inharmoniques. On n’entend plus les spectres inharmoniques mais on perçoit toujours leurs actions sur un autre processus, celui-là bien audible.


Wednesday, February 8th, 2012

Il m’arrive souvent de dire que Tensio, pour quatuor à cordes et électronique en temps réel, représente l’œuvre la plus expérimentale que j’ai composée jusqu’à aujourd’hui. Il faudrait remonter aux débuts de mes travaux dans le domaine du temps réel dans les années 80, avec les compositions de Jupiter et de Pluton, pour trouver une aussi grande utilisation de techniques nouvelles et expérimentales dans l’élaboration et l’écriture des œuvres. Ce travail s’est fait grandement en collaboration avec Gilbert Nouno, qui a réalisé la partie informatique et mis au point une grande partie de ces nouvelles techniques, et Arshia Cont, dont les dernières recherches ont grandement influencées cette composition. La contribution de Miller Puckette a aussi été décisive dans certains domaines comme celui de nouveaux procédés de synthèse sonore. J’aborderai dans ce texte ces nouveaux outils de synthèse qui sont à la base d’une grande partie de ce quatuor, mais aussi des points de vues plus théoriques quant à leurs relations avec l’écriture instrumentale.

1) Les outils de synthèse utilisés dans Tensio.

Trois modèles de synthèse sont utilisés dans Tensio. Ils vont du plus classique au plus abstrait. La musique électronique qui répond au quatuor à cordes sera tour à tour, proche ou lointaine, familière ou inconnue. Il m’a fallu créer parfois un quatuor virtuel qui dialogue avec le quatuor réel sur la scène, parfois un son de corde qui produit des musiques que ne pourraient pas produire les musiciens de ce quatuor et parfois, des configurations sonores totalement étrangères au monde du quatuor mais cependant dérivées de celui-ci. Dans leur ordre d’apparition dans l’œuvre, mais aussi dans leur ordre d’éloignement des sons réels du quatuor ; ces trois modèles sont : Synful, la synthèse par modélisation physique et la synthèse 3F.

a) La synthèse instrumentale par le programme Synful.

Le programme Synful, mis au point par Eric Lindemann, permet de recréer les sons instrumentaux de l’orchestre classique mais, à la différence des outils d’échantillonnage que l’on connaît sur le marché, ce programme ne prend pas seulement en compte le son lui-même mais sa transition avec le suivant. Il est possible, par exemple, de faire exécuter un vrai légato à une clarinette ou à un ensemble de violoncelles. L’ayant déjà utilise dans Partita I, ce modèle de synthèse m’a été d’une grande utilité pour Tensio, particulièrement pour créer un quatuor virtuel qui se superpose au quatuor réel. Je parle de quatuor virtuel pour bien indiquer que les sons qui seront produits se confondront sans problème avec les sons produits par les instrumentistes réels sur la scène. C’est en particulier ce qui se passe dans le tout début de l’œuvre, dans lequel on entend une structure très dense et polyphonique dont les éléments sont distribués à la fois dans le quatuor réel et dans le « quatuor Synful ». Trois couches sont superposées : des accords en trémolos, une succession de pizzicati répétés, ainsi que trois sons de « violon » en crescendo. Le tout étant soumis a des traitements en glissandi montants et descendants obtenus par un harmonizer :

Voici un autre exemple dans lequel le même matériau est utilisé, mais dans une autre organisation et de façon plus dense. On y retrouve les glissandi d’harmonizer, les pizzicati répétés, les trémolos et les sons crescendo le tout dans une forte dimension polyphonique :

Dans un tel environnement, lorsque la musique de synthèse est si proche de celle du quatuor, il n’y aucun problème pour la noter de façon traditionnelle sur partition. D’autant qu’ici, nous restons dans un contexte totalement déterministe dans lequel la plupart des valeurs sonores sont au préalablement fixées et connues à l’avance, à l’exception du moment exact où elles vont être jouées, celui-ci dépendant du suivi de partitions et donc du violon I. Ce ne sera plus le cas dans les deux autres modèles de synthèse utilisés qui, par leur nature propre et leur mode de fonctionnement, échappent à toute notation précise et prédéterminées.

b) La modélisation physique d’une corde de violon.

Lors de la composition de Partita 1 pour alto et électronique en 2009, mon souhait avait été d’utiliser un environnement de cordes artificielles dont le contrôle sonore aurait été assuré par le soliste lui-même. L’analyse de données sonores effectuées en temps réel pendant l’exécution devait avoir le pouvoir de modifier les comportements acoustiques de ces cordes artificielles. J’avais alors jeté mon dévolu sur la synthèse par modélisation physique. L’idée était séduisante mais totalement utopique à cette époque. Elle l’est encore partiellement de nos jours car les méthodes d’analyse sonores en temps réel sur les différents instruments restent encore embryonnaires quant à leurs véritables usages dans le domaine de la composition. D’autre part, les systèmes de synthèse par modélisation physiques existants à l’époque, n’auraient nécessités pas moins de quatre ordinateurs, un pour chaque corde artificielle ! Plus encore, ces systèmes s’avéraient pratiquement inutilisables dans le domaine compositionnel : la modification d’un des paramètres entrainait une trop grande déstabilisation de tout une série d’autres paramètres et donnait un aspect proprement chaotique et incontrôlable à l’ensemble. Comment un environnement complexe et puissant doit-il être organisé sous une forme efficace pour la composition ? C’est là une grande question qui mérite d’être soulevée. La composition, qu’elle soit sur partition écrite ou sur un système de synthèse sonore, demande une forme de simplification (d’abstraction) de son écriture pour que puisse s’élaborer des constructions évoluées. Un environnement où les interconnexions entre tous les niveaux tendent à la prolifération devient très rapidement « ingérable » pour un compositeur. C’est une des grandes différences qui sépare le monde de la composition de celui de la performance et de l’improvisation1. J’ai décidé alors d’abandonner ce système de synthèse pour me consacrer à celui, plus classique en apparence mais tout aussi original, qu’a mis au point Eric Lindemann et connu sous le nom de Synful. Une fois la composition de Partita I achevée, on m’a montré un nouveau système de synthèse de corde par modélisation physique que venait de mettre au point Matthias Demoucron, un jeune chercheur français. Je trouvais qu’il arrivait un peu tard pour moi, mais c’est lui que j’ai finalement adopté lorsque j’ai décidé de me consacrer à la composition de Tensio.

La synthèse par modélisation physique est d’une toute autre approche que les autres modèles de synthèse existants en ce qu’on ne lui fournit pas des paramètres classiques, tels que les fréquences, les spectres ou les amplitudes, mais des modèles gestuels dont on dessine les évolutions dans le temps. Le système de Matthias Demoucron consiste en une modélisation d’une corde de violon tendue autour d’une caisse de résonnance, provenant de l’analyse d’un violon du XVIIème siècle. Ce modèle de corde, qui peut avoir des tensions différentes2 dont résultera sa hauteur, est excité par un archet virtuel dont on contrôle 4 paramètres : la force avec laquelle il frottera la corde, sa vitesse, sa position (sur le chevalet, sur la touche, ou entre les deux), et la hauteur (équivalente à la position d’un doigt de la main gauche sur la corde). Chacun de ces paramètres est accessible dans une fenêtre dans laquelle on dessine des évolutions temporelles. Dans l’exemple ci-dessous, on peut voir l’interface d’utilisation dans laquelle sont dessinées ces différentes évolutions temporelles.

a- les partie bleuâtre, commune à toutes les paramètres, détermine une fenêtre d’utilisation qui sera lue en boucle suivant un tempo déterminé.

b- La première fenêtre (s_force) montre la courbe d’évolution de la pression de l’archet au cours de la lecture de cette fenêtre. Cela correspond ici à un crescendo et un decrescendo.

c- La seconde fenêtre (s_vel) dessine les mouvements d’aller et retour de l’archet sur la corde, que l’on nomme dans le jargon musical : tiré-poussé.

d- La troisième fenêtre (­s_dist) montre les évolutions de la position de l’archet : normale au début, évoluant vers le chevalet, puis vers la touche avant de revenir à la position médiane.

e- Enfin la fenêtre inférieure (s_pitch) montre une stabilité de la fréquence.

Les sliders qui se trouvent à la droite de ces fenêtres permettent un ajustement des valeurs dans des proportions plus infimes et précises que ne le propose le dessin des courbes :

Au cours des expérimentations que j’ai pu faire sur ce modèle, une chose m’a particulièrement frappée. Il s’agit de la combinaison de valeurs simultanées que ne pourrait pas reproduire avec autant d’exactitude un instrumentiste vivant. Plus particulièrement, la combinaison de mouvements qui seraient presque contraires à la nature physique d’un violoniste. Imaginons d’abord une situation classique. Pour produire un son faible, un violoniste va coordonner les mouvements de son bras et de sa main droite de manière à ce que la vitesse d’archet soit lente tandis que sa pression demeure faible. Au fur et à mesure qu’il voudra produire un crescendo, il va augmenter cette vitesse tout en accentuant la pression sur la corde. Ainsi un « beau son » (ce terme étant utilisé suivant les canons de la culture classique du violon occidental) ne pourra être produit que par de fréquents et allers-retours de l’archet sur toute sa longueur avec une vitesse assez rapide. La rapidité de ces allers-retours évitera que la forte pression qui est produite sur l’archet ne produise des aspérités sur le son. En effet, au fur et à mesure que l’on ralentira la vitesse de l’archet, le son aura tendance a devenir rugueux jusqu’à devenir grinçant et perdre toute sa caractéristique de hauteur au profit d’un son bruité3. Maintenant imaginons la situation suivante. Que se produirait-il si l’on continuait d’exercer une pression maximale sur la corde en ralentissant encore considérablement la vitesse l’archet jusqu’à une lenteur maximale ? Ce serait là une prouesse physique étonnante de la part d’un violoniste car plus on exerce un mouvement vertical du bras (pression vers le bas) moins on n’a le pouvoir de contrôler le mouvement horizontal (celui qui détermine la vitesse de l’archet). En d’autres termes, plus la pression sur l’archet sur la corde sera maximale et plus difficile sera de maintenir lisse et régulière sa vitesse. Or, on le sait, ce qu’un homme ne peut pas physiquement faire, une machine peut très bien s’en charger. Je fus alors très étonné d’entendre ce que produit cette action contre nature et de constater que la pression exagérée, contrairement à ce que l’on a pu observer dans la situation naturelle, ne fait plus tendre le son vers le bruit lorsque la vitesse tend vers la nullité et la régularité. Le résultat au contraire produit l’effet de petites gouttelettes sonores extrêmement aiguës, donnant l’idée de son perforé, mais dont les perforations seraient irrégulières. La fréquence variable de ses gouttelettes sonores est obtenue par de légères variations de la pression qui s’exerce continuellement dans un registre qui confine à l’écrasement de la corde par l’archet.

Afin de varier ce modèle et de le faire évoluer dans des registres expressifs différents, je l’ai transposé par des harmonizers afin de lui donner parfois des sonorités graves, qui évoquent quelques mystérieuses percussions de bois, et parfois dans des glissandi afin de le rendre plus mobile. Le grand intérêt que j’ai trouvé à ce modèle de synthèse réside principalement dans le fait que, bien que la modélisation des actions simultanées et contre nature des mouvements de l’archet produise des sons que l’on n’assimilerait pas directement avec ceux d’un violon, bien que la « physionomie » de ces sons tendent vers quelque chose d’inouï, en tout cas de non répertorié, il n’en demeure pas moins que l’on entend toujours que c’est une corde qui est actionnée. C’est un des grands principes sur lequel je base une partie de mon travail : ne pas détruire l’origine physique d’un son quand bien même celle-ci nous entraîne dans des régions fort éloignées du modèle initial. Il m’importait de trouver des sons nouveaux, mais il m’importait tout aussi bien de faire en sorte que l’auditeur ne perde jamais le lien, si ténu fut-il, avec ce qui constituait la base sonore de ce quatuor : une certaine tension exprimée sur une corde qui vibre.

c) « Inharmonisations » par la méthode de synthèse 3F

Depuis plusieurs années je caressais le rêve du pouvoir composer une musique électronique qui serait entièrement créée en temps réel et prendrait sa source dans le jeu instrumental. J’ai approché cette idée dans des œuvres telles que Jupiter, Pluton ou En écho, mais jamais de façon aussi avancées que dans Tensio. Ce qui est en jeu ici, c’est le problème du déterminisme et de l’indéterminisme en musique. Pour bien le cerner, il faut le préfacer en analysant ce que ces termes veulent bien signifier dans la pratique musicale. Observée sous une perspective très globale, une partition écrite est déterministe en ce que les éléments qui la constituent sont préalablement organisés par le compositeur sous une forme écrite indiquant les hauteurs, leurs niveaux dynamiques, leurs évolutions, et aussi leur temporalité. Or, tout le monde sait que ces partitions sont interprétées et que le propre de l’interprétation est de personnaliser une exécution à un moment donné. Donc il n’y a jamais deux interprétations identiques. Du point de vue de l’interprète, il existe toujours une marge de liberté à l’intérieur de laquelle il va pouvoir fixer ses intentions propres. Il s’agit cependant toujours d’intentions, qu’elles soient celles du compositeur ou de l’interprète, mais elles ne sont pas temporellement identiques. L’espace temporel de la composition n’est pas aussi « immédiat » que celui de l’interprète. La composition, si tant est qu’elle soit hautement élaborée, demande un temps de gestation, d’élaboration d’esquisses plus grand que celui de l’interprète. L’interprète, même le plus scrupuleux (prenons par exemple le pianiste Maurizio Pollini) peut « conditionner » sa vision de l’œuvre par l’analyse mais il ne peut physiquement pas prédire avec exactitude ce qu’il va produire. Le déterminisme (de la composition) et l’indéterminisme (de l’interprétation) se distingueront alors par le fait qu’il existe un écrit pour le premier et non pour le second. Vue sous un angle plus local, une partition recèle donc plusieurs niveaux d’indéterminisme, les principaux étant surtout les niveaux dynamiques et les flux temporels (Ces niveaux varient suivant les instruments car, bien entendu, un piano ne peut pas interpréter les hauteurs et leurs enchaînements avec la même finesse que, par exemple, un violon. On peut dire que, d’une manière générale, plus les instruments sont dotés de présences mécaniques (tels que le système des marteaux sur des cordes dans le piano) plus limitées sont ses possibilités d’interprétation.).

Cette séparation fondamentale entre ces niveaux déterministes et indéterministes, telle qu’on la trouve dans la musique instrumentale m’a servi de modèle pour ce que j’ai nommé, dans la musique électronique, les « partitions virtuelles ». J’en rappelle ici la définition : une partition virtuelle est une partition dont on connaît apriori les paramètres qui la constituent, mais pas la valeur exacte qu’il vont recevoir. Si on ne peut pas les connaître à l’avance c’est pour une raison très simple : ils vont être captés dans l’interprétation qui, comme on l’a vu, contient une grande marge d’indéterminisme. Il est cependant toujours possible de concevoir des systèmes qui comportent ces deux états, déterministe et indéterministe, car une partie des paramètres nécessaires à la création de sons de synthèse peuvent très bien être notés dans un programme tandis qu’une autre partie proviendra de l’analyse en temps réel d’un instrument au moment même de l’exécution musicale.

Lorsque j’entrepris la composition de Tensio, avec l’aide de Gilbert Nouno, j’ai expérimenté plusieurs modèles de synthèse qui pouvaient utiliser des analyses de divers aspects du son instrumental pour créer des spectres sonores variés dans leurs constitutions sonores. Mais tous les résultats que nous avions obtenus ne me donnaient pas entière satisfaction car il était très difficile de contrôler les qualités sonores précises de ces sons à partir d’une telle complexité et variabilité obtenues à partir de ces analyses. C’est finalement Miller Puckette, à qui j’avais parlé de ce problème, qui m’en apporta la solution. Il imagina un système de construction de spectres sonores à partir de trois fréquences de base auquel j’ai ensuite donné le nom de Synthèse 3F. En voici, de façon assez résumée, le principe. On choisit trois fréquences (f, g et h) à partir desquelles on va ensuite effectuées une grande série d’opérations (additions et soustractions) telles que :

1 : f g h

2 : 2f (2+g f-g) (f+h) (f-h) (2g) (g+h) (g-h) 2h

3: 3f (2f+g) (2f-g) (2f+h) (2f-h) (f+2g) (f+g+h) (f+g-h) (f+2h) (f-2h)

(f-g+h) (f-g-h) 3g (2g+h) (2g-h) (g+2h) (g-2h) 3h

La somme de toutes ces opérations donne un spectre d’une extrême densité pouvant comporter plus de 100 partiels. Une telle situation pose un problème de base pour la perception : plus la densité spectrale est élevée et moins ces spectres pourront se différencier les uns des autres. Le criblage massif de l’espace des fréquences est un peu à l’image des clusters que l’on n’arrive pas à regrouper en familles distinctes. Pour résoudre ce problème, Miller Puckette a proposé de choisir, suivant des critères précis, des sous-ensembles de ces fréquences en limitant ainsi leurs nombres dans les spectres. Si l’on fixe à l’avance le nombre de fréquences dans les spectres à une valeur fixe, disons 16, on applique alors un crible qui accepte ou rejette chacune des fréquences obtenues suivant une probabilité donnée. Lorsque l’indice de probabilité sera égal à 1, nous obtiendrons les 16 premières fréquences (les plus graves) et plus cet indice ira en diminuant, plus on ira chercher les fréquences dans des régions éloignées (en progressant vers l’aigu) jusqu’à ce que l’on obtienne les 16 fréquences désirées. Ce choix aléatoire est responsable de l’irrégularité avec lesquelles ces fréquences seront distribuées dans le spectre. Si la probabilité est au moins égale à 0.25, il y aura de fortes chances pour qu’un des voisins (f+g), (f+h), (g+h), (2f+g+h), (f+2g+h), (f+g+2h) soit présents ce qui donnera une différence fréquentielle soit de f, soit de g, soit de h, et par là, une prédominance d’une de ces trois fréquences sur les autres. Ainsi, lorsque nous aurons un indice de probabilité faible, chaque nouvelle opération donnera un spectre grandement différent à partir du même groupe de trois fréquences de base.

Mais ce qui est le plus remarquable dans ce contexte, c’est que tous ces spectres, aussi différents qu’ils peuvent être dans la répartition de leurs fréquences internes, seront toujours perçus comme appartenant à la même famille (Pour donner une analogie concrète et assez simple, je prendrai l’exemple d’un accord harmonique classé qui peut se comporter suivant des écarts d’intervalles très grands mais qui conserve toujours sa couleur et sa fonction propre. L’accord de dominante sur sol peut s’écrire : (sol-si-ré-fa), (si-ré-fa-sol), (ré-fa sol-si), (fa-sol-si-ré)… (sol-ré-fa-si), (sol-fa-si-ré), (sol-si-fa-ré)… (si-ré-sol-fa), (si-fa-ré-sol), (si-sol-ré-fa)… les registres sur lesquels chacune de ces notes sera jouée pouvant être différent à chaque fois, nous obtiendrons toujours ce que nous reconnaissons comme une accord de dominante sur sol.). Les trois fréquences de base seront toujours présente dans ces spectres et en constitueront, en quelque sorte, la « matrice harmonique ». Il est évident que, sauf dans le cas où ces fréquences sont accordées à l’unisson, les spectres ainsi obtenus engendrent des configurations hautement inharmoniques, la densité de l’inharmonicité étant consécutive à la complexité des rapports harmoniques qu’entretiennent ces trois fréquences entre elles.

Gilbert Nouno a adapté cet algorithme afin qu’il soit utilisable dans le contexte du quatuor à cordes. Chacune de ces trois fréquences sera donc choisie dans le jeu des instruments, une matrice de connexion indiquant, section par section, lesquels, parmi ces quatre musiciens, auront en charge la création de ces spectres. A chaque détection d’une nouvelle note dans le jeu instrumental, un nouveau spectre se créé. Ce qui ressort de cette partition virtuelle est ce que l’on pourrait appeler une « inharmonisation » de la partie instrumentale. On peut avancer que cette dernière représente un sous-ensemble de ce que produit la partie électronique car il est en effet possible de reconnaître toute la partie instrumentale dans la partie de synthèse. En d’autres termes, tout ce qui est joué par les instruments est présent dans la musique de synthèse, cette dernière augmentant le discours musical par la production de spectres dont les caractéristiques (in)harmoniques dépendent des relations intervalliques qui se créent au moment même où les musiciens jouent la partition.

Voici un premier exemple dans lequel trois instruments jouent sur des notes répétées, chacune des attaques, détectée par le programme, provoquant la création d’un nouveau spectre inharmonique. Comme on sait qu’à partir d’une même collection de 3 fréquences, on peut obtenir des complexes de synthèse sonore très variés, il s’en suit une grande variété spectrale appartenant à une même famille inharmonique. Le graphique, indiqué en haut à gauche, indique quels instruments sont connectés avec chacun de ces trois paramètres nécessaires à la production de ce type de synthèse (f1, f2 et f3).

Voici un autre exemple, plus mobile, dans lequel, une musique de pizzicati provoque l’émergence d’une partition 3F, dont les valeurs de durées sont très réduites afin de se trouver en cohérence sonore avec les pizzicati instrumentaux :

Il me faut aborder maintenant un autre principe qui a été mis en œuvre à partir de ce modèle de synthèse : sa réactivité au jeu instrumental. C’est ici qu’intervient un élément qui me semble très important pour établir une connexion « organique » avec le monde instrumental, je veux parler du rôle des descripteurs audio. Il est tout à fait souhaitable que, dans le monde du temps réel, on puisse établir un contrôle de la réactivité avec laquelle un mode de synthèse va intervenir à partir du jeu instrumental. Les descripteurs audio fournissent différents types d’analyse en temps réel des comportements sonores produits par les instruments : leurs hauteur, leurs centres de gravité spectrale, leurs brillances, leurs durées, etc. Dans Tensio, j’ai limité mon choix à l’analyse de la durée des sons instrumentaux qui agit comme un critère sélectif qui décidera si le modèle 3F produira, ou non un spectre nouveau. Le modèle intervient alors que sous certaines conditions et restera muet si ces conditions ne sont pas remplies. Comme on le voit dans la partition ci-dessous, les instruments alternent entre des notes répétées de durées moyennes et des groupes de notes devant être jouées dans une très grande vitesse. En fixant un seuil de durée très bref, j’ai choisi ici que le modèle agisse uniquement dans le cas où les notes jouées excèdent cette durée. Le modèle alors attend que cette durée soit atteinte pour effectuer le calcul nécessaire à la composition des spectres. La musique de synthèse produit alors une couche assez stable et régulière et « ignore » toute les petites figures intermédiaires entre les notes tenues :

L’exemple suivant reproduit la situation précédent mais en négatif : le modèle 3F reste « sourd » aux notes tenues et n’intervient que lors des petites notes très rapides. La musique de synthèse accompagne alors les mouvements vifs et instables des instruments :

Le rôle des descripteurs audio est, à mon sens, promu à un brillant avenir et c’est eux lui que devraient que devrait se concentrer une partie des recherches musicales aujourd’hui. Dans leurs états actuels, ils ne sont pas encore tout à fait adaptés aux besoins compositionnels, si ce n’est dans l’analyse précise de composants de base tels que la hauteur et la durée. Mais il semble qu’il y ait un grand intérêt à développer leur usage dans des domaines plus complexes tels que leurs caractéristiques spectrales.

6) Les échelles dérivées de la structure spectrale.

La synthèse 3F produit des divisions de l’espace des hauteurs tout à fait irrégulières et variables. Irrégulières dans le sens ou les intervalles de séparations entre les différents partiels des spectres peuvent être parfois extrêmes et ne produisent pas des écarts identiques. Variables car chaque nouvelle note jouée par un instrument provoque, si aucun critère sélectif n’est appliqué, un nouveau calcul de spectre dont les raies fréquentielles ne correspondront que dans des cas très rares avec le précédent. Cette grande richesse et cette grande complexité de comportements m’ont incité à chercher à trouver des conséquences musicales qui dépassent la simple construction de spectres inharmoniques. J’ai alors de nouveau utilisé une méthode que j’avais expérimentée, voilà plus de 25 ans, dans Zeitlauf, ma toute première composition électronique composée en 1980. Le principe en était le suivant : il s’agissait de créer des divisions de l’espace sonore des hauteurs (des striages en quelque sortes) dont la construction serait une « homothétie » de la structure interne de spectres inharmoniques. Pour donner un exemple simple, imaginons un spectre harmonique, composé d’une superposition d’intervalles tels que l’octave, la quinte, la quarte, les tierces majeure et mineures, le ton, le demi-ton, etc. On utilise alors cette structure d’intervalle pour créer une échelle sonore sur laquelle se transposera le spectre harmonique. Maintenant, si l’on change la constitution interne du spectre, on modifie du même coup l’échelle et donc l’ensemble des positions sur lesquelles ce spectre va se produire. Ainsi un spectre dont les raies fréquentielles seraient tassées dans une petit ambitus (tel une sorte de petit cluster) évoluera dans un espace très concentré, tandis qu’un spectre composé de grands intervalles évoluera dans un espace au contraire beaucoup plus large. J’ai reproduit ce schéma dans Tensio avec la composition d’échelles sonores dont les pas sont dérivés directement des évolutions successives des spectres calculés avec la méthode 3F. C’est sous la forme d’un continuum de pizzicati, joué par le programme Synful, que ces échelles vont se produire. Ces pizzicati vont se promener sur les différents pas de ces échelles, échelles qui, il faut le rappeler, seront en constante évolution à chaque nouveau calcul d’un spectre. L’ensemble de ces mouvements mélodiques sera organisé suivant un schéma basé sur des chaines de Markov, que Miller Puckette avait mis au point voici plusieurs années. Il s’agit de calculer les probabilités de succession entre différents pas d’un échelle donnée suivant certains paramètres comme les mouvements conjoint ou disjoints, l’ambitus général à l’intérieur duquel les mouvements mélodiques vont se déployer, le tempo, la régularité ou l’irrégularité rythmique, etc. Pour cela il faut tout d’abord définir une échelle abstraite avec des poids successifs indiquant les probabilités d’apparition de chacun de ses pas, puis faire la correspondre avec les fréquences obtenues par les calculs des spectres 3F.

Voici un premier exemple de ce principe. Ici les quatre instruments du quatuor partent d’un unisson, puis par glissandi successifs, aboutissent à un cluster avant de revenir, toujours par glissandi, à l’unisson initial sur la note « mi ». Lors des unissons sur ce mi, il s’ensuit que les 3 fréquences génératrices des spectres seront les mêmes et produiront donc des spectres tout à fait harmoniques ayant comme fréquences fondamentales la note mi. Les échelles dérivées de ces spectres reproduiront alors les fréquences harmoniques (mi à l’octave, si, mi, sol#, si, do#, ré…), qui seront jouées par le continuum des pizzicati. Lors des glissandi et de leurs aboutissements sur ce cluster, ces échelles deviendront de plus en plus complexes car les rapports d’intervalles entre les notes jouées par quatuor provoqueront une grande inharmonicité spectrale, puis, progressivement, nous entendrons ces pizzicati revenir à l’échelle harmonique initiale au fur et à mesure que les instruments se rejoindront sur l’unisson :

Dans l’exemple suivant, la stabilité des fréquences jouées par le quatuor produit une échelle qui se développe indépendamment après que les musiciens aient cessés de jouer :

Le même procédé se reproduit ici mais, les hauteurs sur lesquelles se stabilisent les instruments étant différentes, il s’en suit des échelles dérivées également différentes :

Pour résumer ce procédé voici les différentes étapes de construction de ces échelles :

a- Les instruments produisent des rencontres de hauteurs qui forment des intervalles

b- Ces hauteurs sont utilisées par groupes de 3, chacune étant extraites de l’analyse fréquentielle dans les trois instruments choisis dans le quatuor (chaque instrument contrôlant soit f1, soit f2, soit f3) et envoyés comme paramètres pour le calcul de spectres sonores.

c- Le moteur de synthèse 3F calcul les spectres sonores suivant les relations d’intervalles entre ces trois fréquences de base

d- Un engendrement d’échelles dérivées est obtenu par homothétie avec la structure interne des raies spectrales des sons produits par la synthèse 3F. Ces échelles évoluent suivant des procédés markoviens et sont produits par des sons pizzicati obtenus par le système de synthèse Synful.

Le graphique suivant aidera à comprendre le processus :

Il y a donc une série de déductions successives entre le jeu instrumental et l’engendrement des échelles sonores, la synthèse 3F se comportant comme le principe intermédiaire entre l’un et l’autre. Dans l’exemple suivant, j’ai éliminé l’étape intermédiaire, non dans son fonctionnement, car la synthèse 3F est un maillon indispensable pour l’engendrement scalaire, mais dans la perception. Le quatuor joue une musique en pizzicati auquel répond les pizzicati de Synful. On entend alors des échelles dérivées de ce que joue le quatuor (et effectivement, les pizzicati joués s’entendent dans les échelles markoviennes produites) mais les sons de synthèse 3F ont disparus. C’est un procédé de composition que j’ai déjà utilisé dans Pluton pour piano et électronique qui consiste à donner à entendre l’action d’un processus sur un autre, mais pas le processus lui-même.

2) Les corrélations harmoniques des toupies sonores.

Les toupies sonores sont un procédé que j’ai utilisé depuis mon opéra K… qui permet de simuler la rotation d’un son sur lui-même. Ce procédé est inspiré du fameux « leslie » » que l’on trouve sur les orgues Hammond sous la forme de deux haut-parleurs coniques actionné par un moteur les faisant tourner circulairement :

C’est Serge Lemouton qui a adapté cet effet dans le programme MaxMsp. Lorsque j’ai utilisé ce système, je l’ai toujours attaché aux harmonizers, ce qui fait que les sons tournent plus ou moins vite où lentement tandis qu’ils sont transposés dans le grave ou dans l’aigu. Je l’ai repris, de façon interactive dans Partita I en donnant le contrôle de ces transpositions et de ces rotations au soliste : lors d’un son en crescendo, on mesure la durée du son ainsi que son énergie finale, et on en déduit l’intervalle de transposition, la durée de son accélération ou de son ralentissement, ainsi que la vitesse qu’il devra atteindre à la fin de cette évolution. J’ai repris ce procédé dans une section de Tensio. Ici on voit les quatre instruments produire des petites poussées d’archet (dont chacune sera analysée en durée et en amplitude) qui provoquent ces brusques transpositions vers l’aigu.

Les durées de ces transpositions ainsi que les évolutions des vitesses respectives des 4 toupies ne sont bien sûr pas connues à l’avance et dépendent uniquement de l’interprétation.

J’ai voulu trouver un procédé plus déterministe pour contrôler ces évolutions des toupies, et j’ai opté pour un système de corrélation entre les transpositions et les vitesses. Il consiste en ceci. Il y a tout d’abord une « toupie-maitresse » qui tourne à une vitesse qui est décidée à l’avance, puis les quatre autres toupies vont s’écarter de cette toupie-maitresses soit, comme précédemment suivant des critères liés à l’analyse des sons instrumentaux, soit de façon plus déterministe. Mais, à chaque mouvement de transposition, l’écart d’intervalle entre la toupie-maitresse et les autres toupies sera mesuré de façon harmonique. Ainsi une toupie sonnant l’une à l’octave de la toupie-maitresse tournera deux fois plus vite, si elle sonne au demi-ton inférieur, elle tournera 1,0594631 fois plus lentement, etc… Le problème, dans ce système, est que les sons vont toujours tourner plus vite au fur et à mesure qu’ils seront transposés vers l’aigu. Pour contrebalancer cette situation j’ai imaginé plusieurs solutions :

a) Un régime absolu lorsque les transpositions seront décorrélées des vitesses. Vitesses et transposition seront contrôlées indépendamment les unes des autres.

b) Un régime relatif lorsque les vitesses seront calculées suivant le rapport harmonique avec la toupie-maîtresse

c) Un régime relatif inversé dans lequel on échange les signes : une transposition vers l’aigu correspondra à une vitesse plus lente, mais tout en respectant la valeur de l’indice harmonique.

d) Un régime modulo qui permet que toutes les toupies qui sonnent à l’octave de la toupie-maitresse tourneront à la même vitesse et seront totalement synchronisées à elle. Dans ce cas, 4 toupies tournant rigoureusement à la même vitesse synchronisées se fondent totalement les unes dans les autres. On n’en entend plus qu’une seule. Les vitesses alors augmentent lorsqu’on progresse vers l’aigu jusqu’à la quarte augmentée (c’est-à-dire la moitié de l’octave) puis ralentissent jusqu’à se synchroniser à la vitesse-maitresse lorsqu’elles atteignent l’octave supérieure.

e) Un régime modulo inversé qui effectue le même parcours mais en ralentissant d’abord jusqu’à la quarte augmentée, puis accélérant à nouveau en allant vers l’octave.

Dans l’exemple suivant les sons électroniques restent assez stables, mais les changements des rotations respectives de chacune d’entre elles dépendent de la modification de ces régimes :

La toute fin de l’œuvre montre une progression lente de toutes les toupies vers l’extrême aigu ce qui les pousse à des vitesses de rotations elles aussi extrêmes, ici 72 fois par secondes. Cette valeur est calculée suivant l’écart d’intervalle qui les sépare de la note la plus grave :

Un autre exemple d’écarts extrêmes de vitesse est donné dans l’extrait suivant dans lequel certaines toupies tournent à moins de 2 rotations par secondes, tandis qu’une autre atteint la vitesse de 141 rotations dans le même temps. Il est évident que de telles vitesses ne sont plus perçues comme des rotations mais se métamorphosent en modulation car de nombreuses nouvelles fréquences se créent par la périodicité de ces rotations :

Enfin, pour terminer sur ce chapitre, voici un « fondu » des 4 toupies en une seule : au fur et à mesure qu’elles s’approchent du « la 440 » qui est la fréquence de la toupie-maîtresse, les 4 toupies se rapprochent de sa vitesse, comme par attraction, et disparaissent à l’intérieur :

3) Sur les temps hétérogènes et leur notation.

La nature des temps musicaux, leur superposition et leur coordination, ont été une des mes sources de préoccupation principale au cours de la composition de cette œuvre. Ces temps obéissent à des lois qui leur sont propres et autonomes, mais cependant doivent se coordonner entre eux, ne serait-ce que d’une manière floue. Les différentes catégories de temps, en musique, sont grandement une affaire de représentation et de notation et ce sont précisément ces modes de représentations diverses qui les définissent. L’absence de notation temporelle a été, pendant très longtemps, un des freins majeurs à la stagnation de la composition avec les outils du temps réel. Ce n’est qu’assez récemment que la situation a pu enfin sortir de ce marasme, contre lequel je n’ai jamais cessé de pester. On doit à Arshia Cont la primauté de ces recherches et la découverte des solutions qui rapprochent, de façon très sensible, le monde instrumental du monde électronique. Son programme Antescofo, surtout connu pour ses capacités de suivi de partitions, offre d’autres avantages que je me suis efforcé de mettre tout de suite en pratique. Avant d’aborder quelques exemples, j’aimerais rappeler qu’avant la création d’Antescofo, il n’y avait pas d’autres solutions pour noter les valeurs temporelles que de les exprimer en millisecondes. Cette solution, si elle l’avantage de l’extrême précision, se révèle tout à fait inadaptée aux besoins de la polyphonie musicale. En effet les mécanismes de synchronisation musicale n’appartiennent pas du tout au monde de l’exactitude mais sont constamment soumis à une logique toute relative et symbolique. L’écriture même des valeurs temporelles (noires, croches, doubles-croches…) en est l’exemple le plus évident. Ces symboles n’expriment que des relations, mais en aucun cas des valeurs absolues. Ils prennent une valeur absolue lors qu’une indication de tempo est donnée et sont, par ailleurs, soumis à de constantes fluctuations. Cette absence de critère commun entre la notation traditionnelle pour les instruments, et celle qu’on utilisait pour la musique électronique a toujours été un obstacle (pas uniquement théorique mais bien perceptuel) à la fusion de ces deux mondes. Ce mur a été désormais franchis et nous allons voir que, non seulement il met en contact deux univers temporels qui ne faisaient que coexister entre eux, mais qu’il permet également superposition de temps hétérogènes, en d’autres termes : la polyphonie.

a) De la notation polyphonique dans la musique électronique.

Examinons la situation. La partition électronique est soumise au suivi de partition et ne se déploie dans le temps que sous certaines conditions, par exemple lorsqu’un événement attendu est joué par un instrument. Dans l’exemple suivant, on voit une ligne de violon déclenchant trois sons successifs en crescendo.

Les instants d’occurrence de ces trois sons ne sont pas connus à l’avance, puisqu’ils dépendent du moment où le violoniste jouera les notes qui doivent les déclencher. Par contre les durées de ces sons sont prédéterminées et scrupuleusement notées dans le programme. Maintenant, ajoutons une autre voix, une succession de pizzicati répétés après un petit retard :

Un système traditionnel de « computer music notation » aurait résolu le problème de la manière suivante :

Evt 1 0.5 « do# »

0.7 « do# »

0.9 « do# »

1.1 « do# »

1.3 « do# »

1.5 « do# »

1.7 « do# »

Si tant est que la valeur de la noire soit égale 60, c’est-à-dire une seconde, on peut facilement arriver à noter un événement comme celui-là. Mais, on l’a vu dans l’exemple suivant, la valeur de la noire correspond à 72. Après un certain nombre de calculs, on peut penser que la chose reste toujours faisable sans trop d’efforts. Maintenant ajoutons encore une voix : une série d’accords et de glissandi superposés :

Voila qu’il nous faut calculer maintenant deux temporalités qui se chevauchent : celle des pizzicati et celle des accords. Comment exprimer les débuts de chacun de ces accords dont la métrique ne correspond pas à celle des pizzicati en quintolet ? Ici nous serions en face d’une impossibilité si aucune structure de polyphonie temporelle n’existait dans les systèmes de notations, tel que c’était le cas autrefois. En d’autres termes, lorsque le système ne propose qu’un temps homogène et absolu, il faut pouvoir calculer la différence de temps entre tous les événements appartenant à deux couches, qui elles, ne sont pas toujours exprimées dans une même temporalité. Si tout est humainement possible, voilà ici un cas qui rebuterait toute tentatives de noter une polyphonie avec les moyens de la synthèse. La manière dont Arshia Cont a résolu le problème est la suivante. Il a créé une unité appelée Groupe Forward (GFWD) dont une instance va gérer la voix en pizzicati :

tandis que une autre instance va gérer celle des accords :

Il faut noter que deux formes d’écriture temporelles sont ici utilisées. La section « pizzicati » est exprimée en valeur absolues (chaque note intervenant 0.18’’ après la précédente), tandis que la section « arco tremolo » est notée en valeurs relatives (la formule « @b2 » indiquant que l’événement durera deux temps, la valeur de ces temps (le tempo) étant indiquée ailleurs dans la partition). On peut ainsi ajouter un grand nombre de couches de temps hétérogènes dont chacun aura son propre mode de fonctionnement interne, le programme Antescofo assurera la gestion temporelle de la superposition de toutes ces couches. Comme on le voit, il ne s’agit pas seulement d’une facilité d’écriture qui est fournie ici, mais d’une ouverture à la polyphonie dont l’accès nous était barré par l’indigence des modes de représentation en usage jusqu’alors. Si l’idée que la conception dépend grandement de sa représentation, et donc de l’écriture, devait être encore sujette à caution dans certains esprits, cet exemple permettrait, je l’espère, de faire tomber quelques préjugés.

b) Le suivi de tempo.

La variabilité du tempo est une chose qui est connue depuis longtemps, et les écarts conceptuels (et pas seulement conceptuels) entre une musique mobile et organique dans le traitement de son temps, et une autre figée dans une temporalité rigide a toujours été, pour moi, la principale pierre d’achoppement dans la confrontation de la musique instrumentale et électronique. Les premières œuvres sur bande magnétique étaient le cas le plus extrême de cet écart, mais il faut être juste : le temps réel n’a guère fait avancer les choses dans ce domaine avant une époque récente. Dans bien des cas, les musiques en temps réel n’étaient en fait que des musiques sur bande qui auraient été coupées en petits morceaux aussi rigides les uns que les autres. Le seul point de communication temporel était le début de ces petits morceaux qui pouvaient être soumis à un temps non chronométrique, mais leur devenir n’existait pas. Une autre avancée, toujours liée au programme Antescofo, consiste en un suivi de tempo qui permet de faire s’enchaîner des événements instrumentaux et électroniques dans une parfaite continuité temporelle. J’ai utilisé ce procédé à plusieurs reprises dans Tensio. Voici un premier exemple :

Dans la séquence qui suit, le violon joue un accord tremolo (sans tempo) puis une petite figure en pizzicati en septolets. A cette figure doit répondre un groupe de septolets dans la partie électronique qui doit se trouver en parfaite continuité de tempo avec ce que vient de jouer le violon. C’est par l’intermédiaire du suivi de partitions que va se passer cet échange rythmique. Les pizzicati joués par le violon vont être analysés et sachant qu’il s’agit de septolets de triples croches, la valeur de la noire va être déterminée, et par là même, celle du tempo. Il faut donc ensuite appliquer cette valeur de tempo aux pizzicati joués par la musique électronique :

L’exemple suivant montre un échange de questions/réponses entre le quatuor et l’électronique (qui produit aussi des sons pizzicati) dont le tempo est constamment adapté, c’est-à-dire que la valeur des croches des triolets et analysée pendant toute la séquence et module en quelque sorte la vitesse des notes jouées par les « pizzicati électroniques » :

Ces tempi peuvent être soumis à une grande variabilité et c’est ce que nous allons voir dans le chapitre suivant, consacré à la superposition de temps hétérogènes dans la composition.

c) Les temps hétérogènes.

Dans la deuxième section de l’œuvre, j’ai mis au point des structures temporelles qui réagissent les unes aux autres dans un temps fluide et souple. Parfois les instruments donnent le tempo à l’électronique, parfois c’est l’inverse qui se produit, parfois deux tempi sont utilisés, parfois il se produit des événements sans tempo d’aucune sorte. Un coup d’œil sur la partition suivante nous montre la situation. L’événement 9, joué au violon 1 indique un ralenti dont la valeur d’arrivée est envoyée à une voix de synthèse notée comme le « TEMPO B » : il s’agit de la répétition d’une simple note qui aura valeur de métronome pour les instruments. Le « TEMPO A » lui est donné par une autre voix de synthèse jouant une note répétée dans un rythme irrégulier de quintolet. Ces deux tempi sont totalement indépendants les uns des autres et l’alto et le violoncelle joueront une séquence en suivant le métronome (tempo A) tandis que le second violon suivra le tempo B. Ces deux groupes sont libres de commencer quand ils le veulent :

Un peu plus loin dans la partition, nous voyons une première évolution. Les deux violons jouent une succession de doubles croches en septolets dont la valeur de tempo est envoyée à la voix électronique en notes répétées (tempo C) qui va alors modifier le tempo qu’elle avait précédemment (tempo A). Le quintolet est remplacé par un septolet dont la valeur de tempo est prise dans la partie du premier violon. Le second groupe (alto et violoncelle) joue alors une deuxième séquence, mais toujours en se référant au tempo du métronome (B) qui, lui, n’a pas changé :

Vient ensuite une autre séquence. Les deux violons suivent le tempo C (celui du septolet installé précédemment) puis, à l’événement 15, tout le quatuor joue une progression en pizzicati qui va subir un accelerando. La valeur finale de cette accélération deviendra la nouvelle valeur du « métronome » (tempo D).

Dans la séquence qui suit, nous voyons à nouveau le groupe alto/violoncelle se synchroniser sur le tempo C (en septolets) tandis que les deux violons jouent une nouvelle séquence sur le nouveau tempo D :

Nous voyons ensuite un autre cas de figure à l’événement 17. Un nouveau tempo (Tempo E) est fixé arbitrairement dans la partie électronique dans une figure articulée par 9:8, qui sert d’étalon pour la séquence jouée cette fois par les quatre instruments :

Enfin, dans ce dernier exemple, on voit à l’événement 20 un nouvel accelerando qui va modifier une nouvelle fois le « métronome » sur lequel tous le quatuor va se synchroniser pour jouer cette séquence en triolets dans un tempo très vif :

De telles modulations de tempi n’auraient pas été possibles sans le travail décisif qu’a fournit Arshia Cont dans la représentation temporelle de la musique électronique. Cette fois, un pas supplémentaire a été franchi : celui d’une continuité temporelle entre le monde instrumental et celui de la synthèse d’une part, et de la possibilité de superposer des temps hétérogènes sous une forme tout à fait « lisible » par une machine. Cela permet de une transmission du « pouvoir », alternativement du musicien à l’ordinateur, chacun pouvant être à différents instants, « à l’écoute » l’un de l’autre.

c) « Paysages temporels ».

Dans son livre « Penser la musique aujourd’hui » Pierre Boulez avait définit trois catégories principales de temps en musique, et l’on peut raisonnablement admettre qu’il avait, à l’époque, cerné la situation de manière assez complète. Pour mémoire, les voici :

1) Le temps lisse est celui qui n’est pas perçu comme étant divisé ou subdivisé en valeurs régulières ou irrégulières.

2) Le temps pulsé est celui qui est divisé en unités égales (le tempo)

3) Le temps strié est divisé en unités inégales (absence de tempo mais pas de divisions)

On peut encore affiner ces catégories en proposant des « multi-pulsations » temporelles, provenant de la perception polyphonique, des « multi-striages », voire « hyper-striages ». L’exemple célèbre suivant montre un temps simplement pulsé :

Le suivant, tout aussi célèbre, comporte de multi-pulsations :

Nous avons d’abord les pulsations régulières des doubles-croches, puis ensuite une pulsation sous-entendue à chaque blanche qui exprime la répétition de la même formule, ensuite vient une autre pulsation plus large qui correspondrait à 4 temps, intervalle qui exprime les changements d’harmonies à chaque mesure. On peut élargir ces proportions aux modulations par groupes égaux de mesures, etc.

Celui-ci, par contre, est strié. Il est divisé en unités, elles-mêmes subdivisées en parties variables et il est impossible de déceler une pulsation :

On peut, bien sûr accumuler les striages autant que l’on veut, afin de parvenir à un hyper-striages, procédé entrevu par Stockhausen dans ses premières pièces pour piano et que Brian Ferneyhough a poussé jusqu’à ses limites :

A chaque fois, c’est une division égale qui s’opère, quelque soit ses multiples superpositions (5 : 4 dans un 3 : 2 dans 7 : 8, etc.). Lorsque le temps n’est pas organisé dans une division quelconque, il est lisse en ce sens qu’il est impossible de lui accorder une vitesse de déroulement, ni même un tempo. Il n’y a pas de comptage interne, de la part de l’interprète, ni de multiplications ou de divisions de valeurs temporelles. La musique se déroule dans une absence totale de repères temporels.

Il faut mentionner que ces catégories peuvent rapidement devenir tout à fait théoriques et se confondre dans la perception. On peut écouter de la même manière un hyper-striage et un temps lisse. Rien n’empêche de noter l’exemple précédent par des moyens d’écritures très complexes, cela ne changera rien à sa perception par l’auditeur.

J’ai apporté un soin particulier à cette dernière catégorie temporelle dans Tensio, et tout particulièrement dans la troisième et quatrième section de l’œuvre. Le but était surtout d’offrir à l’auditeur des zones de détente et de liberté, qui me paraissaient indispensables en regard de la densité des sections à venir. Je leur ai donné le nom de « paysages temporels » car ils invoquent surtout une non-directivité dans la manière dont l’auditeur les perçoit, comme si l’on promenait son regard librement sur un paysage. Dans ces moments, il n’y a aucune direction globale du discours, aucune rupture, aucune synchronisation entre les différentes couches musicales qui se superposent. Je me suis souvenu d’une célèbre étude qu’avait écrite le critique de cinéma André Bazin à propos du rôle de la profondeur de champs chez Orson Welles. Il disait, en substance, que ce procédé technique laisse le spectateur libre de son choix dans le parcours visuel qu’il fait de l’image. Lorsqu’on voit deux personnages converser l’on peut tour à tour passer de l’un à l’autre, tandis que le gros plan impose une vision qui peut être celle de celui qui parle, comme celle de celui qui écoute. Un procédé comparable a été utilisé dans la troisième section de Tensio. Il s’agit d’une superposition de plans constitués de parties solistes et de couches de musiques électroniques. On peut multiplier les plans en grand nombre et offrir ainsi à celui qui perçoit une plus grande polyphonie de situations, donc un plus grand choix de parcours. Ces parcours ne sont pas dirigés, mais relèvent d’une forme de contemplation qui neutralise toute prédiction. Le tout baigne dans une atmosphère d’harmoniques de cordes, avec figures et des glissandi divers. Chaque instrument est en face d’une petite forme ouverte pouvant commencer et se terminer en plusieurs endroits.

Les durées de ces paysages sont laissées à l’appréciation des interprètes. La partie électronique consiste en une superposition de glissandi d’harmoniques sur des cordes passant à travers un système de transpositions et de retards.

4) Les grammaires génératives

Depuis la composition de « Partita I » pour alto et électronique, je mets en pratique une méthode de composition que je développe un peu plus à chaque nouvelle œuvre. J’ai donné à cette méthode le nom de « grammaire génératives ». Ce terme n’a pas de connotations très proches avec celui qu’utilise le linguiste Noam Chomsky car il ne représente pas un outil d’analyse de quelque chose d’existant (comme les langues par exemples) mais consiste à élaborer des formes temporelles à partir d’unités morphologies bien déterminées. Dans un sens, il serait plus proche de ce que l’on appelle les L-Systems, inventés par le biologiste hongrois Aristid Lindenmayer, car il sert à élaborer des séquences d’événements à partir d’une séquence de départs en utilisant certains procédés algorithmiques. Lorsque nous avons une série d’unités de départ, nous pouvons leur faire subir toute un chaine d’opérations formelles afin de la transformer et d’en engendrer de nouvelles. Parmi toutes ces opérations, on peut citer : l’ajout, le retrait, la substitution, le déplacement, la superposition, l’échange, le groupement, l’inversion, la symétrie, la densité, etc. Toutes ces opérations sont elles-mêmes subdivisées en règles plus précises. Ainsi le retrait peut être le produit de plusieurs règles de filtrage, le déplacement peut consister en différents procédés de permutation, et ainsi de suite. Ce sont, pour la plupart ce que l’on peut appeler des règles de réécriture.

Voici un engendrement de séquences dans lequel il est possible de repérer des symétries, des échanges et des groupements :

Dans la première partie de Tensio, j’ai élaboré une grammaire assez simple qui consiste à faire varier les densités motiviques, c’est-à-dire le nombre de fois ou un même motif (ou unité) apparaît dans une séquence donnée. Voici une esquisse de la toute première section de l’œuvre :

8 unités motiviques sont ici utilisées :

a) Son en crescendo

b) Trille ou batterie

c) Groupe rapide et régulier montant vers l’aigu

d) Tremolo

e) Notes répétées par groupes de 5

f) Son de cloche aiguë

g) Glissando

h) Ricochet

Voici la séquence dans sa forme achevée :

Chacune de ces unités apparaîtra en nombres inégaux dans cette section comme suit :

a = 3, b = 4, c = 2, d = 6, e = 1, f = 5, g = 8 et f = 7

Il est à noter que cette règle ne prend aucunement en compte l’ordre dans lequel ces unités apparaissent mais seulement leur densité par séquence. En faisant permuter ces densités, on obtient ainsi des « perspectives sonores » différentes, certaines apparaissant au premier plan, c’est-à-dire en plus grand nombre, d’autres plus lointaines. C’est ce qui se passe au cours de la section IC :

Voici, maintenant, la forme achevée :

Les proportions de chacune de ces séquences étant calculées suivant d’autres principes, il s’ensuit des répartitions temporelles différentes en contractions ou étirements.

Certaines de ces séquences sont reliées entre elles par des inserts de facture plus libre, ne participant pas de cette construction grammaticale, comme cela se passe dans la petite séquence en tremolo introduisant la séquence ID :

Ce procédé de grammaire générative permet d’assurer une certaine partie de la cohérence du discours musical dans l’enchaînement et les relations entre les unités motiviques en créant des permanences thématiques mais aussi des variations dans l’importance que chacune prendront séquences après séquences. Le caractère de ces séquences, leurs expressions et bien d’autres éléments, nécessaires à la composition, ne sont cependant pas inclus dans cette grammaire. Celle-ci règle l’ordonnancement temporel des événements musicaux dans la forme et pourrait se résumer dans une phrase : s’il est important de dire quelque chose, il l’est tout autant de le dire au bon moment.

  1. Je me souviens d’une discussion que j’ai eue à ce sujet avec Don Buchla, un chercheur américain, original et célèbre à juste titre pour ses multiples inventions dans le domaine des synthétiseurs de sons. Il me disait que ses machines avaient du succès surtout car elles étaient imprévisibles, ce à quoi je lui répondis que l’imprévisibilité est aux antipodes du désir des compositeurs qui recherchent des expressions précises, tout au moins suffisamment précises pour qu’elles puissent se reproduire à l’identique. Les œuvres musicales ont une identité car on les reconnaît en ce qu’elles sonnent d’une manière bien particulière que l’on ne peut confondre avec une autre.
  2. C’est d’ailleurs une des origines du titre « Tensio », que j’ai choisi pour ce quatuor.
  3. De tels effets font maintenant partie de la manière de jouer des violonistes contemporains, et des compositeurs comme Helmut Lachenmann, et dans une moindre mesure Gérard Grisey, se sont même fait une spécialité dans ce domaine. Le bruit jusqu’à la saturation est désormais accepté comme une potentialité expressive dans certaines esthétiques.

Orchestrer Debussy

Monday, February 6th, 2012

(Texte écrit à propos de mon orchestration du troisième mouvement de la Première suite d’orchestre de Claude Debussy, créée le 3 février 2012 à la Cité de la Musique à Paris par Les siècles dirigé par François-Xavier Roth)

Debussy, à la différence de Ravel, n’a guère orchestré ses propres pièces pour piano. En cela aussi, il se montrait un novateur qui ne suivait pas les « coutumes » de son époque qui voulaient que l’on adapte une œuvre pour telle ou telle circonstance. Chez lui l’idée et le son ne faisaient qu’un et tant pis si cela ne convenait pas aux règles en vigueur dans la société musicale de son temps.

La première suite d’orchestre, dont il a orchestré trois des quatre mouvements, est une œuvre du Debussy d’avant Debussy. Composée environ une dizaine d’années avant le Prélude à l’après midi d’un faune, elle montre une facture encore empreinte des formes du passé. On y sent un jeune Debussy acquérant son métier de compositeur, encore sous diverses influences. Mais on le sait, les petites œuvres de futurs grands maîtres requièrent plus de richesses que les grandes œuvres des petits maîtres. Sur ce point, Debussy ne fera pas mentir ce diction. Le troisième mouvement, intitulé Rêve, montre, par bien des égards, ce que le compositeur deviendra plus tard. On y trouve déjà, dans certaines relations d’accords, ce qui fera la marque du Debussy de la maturité, comme ces enchaînements par notes communes et mouvements chromatiques dont il se servira beaucoup dans La mer. On y décèle également ce goût des sonorités claires et limpides, comme aquatiques, dont il ne se départira pas ensuite. Mais ce Debussy là est par ailleurs encore sous l’influence de la tradition romantique, et n’a pas encore « tordu le cou à l’éloquence » comme il se plaira à le dire plus tard. Ses phrases sont longues, étirées, la forme sacrifie encore au modèle A-B-A cher aux classiques, ses élans sont encore juvéniles et n’atteignent pas encore cette tension elliptique dont il deviendra le maître absolu.

Ses références sont nombreuses. Certes, les personnalités françaises vivantes à l’époque de sa jeunesse, telles Massenet ou Saint-Saëns, ne sont-elles pas absentes du style de cette musique, mais c’est à des compositeurs de plus grande envergure desquels il se rapproche. Ce troisième mouvement, c’est évident, est d’abord une œuvre pianistique (Debussy a d’abord réalisé une version pour piano à quatre de mains de cette suite avant d’en orchestrer certains des mouvements). La tonalité de sol bémol, où l’on ne joue que sur les touches noires du piano, favorise l’aspect pentatonique du thème principal et montre clairement la filiation que Debussy a toujours entretenu avec Chopin (Etude sur les touches noires, Barcarolle). Cette tonalité est aussi adaptée au piano qu’elle est inadaptée à l’orchestre, et j’ai même été tenté de la changer à un moment. Mais par ailleurs, c’est aussi à Liszt que cette pièce fait penser. Les harmonies en quintes augmentées qui terminent ce mouvement, ainsi que les nombreuses batteries d’accords brisés dans l’aigu de l’instrument l’évoquent clairement. Cependant, s’il est un compositeur qui hante cette pièce, c’est bien Wagner. On connaît la fascination que le compositeur allemand exerçait à cette époque en France, et tout particulièrement sur le jeune Debussy. Fascination qui n’aura d’égale que le rejet violent qui s’en suivra. Il est impossible de na pas penser à Parsifal en écoutant Rêve. Le thème principal est à la fois une évocation du fameux motif du prélude de cet opéra et de celui de la bénédiction dans l’enchantement du Vendredi Saint. On y retrouve les mêmes profils montants et descendants, la même régularité rythmique, brisée à certains moments par une valeur pointée, ainsi qu’une tournure mélodique extrêmement ressemblante à celles qui composent bien des thèmes wagnériens. C’est donc sous l’apparence d’un jeune musicien encore tout imprégné de wagnérisme que semble poindre le futur auteur de Pélléas. Et c’est dans la perspective de ce double visage que j’ai choisi d’orchestrer ce mouvement.

Je ne prétendrai nullement que Debussy l’aurait orchestré de la manière dont je l’ai réalisé moi-même et je n’ai, à ce sujet, pas cherché à respecter une quelconque authenticité. La chose aurait d’ailleurs été impossible car le recul historique fait que j’en sais plus aujourd’hui sur ce compositeur qu’il ne pouvait en savoir lui-même à l’époque de la composition de cette œuvre. Ainsi, j’ai voulu montrer la filiation que ce jeune musicien entretenait avec des ainés qui l’ont finalement révélés à lui-même. Certaines parties, comme la section centrale, sont délibérément conçues dans une vision romantique et je n’ai pas souhaité leur ôter les parures qui sont celles qui les ornent dans ces circonstances, mais d’autres moments nous dévoilent un jeune artiste qui possédait déjà les germes de ce qui allait devenir son style personnel et ô combien original. Ainsi j’ai évité, lorsque le style me le permettait, de recourir à une vision trop romantique de l’orchestre, avec la prédominance continuelle des cordes, et je me suis souvenu du goût de l’auteur des Images pour orchestre, pour les sonorités des instruments solistes. Dans certains passages j’ai pris la liberté d’inventer certaines voix supplémentaires en me souvenant des techniques d’hétérophonie dont il se servira dans ses œuvres de la maturité (La mer en particulier), et j’ai fait également usage de certains procédés d’orchestration (surtout dans le traitement des cuivres avec sourdine) qui font référence au Debussy futur. Il est clair, en tout cas pour moi, que dans cette pièce, Debussy était pareil à ces animaux qui changent de peau. Cela nous rend le personnage d’autant plus attachant qu’il nous montre, si nous l’avions oublié, que l’invention artistique trouve souvent ses sources dans un rapport conséquent, et loin de tout aveuglement, avec les œuvres de l’histoire.

Kyoto, mai 2010

D’Orson Welles à Gutenberg, les opéras de Philippe Manoury par Serge Lemouton

Friday, November 11th, 2011

D’Orson Welles à Gutenberg, les opéras de Philippe Manoury

Serge Lemouton


journée d’étude «Opéra français du XXe siècle»

15 janvier 2011


à ce jour, Philippe Manoury a composé quatre opéras, qui font tous appel aux moyens électro-acoustiques caractéristiques de la fin du 20e siècle. On peut déjà les considérer non comme quatre oeuvres autonomes, mais comme un corpus, un cycle, une «tétralogie», y repérer des traits constants, caractéristiques du style du compositeur, ou révélateurs de l’état de la création lyrique de notre temps. On est d’autant plus fondé à considérer ces oeuvres comme un cycle que nombre d’oeuvres du compositeur sont inscrites dans des cycles (tel que «sonus ex machina» pour les oeuvres avec systèmes temps réel que sont Jupiter, Neptune et Pluton, ou bien encore l’ensemble des oeuvres pour instruments à corde et électronique encore en cours de réalisation, initié par Partita I).

Le point de vue adopté pour cette étude est un point de vue particulier, celui du «réalisateur en informatique musicale» puisque j’ai personnellement participé à la réalisation de trois de ces quatre oeuvres.

Par rapport à l’intitulé général de cette journée d’étude («opéra français du XXe siècle» ), on est quelque peu hors-sujet, ou tout au moins à la marge supérieure, puisque trois des opéras du corpus considéré ont été composés au XXIe siècle !

Nous parcourrons ce corpus en suivant plusieurs thématiques. Une des questions à laquelle nous tenterons de répondre est celle du pourquoi des moyens électroacoustiques et du ou (des) rôles que jouent ces moyens. Nous nous attacherons également à la question des sujets abordés dans ces opéras, des mythes modernes qui nourrissent l’imaginaire du compositeur et qui sont aussi, comme tout sujet d’opéra, des reflets des mythes de leur temps. Nous verrons également s’il existe des similitudes formelles entre ces différentes oeuvres.

La musique de Philippe Manoury fait souvent appel à la technologie, mais elle ne lui est pas pour autant consubstantielle : de nombreuses oeuvres de son répertoire (en particulier symphonique) sont purement acoustiques. La question qu’on peut se poser est : pourquoi tous ses opéras, sans exception, font ils appel à l’informatique musicale ? L’opéra contemporain appelle presque nécessairement des moyens d’expression contemporains, c’est à dire des moyens technologiques, on peut donc dire que, de ce point de vue, il semble presque naturel d’utiliser les possibilités de l’informatique musicale. Mais nous verrons en examinant les quatre opéras du corpus que ce n’est pas la seule réponse.

De nombreuses spécificités et de nombreuses contraintes sont inhérentes à la production d’un opéra, comparé à la création d’une oeuvre pour instrument soliste ou pour ensemble, par exemple. Il faut faire avec la lourdeur et la complexité d’un processus forcément coûteux et qui mobilise de nombreux acteurs, de nombreux corps de métiers, sur une durée au total assez longue (depuis l’écriture du livret jusqu’aux éventuelles reprises). Mais d’un autre côté, ce sont aussi des projets qui permettent de trouver des moyens techniques, artistiques et temporels permettant de mettre en place certains des fantasmes sonores du compositeur. L’électroacoustique peut avoir un certain coté spectaculaire, en particulier en ce qui concerne la mise en espace des sons. Pourtant, dans le cadre d’une production d’opéra, on ne peut pas prendre trop de risques, on ne peut pas trop expérimenter, autant dire que ce n’est pas forcément le lieu pour une recherche musicale, ce qui explique que l’on trouvera plus d’innovation dans l’utilisation des technologies dites temps-réel dans le cycle sonus ex machina que dans le corpus des opéras ici considéré.

Un autre aspect est celui de l’inscription de ces oeuvres dans l’économie de la création lyrique contemporaine qui a permis à des institutions de passer commande de ces oeuvres à Philippe Manoury et qui a permis à ces oeuvres d’avoir une grande diffusion publique. On peut par exemple estimer que K… a été vu par près de 20000 spectateurs à l’opéra Bastille, ce qui est remarquable dans le contexte de la musique contemporaine. La Frontière a eu une audience moins nombreuse mais a été représentée dans de nombreuses salles (Orléans, Clermont-Ferrand, Metz, Bouffes du Nord à Paris, Rome et Lausanne).

le corpus

Tout commence dès 1988 avec un projet d’opéra sur Orson Welles qui devait être créé au Théâtre du Châtelet en 1997. Ce projet n’aboutira pas en tant qu’opéra, mais quelques fragments subsistent au catalogue du compositeur, tel que le Prélude de la nuit du sortilège (1992), Prélude and Wait pour grand orchestre de cent musiciens ou Chronophonies (1994), pour mezzo-soprano, baryton et orchestre symphonique qui n’est autre qu’une suite d’orchestre comportant des extraits de l’opéra inachevé Sorwel. Inévitablement, on retrouvera des traces plus ou moins cachées de cette première incursion, infructueuse, dans le domaine lyrique dans probablement tous les autres opéras du compositeur.

Le premier véritable opéra s’intitule Soixantième Parallèle et date de 1997. En 1998, il en tirera une suite d’orchestre Douze moments pour mezzo-soprano et orchestre de cent musiciens.

En 2001, on crée à l’Opéra Bastille, K… un opéra en douze scènes, pour voix solistes, orchestre et électronique en temps réel. Dans Slova, composé en 2002 pour le choeur de chambre Accentus, Manoury réutilise d’une façon complètement acoustique des matériaux sonores dont l’origine se trouve dans les parties synthétiques de l’opéra, qui n’utilisait qu’un choeur virtuel, crées par des moyens purement informatiques.

2003 voit la création de La Frontière, un opéra de chambre en 4 tableaux, pour six chanteurs, 9 musiciens et système électronique temps-réel.

Après ce troisième opéra, je vais collaborer avec Philippe Manoury sur deux projets incluant des moyens vocaux, orchestraux et scéniques mais qui ne sont pas à proprement des opéras. Il s’agit de Noon (2003) sur des poèmes d’Emily Dickinson, pour soprano solo, choeur mixte, station temps-réel et grand orchestre et d’OnIron (2006) sur des fragments d’Héraclite pour voix solistes, choeur mixte, percussion, électronique et vidéo. avec une mise en scène d’Yannis Kokkos. Ces deux oeuvres ne font pas partie du corpus ici considéré mais il faut les citer car leur parties électroacoustiques sont liées (techniquement) intimement à celles des opéras.

Le quatrième opéra dont nous allons parler s’intitule La nuit de Gutenberg, et bien qu’il ait été composé en 2010, il n’a pas encore été créé, il le sera à l’Opéra National du Rhin en septembre 2011.

Soixantième Parallèle

Le premier opéra achevé de Philippe Manoury a été composé entre 1995 et 1996. Il résulte d’une commande conjointe du Théâtre du Châtelet et de l’Ircam (avec le soutien de la Fondation Beaumarchais, de M. Paul Sacher et de l’Orchestre de Paris). Le livret est de Michel Deutsch. Il a été créé le 10 mars 1997, au Théâtre du Châtelet, avec une mise en scène et des décors de Pierre Strosser, sous la direction de David Robertson, avec les chanteurs Donald Maxwell, Jean-Philippe Courtis, Hedwig Fassbender, Rie Hamada, Ian Thompson, Jean-Marc Salzmann, Marie-Thérèse Keller, Menai Davies, Paul Gay, Magdalena Wiedenhofer. La partie électroacoustique en a été réalisée dans les studios de l’Ircam par le compositeur assisté du réalisateur en informatique musicale Leslie Stuck

Le prologue du Soixantième Parallèle (que l’on peut écouter sur un CD Naxos) consiste en une musique électronique qui utilise des sons concrets (en l’occurrence les bruits des panneaux d’affichage d’un aéroport, lieu unique dans lequel se déroule l’intrigue) musicalisés et spatialisés. On trouve dans les oeuvres de Manoury, depuis En Echo (1993/1994), des sons concrets qu’il intègre à son discours musical électronique, non pas comme de simples objets sonores reconnaissable et référentiels, mais plus comme des éléments avec lesquels il peut véritablement composer, en les transformant grâce aux techniques de l’informatique musicale. Le prologue électronique de cet opéra est, d’un point de vue sonore, très proche de celui de l’opéra suivant (K…).

Le prélude qui suit ce prologue est un “recyclage”, réemploi de La Nuit du sortilège, qui n’est autre que Prelude and wait. On verra que la fonction musicale et formelle du prélude dans tous les opéras de Manoury est très particulière : souvent l’opéra est un développement, une réécriture du prélude qui est donc lui-même une sorte de résumé de l’opéra.

Au sujet de Prélude de la nuit du sortilège pour orchestre, créé lors du festival Présence 1992 par l’Orchestre National de France sous la direction de David Robertson, Manoury écrit :

Il s’agit d’un “flash-back” en accéléré, procédé analogue à celui qui consisterait à rembobiner rapidement un film ou un CD dans lequel on reconnaît fugitivement certains aspects de l’œuvre. Les matériaux proviennent de ceux symbolisant la vieillesse, puis en remontant le temps, aboutissent à ceux qui représentent l’enfance. La suite de l’œuvre effectue le trajet en sens inverse dans lequel les éléments de ce prélude réapparaissent sous formes de transitions qui seront absentes de l’opéra.

fonctions de l’électro-acoustique

La raison principale qui explique que tous ces opéras font appel à l’électro-acoustique, c’est, tout d’abord, que pour ce compositeur, il s’agit d’un mode d’expression “naturel”, exactement au même titre que l’écriture instrumentale ou orchestrale. Cette aisance avec ce mode d’expression, assez rare parmi les compositeurs de sa génération est le produit d’une longue expérience puisque son premier contact avec l’informatique musicale date de 1975 (avec Pierre Barbaud) et que sa première oeuvre avec moyens électroniques date de 1982 (Zeitlauf).

“L’informatique musicale est pour moi un mode d’expression comme un autre, comme l’orchestre, pas plus chargé, ni moins. Il se trouve que je travaille avec la musique électronique depuis 15 ans; ici elle fait partie de l’ensemble, même si elle n’est pas présente dans la continuité. Elle prend en charge l’utilisation musicale de sons concrets (bruits d’avion, de panneaux d’affichage …) afin de rejoindre les sons de l’orchestre. Elle établit aussi un rapport nouveau entre les voix et l’orchestre dont elle reproduit les harmonies avec la couleur des voyelles des chanteurs. Enfin, elle produit une spatialisation des sons qui ont une fonction dramaturgique précise. La musique de synthèse et celle de l’orchestre ne s’opposent pas, mais agissent en complémentarité constante.” (Manoury, livret du CD Soixantième Parallèle).

Dans ce texte, Manoury explicite trois caractéristiques importantes de son usage de l’électronique, que l’on retrouve dans tous ses opéras : l’utilisation musicale de sons concrets, la vocalité informatique et une dramaturgie de la spatialisation.


L’opéra K… est une adaptation en 12 scènes, fidèle à l’esprit et à la lettre (chanté en allemand) du roman fragmentaire de Franz Kafka, Der Prozeß . Il a été composé en 2000/2001 et créé le 7 mars 2001 à l’Opéra Bastille (commanditaire de l’oeuvre) par Andreas Scheibner, Susan Anthony, Eva Jenis, Nora Gubisch, Nicolas Cavallier, Gregory Reinhart, Kenneth Riegel, Wolfgang Ablinger-Sperrhacke, Wilfried Gahmilch, Robert Wörle, Ian Thompson, Youri Kissin et Nigel Smith. L’orchestre de l’Opéra National de Paris était dirigé par Dennis Russell Davies, la mise en scène signée André Engel et des décors de Nikki Rietti.

C’est à cette occasion que je collabore pour la première fois avec Philippe Manoury en tant que réalisateur en informatique musicale.

un point de vue particulier

La position de réalisateur en informatique musicale me donne un point de vue privilégié sur cette œuvre, puisque j’ai été le témoin et l’acteur de sa réalisation, depuis les prémisses du travail de création jusqu’à toutes les représentations, et au delà.

Dès avril/mai 1999, avant même la composition de l’oeuvre, nous faisons les premiers tests de spatialisations dans la grande salle de l’Opera-Bastille, nous procédons également à des enregistrements du choeur qui nous serviront à mettre au point la synthèse du choeur virtuel.

Entre 2000 et 2001, Philippe Manoury compose l’opéra dans les studios de l’Ircam. Il est essentiel pour lui de composer la partition en même temps que se fait la composition des sons : ces deux éléments sont indissociables et travaillés au même niveau et avec la même exigence.

Entre janvier et mars 2001, je suis présent depuis le début des répétitions à l’opéra Bastille, pendant que se fabrique la mise en scène avec André Engel. Le fait que la partie électronique soit intégrée dès le début des répétitions a été très importante pour une bonne osmose de cette partie avec les autres éléments du spectacle (scénographie, décor, lumières, …).

Sept représentations ont eu lieu au cours du mois de mars 2001 (les 7, 10, 12, 20, 23 et 27 mars 2001).

L’opéra a été repris deux ans plus tard dans la même salle. A nouveau, j’assiste à toutes les répétitions en mars 2003 et assure, avec le compositeur, la diffusion sonore des cinq représentations (les 22, 24 , 29 avril, 6, 9 mai 2003).

pourquoi Kafka ?

Les raisons qui président au choix de ce sujet, de ce texte par Philippe Manoury sont à la fois cinématographiques et littéraires. Il est fasciné par les littératures fragmentaires, on retrouve cette fascination dans de nombreux choix de textes qu’il décide de mettre en musique (d’Héraclite à Emily Dickinson, et de Georg Webern à Emmanuel Hocquard).

Le choix du livret a résulté d’un parcours très long et tortueux. Le chemin qui a amené Manoury à choisir ce sujet est aussi compliqué que celui de la justice. En effet, le projet initial était un projet sur Orson Welles. La composition de cet opéra était déjà bien avancée quand il a été stoppé par les ayant-droits. Quelques scènes avait même été jouée en version de concert, le prélude de cet opéra (Prelude and Wait, 1995) ayant été réemployé dans l’opéra précédent Soixantième Parallèle.

Est ce pour cette raison juridique que Manoury s’est tourné vers Le Procés ? ou bien parce que Welles l’avait mis en scène ? ou bien simplement par affinité avec ce texte … Toujours est il que l’on retrouve par ces péripéties autour du livret l’importance de certaines oeuvres cinématographiques pour le compositeur.

Dans le prologue de K…, on voit Joseph K., endormi à son bureau, on peut imaginer qu’il va rêver ce qui va lui arriver, que tous son procès n’est qu’un lent et véritable cauchemar. Il se trouve que l’interprétation onirique du Procès n’est pas dans Kafka mais provient directement de l’adaptation d’Orson Welles.

Cette histoire est racontée dans un roman intitulé “le Procès”. Ce qu’elle signifie ? Ce qu’elle semble signifier ? Il n’y a ni mystère, ni énigme à résoudre. On pourrait dire que la logique de cette histoire est la logique d’un rêve … ou d’un cauchemar. (Orson Welles : The Trial).

Generating Melodic, Harmonic and Rhythmic processes in K…”

D’abord catalysatrice, la musique du Prélude a fini par trouver sa véritable fonction. Fonction poétique autant que formelle. L’opéra tout entier peut être vu comme une gigantesque réécriture du Prélude. (P. Manoury : la musique comme la partie cachée d’un iceberg.)

Le fait d’avoir dans le prologue une prémonition de la fin, un «flash forward» crée une forme cyclique. Tout l’opéra est, en quelque sorte, contenu dans le prologue comme l’exécution de Joseph K… est contenu dans son rêve. Dans l’article «Generating Melodic, Harmonic and Rhythmic processes in K…», j’analyse le matériau harmonique présenté dans le prélude qui constitue une prémonition condensée de la passacaille finale qui structure la marche au supplice de Joseph K…

composer (avec) l’espace

L’utilisation de l’espace dans un spectacle musical n’est pas nouvelle (Gabrieli à Venise, Berlioz en son Requiem…) mais elle revêt une importance toute particulière dans K… Sa fonction est multiple.

Tout d’abord, renouveler le rapport du spectateur au spectacle. Habituellement, ce rapport est complètement frontal, avec une ligne de coupure très nette entre la scène et la salle. Les moyens électroacoustiques permettent de franchir cette frontière avec des sons dont les trajectoires traversent tout l’espace (les éblouissements, les vertiges qui sont suggérés à plusieurs reprises par Franz Kafka, incarnés par ce que Manoury nomme des «black-outs»).

Ensuite, occuper tout l’espace public de la grande salle de l’opera-Bastille, un espace gigantesque à l’instar de celui de la cathédrale de l’avant-dernier chapitre. L’occuper y compris dans une spatialisation verticale pour passer de l’effet “surround” désormais habituel au (home-)cinema à la spatialisation en 3 dimensions incluant une verticalité de l’espace. (sur cet aspect chez Kafka, cf Gilles Deleuze )

Enfin, et d’une façon totalement anti-naturelle, par la création d’espaces virtuels simultanés, comme si à l’intérieur de la cathédrale il y avait plusieurs lieux qui co-existaient, des espaces acoustiques différents et co-présents.

enserrer le spectateur

Les moyens électroniques mis en oeuvre permettent donc d’enserrer le spectateur comme si, tout en assistant à l’opéra, il était aussi à l’intérieur de la foule qui murmure, ou du choeur qui chante

Je souhaite que le spectateur se croit à l’intérieur de la scène. Qu’il oublie qu’il est extérieur à l’action qui se déroule devant lui. (Va et vient, p.124)

Cette mise en abyme se retrouve dans la scène finale, car profitant du fait que les bourreaux de K. sont comparés dans le roman à des acteurs de théâtre, la mise en scène fait se dérouler la mort de K. devant des figurants – spectateurs sur un décor qui est celui du théâtre. Dans ce spectacle, l’auditeur est donc plus amené à s’identifier au personnage collectif de la foule-rumeur-choeur antique qu’au héros tragique qui est le point central mais aveugle du roman.

un choeur accusateur

“L’ambiguïté du tragique de Kafka, dès lors qu’on aborde le problème de la collectivité et du personnage tragique, c’est de constater que si la rumeur est à l’origine de l’arrestation de Joseph K., alors cette rumeur-choeur est un choeur mauvais, un choeur déréglé (c’est moi qui souligne) puisqu’il a, par la calomnie, condamné Joseph K. Il n’est donc pas un adjuvant, mais bien l’un des calomniateurs possibles. Manoury a peut être fait de la dimension collective de la calomnie un traitement qui compte parmi les plus intéressants. Il a diffusé avant le lever du rideau des sons en volume croissant et spatialisés selon un modèle circulaire. Dès le début de la représentation, le bruit de la salle est mélangé à celui du spectacle qui commence déjà. La condamnation de Joseph K, c’est en partie le public qui la prononce; Manoury a ici restitué l’un des moteurs essentiels du spectacle de la tragédie, la responsabilité collective au delà du spectacle, l’enjeu de la pièce comme enjeu pour la collectivité”(E. Leterrier, P.28)

Jemand mußte Josef K. verleumdet haben, denn ohne daß er etwas Böses getan hätte, wurde er eines Morgens verhaftet. (Franz Kafka)

De bouche à oreille, la rumeur se transmet par des chuchotements, de près ou de loin, à des distances variables. Et ces “disques” qui tournent très lentement symbolisent la propagation de cette rumeur. L’accusation de Josef K. dont les motifs ne seront jamais révélés, ni même son éventuelle culpabilité ou son innocence, feront qu’il se sentira de plus en plus étranger, impuissant à arrêter cette rumeur. L’accusation de Josef K. dont les motifs ne seront jamais révélés, ni même son éventuelle culpabilité ou innocence, feront qu’il se sentira de plus en plus étranger, impuissant à arrêter cette rumeur qui n’en finit pas de s’étendre (P. Manoury Va et Vient, p.130)

musicalisation de sons extra-musicaux

A partir d’En Echo (1994) pour voix et temps-réel, Manoury fait appel à des sons extra-musicaux qu’il tisse avec la trame musicale, en en changeant le sens (par exemple, le son d’obturateur de la photographie qui se transforme progressivement en son de train, rapprochant ainsi les thématiques du voyeurisme et du voyage à l’oeuvre dans le roman de Nabokov).

Ainsi les machines à écrire illustrent le décor de “la banque” dans laquelle travaille Joseph K. mais sont aussi l’occasion d’un rythmique fugato.

Les cris des fillettes qui importunent le peintre Titorelli se transforment en cris d’oiseaux révélant le coté volière du décor de cette scène.

La Frontière

Après K…, qui faisait appel à tous les moyens d’une production d’une grande maison d’opéra, qui entraine aussi des difficultés de reprises, Philippe Manoury pour son opéra suivant, a essayé de réaliser un projet moins coûteux et donc plus facile à faire tourner. C’est pourquoi La Frontière relève du genre de l’ «opéra de chambre» , il fait appel à six chanteurs, neuf instrumentistes dont un pianiste (Alain Planès) qui dirige l’ensemble, à la manière du continuo baroque (Finalement pendant les représentations, c’est le compositeur lui-même qui a assuré la direction). Mais, malgré cette économie de moyens, Manoury n’a pas pour autant abandonné le système électronique temps-réel, que j’ai réalisé avec lui à l’Ircam. Cet opéra, commandité par la Scène nationale d’Orléans a été composé en 2003 sur un livret de Daniela Langer. Après un mois de répétitions au Carré Saint Vincent à Orléans avec Ioshi Oïda, le metteur en scène, il a été crée le 1er octobre 2003, par Virginie Pochon, Doris Lamprecht, Dominique Visse, Romain Bischoff, Nigel Smith, Vincent Le Texier, l’ensemble belge Ictus, et Alain Planès. La scénographie a été signée par Thomas Schenk.

L’opéra est en quatre tableaux, sa forme, lointainement inspirée par la structure du roman faulknerien, obéit à une construction symétrique avec un prologue auquel répond un épilogue ….

Ici encore, le prologue en style de berceuse-melopée d’un folklore imaginaire, a une fonction structurante, puisque l’histoire racontée par l’opéra est celle de cette mélodie remémorée par l’héroïne; qui lui permet de retrouver sa propre histoire. Ce que Manoury nomme «Les aléas d’une mélodie récursive».

Juste après cette chanson introductive, dans la partie électroacoustique on entend des bruits de marteaux en polyrythmies complexes. On retrouve encore l’idée de musicalisation de sons concrets puisque ces marteaux sont maniés par les deux individus qui réparent une porte mais sont aussi des métronomes pour les chanteurs, qui doivent chanter à des tempos différents (comme dans la scène du bal de Don Giovanni).

Après la création la troupe de cet opéra de chambre est partie en tournée, nous l’avons joué à Strasbourg (Maillon Wacken, le 5 octobre) à l’Arsenal de Metz, à la Comédie de Clermond Ferrand et aux Bouffes du Nord à Paris (dont Yoshi Oida est un familier). Nous avons aussi franchi des frontières pour le jouer à Lausanne et à Rome.

La Nuit de Gutenberg

On voit que les livres et la technologie sont deux thèmes qui ont une grande importance dans le répertoire des opéras de Manoury. C’est sans doute ce qui l’a amené à prendre Gutenberg en tant qu’héros d’opéra, son personnage historique n’a pas nécessairement la consistance nécessaire pour être un héros, pourtant, en tant que nom propre, il représente une étape importante de notre civilisation, comme on dit «la galaxie Gutenberg». Citations de texte du patrimoine littéraire mondial). Manoury et son librettiste, Jean-Pierre Milovanoff, en font donc un mythe en procédant à une actualisation uchronique de son personnage. On peut retrouver cette mise au goût du jour d’un mythe ancien dans d’autre projets théâtraux contemporains : tel est le Quartet de Heiner Muller qui est le déplacement de l’action des Liaisons dangereuses d’un salon avant la Révolution vers un bunker d’après la troisième guerre mondiale et que Luca Francesconi transforme en un opéra sur l’actualité (ou l’aspect intemporel ?) de la Comtesse de Merteuil. Mais cette démarche est elle très différente de celle, par exemple, de Rameau qui met en scène les noces de Platée et de Jupiter à l’occasion du mariage du Dauphin ? Et au delà, est ce que la fonction des technologies informatiques est elle d’une nature si différente que celle des machineries baroques ?

Cet opéra sera créé à l’Opéra National du Rhin à Strasbourg, qui l’a commandité, le 24 septembre 2011. Trois représentations sont prévues les 24, 27 et 29 septembre 2011 et une représentation à la Filature de Mulhouse, le 8 octobre.

Cet opéra, mis en scène, comme le précédent, par Yoshi Oida, avec une scénographie de Tom Schenck fait appel à trois chanteurs, Nicolas Cavalier, (Gutenberg), Eve-Maud Hubeaux (Folia) et Mélanie Boisvert (l’hôtesse), un petit choeur, un choeur d’enfants, l’orchestre et … un dispositif d’informatique musicale en temps réel. En tant que réalisateur en informatique musicale, j’interviens à nouveau sur les trois phases de la production : notation/réalisation/interprétation. La notation consiste en la fixation des idées musicales et sonores sur la partition (l’écriture) et dans la partie électronique (sous la forme de partition au format «antescofo»), dans ce cas particulier, la phase de notation est surtout prise en charge par le compositeur. La réalisation proprement dite correspond à la programmation de la machine informatique qui va lire cette notation (ici, cette machine est programmée en patch PureData). J’ai également procédé à une virtualisation du patch, qui permettrait sa traduction dans d’autre environnement, afin de permettre sa pérennité et sa diffusion, Gutenberg oblige ! La virtualisation du patch, qui consiste en une description à un niveau supérieur, une notation opérationnelle, (une forme d’écriture des processus) permet en effet de ne pas dépendre d’un environnement unique, d’anticiper les portages ultérieurs, assurer une meilleure pérennité. Et enfin la part d’interprétation, qui pour moi est essentielle dans le métier de réalisateur en informatique musicale, interprétation des intentions du compositeur, diffusion du son pendant les représentations, et tous les ajustements qui permettent à la partie électro-acoustique de s’intégrer parfaitement à la mise en scène, l’architecture et l’acoustique des théâtres dans lesquelles ces opéras sont représentés.


Gilles Deleuze, Kafka, pour une littérature mineure, Editions de Minuit, Paris, 1972.

William Faulkner, Light Of August.

Franz Kafka, Le Procès.

Serge Lemouton, «Du rôle des techniques audionumériques dans un opéra du XXIe siècle», dans Art lyrique et art numérique, dir. Alain Bonardi, série Conférences et séminaires n°13, 2002, Paris Sorbonne.

Philippe Manoury, Va-et-vient, entretiens avec Daniela Langer, musica Falsa, Paris.

Serge Lemouton, «Generating Melodic Harmonic and Rhythmic processes in K… an opera by Philippe Manoury», dans The OM Composer’s book.1, éditions Delatour, Paris.

Etienne Leterrier, Formes et enjeux du tragique dans le Procès de Kafka et ses adaptations à la scène et à l’écran, mémoire de maitrise, Paris X Nanterre, juin 2003.

Momilani Ramstrum, From Kafka to K…, a multimedia exploration of philippe Manoury’s opera K…, DVD, Ircam CGP, Paris.

Norbert Schnell et al., Synthesizing a choir in real-time using Pitch Synchronous Overlap Add, International Computer Music Conference, Berlin, 2000

Sur quelques thèmes de recherches musicales actuelles

Sunday, November 6th, 2011

La musique, parmi tous les arts, est celui qui a entretenu les relations les plus étroites avec les sciences. A tel point qu’à l’époque du Quadrivium, elle fut considérée comme l’une des quatre sciences mathématiques au même titre que l’arithmétique, la géométrie et l’astronomie. L’histoire récente de la musique, surtout depuis que celle-ci se sert des ordinateurs, montre un nouveau rapprochement avec la science, après quelques siècles d’éloignement. Nous assistons aujourd’hui à un phénomène massif : la musique est envahie par des disciplines telles que l’acoustique, le traitement du signal, la synthèse des sons et les procédures de formalisations mathématiques et informatiques. Ces domaines sont intimement interconnectés entre eux et, par conséquent, chacun d’eux est susceptible de se nourrir des acquisitions des autres. Cependant, pour bien faire comprendre cet ensemble, il me semble nécessaire de les décrire un à un :

a) Les procédures d’analyse en temps réel du signal sonore. Qu’il s’agisse des théories de la musique tonale, sérielle ou spectrale, elles ont toutes, à un degré ou à un autre, pris leurs fondements dans une connaissance du son. C’est à partir de l’étude et du développement de cette connaissance que les musiciens d’aujourd’hui entrevoient déjà de nouvelles possibilités d’expression musicale liées aux technologies. Il s’agit de développer notre connaissance du son. Un des aspects les plus prospectifs de la relation instrument/machine réside dans le développement des moyens d’analyse acoustique des sons instrumentaux et vocaux en temps réel que l’on appelle les descripteurs audio. Le nombre de ces descripteurs ne cesse de s’accroître au fil du temps : centroid, spread, skewness, kurtosis, roll-off,fundamental frequency, noisiness, inharmonicity, odd-to-even energy ratio, deviation, loudness, roughness, … Ces termes désignent des attributs du son que l’on n’a découverts que récemment. Notre connaissance du son se complexifie. L’extraction de paramètres constitutifs du son en vue de leur utilisation en tant qu’éléments compositionnels permet de créer une cohérence musicale entre les sons acoustiques et les sons électroniques. Cependant, seul un petit nombre de ces descripteurs sont aujourd’hui réellement adaptés aux impératifs musicaux réels. Le perfectionnement de ces descripteurs est un axe de recherche indispensable si l’on souhaite réduire encore l’écart qui sépare le monde instrumental de celui des sons électroniques.

Pour que cette relation entre ces deux mondes sonores soit la plus intime possible, il nous faut les intégrer dans une temporalité commune. En d’autres termes, il faut que nos machines puissent « vibrer » et s’adapter au temps complexe de la musique. C’est ici qu’intervient le suiveur de partitions.

b) Les mécanismes de suivi de partitions. C’est un champ de recherches qui s’est considérablement développé au cours des dernières années mais qui demande encore un effort soutenu. Si l’on veut pouvoir faire varier les fonctionnalités d’une machine dans le temps musical d’une œuvre plutôt que de se contenter d’une succession d’états stables qui réagissent au jeu instrumental, le suiveur de partitions est un outil de première importance. Le principe en est le suivant. Une partition écrite, préalablement mise en mémoire, doit être reconnue dans le jeu de celui qui l’interprète pour permettre à la machine de se synchroniser avec lui, idéalement à n’importe quel moment de cette partition. Tenant compte du fait que l’interprétation de cette partition peut donner lieu à toute une série de gauchissements et de dérivations (voire, parfois, d’erreurs), mais aussi que la nature de certains sons acoustiques n’est pas toujours simple (comme dans le cas des musiques polyphoniques), le suivi de partition peut s’avérer une entreprise d’une grande complexité. De nombreux modèles ont déjà vu le jour, d’abord mécaniques (tel le système MIDI), puis audio-numériques (grâce à l’analyse en temps réel du signal sonore). Ces modèles font intervenir des procédures indéterministes autant que prédictives qui, pour parvenir à une efficacité optimale, doivent être testées avec le concours de musiciens en chair et en os. Un des buts de ce laboratoire serait de faire participer des instrumentistes et des chanteurs à ces recherches afin de recréer, aussi souvent que possible, les conditions réelles du concert.

Ce domaine, tout comme le précédent, traite des conditions d’interaction entre les interprètes et les machines, ayant pour but de créer des musiques électroniques hautement interactives. C’est ici qu’entrent en jeu les méthodes de synthèse et de traitement qui figurent parmi les outils principaux dont les compositeurs se servent pour leur création.

c) Les outils de synthèse en temps réel. Le domaine de la synthèse sonore est un champ d’exploration qui ne cesse de s’étendre. On peut sommairement examiner trois procédures générales à partir desquelles la synthèse sonore peut se développer. La première consiste à envoyer des paramètres prédéfinis vers un dispositif de synthèse sonore. C’est une méthode déterministe qui produit, au temps voulu, les calculs nécessaires pour créer les sons. Cette méthode peut consister en une simple décision d’écrire tel ou tel paramètre, mais peut aussi provenir d’un calcul plus ou moins complexe. La seconde procédure fait intervenir des processus aléatoires (telles les chaînes de Markov, entre autres exemples) qui « donnent la main » à la machine pour engendrer des évolutions indépendantes et autonomes qui se déploient sans aucune intervention directe venue de l’extérieur. La troisième procédure consiste à prendre des informations dans le monde extérieur, à l’instar de l’analyse en temps réel d’un jeu instrumental ou vocal, et à les transmettre à un programme qui les utilise comme paramètres pour la création des sons. Cette procédure favorise, en outre, la possibilité pour les interprètes d’agir, par leur jeu instrumental même, sur l’évolution de la musique de synthèse et réaffirme ainsi la place des interprètes au centre de la musique électronique. Il est important de souligner que ces trois procédures ne s’excluent pas les unes les autres, mais peuvent au contraire très bien coexister au sein d’un même modèle de synthèse. C’est par le terme de « partitions virtuelles » que j’ai désigné l’ensemble de ces procédures. Un modèle de synthèse peut accepter qu’une partie de ses paramètres soit écrite « en dur », qu’ils ne changent pas d’une interprétation à l’autre, pendant qu’une autre partie fait intervenir un calcul aléatoire pour contrôler un aspect spécifique de la synthèse, et qu’une troisième provient de l’analyse d’un son instrumental (ou vocal) grâce à une captation en temps réel (par exemple via un micro). Une attention particulière doit être portée à la mise au point d’outils qui permettent une exploration de nouvelles possibilités à partir de modèles bien précis. Je choisis, à titre d’exemple, deux cas spécifiques. Le premier est celui de la synthèse par modèle physique. Cela consiste à modéliser un comportement acoustique (une corde, un tube, une plaque, un archet, un souffle, une frappe…) afin d’en extraire des qualités sonores nouvelles qui sont inaccessibles dans les conditions réelles : par ex. la résonance des cordes d’un piano dont l’accordage varie continuellement, une clarinette virtuelle dont la longueur est démesurée, un archet infini, ou encore une plaque métallique dont la constitution physique change suivant la force avec laquelle on la frappe. De tels modèles existent dans la recherche actuelle, mais peu d’expériences encore ont été tentées sur les manières de les contrôler à partir du jeu instrumental : ils ne sont pas encore devenus de véritables « instruments ». Le second cas que j’aimerais mentionner est celui des sons inharmoniques. L’inharmonicité est une particularité sonore naturelle qui rend complexe la perception d’une hauteur principale comme, par exemple, lorsqu’on frappe des cloches ou n’importe quelle plaque métallique. Dès le début du XXème siècle, les compositeurs ont été attirés par cette réalité, mais peu en ont formulé une vision théorique. Il est important de réfléchir, dans la situation qui est la nôtre actuellement, à l’élaboration des bases théoriques nouvelles.

Si nous développons de nouvelles méthodes de synthèse, il nous faut établir des processus de composition qui leur soient adaptés et qui soient suffisamment évolués. Il existe pour cela des outils de formalisation scientifique qui peuvent nous être d’un grand secours : à savoir les méthodes algorithmiques.

d) La composition en temps réel. Pendant très longtemps, les pratiques musicales liées aux technologies étaient divisées en deux catégories distinctes. Les premières élaboraient un ensemble de règles et de calculs (algorithmes) qui faisaient office d’esquisses pour des compositions de musique instrumentale. Les secondes orientaient leurs efforts vers les sons électroniques en temps réel (et leurs possibilités d’interaction avec le monde instrumental), ne faisant guère intervenir les procédés de composition algorithmique. La raison de cette division était culturelle : les outils, souvent indéterministes, du temps réel étaient surtout utilisés de façon intuitive par des « performers » ou improvisateurs, tandis que les méthodes de calcul et de formalisation convenaient mieux aux compositeurs qui désiraient fixer, par écrit, leurs idées sur leurs partitions. La situation aujourd’hui semble évoluer fort heureusement vers une fusion de ces deux conceptions et la musique électronique en temps réel commence enfin à accueillir en son sein des procédures de formalisation développées. Des structures musicales, telles les échelles, les harmonies, les transpositions ou les évolutions rythmiques, peuvent très bien être engendrées par l’analyse d’un signal sonore capté en temps réel. Il y a ici un terrain d’exploration extrêmement fertile. Il ne s’agit pas d’improvisation, mais d’une nouvelle pratique de la composition qui est à la fois basée sur des règles et des contraintes prédéterminées (comme c’est souvent le cas dans la composition) et qui prend également ses informations sur les éléments sonores captés au cours de l’interprétation. Cette méthode qui voit ici le jour est déterministe et indéterministe à la fois ; on peut la qualifier de « composition en temps réel ». Il y aurait également un grand profit à tirer de certains principes de formalisation pour fonder des « grammaires génératives » qui proposeraient des constructions formelles suivant des principes de déduction, d’arborescence, de filtrage, de groupement, de successivité, de mémorisation, de prédiction, etc. S’il y avait un domaine privilégié sur lequel une réflexion devait être portée, ce serait bien celui de la forme qui actuellement, lui aussi, souffre d’un vide théorique et que je souhaiterais donc aborder. Qu’est-ce qu’une forme ? Qu’en est-il de la polyphonie ? De l’harmonie et de l’inharmonie ? Des phénomènes bruités ? Comment représenter le temps dans nos nouvelles musiques ? Ce sont là des questions cruciales auxquelles on doit trouver des réponses.

Tous ces dispositifs de captation, de suivi, de synthèse et d’engendrements formels prennent cependant leur appui sur un « terrain » qui est crucial entre tous, car il constitue en quelque sorte la base à partir de laquelle les idées peuvent se déployer : celui de l’écrit et de la représentation.

e) Ecriture et représentation : un nouveau « solfège » : La création et l’invention musicales sont grandement dépendantes de la manière dont nous représentons les objets avec lesquels nous composons. Il a été dit et redit que c’est grâce aux possibilités d’écriture qu’ont pu se développer en musique des principes complexes tels que l’harmonie ou la polyphonie. Les inversions, les renversements, les symétries et autres transformations à partir desquelles toute la musique savante a pu s’élaborer sont le fruit de sa représentation visuelle sous une forme graphique particulière. Voici un exemple simple de l’importance de la représentation dans la musique de synthèse : une représentation numérique des hauteurs permet de développer certaines transformations grâce à des opérations mathématiques. Celle-ci n’offrira cependant pas la possibilité de contrôler des qualités sonores telles que la distribution de l’énergie dans un son comme peut le faire une représentation graphique (le sonographe, par exemple). Mais cette dernière, à son tour, ne proposera pas les possibilités génératives par calculs de la précédente. Un développement musical donné est donc toujours conditionné par son propre mode de représentation. Je l’ai dit plus haut, notre connaissance actuelle du son est beaucoup plus riche et complexe qu’elle ne l’était il y a seulement quelques décennies, il importe donc de lui trouver des modes d’écriture cohérents qui permettent une puissance d’élaboration formelle d’un niveau très évolué. Un son ne se réduit plus à un signe écrit sur une feuille de papier réglé, mais représente aujourd’hui tout un champ. Ce champ peut contenir un grand nombre de fonctions ou de procédures qui seront associées à ce son, et qui interviendront lors de sa production. Pour représenter cette complexité, il nous faut des outils très puissants ; un nouveau solfège, en quelque sorte. De très importantes avancées ont vu le jour dernièrement, et c’est certainement un domaine sur lequel nous devons porter nos efforts. Peut-on trouver des modes de représentation symbolique pour la musique de synthèse ? Peut-on imaginer une écriture qui inclurait la puissance de calcul de nos machines tout en conservant ses potentialités imaginatives et créatrices ? Il n’est probablement pas possible d’envisager une représentation purement graphique pour l’élaboration de nos musiques. Sans doute celle-ci devra-t-elle être à la fois graphique, numérique et symbolique.

La musique est numérisée et par le biais de cette « écriture », il nous est loisible d’entrevoir des expressions sonores que nous n’aurions même pas pu imaginer sans elle.

Il faut aussi prendre en considération que c’est un domaine qui concerne l’image numérisée. Si le rapport entre les deux univers est techniquement possible, il faut savoir réfléchir aux conditions proprement esthétiques de leur rapprochement.

f) Son/image : recherche d’une transmutation : Dans le monde des technologies, tout est nombre à un certain moment. Dans une chaîne de production, qu’elle soit destinée au sonore ou au visuel, l’étape ultime, avant que le résultat ne soit livré, tantôt à nos yeux, tantôt à nos oreilles, consiste en une série de nombres. Il n’est rien de plus facile que de faire se « parler » ces nombres entre eux. Ils sont faits pour communiquer, et leurs outils de communication ne manquent pas. Ce qui apparaît comme une évidence – quand on ne considère que la partie technologique de l’affaire – peut se révéler être un écueil, lorsqu’on néglige de considérer la dimension esthétique. Il est triste de constater que beaucoup trop de projets artistiques, se contentant de cette affirmation selon laquelle « tout peut se convertir en tout », se satisfont du nombre comme d’un organe confortable de la communication tous azimuts. On peut convertir un geste en un son, un son en une image, un geste en un espace, un espace en une image, une image en un son. Il manque, souvent cruellement, l’étape cruciale de la transmutation, c’est-à-dire de l’établissement d’un rapport esthétique et/ou poétique qui permettra l’émergence d’une corrélation entre le visuel et le sonore, n’obéissant pas simplement à une mécanique par le seul pouvoir de la numérisation qui leur est commune à tous les deux. Mais puisque les conditions techniques de cette communication entre le sonore et le visuel sont désormais disponibles, pourquoi alors ne pas réfléchir à des procédés associatifs comme sons/couleurs, formes visuelles ou auditives, brillance ou opacité, réponses retardées ou anticipations, clarté ou obscurité, rythmes, textures, contrepoints, opposition, rémanences ? Toute association, dès lors qu’elle est portée à un degré sensible, doit pouvoir se conjuguer dans une « grammaire poétique ». Le vieux rêve de Scriabine, avant celui de Messiaen, qui attribuait des couleurs à des sons, est peut-être à portée de nos mains, pourvu qu’il ne se réduise pas à l’illustration ou à la tautologie. Les outils sont à notre disposition, encore faut-il les faire passer par un filtre esthétique rigoureux. On peut suivre des traces colorées sur une vidéo et les faire correspondre à des filtrages sonores ou à des motifs pouvant varier selon la forme des ces traces. On peut aussi essayer de trouver des corrélations entre les évolutions des vitesses dans le domaine visuel ou sonore, sachant, toutefois, qu’elles ne fonctionnent pas sur le même mode dans notre appareil perceptif : un objet qui tourne sur lui-même, telle une toupie, possède un ambitus de variation bien plus grand dans le domaine visuel que dans celui du sonore. Les images vidéo envahissent progressivement l’espace des concerts – et pourquoi pas ? – or il me semble que c’est surtout dans les domaines du théâtre, de l’opéra, du cinéma et de la danse que ces recherches entre images et sons devraient trouver leur terrain le plus fécond.

Il faut que la musique prenne la mesure de la complexité de notre monde actuel, de ses connaissances, de ses avancées, de ses doutes également. Il ne s’agit pas de brimer l’intuition. Au contraire, celle-ci doit être aiguisée par la connaissance. Rigueur et intuition, donc. Les techniques du temps réel peuvent faire vibrer, ébranler des règles strictes dans l’inconnu du présent. Baudelaire écrivait : “La modernité, c’est le transitoire, le fugitif, le contingent, la moitié de l’art dont l’autre moitié est l’éternel et l’immuable.” Pourquoi ne relèverait-on pas un pareil défi ?

Philippe Manoury

San Diego, 23 octobre 2011

Entretien avec Jean-Pierre Derrien (à props de “La nuit de Gutenberg”)

Sunday, September 11th, 2011

Jean-Pierre Derrien – La Nuit de Gutenberg est votre quatrième opéra. Comment êtes-vous tombé dans l’opéra ? Au XXe siècle on entendait fréquemment : « L’opéra c’est des dames et des messieurs qui chantent et se déplacent costumés… et un orchestre dessous : démodé ! » D’autres ont dit : « Maintenant ce qui compte, c’est le cinéma. » Pourquoi écrivez-vous un opéra sans vous priver des moyens modernes ?

Philippe Manoury – Je ne vois pas pourquoi je me priverais des moyens modernes, tels que ceux que la technologie ou la vidéo nous offrent ; le théâtre ou la danse s’en emparent aussi. Je les utilise également dans des pièces destinées au concert. Quant au cinéma, je me rappelle que certaines personnes pensaient qu’il était la continuité moderne de l’opéra. La différence réside en ce que le cinéma fonctionne le plus souvent selon le mode « industriel » de la rentabilité, ce qui ne sera jamais le cas de l’opéra qui est une économie qui fonctionne toujours à perte et ne doit son existence qu’aux subventions…

J-P. D.Et puis ce n’est pas la même temporalité…

Ph. M. – Le traitement du temps dans le cinéma peut, parfois, approcher celui de l’opéra. Dans les films de Kubrick, par exemple, il existe une dimension temporelle qui est proprement musicale, grâce aussi à l’utilisation du son et de la musique. Mais le rôle de la musique dans le cinéma ne me semble loin d’être une préoccupation primordiale des réalisateurs.

J-P. D.Vous conservez l’idée de la représentation, les chanteurs, l’orchestre mais vous êtes probablement celui qui, à l’Ircam et ailleurs – mais surtout à l’Ircam –, a fait le plus dans les technologies d’approche en temps réel. Qu’est-ce que cela apporte ? Désirez-vous abandonner la voix traditionnelle ? Comme votre collègue Tristan Murail qui dit qu’il n’écrit pas pour la voix parce qu’il pense que le bel canto occidental ne lui va pas…

Ph. M. – Chez Tristan Murail, comme chez Grisey et chez presque tous les compositeurs de l’école spectrale, la voix est difficilement intégrable à leurs langages musicaux, faits d’exactitude et de micro-intervalles. C’est pour cela qu’ils ne l’ont presque pas utilisée. Je ne recherche pas non plus les stéréotypes de l’opéra, tel que le bel canto, mais je n’ai aucune envie d’abandonner la voix traditionnelle. Cependant je veux l’articuler à ma manière et aussi, parfois, la traiter par de l’électronique. Dans cet ouvrage, il y a un madrigal et une sorte de choral. Il y a également des moments sans la voix, puisqu’il y a une scène entièrement muette, il y a du cinéma, de la vidéo… J’essaie précisément de sortir de la facture dramatique continue et homogène de l’opéra traditionnel. L’histoire de La Nuit de Gutenberg est reliée par un fil conducteur, mais elle est présentée dans des approches diverses. Et ce n’est pas uniquement l’histoire de M. Untel ou de Mme Unetelle !

J-P. D.Vous êtes préoccupé d’un type d’opéra… peut-être initiatique, vous seriez dans la tradition me semble-t-il de La Flûte enchantée, de Parsifal, des grands opéras mythologiques de Strauss, surtout La Femme sans ombre, vous avez envie de faire passer un sens, je ne parle pas de politique, de morale, mais d’une réflexion sur ce qu’est communiquer et représenter ?

Ph. M.Le thème de cet opéra, c’est l’écriture et tout ce qu’elle provoque et a pu provoquer dans la civilisation. J’englobe dans l’écriture les caractères cunéiformes des origines jusqu’à l’Internet d’aujourd’hui. L’opéra est une forme de représentation extrêmement stylisée qui s’accommode mal du pur réalisme (comme le cinéma le fait). C’est un vaste sujet, l’écriture et la communication…

J-P. D.qui est le sujet majeur d’aujourd’hui. Avec toutes ces techniques, on gagne du temps, mais on en perd aussi beaucoup parce qu’on est connecté à des tas de choses inutiles. Vous ne faites pas une morale de l’histoire…

Ph. M.Je ne fais pas de morale, l’art n’est pas fait pour cela. Cela dit, il me paraît évident que chaque nouvelle invention, chaque nouveau bouleversement, peut amener le pire comme le meilleur… On perd des choses, oui, mais on en gagne aussi. On trouve cela également dans tous les bouleversements artistiques et esthétiques au cours de l’histoire, c’est pourquoi il est difficile de parler de progrès. Et dans cette frénésie de la communication qui nous atteint tous aujourd’hui, ce qui m’a intéressé de montrer, c’est le retour au fétichisme, celui de la communication et des machines, auquel nous assistons.

J-P. D.Donc vous avez une pensée politique ?

Ph. M.Non, je n’ai aucune pensée politique mais assurément des préoccupations concernant la civilisation. Ma pensée est avant tout esthétique. C’est considérable, l’esthétique. Le début de mon opéra fait ouvertement et explicitement référence au Moses und Aaron de Schoenberg…

J-P. D.Le problème de l’incommunicabilité…

Ph. M.Aujourd’hui on devrait plutôt parler d’« hyper-communicabilité ». Ce qui m’intéresse, c’est que l’écriture a été au départ un rempart contre le fétichisme : les Tables de la Loi contre le Veau d’Or, la réflexion et la pensée contre l’idolâtrie, le fétichisme.

J-P. D.Puisque vous évoquez le Moses und Aaron de Schoenberg, pourrait-on dire que les personnages, Gutenberg et les deux chanteuses, sont caractérisés de la manière anti-opératique de Schoenberg, Moïse ne chantant pas…

Ph. M.Je ne réécris pas Moses und Aaron mais je pars de là. L’écriture qui a été un garde-fou contre le fétichisme, crée maintenant son propre fétichisme au travers de toutes ces petites machines à communiquer. Quand je vois tous ces gens en train de jouer avec leurs pouces, je ne peux imaginer qu’ils aient tout le temps des choses essentielles ou importantes à partager. Ils sont fascinés par leurs petites machines auxquelles ils accordent, sans toutefois en être conscients, un pouvoir presque magique… comme autrefois pour le Veau d’Or…. Il y a une hystérie de la communication…

J-P. D. – …qui empêche la communication ?

Ph. M.Oui. Mais d’un autre côté, on s’aperçoit que tous ces outils sont aussi des outils de partage que je suis loin de mépriser. Si j’aime la manière dont le savoir se propage sur l’Internet, je déteste les codes qui se créent autour. Steve Jobs a proposé des outils, certes inventifs et très ergonomiques, mais le marketing qu’il a développé autour ressemble à de pitoyables églises, avec ses fétiches ridicules, ses totems, ses emblèmes, ses adeptes… Il s’y crée une pseudo-culture où les esprits grégaires adorent tous les mêmes fétiches que l’industrie lui impose. Pensez que les conseillers techniques que vous trouvez dans les boutiques Apple aux États-Unis se font appeler « genius » ! On a remplacé un veau par une pomme, mais l’intérieur reste toujours aussi vide ! C’est là-dessus qu’il faut réfléchir.

J-P. D. Comment avez-vous rendu coextensifs ou contemporains tous ces modes d’expression, et ces modes d’expression musicale ? En clair, est-ce le fait que tous ces moyens sont utilisés en même temps qui vous donne ces petites scènes ? Parce que c’est assez nouveau. Votre opéra est construit de manière nouvelle, il est beaucoup plus court me semble-t-il…

Ph. M.Non, il doit durer une heure et quart environ, comme K… par exemple. Les scènes deviennent de plus en plus courtes au fur et à mesure que l’on s’approche de la fin. Le prologue « sumérien » est le plus long, la dernière scène, avant l’épilogue, ne consiste qu’en un bref aria. C’est un symbole de notre temporalité qui tend à la fragmentation et au « zapping », par opposition au temps étiré, mythique, des époques reculées…

J-P. D.Y a-t-il là une volonté de penser la succession des scènes et l’utilisation des objets musicaux différemment ?

Ph. M. – Chaque scène contient son propre univers, elle doit être centrée sur elle-même. Par exemple dans une scène qui montre des scribes vivant en Mésopotamie et dans une autre qui se situe dans un café Internet, il y a effectivement deux états différents : un qui va développer des formes plutôt lisses, beaucoup plus mystérieuses et plus obscures, tandis que l’autre se concentrera sur des éléments qui sont de l’ordre du collage et de la discontinuité. Une autre scène se déroule à trois moments différents au Moyen-Age. Elle évoque les procès de Gutenberg et sera rythmée par deux percussions. Deux scènes, consacrées aux autodafés, seront dépourvues de voix, l’une sera une vidéo sans orchestre, tandis que l’autre une sorte de « pantomime » muette mais sonore. Tous ces différents éléments seront cependant orientés dans la même direction, parleront de la même chose.

J-P. D.Dans cette démarche, est-ce que le librettiste et le metteur en scène ont été associés, ou vous avez commencé à travailler tout seul et ensuite vous leur avez proposé alors des durées ? Ou bien êtes-vous le maître du temps ?

Ph. M.Au départ je n’avais qu’une seule image en tête : une tablette d’argile qui se brise et se transforme en un immense réseau électronique de communications. C’est une lointaine allusion à Moïse cassant les Tables de la Loi. C’est moi qui ai proposé Jean-Pierre Milovanoff pour le livret et Yoshi Oida pour la mise en scène. Jean-Pierre Milovanoff a commencé à travailler sur ce thème de Gutenberg et m’a proposé un premier jet. À partir de là on a créé des personnages, on en a retiré d’autres et développé certaines situations. Je suis intervenu sur le livret tout au long de la composition. C’est une situation somme toute très classique. Et c’est aussi moi qui ai voulu ce prologue « sumérien » qui revient à la fin pour figurer ce retour au fétichisme. Dans un opéra, le compositeur est toujours le maître du temps, car la mise en scène doit suivre le temps de la partition. Mais il arrive que je modifie ma partition pour des besoins de représentation scénique. On ne peut pas être aussi strict dans le cas d’une représentation qui intègre d’autres éléments que la musique. Il faut prendre en compte la totalité des composants sonores et visuels dans une sorte de vision synthétique.

J-P. D.Quand on écrit un opéra, le seul obstacle est-ce la prosodie du français ? Faut-il aussi écrire plus simple pour l’orchestre ?

Ph. M.Il faut surtout écrire plus léger, mais le choix de la langue n’est pas déterminant à ce niveau. Du point de vue des textures rythmiques, l’orchestre jouera des partitions aussi complexes que celles de mes autres œuvres. Par contre le problème de la prosodie…

J-P. D.Comment le résolvez-vous ?

Ph. M.À partir du moment où vous souhaitez que le texte soit compris, il faut limiter l’ambitus de la voix, limiter les grands intervalles, limiter les trop grandes brisures rythmiques. Ensuite, on joue sur un plus ou moins grand niveau de stylisation. Ce qui m’intéresse, c’est la stylisation. On sait que l’opéra s’accommode mal du réalisme. Il faut arriver à trouver le style, la stylisation plutôt, qui correspond à ce que l’on veut exprimer à un moment donné. Ainsi dans son dernier « aria », l’hôtesse se dévoile comme un personnage paranoïaque et proprement fasciste. Sa voix est reprise par l’électronique sous forme de chœur, comme si une foule répétait ses paroles, mais c’est une foule imaginaire qui serait comme une démultiplication d’elle-même, à la fois de son narcissisme et de son hystérie. Pour suggérer cette hystérie, j’ai dû placer la voix dans l’aigu. Et plus elle va chanter dans l’aigu, moins on va comprendre ! Le personnage de Gutenberg est, au contraire, un vieil homme qui s’exprime avec plus de lenteur et dans des registres moins tendus. Ce qui m’intéresse, c’est d’abord que les gens comprennent ce dont il s’agit au travers de la musique et de l’action.

J-P. D.Là, vous vous rendez maître d’archétypes traditionnels de l’opéra !

Ph. M.Oui et je pense qu’on ne peut pas faire autrement. L’opéra, comme le théâtre ou le cinéma, a ses conventions et ses codes. Si, par exemple, j’avais voulu faire un Bunraku japonais – une forme de théâtre musical que j’aime beaucoup – je n’aurais pas pu me passer de ses grandes marionnettes… On ne peut pas totalement échapper à ces codes. Ce qui ne signifie pas pour autant obéir à des modèles archétypiques.

J-P. D.Vous n’écrivez pas en ré majeur…

Ph. M.Non je n’écris pas pour autant de musique néo-tonale ou néo-classique, cela est sûr. Ces codes que j’évoquais sont consubstantiels à la forme de représentation : des chanteurs sur scène, un orchestre dans la fosse, des haut-parleurs un peu partout, la compréhension du texte… Mais c’est autre chose que d’écrire une musique qui aurait pu être composée il y a plus d’un siècle ou d’utiliser des archétypes formels comme les musiques de films continuent à le faire : adagio romantique pour une scène d’amour, trémolos expressionnistes pour du suspens, etc. Le fait d’utiliser des technologies avancées n’a aucune valeur esthétique en soi. C’est un leurre comme l’est celui de la communication tous azimuts. J’entends très souvent des musiques qui sont à la pointe de la technologie mais qui reposent sur des conceptions musicales d’un conventionnalisme affligeant.

J-P. D.Vous écrivez avec tous les outils. Est-ce qu’il n’y a pas à un moment un conflit entre l’écriture vocale, l’écriture chorale, l’écriture d’orchestre, que vous connaissez bien, et les outils perpétuellement nouveaux de l’informatique musicale ?

Ph. M.Tout dépend comment ces outils sont intégrés.

J-P. D.Vous allez me répondre que vous, vous savez les intégrer ! Cela fait un moment que vous le faites.

Ph. M.C’est effectivement un problème auquel je m’attaque depuis une bonne trentaine d’années dans mes œuvres pour solistes ou orchestre et électronique en temps réel. L’opéra ne présente pas de difficulté supplémentaire à ce niveau. J’utilise ce qu’on appelle des sons « inharmoniques », c’est-à-dire des sons qui n’ont pas de hauteurs précises (comme les sons de cloches), et qui dans cet opéra vont être éparpillés un peu partout dans la salle. Ils symbolisent toutes ces petites lumières censées figurer le réseau électronique de communication dans le café Internet. Ces mêmes sons pourront parfois être accordés sur ceux que produiront l’orchestre ou qui seront chantés. Donc, certains sons seront proches des sons instrumentaux et d’autres plus artificiels, comme l’est le réseau Internet. Ces deux mondes, celui des livres, de l’écoute et du silence, de la lenteur, de la pensée d’un côté, et celui des machines, du zapping, de la vitesse et de l’action de l’autre devraient être perçus dans la musique. Si c’est le cas, alors j’aurai atteint mon but.

Propos recueillis par Jean-Pierre Derrien le 13 juillet 2011, parus dans le livre-programme consacré à “La nuit de Gutenberg” à l’Opéra National du Rhin à Strasbourg.

Jean-Pierre Derrien est ancien élève de l’École Normale Supérieure de Saint-Cloud, producteur à France-Musique. Il a participé à la création de Musique en jeu (1969) ; il est l’auteur du livret de l’œuvre de Jacques Lenot Un déchaînement si prolongé de la grâce (1986).

Entretien avec Eric Denut (à propos de “Tensio”)

Sunday, September 11th, 2011


Entretiens avec Philippe Manoury et Pierre Morlet

Avec Tensio, son second quatuor à cordes créé dans la saison 2010-11 à l’Espace de Projection de l’Ircam à Paris par le Quatuor Diotima et présenté entre-temps sur de nombreuses scènes internationales, Philippe Manoury, le représentant emblématique de la musique électronique en temps réel, a signé d’un avis unanime une des très grandes réussites du genre. Comment cette œuvre s’articule-t-elle avec les autres pièces dans le parcours du compositeur ? Comment a-t-elle été travaillée par les interprètes, en interaction avec les chercheurs de l’Ircam et le compositeur ? Vers quelles directions tend-elle ?

Autant de questions auxquels nos entretiens avec Philippe Manoury, qui reprend pour nous un fil tissé de longue date dans différents écrits de sa plume, et Pierre Morlet, violoncelliste du Quatuor Diotima, tentent de répondrent en exclusivité.

Entretien avec Philippe Manoury

Philippe Manoury, on a coutume de vous associer immédiatement au « temps réel » et à son histoire récente. Comment en êtes-vous venu à consacrer autant d’énergie créative à cette problématique et aux technologies qui l’accompagnent ?

Voilà plus d’un quart de siècle que mon esprit ne cesse d’être préoccupé, hanté même, par cette invention qui, un autre quart de siècle auparavant, a provoqué une fissure dans le monde de la musique : celle de l’électronique.

Mes premiers contacts avec la musique électronique ont eu lieu au cours des années soixante-dix. Ce serait un euphémisme que de dire qu’à cette époque, en France, les musiques électroniques et instrumentales ne faisaient pas bon ménage. La querelle qui, dans les années cinquante, opposa les « compositeurs de l’écriture » (Barraqué, Boulez et Stockhausen principalement) à ceux de « l’intuition expérimentale » (incarnés par le GRM de Pierre Schaeffer) n’est que la plus célèbre de toutes. Pour être bref, les premiers reprochaient aux seconds de n’être que des analphabètes musicaux, tandis que les seconds auraient aimé reléguer les premiers dans les greniers poussiéreux de la tradition. Provenant d’horizons culturels très différents, les compositeurs œuvraient soit dans l’une, soit dans l’autre de ces catégories, mais rarement dans les deux. Élevé dans la tradition de l’écriture instrumentale, je n’en éprouvais pas moins une réelle attirance pour les possibilités offertes par la musique électronique. Ce furent les fréquentes venues de Stockhausen à Paris, au cours des années soixante-dix, qui me firent prendre conscience de la possibilité et du grand intérêt qu’il y aurait à relier ces deux conceptions musicales en une seule. Je découvrais qu’on pouvait à la fois composer de la musique d’orchestre et de la musique électronique, et parfois, au sein d’une même œuvre. La création parisienne de Mantra, en 1973, fut pour moi un moment initiatique. J’y découvrais la richesse potentielle de l’unification des mondes instrumentaux et électroniques au sein de ce que l’on aurait pu, déjà à cette époque, appeler « la musique électronique en temps réel ».

Unifier ces deux mondes, voilà qui n’a jamais été évident me semble-t-il ?

C’est en effet avec une certaine frustration, due à la difficulté de réunir ces deux modes d’expression, que j’entrepris mes premiers travaux. Autant les potentialités sonores de la musique électronique m’attiraient, autant la rigidité de son organisation temporelle n’en finissait pas de me poser problème. Ce n’est qu’au début des années quatre-vingt, avec la construction des premiers modèles de synthétiseurs en temps réel par Guiseppe di Guigno à l’Ircam, que j’entrevis immédiatement une ouverture possible vers une plus grande souplesse temporelle qui libérerait la musique électronique de ce temps figé qu’imposait la bande magnétique. Le point le plus important de cette avancée consistait dans le retournement de la situation habituelle dans laquelle l’instrumentiste était l’esclave du déroulement automatique et inexorable d’une bande magnétique. Dorénavant ce serait l’instrumentiste, le maître du temps. Il pourrait jouer à son propre tempo, accélérer, ralentir, faire des points d’orgue, bref, retrouver toute la respiration et la liberté qui était la sienne depuis que la musique existe, l’électronique le suivrait désormais. Au cours des dix années qui suivirent, je menais, avec la collaboration du mathématicien Miller Puckette, une série de recherches dont le premier résultat allait être Jupiter, pour flûte et électronique. Cette œuvre, composée en 1987, était la première à utiliser un suiveur de partition et développait de nombreux principes d’interactivité entre la flûte et les sons de synthèse 1. Elle marquait le début du déclin de la musique sur bande magnétique qui, malgré quelques positions nostalgiques, voire d’arrière-garde, allait finir par disparaître. Ensuite naquirent successivement Pluton, La partition du Ciel et de l’Enfer, Neptune et En écho, œuvres dans lesquelles je développais de nouvelles relations avec le monde instrumental tout en cherchant d’aller aussi loin que possible dans les modes de communications interactifs. Pas à pas, j’entreprenais une sorte de « recherche du temps perdu », celui, continu, organique et flexible, de la musique jouée par les musiciens, et que je cherchais à réintégrer dans les musiques électroniques. J’ai alors porté tous mes efforts sur le développement de structures musicales électroniques élaborées, dépassant le simple procédé de la transformation passive des instruments, et pouvant être soumises au temps flexible d’un interprète. En d’autres termes, je voulais doter la musique de synthèse de la possibilité d’être interprétée.

Les partitions que vous venez de citer, auxquelles il faudrait sans doute ajouter des pièces comme vos opéras K… et La Frontière ou encore votre Partita I pour alto solo, ont été autant de jalons importants dans l’histoire de la musique contemporaine et du traitement de l’électronique en temps réel, avec autant d’enjeux musicaux et technologiques spécifiques. Depuis, vous avez également abordé le genre, ô combien emblématique, du quatuor à cordes, avec deux opus, dont l’un inclut l’électronique ; quels ont été précisément pour les enjeux pour cette œuvre, intitulée Tensio ?

Tensio est probablement l’œuvre la plus expérimentale que j’ai composée à ce jour. Sa gestation et sa composition se sont étalées sur près de deux années, car ce quatuor met en œuvre un grand nombre de nouvelles pratiques musicales que la technologie a développé depuis ces dernières années, et qu’il a fallu expérimenter et mettre au point : la synthèse par modèle physique, la synthèse interactive de sons inharmoniques, les toupies sonores harmoniques et le suivi de tempo des instruments. Un autre axe de recherche a également été entrepris sur les descripteurs acoustiques qui devraient permettre à terme d’obtenir une analyse fine et stable des sons instrumentaux en temps réel.

La première partie de Tensio présente une musique d’une extrême mobilité qui fait intervenir le quatuor réel avec un quatuor virtuel, entièrement composé à partir de sons de synthèse. Les matériaux sonores voyagent de l’un à l’autre dans une forme construite sur ce que j’appelle des « grammaires musicales génératives ».

La deuxième partie utilise un nouveau modèle de synthèse basé sur une modélisation physique d’une corde tendue au-dessus d’une caisse de résonance de violon. C’est ici que la « tensio », à laquelle le titre se réfère, est la plus audible. Ce modèle permet de simuler les pressions, les vitesses et les positions d’un archet virtuel sur cette corde imaginaire. J’ai découvert ici des catégories sonores tout à fait surprenantes lorsque l’on pousse à certains extrêmes des modes de jeux traditionnels dans des zones qui ne sont guère accessibles à la physiologie humaine. La combinaison d’une pression exagérée d’un archet sur une corde, avec une vitesse presque nulle, produit des formes de petites gouttelettes sonores aiguës qui ne semblent a priori pas venir d’un violon. Mais c’est bel et bien d’un violon dont il s’agit. Et l’aspect le plus curieux, mais aussi le plus intéressant , de ce phénomène réside dans le fait que, malgré cette différence de son, on entend toujours une corde qui se tend sous la pression d’un frottement. Lors de cette section, j’ai utilisé un aspect très novateur du suivi de partition mis au point par le chercheur Arshia Cont à l’Ircam : le suivi continu du tempo. Les événements électroniques sont inscrits sur une partition qui adapte automatiquement son tempo sur celui, fluctuant, des instruments. Jusqu’à présent, les instruments déclenchaient des événements sonores électroniques dans un temps discontinu : une note déclenche un événement, puis une autre, etc. Dorénavant, les deux discours sont unis et fondus dans un même temps continu dont les instrumentistes ont le contrôle.

La troisième partie est une sorte d’interlude basé sur des glissandi d’harmoniques et, de ce fait, résorbe la « tensio » de la section précédente.

À partir de la quatrième section de la pièce, intervient un nouveau système de synthèse sonore dont j’avais eu l’intuition depuis plusieurs années sans toutefois trouver le moyen de le réaliser. C’est finalement Miller Puckette qui m’offrit la solution. Chaque son instrumental joué est analysé dans sa hauteur et sert à la construction de sons complexes, inharmoniques, dont la densité varie suivant le rapport des sons instrumentaux. Ainsi, lorsque tous les instruments sont à l’unisson, la musique de synthèse s’accorde à eux, et lorsqu’ils jouent des sons différents, on perçoit une musique très dense, faite de blocs sonores parfois très compacts, qui épouse cependant les évolutions des parties instrumentales. On entend donc toujours en filigrane ce que jouent les instruments dans le discours, parfois chaotique, de la musique de synthèse. La grande variabilité de cette musique, inharmonique et non tempérée, inclut celle des instruments « tempérés » comme une trace dans une matière sonore en déflagrations. Ce procédé court tout au long de la cinquième partie qui réintroduit les grammaires sonores génératives du début. Cette section se termine par une petite « passacaille » suivie de dix variations dont le motif est issu d’une de mes anciennes compositions : la Passacaille pour Tokyo pour piano et ensemble.

La sixième section termine ce grand développement en introduisant une voix supplémentaire. Un nuage de pizzicati en mouvement perpétuel, basé sur le principe probabiliste des chemins markoviens, va se déployer sur les hauteurs qui constituent les sons inharmoniques dérivés de ce que jouent les instruments. Ainsi toute une série de strates musicales naît du quatuor à cordes par déductions successives. Il s’agit d’un lointain avatar de la vieille théorie de Rameau qui déduisait l’harmonie – et de là, les mouvements mélodiques qui lui obéissaient – du principe de résonance naturelle. Ici, ce sont les instruments qui engendrent des « inharmonies » qui, à leur tour, engendrent des mouvements mélodiques.

Pour la septième section, j’ai utilisé le principe des « toupies sonores » que j’avais utilisées dans K… et, plus récemment, dans Partita I. Je l’ai cependant considérablement affiné. Les instruments projettent des sons qui tournent à une vitesse correspondante à l’intensité des sons instrumentaux. Mais lorsqu’elles vont se stabiliser, les rotations de ces toupies seront en rapports harmoniques les unes avec les autres. Ainsi deux sons de même hauteur tourneront à la même vitesse et se fondront l’un dans l’autre, tandis que deux sons de hauteurs différentes tourneront à des vitesses « harmoniques » correspondantes à leur relation d’intervalle.

Quels sont à votre sens les champs d’étude les plus fertiles à l’avenir pour la musique électronique en temps réel ?

S’il est possible de construire des structures sonores dotées d’un grand pouvoir de réactivité au jeu instrumental, on perçoit encore une grande résistance à la réunion des musiques acoustiques et électroniques dans un temps musical commun ; une frontière semble encore opaque entre ces deux conceptions temporelles et qui tient à la nature même du contrôle du temps dans la musique. La raison en est que l’être humain utilise des moyens plus visuels que sonores dans ce qui constitue certainement l’élément majeur du contrôle musical du temps : la possibilité de prédiction. Il existe en effet une différence fondamentale entre le temps organisé par des machines et celui de l’être humain. Nous savons très bien organiser les dimensions de hauteurs, de timbres et de spatialisations dans la musique électronique, mais nous sommes encore limités quant à l’organisation d’un temps qui serait véritablement musical. De réelles avancées ont été faites dernièrement dans ce domaine, notamment grâce aux travaux de Arshia Cont à l’Ircam, dont j’ai parlé précédemment et dont Tensio a beaucoup profité, mais l’aventure doit encore se poursuivre.

Il existe ensuite un vieux rêve auquel se sont attelés beaucoup de compositeurs, c’est l’idée d’une véritable notation pour la musique de synthèse. À quoi ressemblerait une écriture nouvelle pour la musique de synthèse qui permettrait également d’être un outil puissant pour la composition ? Avec Miller Puckette, à l’Université de San Diego en Californie, où je suis professeur de composition, nous nous sommes à nouveau penchés sur cette question. Il nous est d’abord apparu que, vu l’énorme quantité de paramètres qu’il nous faudrait représenter, une meilleure solution consisterait à garder la représentation numérique pour toute valeur qui ne serait pas variable dans le temps. Ensuite, de nombreuses questions se sont posées. Comment représenter des évolutions micro-tonales dans un système de coordonnées cartésiennes (les hauteurs en abscisse et le temps en ordonnée) tout en conservant la lisibilité de toutes les voix ? Comment écrire chaque voix, comportant elle-même une grande quantité de paramètres, sur une seule « partition » ? Jusqu’à quel point peut-on intégrer la notation musicale traditionnelle et comment l’unifier avec une notation différente dans les cas où cette première serait insuffisante ? Comment exprimer le temps d’un événement qui nous est connu (lorsqu’il fixé comme dans le cas d’une bande magnétique) par rapport à un autre qui ne l’est pas (lorsqu’il doit être déterminé par l’interprétation) ? Ce sont là des interrogations qui sont encore devant nous. Mais il me semble évident qu’un tel outil permettrait de résoudre de nombreux problèmes, ceux, principalement, qui concernent les structures de temps comme les changements et les variations de tempi.

Echange avec Eric Denut, Paris-Strasbourg, septembre 2011


Entretien Pierre Morlet, Quatuor Diotima

Quelle est l’expérience du Quatuor Diotima avec le temps réel ?

Elle est assez limitée contrairement à ce qu’on pourrait imaginer – mais elle nous a permis de rencontrer deux chefs d’œuvre, le Quatrième Quatuor de Jonathan Harvey et Tensio de Philippe Manoury, qui a été unanimement reconnue comme une pièce majeure – pas seulement grâce aux commentaires, très élogieux, de Pierre Boulez après le concert. C’est indéniablement une pièce très réussie, à la fois parce qu’elle fait sens sur le plan formel (même si, à sa création, il manquait encore une partie), mais aussi parce que l’utilisation du temps réel, signée par un compositeur habitué aux technologies les plus récentes, donc capable de prendre des risques, fonctionne très bien. Prendre des risques, comme toujours, ça paie !

Quand Philippe Manoury parle de Tensio, il explique que c’est « à ce jour son œuvre la plus expérimentale ». On imagine qu’en terme de préparation et d’implication de la part du quatuor, cela a été un processus long et peut-être difficile. Quelles en ont été les étapes ?

Tout d’abord, je connaissais Philippe depuis le Conservatoire Supérieur de Musique de Lyon où il dirigeait la classe de composition. Pour nous, membres du Quatuor Diotima, il nous semblait évident qu’il était la personne, si nous voulions développer le répertoire du quatuor à cordes avec électronique en temps réel, la plus à même de répondre à notre souhait, et nous lui avons commandé cette pièce. Il est comme le fils de l’Ircam, sa carrière est étroitement liée à cette institution.

Une fois que Philippe avait accepté, et que, grâce à la générosité des Billarant, que nous remercions chaleureusement, il nous a tout de suite envoyé un plan, qui était exclusivement un plan par rapport à l’électronique, qui nous expliquait ce qu’il souhaitait faire. C’est là qu’il a tout de suite parlé du suivi de partition, qui est une technologie qui était, en tout cas il y a deux ans, encore balbutiante ; on savait que dans les années à venir ce serait mature et qu’on pourrait l’utiliser en concert – Philippe a eu raison de penser que le médium du quatuor à cordes était le plus approprié, c’est de la musique de chambre, sans chef, on a pu investir du temps, on n’a pas forcément à respecter des horaires, sans compter notre temps, pour faire en sorte que le résultat soit probant.  Il y a eu beaucoup de séances de travail, de test, il fallait travailler effet par effet, section par section, pour régler l’électronique.

Quand on n’a pas l’habitude, on peut considérer que c’est une perte de temps ; mais il ne faut pas le voir comme ça, ce sont les règles du jeu, c’est le temps qu’il faut investir pour que ce qui est encore expérimental devienne fonctionnel et puisse marcher. Ce temps est indispensable également pour toutes les parties prenantes, réalisateur d’informatique musical, développeurs, compositeur.

Comment le quatuor a-t-il vécu la présence de l’électronique ? Comme une ombre ou comme un allié ?

Il y a une progression de la perception de l’électronique au fur et à mesure que l’on travaille l’œuvre. On apprend à modifier son écoute. La première fois, on fait un son et, pour le dire vite, on entend à peine son propre son mais c’est l’électronique qui prime ; ce n’est pas toujours le cas, le compositeur a veillé à ce qu’il y ait des passages où l’on entend à la fois le son du quatuor, électrifié, et la résultante électronique. Pour nous, cela signifie simplement passer du temps avec le compositeur et lui demander, passage par passage : ici, qu’est-ce qu’il se passe ? Qui doit primer, notre son ou celui qui sort des haut-parleurs ? Une fois que nous avons obtenu la réponse, moment de l’œuvre par moment, comme pour tout travail de musique de chambre, et encore une fois le médium du quatuor à cordes est ici le plus facile, à défaut d’être le meilleur peut-être, il faut s’écouter – ce n’est que la continuation de notre travail de tous les jours.

L’électronique est à mon sens un développement de « l’instrument » quatuor à cordes. De la même manière que Lachenmann dans son deuxième Quatuor Reigen seliger Geister désaccorde à un moment tous les instruments, dans une scordatura sauvage avec des pizzicati, et s’éloigne du son « normal » du quatuor à cordes pour arriver à une sorte de grande guitare, de la même manière dans Tensio on ouvre d’autres possibilités sonores, irréalisables pour le coup acoustiquement avec les instruments du quatuor, on a une extension, au sens des « extended techniques », le terme le plus juste, une « augmentation du son » non pas au niveau sonore mais au niveau des possibilités du son. C’est d’ailleurs probablement de cette manière-là que l’utilisation de l’électronique est la plus judicieuse. ..

Si vous aviez à estimer votre perception in fine de la présence de l’électronique, dans un continuum allant de jubilatoire à angoissant, où se positionne le curseur ?

Il faut que ce soit jubilatoire, c’est même cela qui caractérise les chefs d’œuvre dont j’ai parlé. Une personne qui joue sur scène doit impérativement non pas prendre plaisir, mais comprendre ce qu’elle joue, savoir que cela a un intérêt – je ne parle pas d’une compréhension intellectuelle, mais de savoir que les signes que l’on joue ont un sens, savoir à quoi ils correspondent. Tout le problème du travail avec l’électronique est que ce sont des signes qu’on ne comprend pas tout de suite – tout simplement parce que c’est neuf. C’est justement cela qu’il faut appréhender. Pour cela il faut d’abord un peu d’habitude, puis travailler avec les bonnes personnes, les bons médiateurs – ce qui a été le cas sur Tensio. Il faut dire que Philippe est à la fois très facile et très précis, très juste sur ses intentions ; il sait différencier entre ce qui est le travail propre du quatuor et ce qui est de sa définition, en qualité de compositeur, du rapport entre ce que joue le quatuor et les parties électroniques, ce sur quoi il est extrêmement précis et rigoureux. On sait vite où l’on va, ce qui est très important.

Entretien avec Eric Denut / Paris, 24 août 2011

Le Temps de “Répons”

Wednesday, June 22nd, 2011

En 1981, Pierre Boulez venait de terminer la première version de Répons, œuvre qui s’est surtout fait connaître par l’articulation inédite entre la musique électronique et le monde instrumental. Le temps réel, encore balbutiant, était alors plein de promesses. Pepino di Giugnio avait mis sur le chantier des prototypes de machines qui allaient ouvrir la voie à de nouvelles expérimentations totalement nouvelles en musique. Le dialogue entre l’orchestre et une musique électroacoustique, enfin libérée de la fixité de la bande magnétique, était à portée de main. Pour le jeune musicien que j’étais, avide d’expériences, de recherches et d’apprentissage, prêt à me jeter à l’eau, cette conjoncture était plus que passionnante. Malgré le feu des critiques, des fantasmes, des jalousies, des attaques orchestrées tant par une partie de la presse que par une autre du monde musical, toute cette aventure a bel et bien eu lieu. Et, contrairement à certaines aubes rimbaldiennes, celles-ci ne furent point « navrantes ». Il y a des œuvres qui marquent fortement une décade. En ce sens, les années 80 étaient les années Répons.

Hors, ce serait s’aveugler que de voir cette œuvre sous le seul angle de sa nouveauté technologique. D’une manière voilée, Boulez nous y parle de lui-même. Dès le tout début de l’œuvre, je retrouve ce coup de griffe félin qui déjà déchirait l’espace musical dans les premières secondes de sa première sonate pour piano. Plus loin, de grandes plages de stabilité harmonique, proches d’un rituel, m’évoquent Pli selon pli et Eclats. La fin ouverte de Répons m’est un lointain souvenir de celle des Noces de Stravinsky : aucun geste n’est là pour conclure les résonances. Certaines transitions en tremolos de cordes nous rappellent le long compagnonnage que Boulez a entretenu avec Wagner et Berg, pendant que la figure emblématique de cette œuvre, un arpège débouchant sur un trille, salue en Scriabine (neuvième sonate pour piano) l’artiste original, prospectif et solitaire. Mais qu’on ne s’y méprenne pas ! Il ne s’agit là ni de citations ni de références explicites, mais d’une subtile généalogie sonore, semblable à celle qui fait du final de la neuvième de Mahler comme un dernier avatar du gruppetto baroque. Si la thématique, dans Répons, est plus claire, plus affirmée que dans les œuvres du début, la texture conserve cette même profondeur menaçante – car tout s’agite terriblement dans ce fouillis organique – qui nous fait pressentir un monde, certes, savamment organisé mais prêt à exploser à tout moment. Le délire aussi a ses règles et ses lois (« Il faut considérer le délire et, oui, l’organiser » écrivait-il autrefois !). L’idée de prolifération irrigue sa musique et il n’est pas interdit de penser que l’influence de Proust n’y fut pas étrangère. Car dans Répons, c’est aussi le temps qui est le “personnage” principal. Parfois de très grandes vitesses s’inscrivent dans un tempo d’une lenteur extrême, là notamment où le temps métrique de l’orchestre se superpose à un temps « libre » des six solistes – placés en cercle autour du public – rend impossible tout contrôle précis du chef. Boulez évoque souvent les deux « accidents » qui ouvrent et ferment symétriquement la question du temps dans la Recherche et entre lesquels toute l’œuvre se déploie : la madeleine qui éveille la mémoire, et le trébuchement sur des pavés inégaux qui déclenche la prise de conscience du temps. De la même manière, à mon sens, Répons s’articule entre deux « accidents » semblables. Le premier intervient dès l’entrée des solistes auxquels répondent les conflagrations électroniques, sortes de mémoires sonores, dans une fuite à l’infini des arpèges joués par les claviers. L’orchestre réagit immédiatement, comme une mémoire en éveil, prompte à toute sorte de commentaires, de prolongements ou de ruptures. A la fin de l’œuvre survient l’événement symétrique de ce premier accident, mais dans un temps beaucoup plus contemplatif et rétrospectif. L’orchestre se tait, les arpèges des solistes donnent maintenant naissance à une musique électronique qui lentement se déploie tout en se refermant sur des cercles concentriques. Le temps est libre ici, et ne semble ne plus vouloir fuir ; il est retrouvé.

Philippe Manoury

San Diego le 23 février 2010

Une colère spectrale

Saturday, June 11th, 2011

Faisant suite à une lettre envoyée par le musicologue Guy Lelong en grand nombre et à un article, paru dans Libération*, qui reprend la plupart des arguments de cette lettre, j’ai réagi par cet article :



Longtemps, Guy Lelong a entretenu une admiration passionnée pour le mouvement spectral en général, et pour l’œuvre de Gérard Grisey en particulier. Cela l’honore. Mais cette passion fait naître en lui une colère qui l’égare sur des chemins sinueux, et même douteux. Ces chemins sont ceux du ressentiment, de l’aveuglement, du mensonge, et de l’amalgame sommaire. Je ne soupçonnais pas que la musique spectrale pouvait avoir sur le système nerveux de certains mélomanes des effets aussi perturbateurs !

Le chemin du ressentiment. Lorsque son panthéon personnel n’est pas admiré avec le même enthousiasme qu’il le souhaiterait, Guy Lelong s’en prend alors à ceux qui occupent le panthéon des autres. C’est un vieux procédé qui consiste à descendre Paul pour rehausser Pierre. Comme s’il existait ici un principe de vases communicants. En mettant les néo-tonaux et les acteurs de la musique saturée pêle-mêle dans le même sac – c’est plus facile pour taper dessus – il pense que cela suffira à redorer la gloire posthume de Grisey et celle de Dalbavie. Il n’hésite pas à « dire sans prétention » qu’avec ce dernier, ils ont « été les seuls (…) à repenser le un renouvellement du genre de l’opéra » et qu’une telle audace aurait même été la raison de la déprogrammation, en 1998, de leur spectacle musical au festival Agora ! Il se sert de mauvaises réflexions esthétiques comme d’une arme pour mieux se faire voir et entendre. Il ne réussit même pas à dissimuler que son intérêt pour d’autres compositeurs relève moins d’une plaidoirie en leur faveur que d’un désir de promotion et d’illustration de lui-même. Fort heureusement, la musique spectrale peut très bien se passer d’une protection à ce point teintée d’amertume ! Lorsqu’on apprend que « la musique spectrale, initiée au milieu des années 1970, constitue, un siècle plus tard, l’équivalent musical de l’impressionnisme pictural » on doit d’abord comprendre que ce n’est pas d’une anticipation maladroite sur l’année 2070 qu’il s’agit, mais de l’idée que la musique aurait mis 100 ans pour digérer ce que la peinture avait initié à la fin du XIXème siècle ! Fort heureusement, la musique spectrale peut aussi bien se passer d’une défense à ce point anachronique !

Le chemin de l’aveuglement (culs-de-sac). Si le courant spectral et la musique répétitive des USA ont, selon Lelong, apporté un contrepouvoir nécessaire aux « dictats » du sérialisme des années 50 et 60, comment ne peut-il pas s’apercevoir que c’est justement parmi certains héritiers du spectralisme et du répétitivisme américain que l’on trouve aujourd’hui beaucoup d’acteurs du mouvement néo-tonal ? Peut-on être aveugle et sourd à ce point ? Je vis aux USA depuis près de 7 années pendant lesquelles j’ai pu constater que l’accès à certaines grandes institutions, telles les orchestres symphoniques, y était réservé aux musiques qui préservent la résonance naturelle ainsi que la métrique régulière. On ne peut évidemment pas accuser le mouvement spectral d’avoir enfanté ces musiques, comme on accusait Karl Marx d’avoir inventé les goulags. Mais force est de constater que la recherche de la consonance et du tempo régulier a trouvé dans les musiques néo-tonales des terrains d’atterrissage confortables, bien loin des risques qui avaient présidé à leurs décollages aventureux. Marc-André Dalbavie, interviewé par Magnus Lindberg (naguère deux représentants du courant post-spectral) à New-York l’an dernier, a d’ailleurs, sous l’impulsion de ce dernier, reconnu que cet héritage ne le concernait plus. Guy Lelong ne craint pas la contradiction et n’hésite pas, dans le même article, tout à la fois d’affirmer que l’IRCAM n’a (depuis 1992) fait découvrir aucun compositeur (à part Martin Matalon), et de déplorer que récemment son festival Agora a donné la part trop grande à de jeunes créateurs se regroupant au sein du mouvement du « son saturé » ! Andrea Cera, Luca Francesconi, Mauro Lanza, Hanspeter Kyburz, Yan Maresz, Hector Parra, Alberto Posadas, Roque Rivas, le regretté Fausto Romitelli, Francesca Verunelli, et beaucoup d’autres n’ont de toute évidence pas attiré son intérêt. Alors comment accorder du crédit à ces lignes dans lesquelles le constat amer tente, trop laborieusement, de prendre l’apparence d’une réflexion esthétique et qui, en outre, cachent mal le mépris des acteurs de la création musicale des générations montantes ?

Le chemin du mensonge. Guy Lelong va jusqu’à alléguer que Laurent Bayle, directeur artistique de l’IRCAM entre 1986 et 1992, aurait plaidé la cause de Pascal Dusapin contre celle de Gérard Grisey. Certes, Grisey n’a produit que peu d’œuvres à l’IRCAM quand Dusapin n’en a pas produit une seule ! Comme Lachenmann ou Sciarrino, mais pour des raisons fort différentes, Dusapin n‘a jamais voulu utiliser les moyens technologiques, voilà tout. Il n’y a aucun mal à cela. Ceux qui le voulurent – comme moi qui collabore aux recherches de cet Institut depuis 1981 jusqu’à aujourd’hui – n’en ont nullement été empêchés. Là encore, où sont les fondements de ce que Lelong avance, et qu’il étale sans la moindre gêne dans un des principaux quotidiens nationaux ?

Le chemin de l’amalgame sommaire. Nous voici arrivés au sommet. La tarte à la crème magistrale : la démocratie et l’art ! On est enchanté d’apprendre que Grisey, à la fin de sa vie, était reconnaissant à Boulez d’avoir permit l’émergence de « l’hétérophonie à densité harmonique et temporelle variable ».Voilà qui nous rassure ! On apprend surtout que, ainsi que Jacques Rancière l’a « montréet cette fois sérieusement » (merci de le préciser !) à propos de Flaubert, chez qui l’égalité de traitement des sujets était liée à la démocratie, on apprend donc que « tous les sons se valent » pour les musiciens spectraux ! On retrouve ici cette vieille utopie qui veut assimiler des notions philosophiques ou sociales, comme celle de liberté ou de démocratie, à des « comportements sonores ». Déjà Xenakis et Cage avaient tous deux, chacun à sa manière, brandi l’étendard de la liberté contre la rigueur qui enfermerait les sons dans une pensée déterministe. Ce furent là des idées simplificatrices, et ce qui peut être entrevu chez Flaubert ou Proust, en matière de représentation du réel par le langage, ne saurait être transposé de façon aussi simpliste dans la musique. Si tous les sons se valaient chez les musiciens spectraux, on ne comprendrait pas pourquoi ils ont si peu abordé l’écriture vocale, pourquoi Grisey n’a jamais écrit une seule œuvre pour piano solo ou quatuor à cordes. Les musiciens, ceux du mouvement spectral comme les autres, ont un langage propre qui se plie parfois difficilement à la présence de certains sons. De là à imaginer que le peu de place accordé par quelques décideurs politiques à un art où tous les sons se valent – et qui lui préfèrent des formes simplistes où néo-tonalisme et néo-avant-gardisme se côtoient – constitue un abus de pouvoir, il n’y a qu’un pas que Guy Lelong n’hésite pas à franchir. Car pour lui, c’est la démocratie qui serait en jeu ! « Il est temps que la passation de pouvoir, à laquelle aujourd’hui beaucoup aspirent, gagne aussi les lieux de l’art » et pour cela « il faut rendre aux compositeurs et aux musiciens les instances décisionnaires des institutions qui sont aussi aujourd’hui confisquées par des administrateurs qui n’en ont pas la compétence ». Voilà le remède miracle ! Mais, comble d’incohérence : ne nous a-t-il pas dit quelques lignes plus haut que ces mêmes institutions, si durement incriminées, étaient le fruit de la volonté d’un compositeur et musicien de premier plan ? Faudrait-il que l’histoire se répète encore ?

La création musicale contemporaine n’est malheureusement plus guère représentée dans les médias et ce n’est pas grâce à ce genre d’arguments, bien que provenant de quelqu’un qui se dit y être attaché, que le public pourra prendre connaissance de la vitalité qui continue d’y régner. Les compositeur et les musiciens n’auront pas à remercier Guy Lelong, et ceux qui seraient tentés de le faire devraient se méfier d’une protection aussi boiteuse. Du moins ceux chez qui – comme lui prétend croire – « tous les sons se valent ».

Kyoto, 11 juin 2011


Tuesday, May 10th, 2011

Stringendo (2010) premier quatuor à cordes

commande du Festival de Donnaueschingen ;

durée : 20 min.

première audition : 16.10.2010, Donnaueschingen par le Quatuor Arditti

Editions Durand

Note de programme

Cliquer ici pour commander la partition

Ecouter un extrait :

Stringendo (note de programme)

Tuesday, May 10th, 2011

Par le plus grand des hasards, le terme « Stringendo » (qui indique en musique un resserrement du tempo) contient le mot « string » qui signifie « corde » en anglais. C’est en tenant compte de cette petite étrangeté qu’il faut prononcer le titre de cette œuvre, également sous-titrée « premier quatuor à cordes » signifiant à la fois que, si tout se passe bien, d’autres devraient suivre, et que celui que j’avais écrit en 1978, au temps de mes études, est désormais déclassé.

« Stringendo » s’ouvre dans ce qui a tout l’air d’un désordre à l’intérieur duquel se catapultent plus d’une dizaine de petits énoncés musicaux. Ce fouillis thématique n’est qu’apparent car il est sévèrement organisé suivant une « grammaire » précise : chacun de ces énoncés passe successivement au premier plan avant de disparaître. Au fur et à mesure que progresse ce début, le réseau thématique touffu va ainsi se simplifier, ne comportant à la fin que le dernier élément.

Viennent ensuite les séquences statiques et immobiles des « métronomes imaginaires », sur lesquels les énoncés du début tenteront de refaire surface. Mais cette fois-çi, leurs apparitions et disparitions ne seront pas programmées suivant un ordre strict, mais obéiront à une sorte de fausse « sélection naturelle ». Certains énoncés s’effaceront et d’autres finiront par s’imposer suivant un seul et unique critère : leur potentialité expressive interne, ou du moins celle que j’ai voulu leur donner. Deux éléments vont ainsi peu à peu dominer : des fusées rapides, montantes ou descendantes, et une monodie passant d’un instrument à l’autre, constituée de sons « crescendi » comme joués à l’envers sur un vieux magnétophone. D’abord présentés séparément, ces deux énoncés vont ensuite se compléter l’un l’autre pour former un tout dans une séquence délirante, jouée de plus en plus… stringendo.

La fin marquera la victoire de la monodie dans une sorte de petit « choral » immobile, comme pétrifié sur un son unique, qui rompra tout élan de continuation , telle la petite musique de pizzicati qui semble vouloir naître juste avant la fin.

Stringendo est une commande des Donaueschinger Musik Tage pour le quatuor Arditti.

Philippe Manoury, août 2010

Tensio (note de programme)

Tuesday, May 10th, 2011

Philippe Manoury (1952)

Tensio (2010)

pour quatuor à cordes

Œuvre Ircam avec électronique

Date de composition : 2010
Durée : 35 minutes
Commande : Françoise et Jean-Philippe Billarant
Dédicace : Françoise et Jean-Philippe Billarant

Musique de chambre [
2 violons, alto, violoncelle]

Effectif détaillé

  • 1 violon, 1 violon 2, 1 alto, 1 violoncelle, 1 traitement temps réel

Information sur la création
17 décembre 2010, Paris, Ircam, Espace de projection, par le quatuor Diotima.

Information sur l’électronique
RIM (Réalisateur(s) en Informatique Musicale) : Gilbert Nouno

Date de composition : 2010
Durée : 35 minutes
Commande : Françoise et Jean-Philippe Billarant
Dédicace : Françoise et Jean-Philippe Billarant

Genre : Musique de chambre [2 violons, alto, violoncelle]

Effectif détaillé

  • 1 violon, 1 violon 2, 1 alto, 1 violoncelle, 1 traitement temps réel

Information sur la création
17 décembre 2010, Paris, Ircam, Espace de projection, par le quatuor Diotima.

Information sur l’électronique

RIM (Réalisateur(s) en Informatique Musicale) : Gilbert Nouno

Lorsque je compose, une des grandes difficultés réside dans le choix du titre. Chez moi, le choix des notes, des rythmes, des sons n’est rien comparé à celui du titre. Le titre doit résumer, signifier, identifier, quand bien même il peut évoquer, suggérer, donner à penser. Comment résumer une musique alors qu’il est si difficile (mais pas impossible) d’en parler ? Mais un jour, il faut choisir. Alors j’ai choisi Tensio. C’est un mot italien qui signifie « tension ». Mon premier quatuor s’intitule Stringendo et les suivants – ceux que je projette d’écrire – auront tous des noms italiens, et non allemands. Histoire de déterritorialiser l’histoire. La tension dont il s’agit ici est d’ordre physique : c’est celle des cordes, qui sont tendues sur les instruments qui vont jouer et que j’ai exacerbées dans la musique électronique. Il m’a semblé salutaire d’en revenir à cette image primordiale d’une corde tendue entre deux points, et de la faire jouer dans des régimes extrêmes que seule la technologie peut entrevoir. Mais d’autres variations de tension, plus psychologiques et plus musicales celles là, pourront naître, je l’espère, de l’écoute de ce quatuor.

Tensio est probablement l’œuvre la plus expérimentale que j’ai composée à ce jour. Sa gestation et sa composition se sont étalées sur près de deux années, car ce quatuor met en œuvre un grand nombre de nouvelles pratiques musicales que la technologie a développé depuis ces dernières années, et qu’il a fallu expérimenter et mettre au point. Je citerai parmi celles-ci : la synthèse par modèle physique, la synthèse interactive de sons inharmoniques, les toupies sonores harmoniques et le suivi de tempo des instruments. Un autre axe de recherche a également été entrepris sur les descripteurs acoustiques qui devraient permettre à terme d’obtenir une analyse fine et stable des sons instrumentaux en temps réel.

La première partie de Tensio présente une musique d’une extrême mobilité qui fait intervenir le quatuor réel avec un quatuor virtuel, entièrement composé à partir de sons de synthèse (le programme « Synful » d’Éric Lindemann). Les matériaux sonores voyagent de l’un à l’autre dans une forme construite sur ce que j’appelle des « grammaires musicales génératives ». Il s’agit de construire une musique à partir de règles d’enchaînements entre des figures, un peu à l’image du langage qui ordonne la place des mots les uns par rapport aux autres. Il me semble de plus en plus important, en musique, de ne pas se concentrer exclusivement sur ce que l’on a à dire, mais aussi sur le moment où l’on va le dire.

La deuxième partie utilise un nouveau modèle de synthèse, récemment mis au point par Matthias Demoucron à l’Ircam, qui est basé sur une modélisation physique d’une corde tendue audessus d’une caisse de résonance de violon. C’est ici que la « tensio » est la plus audible. Ce modèle permet de simuler les pressions, les vitesses et les positions d’un archet virtuel sur cette corde imaginaire. J’ai découvert ici des catégories sonores tout à fait surprenantes lorsque l’on pousse à certains extrêmes des modes de jeux traditionnels dans des zones qui ne sont guère accessibles à la physiologie humaine. La combinaison d’une pression exagérée d’un archet sur une corde, avec une vitesse presque nulle, produit des formes de petites gouttelettes sonores aiguës qui ne semblent a priori pas venir d’un violon. Mais c’est bel et bien d’un violon dont il s’agit. Et l’aspect le plus curieux – mais aussi le plus intéressant – de ce phénomène réside dans le fait que, malgré cette différence de son, on entend toujours une corde qui se tend sous la pression d’un frottement. Lors de cette section, j’ai utilisé un aspect très novateur du suivi de partition mis au point par Arshia Cont : le suivi continu du tempo. Les événements électroniques sont inscrits sur une partition qui adapte automatiquement son tempo sur celui, fluctuant, des instruments. Jusqu’à présent, les instruments déclenchaient des événements sonores électroniques dans un temps discontinu : une note déclenche un événement, puis une autre, etc. Dorénavant, les deux discours sont unis et fondus dans un même temps continu dont les instrumentistes ont le contrôle.

La troisième partie est une sorte d’interlude basé sur des glissandi d’harmoniques et, de ce fait, résorbe la « tensio » de la section précédente. Il suffit, en effet, d’effleurer les cordes pour produire ces harmoniques.

À partir de la quatrième section de la pièce, intervient un nouveau système de synthèse sonore dont j’avais eu l’intuition depuis plusieurs années sans toutefois trouver le moyen de le réaliser. Je désirais, depuis longtemps, composer une musique électronique dont les sons ne seraient plus prévus en amont, mais déduits de l’analyse des sons instrumentaux au moment du concert. J’avais élaboré des situations approchant cette idée dans Pluton mais de façon encore réduite. C’est finalement Miller Puckette qui m’offrit la solution. Chaque son instrumental joué est analysé dans sa hauteur et sert à la construction de sons complexes, inharmoniques, dont la densité varie suivant le rapport des sons instrumentaux. Ainsi, lorsque tous les instruments sont à l’unisson, la musique de synthèse s’accorde à eux, et lorsqu’ils jouent des sons différents, on perçoit une musique très dense, faite de blocs sonores parfois très compacts, qui épouse cependant les évolutions des parties instrumentales. On entend donc toujours en filigrane ce que jouent les instruments dans le discours, parfois chaotique, de la musique de synthèse. La grande variabilité de cette musique, inharmonique et non tempérée, inclut celle des instruments « tempérés » comme une trace dans une matière sonore en déflagrations.

Ce procédé court tout au long de la cinquième partie qui réintroduit les grammaires sonores génératives du début. Cette section se termine par une petite « passacaille » suivie de dix variations dont le motif est issu d’une de mes anciennes compositions : la Passacaille pour Tokyo pour piano et ensemble.

La sixième section termine ce grand développement en introduisant une voix supplémentaire. Un nuage de pizzicati en mouvement perpétuel (basé sur le principe probabiliste des chemins markoviens) va se déployer sur les hauteurs qui constituent les sons inharmoniques dérivés de ce que jouent les instruments. Ainsi toute une série de strates musicales naît du quatuor à cordes par déductions successives. Il s’agit d’un lointain avatar de la vieille théorie de Rameau qui déduisait l’harmonie – et de là, les mouvements mélodiques qui lui obéissaient – du principe de résonance naturelle. Ici, ce sont les instruments qui engendrent des « inharmonies » qui, à leur tour, engendrent des mouvements mélodiques.

Pour la septième section, j’ai utilisé le principe des « toupies sonores » que j’avais utilisées dans mon opéra K… et, plus récemment, dans Partita I pour alto solo et électronique. Je l’ai cependant considérablement affiné. Les instruments projettent des sons qui tournent à une vitesse correspondante à l’intensité des sons instrumentaux. Mais lorsqu’elles vont se stabiliser, les rotations de ces toupies seront en rapports harmoniques les unes avec les autres. Ainsi deux sons de même hauteur tourneront à la même vitesse et se fondront l’un dans l’autre, tandis que deux sons de hauteurs différentes tourneront à des vitesses « harmoniques » correspondantes à leur relation d’intervalle.

Je voudrais remercier tout d’abord Gilbert Nouno qui m’a assisté dans la composition de ce quatuor et qui a mis au point tous les programmes permettant de donner vie à ces expérimentations diverses. Mes remerciements vont également à Arshia Cont, dont les recherches ont permis de franchir un grand pas dans la réunion des musiques acoustiques et électroniques, à Matthias Demoucron pour son programme de synthèse par modèle physique, à Nicola Montecchio pour sa participation dans la phase de recherche du suivi de partitions, à Miller Puckette pour l’invention du système de synthèse 3F, ainsi qu’aux membres du Quatuor Diotima qui ont prêté leur concours à toutes ces expérimentations.

Tensio est dédié à mes amis Francoise et Jean-Philippe Billarant en hommage à leur opiniâtreté à demeurer parmi les rares mécènes privés aidant la création musicale.

Philippe Manoury, programme de la création, Ircam, le 17 décembre 2010.


Tuesday, May 10th, 2011

Tensio (2010) deuxième quatuor à cordes avec électronique en temps réel

commande de Françoise et Jean-Philippe Billarant ;

oeuvre réalisée à l’IRCAM

(Gilbert Nouno : réalisateur en informatique musicale)

durée : 38 min.

première audition : 17.12.2010, IRCAM (Paris) par le quatuor Diotima, Gilbert Nouno (électronique)et Philippe Manoury (projection sonore) Technique IRCAM

Editions Durand

Note de programme

Cliquer ici pour commander la partition

Cliquer ici pour commander le patch Max-msp à l’IRCAM

Voir ici un dossier vidéo sur cette œuvre.

Lire ici un entretien avec Eric Denut

Les procédés de composition utilisés dans Tensio

Fragments du Japon

Monday, May 9th, 2011

Visite à Monsieur Taniguchi, musicien du théâtre No.

Monsieur Masatoshi Taniguchi est un joueur d’Otsudsumi, tambour posé sur ces cercles métalliques et tendu avec des cordes sur un socle en forme de double cône. Le socle qu’il nous montre est vieux de 250 ans et il nous dit qu’il n’y en a pas deux de dimension égale comme il n’y a pas deux voix qui chanteront de la même manière. Cet instrument est posé sur le genoux gauche – le joueur étant assis à la manière traditionnelle des japonais – et se frappe de la main droite. La couleur des cordes indiquent le niveau du joueur : orange pour les débutants, bleu pour les confirmés, violet pour les maîtres. Ce tambour est une des trois percussions qui interviennent dans le théâtre No. La mouvement du bras droit commence toujours par un geste lent, ample, dirigé vers l’extérieur, et se referme brusquement sur l’instrument en une frappe sèche et précise. Le bras et le poignet, quelque soit sa direction, doit toujours être souple et détendu. Il convient de frapper la peau du tambour à son bord, le point d’appui se faisant avec la paume de la main. Le lent mouvement de bras qui précède la frappe rapide est comme une préparation, une accumulation d’énergie qui va se résorber en un temps infime dans le geste final. Pour accompagner ce geste, le joueur entonne un son (est-ce un chant ? Un cri ?) qui se coupe net au moment de la frappe sur le tambour. Ce son proféré (une sorte de I-Ôh….) est le plus souvent attaqué au fond de la gorge mais doit prendre son élan dans le ventre et se propulser du bas de l’abdomen vers le haut. Parfois il est entonné dans le registre falsetto, le plus souvent lorsque il doit se prolonger.

Monsieur Taniguchi, un solide gaillard d’une quarantaine d’années, connaît par cœur une cinquantaine de pièces musicales – ce répertoire comprend environ 500 formules différentes – et les enseigne à de futurs professionnels ou même à des jeunes filles qui l’étudient pour l’amour de l’art car les femmes ne sont pas acceptées dans les représentations du No. Il connaît par cœur non seulement la partie qui lui incombe, mais aussi toutes les autres parties des deux autres percussionnistes, et également le texte de la pièce qui est chanté. Dans ses cours, il chante lui-même ce texte comme il doit l’être tout en jouant les différentes parties des autres percussions sur un petit instrument rectangulaire, fabriqué en orme, (un instrument de répétition qui sonne fort bien) à l’aide de deux baguettes. Les élèves doivent alors superposer leur partie à ce canevas sous l’oreille infaillible du maître qui reprend, ici un rythme inexact, là un port de voix inapproprié ou encore une frappe indécise. Monsieur Taniguchi s’adresse à eux avec bienveillance, attention, évitant toute posture d’intimidation, mais aussi avec rigueur et précision. Les élèves, quelques soient leurs talents ou leurs niveaux, sont tous dans le respect de celui qui sait et qui leur montre la meilleure manière de jouer. Les cours se commencent et se terminent par un salut mutuel dans lequel toute hiérarchie semble abolie.

Le rapport de la voix avec la percussion se décale souvent en formules syncopées, mais toujours l’instrument sonne le coup d’arrêt de la voix. Une formule musicale de base est constituée d’une sorte de levée (up-beat) dans laquelle le joueur doit mentalement prononcer le mot « tsu » qui doit donner son élan au bras, s’ouvrant vers l’extérieur, pendant que la voix produit ce « Oh », pendant une durée assez prolongée, qui va se résorber brusquement dans le geste final sur le tambour :

« Tsu ! I-Oh……. Tambour »

Cette brève anacrouse mentale, suivie du geste lent du bras lié à la voix qui s’interrompt brutalement donne d’emblée une image des contrastes rythmiques sur lesquels cette musique est basée. Mais cela n’est que l’enveloppe d’un langage beaucoup plus complexe. Le point le plus fascinant de cette musique réside dans les immenses et incessantes variations des tempi. Il n’existe à ma connaissance – si ce n’est dans la tradition balinaise – aucune autre musique qui opère des écarts de tempi aussi extrêmes. Le terme de « tempo » serait d’ailleurs impropre à décrire ce phénomène car il ne s’agit pas ici de sub-division d’une durée telle qu’on la connaît en Occident, mais d’une conception de la durée dans laquelle le geste et la voix sont intimement liés. Monsieur Taniguchi, tout en psalmodiant le texte, agite ses baguettes sur le petit instrument de répétition et marque les changements de vitesse de cette musique. Se créent alors des variations de tempi qui, lorsqu’ils deviennent extrêmement lents, se transforment en durées pures, en respirations dans lesquelles le geste du bras et le port de la voix semblent une prémonition de la violence avec laquelle le tout va se refermer. Parfois les tempi se stabilisent dans un registre médium, parfois ils montent à des vitesses frénétiques pour se précipiter ensuite dans une extrême lenteur. A l’écoute de cette musique on suit des courbes, des fonctions continues du temps, qui semblent d’autant plus organiques qu’elles mêlent la psalmodie, les interventions vocales et les gestes. En suivant ces courbes on est, tout à la fois, surpris et apte à anticiper sur le devenir de ces phrases musicales et sonores * qui, avec si peu de moyens, parviennent à alterner des moments de tensions et de détentes sans cesse renouvelés. On se dit que cet art est tout aussi bien physique qu’intellectuel et qu’il n’y a pas lieu de faire la différence entre ces termes.

Lorsqu’on demande à Monsieur Taniguchi si ces variations du temps sont dépendantes du texte qui est psalmodié, il répond que « c’est comme ça » depuis que la tradition existe. On voudrait savoir si tout ce qui est joué est rigoureusement figé. Il tend à son élève un petit cahier et lui demande de psalmodier le texte écrit. Il improvise alors une séquence, souvent chantée en falsetto, dont seuls le début et la fin sont fixés. L’élève ne maîtrisant pas encore la déclamation, il avoue avoir été mal à l’aise dans ses interventions. On lui demande alors comment il est possible de mémoriser une telle quantité d’informations. Il montre le petit cahier rempli de caractères chinois et japonais qui sont écrits en noir pour le texte de la pièce et en rouge pour les interventions musicales. Comment a-t-il fait lui ? Il a commencé à l’âge de six ans.

Nous prenons congés dans un dernier salut. Nous irons l’écouter au théâtre No et reviendrons assister à d’autres cours d’Otsudsumi.

Kyoto, le 28 avril 2011.

* L’anticipation dans la musique japonaise est un des mystères qui m’ont fait venir dans ce pays, et j’en ai eu ici une première réponse.


Bunraku à Osaka.

La ville d’Osaka, c’est connu, est la gardienne de la tradition de ce théâtre de marionnettes japonais appelé Bunraku. Rappelons brièvement en quoi cela consiste. Des marionnettes, de la grandeur presque humaine, sont actionnées par 3 personnages habillés de noir, dont deux ont le visage dissimulé sous une cagoule noire. Le seul qui agit à visage découvert – il était masqué autrefois, et ce serait sur une demande du public qu’il aurait ôté son masque – manipule la tête (et par là tout le corps dans ses mouvements d’avant en arrière et de bas en haut) et le bras droit de la marionnette. Les deux autres marionnettistes agissent, l’un le bras gauche, l’autre les deux jambes. La coordination des mouvements de ces trois marionnettistes obéit à une synchronisation d’une extrême virtuosité. Tous les gestes de la marionnette doivent, en effet, être aptes à l’animer, à lui « donner vie », dans une recherche de réalisme et d’expressivité optimale. Tout cela est le fruit d’années de travail dans lesquelles la tradition se perpétue de génération en génération. Sur le côté droit de la scène se tiennent un « acteur »/chanteur, qui récite le texte, et un joueur de shamisen (un luth à 3 cordes) qui parfois ponctue son jeu par de brèves et expressives onomatopées.

L’aspect le plus fascinant de cette forme théâtrale, mise à part la grande virtuosité qui est requise dans la synchronisation de tous ces éléments, consiste en une chose qui est totalement étrangère au théâtre européen et de laquelle naît toute la tension : la séparation des éléments visuels et sonores. L’interprétation du texte, avec ses multiples variétés d’intonation, liée à la musique, ne provient pas du même lieu que les corps des personnages.

La voix de l’acteur/chanteur (il est parfois difficile de tracer la frontière entre ces deux modes d’expression) passe successivement d’un timbre rauque et guttural à une voix de fausset, lorsqu’il doit interpréter le rôle d’un enfant ou d’une femme, pousse des hurlements symbolisant la colère ou le désespoir, une crise de rire frénétique, ou se faire l’écho distancié d’un simple narrateur. La figure de ces « acteurs »/récitants – ils alternent suivant les répertoires – est à elle seule un fascinant spectacle. Lorsqu’ils apparaissent sur leur podium, en état de grande concentration, il est difficile d’imaginer que leurs visages deviendront rouges, que leurs voix seront soumises à de si extrêmes tensions, qu’ils se travestiront vocalement jusqu’à des limites que l’on ne peut soupçonner. On imagine alors les années d’exercices auxquels ils ont dû se livrer pour acquérir une telle technique. Assis sur la gauche de l’ « acteur »-récitant, le jouer de shamisen, lui, tout en déployant parfois une grande virtuosité, reste « de marbre ». Son jeu suit (ou provoque… on ne sait) les tensions et détentes incessantes dans le jeu des personnages. Son instrument, qui de prime abord paraît assez rudimentaire, s’avère doté de ressources expressives inattendues : des glissandi, des attaques sèches et brutales, des sons délicatement vibrés, une absence totale de tempo, comme si tout était improvisé sur le moment. Ces deux artistes ne se regardent jamais, comme ils ne regardent jamais le mouvement des marionnettes sur la scène. Celles-ci sont comme en état d’apesanteur, car conduites par le bras gauche du marionnettiste qui ne porte pas de masque. Leurs déplacements et leurs avancées subites semblent défier toutes les lois de la gravitation et leur confèrent un pouvoir presque surnaturel. Parfois un geste lent, tout en rondeur, prélude à un mouvement d’une extrême rapidité. Le visage de ce marionnettiste est aussi impassible et inexpressif que possible ; ses gestes relèvent autant de l’art que du rituel. Tout est réglé à la perfection dans ce théâtre où chaque intervenant accomplit son « rôle », semblant tout à la fois isolé dans son monde propre et pleinement intégré, immergé dans l’œuvre. On pense subitement à l’aphorisme d’Héraclite sur le rêve : Pour ceux qui sont éveillés, il n’est qu’un seul monde commun, chacun de ceux qui s’endorment retourne à son propre monde. Car il y a bien plusieurs mondes dans ce théâtre. Celui des personnages « incarnés » par les marionnettes, celui de la voix du récitant, celui de l’instrument, mais aussi celui des marionnettistes. Ces mondes sont distincts, séparés même, et forment pourtant un tout. Et c’est ce qui rend ces représentations fascinantes. On peut, tour à tour, regarder la scène, écouter la voix, regarder l’ acteur/chanteur, le musicien ou les marionnettistes, se concentrer sur chacun d’eux comme tenter de participer à la totalité.

Cette multiplicité de sensations, loin de morceler les actions visuelles et sonores, les mélange au contraire et nous place dans une situation ambiguë. On se trouve là devant ce curieux dilemme : comment la tension dramatique peut-elle naître d’une séparation aussi nette entre les éléments qui la composent, et qui, de surcroît, se montrent dans toute leur lumière, sans aucun artifice. Où se situe la chair de ces personnages, le plus souvent tragiques ? Certaines pièces évoquent le double suicide de deux amants que ne peuvent empêcher ceux qui recueillent leur enfant, les deux actions se déroulant simultanément sur deux côtés de la scène. Les personnages sont représentés par des marionnettes comme dépourvues de vraie corporalité. L’élément charnel est alors porté par ce qu’il y a de plus « immatériel » : les sons de la voix de l’acteur/chanteur et par ceux de la musique du shamisen. Les expressions des marionnettes sont livrées dans sous une forme d’où rien n’est dissimulé et tout est montré. On se demande alors si les marionnettistes ne sont pas à leur tour manipulés par un marionnettiste supérieur qui coordonnerait tous leurs mouvements, comme une mise en abîme de leur art. La magie naît du dévoilement, on pense tout saisir, et cela reste un mystère.

Kyoto, le 8 mai 2011.


L’Uguisu, ou le charme de la structure.

A la différence d’Olivier Messaien, je ne suis pas ornithologue. Mais un oiseau n’a cessé de chanter devant ma fenêtre, à Kyoto, chaque jour depuis deux mois.  J’ai donc eu tout le loisir d’apprécier la complexité de son chant. Il s’agit de l’Uguisu, aussi appelé Bouscarle chanteuse du Japon. Messiaen, dans ses Sept Haikai, le note ainsi :