Posts Tagged ‘Bach’

1.1.4 Suite : Gavotte

Tuesday, November 2nd, 2010

Par un de ses tours, dont il avait le secret, Berg fera de cette Gavotte une forme éminemment dramatique. Deux thématiques sont ici en présence :

la critique morale et religieuse du Capitaine : Wozzeck n’a pas de morale, il a un enfant qui n’a pas reçu la bénédiction de l’église.

Ce sermon n’aura d’autre effet que de faire sortir Wozzeck de ses gonds, préparant ainsi le terrain pour l’Aria « Wie arme Leut ! » qui le représentera plus que son propre leitmotiv.

Il n’y aura pas de fermeture de la forme sur elle-même, comme cela a été le cas précédemment, mais au contraire une non-fin : Wozzeck prendra la parole et l’Aria interrompra la Gavotte en plein cours.

1.1.4.1 Une entrée en canons.

La Gavotte est une danse lente à 4 temps dont les chacun d’eux est appuyé comme on peut l’entendre dans cet autre extrait d’une suite de Bach.

Ici la section « obligato » passe aux 4 trompettes. Ces « trompettes de la renommée » sont ici le symbole de la morale sociale et du dogme. Berg va parodier le style « choral luthérien », comme il le fera également dans le second acte en jouant avec des procédés d’écriture très conventionnels. Une entrée en canons à 4 voix sert d’ouverture à cette Gavotte. Chaque voix progresse dans l’aigu tout en agrandissant les intervalles qui constituent le motif. Ce motif est repérable par son contour mélodique plus que par son contenu intervallique. Chaque note d’aboutissement correspond également à la montée vocale du Capitaine scandant : “Moral ! Moral ! moralisch ist !”

L’accompagnement de ces voix en canons progressant vers l’aigu, s’écarte au contraire en s’éloignant vers le grave, tel que nous le voyons ici dans la partie des bassons :

Les parties internes progressent, elles, chromatiquement par mouvements contraires :

Le Capitaine montre ici l’étendue de sa bêtise : « Wozzeck n’a pas de morale ! La morale c’est quand on a de la morale ! (Tu comprends ! C’est un bon mot !) ». La bêtise des militaires, leur manque d’éducation, seront une constante dans cet opéra et trouveront leur apogée dans la dernière scène de ce premier acte.

1.1.4.2 Le motif religieux.

Au chiffre 120 de la partition intervient un second motif qui, par son allure et son accompagnement, fait immédiatement référence à un choral luthérien : des accords sévères à l’intérieur desquels les voix obéissent à des mouvements conjoints. Voici un exemple de cette écriture chez Bach :

 

Berg utilisera, on le sait, un véritable choral de Bach à la fin de son Concerto à la mémoire d’un ange

Il reviendra sur cette forme, dans une manière encore plus ironique, au cours du scherzo du second acte lorsqu’il s’agira de parodier un sermon d’église entonné par deux ivrognes. Voici ce motif (lorsque le Capitaine dit à Wozzeck: « Il a un enfant qui n’a pas reçu la bénédiction de l’église ») :

Plusieurs constatations sont à faire sur ce motif. Son profil mélodique révèle qu’il n’est autre qu’une transformation du motif de la Gavotte :

La conduite des voix internes obéit à des mouvements chromatiques retournés et conjoints :

La partie de basse est constituée d’une alternance sur les secondes ré et do :

Tous ces petits traits d’écriture se retrouveront dans la suite de cette Gavotte. Berg, on l’a vu à maintes reprises, cherchait toujours à être le plus conséquent possible avec son traitement musical.

1.1.4.3 Une aparté avortée…

Wozzeck cherche a sortir de son mutisme et à « en placer une ». Le « Ja-wo… » chanté sur le do#, qu’entretiennent les violoncelles et contrebasses, n’est autre qu’une tentative avortée de chanter le motif de la soumission, tel que nous l’avons entendu depuis le début : « Ja wohl ! Herr Hauptmann ! ».

Mais le Capitaine lui coupe immédiatement la parole pour spécifier que cette phrase a été dite par l’aumônier de la Paroisse, et qu’elle n’est pas de lui, comme il va le préciser tout de suite après. A ce moment l’orchestre, sur le « do# » des basses, développe deux éléments que nous venons de voir : les mouvements chromatiques descendants des pizzicati (cf. exemple 2). La trompette, quant à elle, prolonge les dernières notes chantées par le Capitaine sur le mot “Kirche“, sol et la bémol :

Avec encore plus d’emphase, le Capitaine va asséner une seconde fois sa phrase accusatrice avec le secours de toute l’harmonie. Il s’agit de la transposition une seconde plus haut et d’une orchestration plus fournie des mesures 121 et 122 précédentes :

Noter qu’un seul des accords ne correspond pas exactement à celui de la première harmonisation de ce choral. Comme le montre l’exemple ci-dessous, l’avant-dernier accord aurait dû comporter un si bécarre et non du do# pour correspondre à la transposition de la formule originale (voire notes en rouge) :

Est-ce une erreur ? Une modification volontaire ? Je n’ai malheureusement pas l’explication de cela.

1.1.4.4 Une première tentative d’aria.

Ici, Wozzeck va faire une première entrée, coupant, à son tour, la parole au Capitaine. Dans les 3 mesures qui interviennent ici, les 4 trompettes laissent la place aux 4 cors pour jouer les parties « obligato ». Mais le plus frappant est cette entrée des cordes en descentes chromatiques. Avant d’analyser le contenu de ces quelques mesures, il faut noter que cette sonorité de cordes annonce celle qui servira d’obligato pour l’aria qui va suivre (cf. mesure 136 et suivantes). Il s’agit donc bien ici d’une première tentative d’un aria qui va être brusquement coupé lorsque le Capitaine se montrera interloqué par ce qu’osera dire Wozzeck :

Les éléments qui composent ces quelques mesures sont, si l’on y regarde bien, déjà connus. Les mouvements de tierces chromatiques, dans les parties de cordes, rappellent bien sûr celles du début de la Gavotte (cf. exemple2). Mais la figure principale, jouée au premier cor (en rouge dans l’exemple suivant), est un peu plus caché :

Pour en trouver la clé, il faut revenir au tout début de cette Gavotte et suivre la ligne supérieure qui était jouée par la seconde trompette à la mesure 117, ici notée en rouge :

Ce motif dérivé du thème de la Gavotte, va se trouver ensuite repris par les violoncelles et contrebasses dans la mesure suivante :

1.1.4.4 Une fausse reprise.

Ici, Berg va nous montrer, encore une fois, et nous verrons bien d’autres exemples de ce type, comment concilier la forme musicale avec la forme dramatique. Les trois mesures qui suivent, s’enchaînent sans ruptures avec ce qui précède. Peu de chose, à l’écoute, semble marquer une reprise du début de la Gavotte. La voix continue à chanter dans ces lignes courbes, et les clarinettes semblent répondre à ce que produisaient les cors précédemment. Mais l’examen de la partition montre que Berg va maintenant unifier le thème de la Gavotte avec le thème religieux, et montrer la dérivation du second par rapport au premier. Les triolets que jouent les clarinettes ici :

Fait immédiatement penser aux triolets des entrées en canon entre les 4 trompettes du début :

Mais si l’on regarde précisément les intervalles constituant cette ligne mélodique, on y voit très clairement le motif du choral religieux.

Ce qui va encore se passer dans la dernière mesure « Noch langsammer » va conclure cette incartade de Wozzeck dans la logorrhée du Capitaine. À la remarque de celui-ci sur le fait que son enfant ne soit pas baptisé, Wozzeck fait preuve ici d’une vive répartie : « Le bon dieu ne lui en voudra pas, à ce pauvre vermisseau, si on n’ pas dit Amen sur lui avant de le faire. Le Seigneur a dit : « Laissez venir à moi les petits enfants. » ». Lorsqu’il chante cette phrase, il le fait sur le thème du choral religieux et, accompagné par les 4 cors qui jouent toujours ici le rôle d’obligato, il termine sur une note poignante sous laquelle Berg fait intervenir une conclusion tonale : c’est sur une dominante d’ut mineur que termine ici cette phrase, dont la note fondamentale (sol) est délicatement jouée par les premiers violons en octave, introduisant ainsi une « lumière » sonore autant que mentale, mais surtout mettant en évidence un ancrage dans une situation culturellement identifiable (la demi cadence tonale) qui rendra encore plus abrupt le fait qu’elle soit coupé brutalement dans conclusion :

1.1.4.5 Une Gavotte qui ne finit pas.

Berg, une nouvelle fois, va jouer la rupture de ton. Ce que va dire maintenant le Capitaine ne peut plus l’être dans le rythme lent et sévère de la Gavotte. Si les 3 mesures précédentes (130 à 132) étaient une reprise condensée des mesures 115 à 126, celle qui suit (133) va “expédier” la Gavotte en contractant les mesures 127 à 129.

Le Capitaine se montre tout à fait interloqué par une telle réponse qu’il n’attendait pas de la bouche de ce pauvre soldat. Il va s’exprimer en valeurs très courtes dans lesquelles un autre effet comique est introduit lorsqu’il prononcera le mot « konfus ! » sur un la bémol aigu, que Berg demande de produire « avec une voix haletante » :

« On me trouble l’esprit avec une réponse pareil ! On me laisse confus ! Et quand je dis « on », je veux dire « toi » ! « toi » ! » lui rétorque le Capitaine. Et Berg accentue ces pronoms, « on », « toi », « toi » sur une montée en tierce mineure qui reprend celle qui accompagnait les trois « Moral » du début. La raison de tout cela se trouve dans les pizzicati de cordes qui reprennent une dernière fois les entrées canoniques des trompettes au début :

La Gavotte a cessé d’être. Le rythme est maintenant haletant et l’obligato passe aux 4 trombones. Successivement, tous les groupes de cuivres se seront relayés dans cette section. Il ne reste plus que les formes mélodiques qui nous rattachent à cette Gavotte, mais le rythme a disparu. Nous entendons d’abord le motif présenté lors de l’exemple 15 joué ici dans une très grande vitesse :

La fin de cette précipitation des 4 trombones montre la reprise du motif précédent (en bleu), le thème religieux (en rouge), les mouvements chromatiques (en vert) et l’alternance sur les 2 sons que l’on a observé à déjà deux reprises lors des exemples 7 et 10 (en jaune) :

La toute fin de cette Gavotte montre un premier trait dramatique et orchestral qui est un peu comme une signature dans cet opéra : le collage. Il arrivera souvent que Berg juxtapose brutalement deux structures musicales que tout oppose pour créer un choc dramatique. Cela sera très clair dans la berceuse qui suivra cette scène (voire mesure 363 de la partition d’orchestre). C’est déjà le cas ici. Les montées chromatiques des trombones qui « envoient au diable » cette Gavotte, sont laissés comme inachevés, pendant que les cordes introduisent l’aria qui suit. :

Wozzeck, qui ne tient plus, face aux sarcasmes du Capitaine, va pouvoir enfin dire ce qu’il pense. Il se dégage de sa soumission, dont le do# des basses rappelle l’existence, et va chanter son Aria.

© With kind permission by UNIVERSAL EDITION A.G., Wien

1.1.3 Suite : Gigue

Saturday, October 30th, 2010

1.3.1 La Gigue comme prétexte.

Après l’éternité, la cosmologie et la fuite métaphysique du temps, brusque retour sur terre. Ce n’est plus le « temps qui passe » que le Capitaine va maintenant évoquer, mais le « temps qu’il fait ». Ce rétrécissement soudain donne la mesure de ses errements mentaux. Rien, bien sûr, n’est développé dans ce cerveau de militaire où l’on passe du macrocosme cosmologique au microcosme terrestre en un rien de temps. Où bien, vu le peu de considération qu’il a pour le cerveau de son interlocuteur qui ne réagit pas à ses réflexions métaphysiques, il va tenter de communiquer avec lui sur des sujets plus factuels. La méthode portera cependant ses fruits, car Wozzeck sortira peu à peu de son mutisme pour éclater en un cri de colère et de révolte qui sera le sujet de l’aria qui terminera cette suite. Une première libération dans sa faculté de s’exprimer est donnée par sa réponse à la question : quel temps fait-il aujourd’hui ? Il répond : « Sehr schlimm, Herr Hauptmann ! » sur la même formule du « motif de la soumission » que lorsqu’il chantait : « Ya-wohl, Herr Hauptmann ! ». Même nombre de syllabes, même rythme, même hauteur, seuls les mots ne sont plus les mêmes. Il précise ensuite sa réponse sur la même note (do#), mais chantée à l’octave supérieure , se permettant même un cresendo-decrescendo :

Exemple 1:

Le troisième mouvement de cette suite est présenté comme une Gigue. Pas plus que dans la Pavane qui précède ou dans la Gavotte à venir, nous pourrons entendre clairement ce qui fait la spécificité de ses formes de danses anciennes : un tempo, et un profil rythmique caractéristique. Mais, à l’analyse, nous voyons que ces éléments sont bien présents, mais comme travestis sous la forme dramatique. La Gigue est une danse d’allure modérée dont le rythme est une alternance de valeurs brèves et longues. En voici un exemple dans cet extrait d’une suite de Bach.

Le thème de la Gigue chez Berg respectera cette alternance rythmique, tel que nous le voyons exposé ici aux violoncelles à la troisième mesure après le chiffre 65 de la partition :

Exemple 2 :

Ce n’est pas ce motif qui, toutefois, va dominer au cours de cette section, elle n’est en fait qu’un simple prétexte.

1.3.2 L’organisation du vent.

Berg, toujours fidèle au contexte dramatique, va utiliser un autre motif plus en accord avec la situation. Le vent souffle en rafales dehors, et Berg le peint avec des traits rapides, montants et descendants, joués par 3 flûtes qui évoquent le soufflement aigu du vent tel qu’on l’entends dans les cheminées :

Exemple 3 :

Ces trois flûtes deviennent, pendant tout le temps de cette Gigue, le nouvel ensemble obligato. Cependant, comme toujours chez un compositeur de la qualité de Berg, les éléments musicaux ne se réduisent pas à un simple pouvoir évocateur, mais ont une importance structurelle dans le contexte de l’œuvre. Ces « rafales de vents sonores » sont tout d’abord présentées sous la forme de gammes descendantes au début de la Gigue :

Exemple 4 :

Une formule de trois notes descendantes (entourées en vert) sert de base à ces figures. On la retrouvera, quelques mesures plus loin, exploitée de toute autre manière. Dans le premier groupe, il ne s’agit pas de figures parallèles mais d’un mode : [do – ré – mib – fa – sol – la – si] que l’on peut vérifier dans les trois voix superposées. Lors de la première reprise variée, ce contexte modal disparaît au profit d’une organisation intervallique plus locale. Les quatre premières notes semblent encore tributaire d’un mode, qui serait cette fois : [do – re – mi – fa – sol – la – sib], mais qui ne se vérifie plus dans le groupe de deux notes suivantes, lesquelles contiennent également un « si naturel » (flûte1) , un « mib » » (flûte2) et un « réb »» (flûte3). Nous aurons à faire ici à un parallélisme relatif, les flûtes 1 et 2 étant écrites sur les mêmes intervalles, tandis que la troisième dévie par rapport aux deux autres : une seconde mineure descendante entre les parties 1 et 2, qui devient majeure dans la partie 3. La seconde variation de cette figure va encore accentuer ce modèle. Lors de la descente, les flûtes 1 et 2 jouent dans un parallélisme rigoureux, tandis que la flûte 3 dévie dès la troisième note (1 seconde mineure et 1 seconde majeure dans les parties 1 et 2 et 2 secondes majeures dans la partie 3). Lors de la montée les déviations seront aux à la flûte 2 : 3 seconde majeures à la flûte 1 et 3 contre 1 seconde majeure + 1 seconde mineure + une seconde majeure à la flûte 2.

1.3.3 Organisations modale et parallèle.

Si je me suis attardé sur ces deux principes d’organisations, c’est qu’ils vont avoir une importance cruciale lors de la « scène de l’étang ». Je les résumerai rapidement :

l’organisation modale se vérifie dans toutes les voix lorsque l’on retrouve les mêmes notes à différentes octaves. La gamme par ton chez Debussy et toute la théorie des modes à transpositions limitées de Messiaen obéissent à ce principe. Dans ce cas les parallélismes sont relatifs. Cet exemple pris dans le début de La cathédrale engloutie de Debussy l’illustre parfaitement. Les accords parfaits ont parfois une tierce majeure, parfois mineure.

Exemple 5 :

l’organisation parallèle donne à chaque voix la même valeur de déplacement. Elle rend impossible l’organisation modale sauf dans les cas où les modes sont composées d’intervalles égaux (gamme par tons où gamme chromatique). L’exemple suivant, qui se trouve au début de la scène des souterrains dans Pelléas, le montre :

Exemple 6 :

Ces deux méthodes ont des conséquences importantes quant à la perception. L’organisation modale (ou tonale) favorise une perception du contexte harmonique puisque les sons sont comme figés dans l’espace des hauteurs, par exemple un « si » sera toujours bémol et un « fa », toujours dièse. On perçoit alors une stabilité harmonique qui est vérifiée par tous les mouvements internes de toutes les voix. En revanche, l’organisation parallèle donne la primauté lignes, et non au contexte harmonique. La perception sera plus mélodique car toutes les voix obéiront rigoureusement aux mêmes mouvements, et l’on ne retrouvera pas la même organisation des hauteurs dans différentes parties internes.

Une autre remarque peut être faite, quant à cette brève introduction du « motif du vent ». Chaque premier accord de chacune des trois formules est en légère modification, l’un par rapport à l’autre :

Exemple 7 :

Chaque accord de fin dans les descentes est construit, en revanche, de la même manière :

Exemple 8 :


Berg, lorsqu’il reprendra ce matériel, l’intégrera dans un contexte musical tout à fait différent. Cependant il va immédiatement l’exploiter dans les cordes lors des « rafales » qui suivent. Nous voyons le premier accord [fa-sib-la] qui s’ouvre chromatiquement par mouvements contraires :

Exemple 9 :

Notons également, avec quel souci Berg compose ses « rafales » dans le même passage aux trois flûtes. Si nous observons les ambitus des accords nous constatons qu’ils sont d’une sixte majeure au début, pour aboutir à une septième majeure, au sommet de la montée, pour revenir dans une sixte majeure à la fin. Ils s’écartent progressivement en montant et se rétrécissent en descendant. Au moment où l’accord des cordes s’ouvre chromatiquement, les flûtes s’écartent également l’une de l’autre. La même constatation peut être faite pour le trémolo des violoncelles qui, tel l’accord des cordes, s’écarte chromatiquement. Certes, ce ne sont là que des petits détails, mais qui prouvent que, pour obtenir le maximum d’intensité expressive, Berg utilise une même technique (agrandissement des intervalles d’un accord), hors de tout systématisme, mais dans une grande rigueur de construction.

La première phrase de cette « Gigue » s’achève sur une stabilisation des 3 flûtes qui se superpose à un motif joué par les alti et le cor qui, par son profil mélodique, n’est pas sans rappeler le motif de l’obsession :

Exemple 10 :

1.1.3.4 L’effet d’une souris.

Vient alors 5 mesures pendant lesquelles le Capitaine dit « que le vent qui court dehors lui fait l’effet d’une souris ». Cette course du rongeur est une progression vers l’aigu dans laquelle voix monte par degrés chromatiques pour aboutir à un sol# trillé, du plus parfait effet comique :

Exemple 11 :

Les 3 flûtes ici laissent la place à un trio de clarinettes (pour des raisons de tessitures) qui alterne des motifs de 3 croches descendantes avec des septolets de triples croches en montées chromatiques :

Exemple 12 :

Les rafales de vents précédentes sont ici remplacées par des « courses de souris » jouées par 3 violons solos. Il faut noter que ces entrées en canons coïncident, notes pour notes, avec les figures de 3 croches des clarinettes :

Exemple 13 :

Les alti, en pizzicati, préparent le motif de la soumission, avec lequel le Capitaine va railler Wozzeck :

Exemple 14 :

1.1.3.5 Un nouveau motif ?

La seconde partie de cette Gigue s’ouvre sur un motif strident joué par 4 flûtes, semblant décrire cette souris qui se cache dans un trou. Si rien n’indique ici que nous sommes en présence d’un motif connu, la suite va nous renseigner sur son origine. Voici ses différents états. D’abord, « la fuite de la souris » que l’on peut définir comme une succession de sixte majeures descendantes:

Exemple 15 :

Le même matériel de hauteur est ensuite utilisé par cette figure vocale accompagnée par la harpe, dans laquelle on reconnaît un rythme brève-longue :

Exemple 16 :

Un troisième état de cette cellule est ensuite joué par les violoncelles et altos en montées de pizzicati, en transpositions successives au demi-ton supérieur :

Exemple 17 :

La solution va nous être donnée maintenant. Quelques huit mesures plus loin (97), nous retrouvons cette même cellule à la voix (à nouveau accompagnée par la harpe). Cette fois-ci le rythme brève-longue et les valeurs pointées se font plus évidents :

Exemple 18 :

Et c’est finalement le violoncelle qui apportera la clé de l’énigme dans la phrase qui suit immédiatement et qui paraît un commentaire de ce que vient d’énoncer la voix :

Exemple 19 :

Il s’agit bien du motif de la Gigue, dont seule la deuxième note est changée (fa au lieu de mi, cf. exemple 2). C’est ainsi que ce « motif de la souris », par transformations successives, n’était autre que le thème de la Gigue travesti.

1.1.3.6 La cellule du « vent »

L’autre élément de cette section est constitué d’un accord, joué d’abord par 4 hautbois (la, réb, do et mib) qui glisse sur lui même aux 4 flûtes. Chacun de ces accords différents, est constitué de ces 4 mêmes notes :

Exemple 20 :

Cet accord va ensuite se contracter en 2 formes différentes, de plus en plus resserrées, dans des durées de 3 croches :

Exemple 21 :

Ce qui suit, aux cors, est rigoureusement une diminution rythmique de ces mêmes accords :

Exemple 22 :

Les mesures qui suivent utilisent le même matériel, mais transposé et modifié. Nous retrouvons les 3 accords en valeurs longues (mais ici leurs durées sont de 2 et non 3 croches) dans cette phrase de corde :

Exemple 23 :

Quant aux transpositions des montées en pizzicati (cf. exemple 17), nous les retrouvons ici, en une diminution rythmique, jouées à la clarinette basse et aux bassons :

Exemple 24 :

Les triolets de cors (exemple 21) passent maintenant aux trompettes, en séquences interrompues de 4, 3 et 2 figures :

Exemple 25 :

Ce n’est que lorsque les 3 flûtes « obligato » vont faire leurs rentrées à la mesure suivante que l’on comprendra d’où venaient ces 3 accords cités dans l’exemple 20. Il s’agit de la reprise textuelle, une octave plus bas et staccato, des figures que ces mêmes flûtes jouaient au début de cette Gigue :

Exemple 26 :

On voit que dans les deux cas, qu’il s’agisse du motif de la Gigue, ou du motif du « vent », Berg utilise un procédé similaire, mais pas identique, qui consiste à partir sur une forme éloignée de l’original qui va progressivement retrouver son aspect initial.

1.1.3.7 Le capitaine : un personnage « bête et méchant »

Mais que se passe-t-il ici entre les deux personnages ? Le Capitaine dit qu’il s’agit d’un vent sud-nord. À la réponse de Wozzeck « Ya wohl ! Herr Hauptmann », toujours entonné sur le motif de la soumission, le Capitaine répète « Sud-Nord !» et se met à rire de façon compulsive. Ce rire nous échappe car il n’y a pas ici matière à plaisanterie. S’il rit, c’est de la soumission de Wozzeck. Et Berg nous le montre clairement :

Exemple 27 :

Le capitaine conclut même par cette phrase « Oh ! Tu es affreusement bête ! ». Dans la mise en scène de Patrice Chéreau, il va même jusqu’à gifler le pauvre Wozzeck, qui a à faire face à un Capitaine, chanté et joué par un Graham Clark absolument déchaîné, provenant de la plus pure veine de méchanceté burlesque que l’on trouve dans certains films de Kubrick (« A clockwork Orange ») ou même des Monty Pythons ! Le Capitaine finit par s’étrangler à fore de rire nerveusement. Wozzeck est un opéra où l’on chante, parle, utilise le sprechgesang, mais aussi où l’on rie, tousse, ronfle, siffle. Tout un éventail de productions vocales est mis à l’épreuve dans cet opéra.

Lors de ce passage, les trombones reprennent le motif qui était joué au cor aux mesures 72 et 73 et que nous avions vu comme pouvant être celui de l’obsession :

Exemple 28 :

1.1.3.8 Une réexposition conclusive.

Tous ces exemples nous montrent le soucis de Berg de maintenir une structure formelle aussi rigoureuse que possible dans le choix et le retour des éléments thématiques, tout en privilégiant le caractère dramatique dans la présentation de chacun d’eux. Cette double mise en évidence de la structure et de l’expression va encore se manifester dans la fin de cette Gigue.

Nous avons vu, lors de l’exemple 26 que les flûtes, reprenant leur rôle d’obligato, introduisaient ce qui ne peut être qu’une réexposition du début de la Gigue. Il reste ici une relique du motif de la soumission dans ce do# aigu qui marque les premiers temps de ce rythme ternaire à chaque mesure. La Gigue ici prend des allures de Landler lourd et pesant :

Exemple 29 :

Ce qui suit se situe dans la logique de ce qui précède. Nous verrons successivement les mêmes figures, notes à notes, dans les mêmes rythmes, mais transposées peu à peu dans le registre grave. Les flûtes laissent progressivement la place aux clarinettes, bassons et contrebasson. Il ne s’agit plus de décrire les rafales de vent à l’extérieur, mais l’essoufflement du Capitaine après son rire saccadé et nerveux qui peut à peu va se calmer :

Exemple 30 :

Mais pour resserrer encore son propos, Berg va écourter justement ce qui évoquait le vent au début. La figure des mesures 9 et 10 :

Exemple 31 :

Sera écourtée comme suit :

Exemple 32 :

1.1.3.9 La transition vers la Gavotte.

Le contrebasson, introduit dans les transpositions vers le grave précédentes, rappelle ce que jouait l’alto solo dans la transition entre la Pavane et le début de cette Gigue que voici :

Exemple 33 :

Nous retrouvons ici la même construction avec ces phrases montantes de 4, 5 et 6 notes :

Exemple 34 :

Ainsi, à la méchanceté bête et gratuite, va succéder, en l’espace d’un court instant, la goguenardise pendant laquelle le Capitaine, comme pour s’excuser, va dire à Wozzeck qu’il est un « guter Mensch », un homme bien. Cette pirouette, à laquelle le contrebasson prête sa voix et dont les élans vers l’aigu sont bien tristes, n’est cependant qu’une manière d’infliger encore une nouvelle leçon à ce pauvre Wozzeck. Celle-ci portera sur le point le plus scabreux : l’absence de moralité et de religion.

© With kind permission by UNIVERSAL EDITION A.G., Wien

La musique : un univers en expansion sauvage.

Thursday, October 23rd, 2008

La musique, c’est connu, peut posséder plusieurs fonctions dans la vie des hommes, fonctions affectives, imaginatives, curatives, religieuses, sociales, intellectuelles, divertissante, etc. Par sa nature éminemment abstraite et codée, elle ne peut pas prétendre à envahir la conscience des gens de manière aussi large que d’autres modes d’expression plus directement représentatifs. C’est peut-être aussi en raison même de son abstraction fondamentale, que la musique touche à une certaine universalité et a été considérée par de nombreux écrivains comme l’expression humaine la plus élevée qui se puisse exister. Ce ne sera pas là le sujet de cet article. Discuter de la nature des choses m’importe finalement moins que de leur place. Une chose me préoccupe depuis longtemps en tant que créateur de musique. On me dit souvent que la musique actuelle est coupée du public, ne réponds plus à ce que le public attends. Je ne pense pas être le premier à entendre ce discours. Les compositeurs des siècles passés en ont entendu d’autres de même nature. Je ne prétends pas ici apporter une quelconque réponse à cette interrogation qui persistera tant qu’une petite partie de l’humanité produira de la musique pour l’autre. Mais je vais chercher à comprendre quelle est la place de la musique dans notre monde actuel, du moins celui dans lequel je vis. A première vue cette place est minime, si l’on pense à la musique dite contemporaine. Si l’on pense à la musique de grande diffusion, force est de constater que sa place est écrasante. Comment gérer cette situation ? Art et Culture sont-ils identiques ? C’est à toute cette série de questions que je vais tenter de répondre.

 

Le souvenir des guerres et les traces de la culture

Que reste-t’il d’une civilisation passée si ce n’est le souvenir de ses guerres et les traces de sa culture ? Très souvent les deux ont même été liées. Une guerre laisse des chants, des récits, des épopées, un folklore. Elle permet aussi, dans le cas d’invasions ou d’immigrations, l’émergence de nouvelles pratiques culturelles, de “métissages” comme on dit aujourd’hui, qui n’auraient jamais vu le jour sans cela. Il ne s’agit pas de faire des guerres un prémisse indispensable à l’élaboration de cultures nouvelles mais de remarquer que ces pratiques culturelles sont le reflet de la condition des hommes qui n’est pas ni n’a jamais été, loin s’en faut, exempte de violence, de barbarie et de cruauté. Les notions de bien et de mal, mais d’autres l’ont dit mieux que je ne pourrai le faire, sont bien relatives.

Qu’en est-il aujourd’hui ? En ce qui concerne les guerres, on peut parfois faire confiance à nos dirigeants de faire tout leur possible pour nous les éviter. Tout du moins, la volonté de domination et d’hégémonie humaine a-t’elle trouvée de nouvelles formes pour s’exprimer : modèle social, économique, technologique et … culturel. Qu’en est-il du “culturel” justement ? Qu’est-ce réellement que ce que l’on appelle la culture ? Est-ce que culture et art sont des termes bien synonymes ? Non bien évidemment. Le second fait partie du premier. Il peut être complètement individuel tandis que l’autre est collectif. Il peut être le reflet d’une exception à l’intérieur de l’autre. Mais surtout il n’est qu’un aspect de l’autre qui ne se limite pas à cela. La culture comporte toute les pratiques qui émane d’une peuple. De nos jours les instruments ou, à première vue, se lisent le mieux la culture sont les médias. On peut y lire le pourcentage d’intérêt que la population accorde à telle ou telle pratique: le sport, la télévision, la littérature, le cinéma, la musique etc., mais aussi les comportements sociaux, intellectuels, idéologiques. On sait aussi bien sûr que les médias représentent un pouvoir (et je ne parle pas de pouvoir politique ici) qui oriente les pratiques culturelles pour les besoins de sa propre survie. Ils peuvent en tirer avantage, une fois les conditionnements établis. Plutôt que la parabole de l’oeuf et de la poule, ce serait celle de l’arroseur arrosé qui me semble évidente. En tout cas, on a trop facilement réunis ces deux termes, art et culture, en une même idée depuis longtemps pour s’étonner aujourd’hui qu’il n’y ait pas de confusion.

 

La guerre de l’art et de la culture.

Vu du côté des “politiques”, la culture peut servir à imposer un modèle social. Les exemples – et ne prenons que ceux de notre siècle – sont suffisamment connus pour qu’il n’y ait pas nécessite de les rabâcher lourdement. Les formes que revêtent la manière dont le pouvoir s’accapare et défend une certaine culture divergent suivant qu’elles émanent de la droite ou de la gauche. C’est sous la politique de droite que se sont développés les grands projets culturels en France depuis une trentaine d’années tels que l’éclosion des théâtres publiques dans les banlieues parisiennes (placés toutefois exclusivement sous des municipalités de gauche), la création des grands festivals, des centres de recherche musicales, des ensembles etc. Ceci est somme toute assez naturel vu que cette force politique a assuré le pouvoir sans discontinuité avant 1981. L’action culturelle, sous la droite, était vue (et tolérée) comme un contre-pouvoir. Les responsables de cette action, étaient d’ailleurs, dans une assez grande majorité des cas, de sensibilités plutôt opposée. Deux principes de sociétés existaient et se répertoriaient sous les noms de socialiste (et/ou communiste) et capitaliste (ou libérale). En arrivant au pouvoir, la gauche prit immédiatement conscience de cette force culturelle qui s’est développée ainsi pendant de nombreuses années pour l’utiliser et l’amener au rang de ses préoccupations majeures. Il se trouve que, par un hasard historique de circonstance, c’est sous la politique de gauche que s’est effondrée l’idéologie marxiste et communiste ne laissant plus alors aucun choix de société possible que celui d’une économie libérale. On peut applaudir ou pleurer cela ne change rien à l’affaire. De nos jours, la culture est favorisée par le pouvoir politique en tant que manifestation hautement sociale devant servir un dessein et un modèle de société. La classe politique, toujours confortée dans son savoir de ce qui constitue le bien de la société, continue d’oeuvrer pour la défense de pratiques culturelles qui lui permet, pense-t’elle, de résoudre certains problèmes en face desquels elle se montre impuissante à agir. Les difficultés financières, l’immigration, la paupérisation, les mouvements sociaux dans des banlieues qui sont prêtes à exploser, l’inquiétude croissante de la jeunesse vis à vis de leur avenir incitent le pouvoir politique à favoriser une démarche pragmatique, et surtout à aider les pratiques culturelles qui en émanent (tag, rave-parties, techno, rap etc….) non parce que le pouvoir politique voit dans ces pratiques une glorification de leur action comme c’était le cas autrefois dans les sociétés communistes, mais parce qu’en jouant cette carte-là, il joue celle de la compréhension dans une démarche visant à l’accalmie. Cette démarche de récupération de pratiques culturelles issues d’une position sociale contestataire se retrouve également dans l’évolution du statut de la musique rock qui s’est vue officialisée à partir des années 80. La culture, entrevue par le pouvoir politique, est encore aujourd’hui une affaire de propagande à ceci près que ce pouvoir n’est plus à l’origine du projet culturel mais se situe comme une prise en charge d’une émanation spontanée, représentant à terme un danger pour lui, à des fins de domestication. De nos jours, il semble que le rôle de l’État, loin d’être dictatorial (je parle ici des pays européens), évolue dans un système d’arbitrage entre le secteur public et le secteur privé et se propose de laisser jouer la concurrence tout en tâchant d’en contrôler les effets pervers. Le fonctionnement de la musique, dans cette situation, propose une excellente métaphore de cette dualité entre secteur privé et secteur public. Qu’y trouve-t’on ? Une culture de masse qui envahit progressivement la société toute entière au rythme d’une volonté de profit clairement affichée face à un État qui se désengage tout aussi progressivement vis à vis des artistes qui n’oeuvrent pas dans cette culture, voire qui apporte parfois son soutien, suivant en cela la stratégie exposée précédemment, à des pratiques culturelles dont le critère de rentabilité n’est pas mis en doute.

Plus personne ne pense aujourd’hui à une restauration de l’État-providence et les lois du marché sont bien celles qui semblent définir une grande partie du comportement social des individus. De plus l’image d’un État pourvoyeur de fonds qui subventionne une élite culturelle qui s’enfermerait dans des pratiques qui sont de moins en moins partagées par la population est un phénomène de plus en plus fréquemment attaqué. La musique dite contemporaine a récemment fait les frais de cette imagerie. Quelques uns de nos jeunes (et moins jeunes) idéologues se sont fait les champions de cette cause et n’ont pas du tout apprécié d’être taxés de “poujadistes” par ceux qui déploraient la réduction de l’aide accordée aux artistes. Ces attaques en règle, sous couvert de fidélité aux principes démocratiques, expriment bien évidemment plus une attitude revancharde (c’est maintenant à notre tour !) qu’une réflexion esthétique. Elles peuvent prendre la forme d’une remise en question historique de l’évolution musicale depuis une cinquantaine d’année qui aurait fait de la modernité un mot d’ordre que l’on se devait de suivre si l’on voulait avoir quelques chances de bénéficier des subsides du gouvernement. C’est l’opposition de pratiques culturelles limitées face à d’autres pratiques beaucoup plus collectives qui est ici en jeu. Les pratiques limitées se développent à partir d’une remise en cause, qui peut être soit radicale soit partielle, des conditionnements esthétiques. Quant aux pratiques collectives, elles jouent au contraire sur ces conditionnements préalables.

Cette guerre est celle de l’exception contre la règle, de l’individualité contre la norme. N’est-elle pas finalement celle de l’art contre la culture ? Le créateur isolé et novateur luttant contre une cohorte d’habitudes ancrées dans les comportements humains est une figure maintes fois aperçue au cours des siècles. Bach, Beethoven, Wagner, Debussy, Schoenberg et bien d’autres en font figure et ont laissés de textes. La célèbre phrase de Gutav Mahler  : “la tradition n’est rien qu’une succession de mauvaise habitudes” peut servir d’emblème à cette position. La situation est évidemment la même aujourd’hui. Il n’y a aucune raison pour que l’être humain change de ce point de vue-là. La seule différence, et elle est de taille, vient du milieu ambiant. La diffusion à outrance de la musique dans tous les coins de la société est un phénomène qui a prit un essor incommensurable depuis la dernière guerre et qui change radicalement les rapports de forces en présence. Il est impossible ne pas tenir compte de ce phénomène dès que l’on cherche à analyser quelle est la place de la musique dans la société et quelles fonctions elle peut y occuper.

Dans cette guerre entre art et culture, il faut d’abord éliminer quelques vieilles images d’Épinal qui ont trop vécues. La première serait celle de la glorification d’une culture élitiste contre une culture de masse qui voudrait que, provenant de l’imagination d’un individu isolé, la qualité en serait plus grande. Une qualité artistique, si tant est que l’on puisse la définir, peut demander du temps à se révéler comme elle peut aussi disparaître rapidement. La culture est un creuset qui regroupe maintes formes de l’activité humaine et les mécanismes qui sont catalyseurs de l’imagination artistique d’un individu sont (et resteront) de toute manière totalement incompréhensibles. Qui sait ce qu’une culture peut déclencher dans l’imagination d’un artiste ? Picasso s’est inspiré des arts africains, des musiciens de rock se réclament de Stockhausen. Les relations entre pratiques collectives et individuelles sont totalement hors de portées de toute tentative de formalisation. Une seconde image d’Épinal concerne la modification de la notion même de culture populaire. L’exemple de l’essor qu’a prit la musique rock depuis une quinzaine d’années en offre une excellente démonstration. Issue d’un courant contestataire dans les années 70, cette forme de musique a, depuis, gagné toutes les couches sociales car elle répond à un mécanisme de conditionnement que l’on pourrait considérer à haut degré , et assure une domination sans partage sur tous les autres. Elle est devenue, par la force des choses ou plutôt par les lois du marché, une esthétique dominante, un lieu de passage obligé non seulement pour tous les artistes et les groupes qu’ils proviennent d’horizons ethniques, culturels ou sociaux différents, mais aussi, de manière plus fonctionnelle, comme élément de base pour tous les jingles, génériques de radio et de télévision y compris pour les programmes politiques et les informations. Je ne saurai trop conseiller à chacun de faire la simple expérience de tenter de trouver une origine stylistique à la musique qui est diffusée dans ces créneaux-là (rythmes binaires, usage caractéristique des sonorités de batterie et de guitares etc.). Il n’est pas besoin de posséder une culture musicale développée pour ce rendre compte de ce genre de phénomène. Il ne faut pas, bien sûr, se laisser tenter par un quelconque réductionnisme. Rien n’est tout à fait pareil si l’on observe d’assez prêt. Mais il n’empêche que …Ce que l’on nomme aujourd’hui “culture populaire”, et il n’y a aucune raison de l’appeler autrement, est toujours le produit d’un mélange de population mais beaucoup plus fortement conditionné par des lois économiques liées à la vente de produits sonores et de diffusion.

 

Les noces du son et de l’électricité.

La place de la musique dans la société, voilà un sujet complexe digne d’études sociologiques poussées. Mais de quelle musique parle-t’on ? De toute les musiques, du grand répertoire classique jusqu’aux formes les plus commerciales, en passant par le jazz, le Rock’n’roll et les musiques ethniques ? Si l’on ne fait pas de distinction, il faut bien remarquer que, de toute évidence, la place de la musique dans la société est écrasante. Guère de lieux publics (magasins, restaurants, même transports etc.) qui ne soit pas envahis par un flot de musique en continu. A cela vient s’ajouter les radios et les télévisions dont la mutation prochaine en bouquet numérique ne fera qu’accroître ce qui ressemble bien à un univers sonore en expansion sauvage. Les noces du son et de l’électricité (car c’est par elle que se développe ce phénomène) relèvent d’un conditionnement sauvage qui est d’une extrême importance dans la définition même de ce qu’est la musique pour les gens. Le problème est, physiologiquement, tout simple. Les oreilles, contrairement aux yeux, sont passives et non sélectives. Elles n’ont pas de paupières, comme le dit Pascal Quignard, et ne sont pas mobiles. Pas question d’échapper au monde sonore environnant. Il est omniprésent et agit, à l’insu des individus, sur le cerveau, et donc sur une certaine forme de connaissance. Comparés au nôtre, les siècles précédents étaient des mondes de silence dans lesquels la confrontation avec la musique possédait probablement une violence dont on n’a aujourd’hui plus aucune idée et qui est perdue à jamais. L’écoute de la musique, son statut, et plus particulièrement celui de ses créateurs est un phénomène qui ne peut absolument pas être comparé avec ce qu’il devait être autrefois. Reste donc à inventer notre rapport à la musique puisqu’on n’a plus la possibilité du choix entre elle et le silence. Bien sûr, certains n’hésiteraient pas à penser à des solutions telles qu’une loi sur le contrôle de la diffusion sonore dans la cité. On imagine sans peine les retombées commerciales néfastes qui s’en suivraient dans cette période de recherche de croissance économique car la musique est aussi un excitant qui fait vendre. D’autre part, il n’est pas interdit de penser qu’une telle loi serait impopulaire privant les gens d’une drogue douce reconnue moins nocive que le tabac ! Enfin, il ne faut pas non plus légiférer sur tout, tout le temps. La solution, la seule qui serait envisageable, concerne évidemment l’éducation.

 

Restaurer l’image de la musique.

Puisque l’État nourrit l’ambition de faire accéder la culture à tous et de briser les barrières qui cloisonnent les classes sociales (la séparation des groupe sociaux suivant certaines formes d’expression est plus criante en musique qu’ailleurs), une solution, beaucoup plus intelligente, serait de garantir, au niveau de l’éducation, une formation intellectuelle qui permette l’instauration d’une “résistance” au milieu ambiant et de favoriser ainsi un savoir et une connaissance qui reste le meilleur rempart contre la déferlante sans précédent dont on connaît trop bien les implications économiques. Cette culture personelle serait, pour un individu, le meilleur moyen pour ne pas être l’esclave d’un univers produisant de plus en plus de sons pour avoir de plus en plus de profit. Je ne parle ici ni d’exclusion ni d’anathèmes. Il doit y avoir de la place pour toutes sortes de musiques. C’est la définition même de ce qu’est la musique qui devrait en être bouleversée. Il faudrait restaurer une certaine image de la musique par une éducation qui se voudrait décisive en la matière afin de donner des clés et des repères permettant aux gens de pouvoir effectuer des choix avec un esprit critique plus développé.

Cela passe par un effort et une rigueur soutenue dans l’enseignement des disciplines artistiques au sein de l’Éducation Nationale dont on se demande pourquoi la musique y tient toujours une place aussi négligeable. Une éducation dont les bases se situeraient avant tout dans les écoles, les collèges et les lycées. Un élève de collège étudie la littérature car cela fait partie du programme. On lui enseigne comment sont construit les pièces de théâtre et les romans, quel sont les rôles du narrateur, comment se développe l’évolution psychologique des personnages, dans quel contexte social ou politique telle ou telle oeuvre a vu le jour etc. Bref, on lui forme le goût, on développe sa faculté de perception et d’analyse. La place que tiendra la littérature dépend, bien entendu, de plein d’autres critères car l’école n’est pas, loin s’en faut, le seul endroit de formation d’un individu. Mais pour peu que cette étude trouve une résonance dans la vie future de l’étudiant, une base solide aura été initiée. Pendant ce temps, le cours de musique, lui, est le plus souvent, limité à l’étude du pipeau. Ces éternels pipeaux en plastique que les parents doivent acheter au moment de la rentrée scolaire ! Ou bien tenter vainement d’annoner quelques noms de notes de musique sur une mélodie des Beatles, notes que les élèves oublieront sitôt la chanson terminée et qui, si une pratique régulière n’est pas suivie (et dans quel but ?) ne serviront à rien. Ce n’est pas que les programmes soient inexistants en la matière. Je ne doute même pas du fait qu’ils soient assez bien conçus. Mais ils ne sont appliqués que si, et seulement si le professeur a assez d’énergie pour affronter trente gamins, la tête remplie de techno et de rap, et leur expliquer calmement en quoi Beethoven a fait évoluer la symphonie, leur demander d’écouter calmement le scherzo de la neuvième, etc. Je ne ferai pas un dessin ! De tels professeurs existent et ils ont bien du courage. On ne peut pas jeter la pierre aux autres, dont je ferai peut-être partie moi-même si je devais me trouver dans une telle situation. Mais si le programme n’est pas appliqué, l’Académie ne bouge pas, elle ne dit rien. Imagine-t’on un lycée qui n’appliquerait pas le programme de physique ! Certes, il existe une barrière technique inhérente à la musique qui fait que, pour effectuer un travail aussi conséquent que celui qui est fait pour une pièce de Molière, l’élève devrait également pouvoir lire une partition ce qui demande une formation complémentaire qu’il n’est pas envisageable de proposer dans un cursus d’études déjà très chargé. Cependant ce n’est pas de cela qu’il s’agit. Il existe des manières d’appréhender le langage musical par une écoute dirigée qui se porte sur les éléments stylistiques. On peut leur apprendre, par la seule perception, à reconnaître une fugue d’une sonate, un quatuor d’une symphonie, un récitatif d’un aria. On peut leur apprendre à identifier des styles. On peut leur apprendre aussi comment le jazz est né de la rencontre de la musique africaine et de la musique européenne, comment la percussion s’est développée au XXème siècle. On peut leur apprendre enfin comment les compositeurs de notre époque en sont arrivés à utiliser les mêmes ordinateurs que ceux qu’ils utilisent dans leurs cours de technologie. Un effort soutenu est fait en direction de l’enseignement technologique afin que les jeunes puissent affronter le monde du travail actuel. Une bonne culture musicale ne serait pas négligeable pour affronter un monde sonore tel qu’il nous est proposé actuellement en permanence. Pour cela il faudrait que l’idée même de culture en musique soit revisitée, qu’elle ne soit plus seulement une somme de comportements, de conditionnements, mais aussi un savoir, un tissu de résistance, un appareil d’analyse du monde moderne.

La place que tient la musique dans la vie des enfants est proportionnelle à celle qu’elle occupe dans la vie des hommes qui sont chargés d’organiser leur éducation. C’est une chaîne de causes à effets qui se continue. Ce n’est pas une nouveauté que de constater que la musique (contemporaine mais aussi classique) tient également une place extrêmement réduite dans la vie des intellectuels de notre époque pour la bonne raison que, tout comme aujourd’hui, il n’en a pas été question au cours des leurs années de formation. Le type même de l’intellectuel entre 40 et 50 ans, qu’il soit écrivain, philosophe, homme de théâtre ou de cinéma, nourrit le plus souvent pour la musique un rapport qui est presque exclusivement d’ordre affectif. Généralement son attachement prend en compte la musique qu’il a fréquenté à l’époque de ses vingt ans. Cette époque, qui correspond à la fin des années 60, celle de la remise en cause fondamentale des valeurs, a été bercée elle aussi par la musique rock qui symbolisait ce désir de liberté tout autant que de rupture avec l’ordre établit. C’est pourquoi, tandis que dans sa bibliothèque personnelle y figurent les ouvrages les plus contemporains, on ne trouve guère dans sa discothèque les oeuvres des compositeurs de son temps. C’est pourquoi aussi l’usage que les grands cinéastes de notre époque font de la musique est soit basé sur le répertoire classique (le cas de l’utilisation de ce genre de musique par un Stanley Kubrick regorge cependant d’une imagination extraordinaire) soit correspond à son goût pour la musique rock (Wenders, Lars von Trier, Jarmush …) mais ne fait pratiquement jamais appel à un compositeur contemporain. Il est intéressant de constater que toutes les créations que l’Ircam a produites dans le domaine de la musique liée à l’image et au cinéma se sont exclusivement faite sur des films qui représentaient l’avant-garde des années 20 (Murnau, Bunuel, Lang, Dreyer) mais qu’il ne s’est jamais trouvé un cinéaste contemporain pour désirer une collaboration actuelle.

La place de la création musicale actuelle dans l’imaginaire des gens est totalement dépendante de celle du répertoire classique dans laquelle elle se trouve en prolongement. On a, certes, souvent montré du doigt le caractère complexe de ces musiques, éminemment abstrait. Je n’entrerai pas ici dans la démonstration, qu’il serait pourtant facile à faire, qui prouverait que la complexité et l’abstraction se trouvent dès les musiques médiévales et jusqu’à nos jours. Il n’est pas suffisant de répondre à une telle critique en donnant les cas bien connus des novateurs en musique dont le travail se trouvait aussi coupé du grand public, même si il ne faut pas oublier ces exemples. Il importe surtout de mettre le doigt sur l’extraordinaire conditionnement des personnes vivant dans un monde hautement producteur de sons auxquels on ne donne pas les clés indispensables de la connaissance et de la compréhension. Il importe aussi de montrer que, suivant les courbes d’un marché bien standardisé, le répertoire classique lui-même est aussi peu à peu considéré comme une forme “chic”, “cultivée” d’un produit dont la majeure partie constitue une musique de divertissement. Une forme goûtée par une classe aisée, appartenant à une soi-disante élite, celle qui peut payer le prix élevé d’une place de concert. Il ne faut guère compter sur les médias (surtout les grandes chaînes de télévision) pour proposer l’information que ne divulgue pas l’éducation officielle. Enfin, il importe surtout de dire aux gouvernants que si leur but est de faire accéder le plus grand nombre à la culture dans une société d’économie libérale acquise à la consommation sauvage, cela doit passer par une prise de conscience que les disciplines artistiques ne sont pas que des moyens illustratifs comme lorsque on utilise les reproductions de peinture classique dans les livres d’histoire suivant le sujet traité. Cézanne et Debussy seraient-ils moins importants que Zola ?

Si de telles conditions étaient mises en oeuvre, la musique cesserait de n’être, dans l’inconscient des gens, qu’un élément du paysage global comme le sont les produits fonctionnels de la société (les voitures, les supermarchés, les banques, les restaurants, les magasins) pour, de nouveau, s’affirmer comme ce qu’elle a toujours été, un des plus beaux produits de l’imagination des hommes.

 

                                                                            Philippe Manoury. Paris Avril 1998.

                                                                            

Les partitions virtuelles

Wednesday, October 22nd, 2008

Deux univers coexistent dans mon activité de compositeur : celui de la musique instrumentale et celui de la musique électronique. Aussi loin que je puisse me souvenir, la question de leur confrontation et de leur intégration s’est toujours posée pour moi. Cette question n’est pas de celles qui appellent des réponses rapides ni simples car tout destinait ces musiques à suivre une chemin indépendant, un peu comme c’est le cas pour le cinéma et pour le théâtre. Les personnalités qui oeuvraient dans ces deux disciplines provenaient d’horizons et d’éducations parfois très différents, leurs expériences musicales n’était pas du tout du même ordre et leurs rapports à la composition ne se posaient pas dans les mêmes termes. Les compositeurs se séparaient en deux catégories très distinctes qui, non seulement ne se confrontaient pas, mais s’opposaient complètement : ceux qui composaient pour les voix ou pour les instruments et ceux qui produisaient de la musique pour bande magnétique. Les premiers ne voyaient dans les seconds que des “bricoleurs” plus ou moins habiles mais totalement ignorants des lois de la composition et de l’écriture, quant aux seconds, ils tenaient les premiers pour des musiciens prêts à entrer dans un musée conservateur et académique. Les personnalités qui, en France, ont réalisé les premiers travaux dans ce que l’on appelait alors la musique concrète, n’avaient, pour la plupart, qu’une culture musicale très rudimentaire. Cette naïveté par rapport à la composition leur a permit d’oser des expériences que, peut-être, des musiciens plus expérimentés auraient dédaignées mais elle ne demeure pas moins un trait caractéristique que le temps ne fait qu’accentuer. Cette opposition se reflète en particulier dans la querelle qui opposa des musiciens tels que Pierre Boulez ou Jean Barraqué au groupe qui s’était formé autour de Pierre Schaeffer dans les années 50. Les cultures étaient trop différentes et trop inégales pour pouvoir parvenir à un mode de pensée commun. Quelques tentatives de composition “mixtes” ont vu le jour parmi lesquelles ont peut citer Désert de Varèse ou Poésie pour pouvoir de Boulez. Dans le premier cas, le discours était basé sur une simple opposition entre ces deux supports, le second cas a été abandonné car il ne satisfaisait pas son auteur. Mais le problème de la confrontation de la musique instrumentale et de la musique électronique avait été posé. Karlheinz Stockhausen est de ceux qui trouvèrent le moyens les plus originaux dans ce domaine car, quoiqu’il ne réalisa ses oeuvres mixtes que plus tardivement, il proposa, dès ses premières oeuvres de musique électronique, une prise en charge de l’utilisation des moyens de la synthèse et du traitement des sons concrets dans une optique formelle qui trouvait une correspondance avec ses conceptions élaborées dans ses oeuvres instrumentales. Si la nature des sons et des techniques utilisées différaient d’un domaine à l’autre, ses oeuvres s’inscrivaient dans une logique d’une très grande cohérence formelle qui, le plus souvent, faisait défaut ailleurs. Ce fût, pour moi, le premier exemple qui m’ouvrit réellement les yeux sur les possibilités de confrontation de ces deux supports.

Vers les années 70 apparurent les premiers programmes de synthèse sonore par ordinateur dont le rôle allait être déterminant. Ils permettaient, d’une certaine manière, d’approcher certaines conditions de l’écriture musicale. La gestion et la formalisation de paramètres numériques contrôlant les différents composants du son pouvait, en quelque sorte, reproduire le phénomène de la composition instrumentale qui, lui aussi, est basé sur une élaboration et un traitement d’éléments distincts servant de matériau de base à une composition. En cela, cette méthode attira rapidement une catégorie de compositeurs plus habituée à ce mode d’approche qu’à celui consistant à travailler de manière plus intuitive, “à l’oreille” pourrait-on presque dire, sur le matériau musical comme c’était fréquemment le cas dans les musiques électroniques analogiques. Si l’on pouvait faire un parallèle entre la formalisation des programmes et celle de la composition, ces deux démarches proviennent néanmoins d’une situation culturelle très différente. Les personnes qui mirent au point ces premiers programmes n’étaient pas, dans la majorité des cas, des gens ayant une grande expérience de la composition. La distinction que j’ai opérée plus haut entre musiciens “acoustiques” et “électroniques” continuait d’être toujours visible. Mais, en cela, cette situation n’était guère différente de celles qui prévalaient dans toutes les autres disciplines dans lesquelles les machines électroniques s’étaient immiscées. Cependant quelque chose incitait également au rapprochement de ces deux modes d’expression. Des oeuvres avaient été composées dans ce sens et on voyait, ici et là, des musiciens appartenant à l’une ou l’autre de ces catégories se poser des questions. Ce sont ces échanges permanents d’une discipline vers l’autre, dont l’Ircam allait vite devenir le lieu privilégié, qui m’ont amené à concevoir ce que j’ai appelé les partitions virtuelles.

Il ne s’agit pas d’une méthode de composition à proprement parler, avec ses règles et ses lois, mais plutôt d’une conception de la composition dans un sens assez général. Le terme de partition virtuelle me semble avoir été prononcé pour la première fois par Pierre Boulez au cours de conversations que j’ai eu avec lui pendant les années 80. Ce n’est que vers 1986-1987 que je commençais à en définir la signification que je lui donne aujourd’hui. Je ne prétend pas, en cela, avoir résolu définitivement la question de l’intégration des musiques instrumentales et électroniques, mais avoir apporté une contribution assez précise sur ce que devrait être, à mon sens, la composition lorsqu’elle est confrontée aux technologies du temps-réel. A un niveau théorique, mais aussi pratique, ce principe est basé sur une volonté d’unification de ces deux univers au sein d’une approche plus ou moins identique. Cette unification passe, bien entendu, par l’abolition de certaines frontières qui n’ont pas manquées de s’ériger, soit entre ces deux univers, soit au sein même de l’un des deux. Ce qui était autrefois nécessaire au développement d’une idée ou d’une technique et nécessitait, pour ce développement, un certain isolement ou repli sur soi, n’est devenu, avec le temps, qu’une accoutumance à un mode de pensée ou de fonctionnement qui ressemble plus à une forteresse identificatrice qu’à un lieu d’échange fructueux. Ces frontières sont, d’une part, celles qui divisent la conception de la composition suivant le fait qu’elle est notée sur partition ou produit avec les moyens de la synthèse et d’autre part, à l’intérieur même de l’univers technologiques, le produit de cloisonnements qui existent de par la diversité des techniques dont on se sert pour produire le son. Ces techniques, d’abord utilisées séparément, coexistent désormais au sein des mêmes oeuvres. Elles n’ont cependant pas de mode d’approche unifié et remplissent des conditions très spécifiques. Enfin il y a un clivage qui, malgré les apparences, a la vie dure alors qu’en analysant de près la situation, il ne devrait, du moins théoriquement, ne plus poser de problèmes : c’est la séparation entre le temps différé et le temps réel. Comme on le verra, cette séparation est plutôt le fruit d’un choix technologique car, d’un point de vue strictement musical, rien ne semble la maintenir ni ne l’imposer dans le processus conceptuel de la composition. Ce choix technologique cependant conditionne grandement l’aspect esthétique et cette vision catégorielle des choses finit par encombrer inutilement le paysage musical alors qu’une plus grande simplicité dans l’unification des modes de pensée serait souhaitable. Il vient un moment ou toutes ces catégories, qui deviennent obsolète dans leur trop grande spécificité, doivent être dépassées. Pour moi, ce moment est arrivé. Les partitions virtuelles sont une réponse à cette question que je me pose depuis longtemps : pourquoi ne pourrait-on pas composer de la même manière, que l’on ait en face de soi, du papier réglé ou un ordinateur ? D’autres réponses doivent bien sûr exister, celle-çi m’est simplement personnelle.

Le principal problème, et il est de taille, qui continue de séparer ces deux supports est celui de la représentation. La représentation est évidemment un moyen de communiquer avec les instruments, une méthode pour fixer les idées, mais c’est aussi bien plus que cela. On sait parfaitement que le traitement et le développement d’une situation quelconque est éminemment conditionné par son mode de représentation. En quelque sorte, on peut affirmer que les développements que l’on fait subir à un matériau sont contenus dans son mode de représentation. Pour un musicien, ces modes de représentation peuvent avoir la forme d’une partition traditionnelle, mais aussi d’une liste de nombres, d’images graphiques, etc. Il y a cependant une distinction importante à faire quant à ces modes de représentation et quant à leurs natures respectives. On ne peut pas minimiser le rôle fondamental qu’a tenu l’écriture, non pas les différentes techniques d’écriture, mais le fait même d’écrire la musique, dans l’invention musicale. L’absence d’écriture dans la musique électronique est probablement un des phénomènes qui assura une parfaite étanchéité entre ces deux modes d’expression. Il y a ici un problème dont, pour des raisons de commodité évidentes, on persiste à penser qu’il n’a pas à se poser dans le contexte d’une musique basée sur des sons de synthèse mais qu’il va falloir, un jour où l’autre, aborder car il conditionne la pensée musicale toute entière et son développement. Il existe bien évidemment des modes de représentation sur lesquels travaillent les musiciens qui font de la synthèse électronique. Ces modes ne se situent cependant pas du tout au même niveau conceptuel que ceux qui définissent la notation musicale traditionnelle. La question de la représentation est au coeur de la problématique qui divise encore fortement musique instrumentale et électronique. Il est indispensable de l’aborder.

 

Symbolisme, perception et virtualité dans l’écriture musicale.

La notation musicale est de nature symbolique. Elle est, de ce point de vue assez proche de l’écriture dont certains travaux ont montré qu’elle était issue d’une représentation visuelle du phénomène qu’elle était censée représenter (pictogrammes), pour aboutir après de nombreuses évolutions (idéogrammes), à une conception symbolique dans laquelle toute idée figurative avait disparue (écritures phonétique et syllabique). On ne constate évidemment pas le même chemin dans la notation musicale, beaucoup plus récente, mais on peut y voir le même pouvoir d’abstraction de l’écriture en ce qu’elle n’est pas une description mais une représentation du phénomène sonore. Cela peut sembler curieux car la notation musicale ne représente qu’un phénomène d’essence tout à fait abstraite qui est le son et le parallèle avec l’écriture peut paraître alors un peu forcé. Cependant, dans son mode de représentation, il est clair que la notation musicale ne représente que partiellement le contenu sonore qui va en être déduit. Elle ne rend pas compte de la totalité perceptuelle de ce contenu mais que d’une partie, certainement la plus décisive pour le compositeur. Il est évident que, lors de la composition, le phénomène sonore n’est pas toujours totalement formé dans l’imagination. On connaît bien sûr l’exemple de Mozart disant que la musique se formait entièrement dans sa tête et qu’il ne lui restait plus ensuite qu’à la coucher sur du papier. Schoenberg s’est aussi expliqué sur ce fait dans Style et Idée : ” Il y a quelque quarante ans, j’écrivit mon premier quatuor à cordes op 7. J’avais pour habitude de me promener à pied chaque matin et de composer de tête 40 à 80 mesures complètes dans la quasi-totalité de leurs détails. Il ne me fallait ensuite que 2 ou 3 heures pour reporter sur le papier ces importants fragments déjà fixés dans ma mémoire”. Il n’y a aucun doute à avoir à propos de ces facultés mentales de conceptualisation. Cependant il paraît évident que l’imagination sonore, même lorsqu’elle semble à ce point ancrée dans le seul mental, est quand même située, d’une manière ou d’une autre, en référence à un écrit. Même dans ce cas, l’écrit reste bien évidemment la seule forme de représentation possible, ne serait-ce que pour la simple opération de mémorisation. La création musicale fonctionne également souvent par étapes successives, chacune des ces étapes pouvant être une nouvelle approche de l’objet final. Mais, même le processus créateur totalement achevé, l’écriture n’est toujours pas la description complète du phénomène sonore qui sera perçu. Elle est moins que cela. Il lui manque tous les éléments que l’interprète va y greffer afin de constituer un véritable objet musical. Or, comme on va le voir, ces éléments, pour la plupart, ne sont pas notables. En cela, la notation laisse le champ libre à l’interprétation. L’écriture musicale est basée sur un vocabulaire de signes extrêmement simple en regard de la réalité sonore. C’est même cette économie de moyens qui la caractérise qui a permit d’élaborer des constructions formelles d’une grande complexité. Il est probable que si l’écriture avait du rendre compte du phénomène sonore dans sa totalité, de telles constructions n’auraient jamais pu voir le jour. En quelque sorte, la notation musicale est une sorte de métonymie du phénomène sonore : le tout est exprimé par une partie seulement. Cette représentation symbolique possède un pouvoir similaire à celui du mot sur les choses : elle permet d’abstraire des catégories, de les manier, de les construire, elle permet surtout la déduction et toutes les opérations qui n’auraient pu avoir lieu si la représentation n’avait pas été dégagée de sa substance matérielle, c’est à dire la réalité sonore. Cette abstraction symbolique propre à la notation, est la condition même d’une grande partie de l’évolution musicale depuis les neumes grégoriens jusqu’à nos jours.

Une représentation quelconque, n’a cependant de véritable puissance créatrice que lorsqu’elle peut provoquer l’imagination de celui qui la travaille. Cette valeur existe pour le musicien lorsqu’il possède la faculté de se représenter “mentalement” ce qu’il écrit, en d’autres termes, lorsqu’il peut “entendre” intérieurement ce qui est représenté sur la partition. Il existe un lien perceptuel entre la notation musicale et sa réalité sonore un peu comme la lecture d’un texte peut provoquer des images dans l’esprit de celui qui lit. Cette faculté est grandement fonction de l’éducation et de l’entraînement du musicien. 1. Il faut en effet qu’il y ait dans la lecture de la musique le complément nécessaire à l’écriture puisque l’interprétation n’existe pas. Dans ce cas l’interprétation est imaginaire. Elle est provoquée par l’accoutumance à la lecture, par la faculté de percevoir les timbres instrumentaux, par exemple, par la seule lecture d’une partition. Chacun peut mesurer l’écart qui existe entre la lecture et sa propre facilité à en percvoir le contenu. Ainsi, beaucoup de compositions actuelles, comme celles de Helmut Lachenmann, utilisent des modes de jeu instrumentaux non traditionnels. Il a fallu pour cela inventer une sorte de “tablature” qui, d’ailleurs, varie grandement d’un compositeur à l’autre. L’écoute interne de la lecture de telles partitions est d’autant plus difficile quand ces oeuvres ne reproduisent plus les cas auxquels notre oreille a été éduquée (reconnaissance de hauteurs, d’intervalles, d’instruments …). Ces cas de figures anticipent, en quelque sorte, sur ceux que nous verrons  à propos de la musique électronique.

Un autre faculté propre à la notation musicale est sa virtualité. L’observation des conditions de l’écriture et de l’interprétation dans différentes partitions du répertoire est riche d’intérêt. Ces conditions forment d’ailleurs la base même de toute la tradition musicale occidentale. Un rapide survol historique montre clairement que, au fil des époques, l’écriture se fait toujours dans le sens d’une plus grande précision. C’est à dire qu’elle supplante progressivement tout un savoir qui provenait de traditions orales. De telles traditions finissent par devenir, au bout d’un certain temps, des “mauvaises habitudes” qui n’ont plus lieu d’être lorsque que le langage et la stylistique ont évolués 2. Si l’on prend, par exemple, la notation utilisée à l’époque baroque, on constate que n’y figurent, ni indication de tempi, ni indication de dynamiques, ni indication de phrasé… La notation est réduite à très peu de choses ce qui n’empêche nullement la grande complexité de certaines de ces oeuvres. Or l’interprétation de ce style de musique est fondé sur un grand nombre de ces valeurs qui ne sont aucunement notées dans la partition. Les compositeurs notaient ce qui était pour eux “les noyaux durs” de leur style propre, ce qui faisait que, dans le contexte de leur époque encore chargé de tradition orale, leur musique demeurait personnelle. Leur écriture comportait des éléments absolus ou relatifs suivant les cas,  qui allaient être “gauchis” et complétés par l’interprète. La somme des éléments qui vont donner naissance au phénomène musical n’est donc pas quelque chose qui est intégralement inscrit dans la partition. Bien que les traditions orales deviennent de plus en plus rares au fur et à mesure que l’écriture se précise, il est évident que cette dualité entre notation et interprétation continue de fonctionner quelque soit le style où l’époque. Il est important, à ce stade, d’observer où se situent les marges entre notation et interprétation et surtout de définir à partir de quelles conditions l’on peut parler d’interprétation.

L’interprétation agit sur des zones, mentales pour la plupart, à l’intérieur desquelles vont se trouver les valeurs qui détermineront les phénomènes sonores. Cette incertitude est la conséquence de l’imprécision, ou disons de la relativité de l’écriture. Les trois niveaux classiques sur lesquels se base l’écriture sont, par ordre de complexité : les hauteurs, les durées et les dynamiques. Le premier niveau est celui ou le pouvoir discriminateur de l’oreille est le plus fin : on peut ordonner une grande quantité de sons du grave à l’aigu sans problème. Mais, hormis les instruments à sons fixés tels que les claviers, on constate une zone d’acceptation assez grande de ce qui est une hauteur lorsqu’on entend un ensemble de cordes jouer à l’unisson ou même lorsqu’on examine la courbe d’un vibrato 3. La notation des temps est beaucoup plus floue en regard de la perception. Au delà d’un temps assez bref (que l’on peut avoisiner autour de deux secondes) il est déjà pratiquement impossible d’avoir une idée d’une durée si l’on ne la décompose pas en valeurs plus fines. De plus, un grand nombre d’études l’ont montré, le temps, dans une interprétation musicale, est soumis à une constante variation qui peut dépendre du contexte mélodique, harmonique ou stylistique. En tout état de cause, on ne peut pas ordonner un grand nombre de durées de manière aussi facile qu’en ce qui concerne les hauteurs. Quant aux dynamiques, le maximum semble avoir été atteint avec la célèbre étude de Messiaen Modes de valeurs et d’intensités. Ce cas de figure n’est même concevable que “très théoriquement”. Non qu’il soit impossible de percevoir plus de sept valeurs différentes échelonnées du ppp au fff, mais il est rigoureusement impossible d’exiger d’un interprète d’en définir plus. Ces exemples donnent une excellente description du caractère relatif de la notation musicale en regard de la perception. Si l’interprétation est fortement conditionnée par la notation, elle ne commence que lorsque l’autre n’intervient plus. Ces deux entités que sont la notation et l’interprétation se définissent par le choix de la nature absolue ou relative des composants. Mais, en tout état de cause, l’écriture interprétable ne se définit qu’à l’intérieur de zones plus ou moins floues. Ces valeurs sont virtuelles et ne deviennent réelles qu’au moment ou l’interprète les produit. On ne peut rigoureusement parler d’interprétation que lorsqu’il y a une incertitude sur la valeur réelle qui va intervenir.

Cette richesse de possibilités est offerte par un mode de représentation et ne pourrait pas exister sans lui. Le lien entre représentation et potentialité d’un matériau sonore est à la base de toute une réflexion qui a lieu en ce moment au sujet de la musique conçue pour ou par ordinateur, que cette musique soit destinée aux instruments traditionnels ou aux sons électroniques. C’est le second cas qui m’occupe ici bien évidemment car dans le cas des instruments acoustiques, quelque soit le mode de représentation que l’on s’est fixé au départ, on retombe fatalement dans la notation traditionnelle. On va voir que, si variées et si perfectionnées soient-elles, les méthodes de représentation dont on se sert pour composer de la musique de synthèse, n’ont pas du tout les mêmes valeurs que celles qu’on utilise dans la tradition vocale ou instrumentale.

 

Les modes de représentations sonores de la musique électronique.

On peut distinguer deux familles de représentation musicale dans le cadre de la musique électronique : celle qui traite des sons eux-mêmes, de leur morphologie, et celle, beaucoup plus abstraite qui traite de la composition des structures musicales. Le problème qui se pose concerne la nature des objets représentés dans le domaine de la musique de synthèse qui sont beaucoup plus variés et beaucoup moins standardisés que dans celui de la musique instrumentale. Ces objets ne sont pas obligatoirement réductibles aux catégories offertes par la notation traditionnelle, même s’ils peuvent les contenir. Il est important aussi qu’une représentation graphique soit en étroite relation avec la représentation mentale qu’on se fait de l’objet. Un compositeur organisant le schéma harmonique d’une composition instrumentale utilisera une notation rudimentaire qui ne tiendra compte, pour l’instant, que des phénomènes de hauteur à l’exception des durées, dynamiques, orchestration, phrasés, etc. Dans son esprit, et à ce stade de l’esquisse, l’objet sonore qu’il travaille n’est mentalement constitué que de ces relations harmoniques. C’est dans un stade ultérieur qu’il affinera cet objet en lui donnant une morphologie plus complète. L’ordre dans lequel ces opérations ont lieu n’est ici pris que comme exemple et peut fort bien être différent. Le même exemple pris dans le cas de sons de synthèses peut être comparé. Si l’on veut dépasser en finesse les catégories de hauteurs offertes par la notation traditionnelle, c’est à dire si l’on veut obtenir des coupures plus petites que le demi ou même le quart de ton, il n’y a guère qu’une représentation numérique qui s’impose. Elle a l’avantage de se prêter à toutes les opérations de calcul mathématique, sous quelque forme algorithmique que ce soit. Sa limitation cependant vient du fait qu’elle n’offre aucune base intuitive à partir de laquelle on pourrait extrapoler. Rien n’est moins convainquant, pour un compositeur, qu’une suite de nombres lorsqu’il cherche, dans la représentation des événements sonores, une vision imaginative.

Une autre possibilité actuelle consiste à créer des représentations graphiques du son  qui permettent, suivant les cas, d’opérer des manipulations diverses. La représentation sous forme de sonagramme permet d’obtenir une “coupe” dégageant les raies spectrales constituées par les différents partiels. On peut réécrire ou effacer ces raies spectrales afin de changer certains aspects du timbre. D’autres types de représentation graphiques, telles que celle qui donne le profil dynamique du son an amplitude et permettent des “zooms” pouvant aller jusqu’au sinus, c’est à dire au plus petit constituant possible, sont très efficaces dans les techniques de montage et de mixage. Ces méthodes ont l’avantage de proposer une représentation plus “intuitive” et plus directement “parlante” du son.

Il est clair que de tels outils relèvent plus de ce que l’on pourrait appeler une description morphologique que d’une écriture au sens ou on l’a définit précédemment. La situation est très complexe car on ne peut pas nier non plus que ces outils conceptuels existent ou, du moins, qu’il existe réellement des recherches dans cette direction. Tout ce qu’a apporté, depuis une vingtaine d’années, les modèles logiques et algorithmiques de l’informatique à la musique en sont la preuve. L’automatisation, partielle ou même totale, des processus compositionnels n’a, d’ailleurs, pas attendu l’invention des ordinateurs pour exister. Les machines étant, par nature, tout à fait adaptées à ce mode de travail, il aurait été inconcevable qu’elle ne le traite pas. En l’occurrence, les premiers essais utilisant les machines pour fabriquer de la musique ont été faits dans ce sens, les recherches purement sonores n’étant venues qu’après 4. On peut cependant faire la remarque suivante. Ces modes de représentation, logiques ou algorithmiques, peuvent comporter une puissance conceptuelle indéniable, ils présentent, en comparaison de l’écriture musicale traditionnelle, un désavantage de taille en ce qu’ils n’ont pas de valeur perceptuelle. Ils n’offrent pas la possibilité de se faire une représentation, sinon mentale, du moins perceptuelle du phénomène qu’ils engendrent. Ils sont, de ce point de vue aussi éloignés de la perception musicale que les représentations graphiques y sont noyées. Il y a là un fossé entre le travail sur les manipulations sonores et sur les structures compositionnelles que les méthodes de représentation diverses n’arrivent pas à combler ni à unifier. Il est un fait qu’un code numérique, ou une représentation graphique quelle qu’elle soit, n’est jamais parvenu à nourrir l’imagination d’un compositeur en vue d’en tirer des conséquences musicales. Ils ne sont que des méthodes de gestion de paramètres ou de manipulations qui, aussi puissante soient-elles, se révèlent incapables de représenter mentalement un contenu sonore réel. Il ne s’agit pas là d’un problème d’inacoutumance à un mode de représentation nouveau mais d’une différence de nature fondamentale entre la notation symbolique qui est celle de l’écriture traditionnelle et celles, numériques ou graphiques, dont on se sert avec les outils de synthèse. Les notations utilisées dans le cas des sons électroniques ne permettent pas de représentations mentales, au sens ou un musicien peut “entendre” intérieurement une partition par la seule lecture. Une représentation numérique ou graphique n’est pas, et ne sera jamais une partition, au sens ou la conçoit un compositeur. Ces différences ne donnent pas pour autant la suprématie d’un mode de représentation sur un autre. Ils indiquent les natures fondamentalement différentes qui existent entre la conception musicale qui prévaut pour les instruments traditionnels et celle qui est utilisée pour les outils de synthèse.

Les modes de représentation et les signes dont nous nous servons lors de la représentation des événements de la synthèse sont, pour le moment, très illustratifs et descriptifs de la réalité sonore. Or, on l’a vu, la force même de la représentation musicale dans l’écriture tient grandement à son caractère symbolique et métonymique et non exhaustivement descriptif. Dans l’état actuel de notre situation vis à vis des matériaux de la musique électronique, nous avons du mal à concevoir un type d’écriture qui rejoindrait, par son aspect symbolique, certaines possibilités de l’écriture traditionnelle telle que je l’ai décrite plus haut. Il est clair que la non-standardisation des objets est un obstacle de taille. Cependant, ce n’est pas tant les objets qui nous importent dans le problème de la représentation que les méthodes de transformations et de développements. Comme on le verra par la suite, l’idée d’une standardisation et d’une unification des méthodes diverses n’est pas impensable. Lorsque le vocabulaire général, qui est encore très éclaté, se réduira autour de conceptions globales des techniques diverses de la musique électronique, la possibilité d’une écriture symbolique se fera peut-être jour. Il est probablement trop tôt pour l’affirmer, mais il est grand temps de commencer à se poser le problème. Très certainement, nous n’avons pas encore découvert les principes de ces nouveaux modes de représentation et rien n’indique, pour l’instant, qu’il seront graphiques. Ils sont encore dans un type de représentation qu’il reste peut-être encore à inventer. Le passage de la description figurative à la représentation symbolique me semble un problème qu’il sera indispensable, à un moment ou à un autre, de traiter. Je n’ai, pour l’instant, aucune idée sur la manière d’y parvenir, simplement l’intuition qu’il faudra y parvenir. De ce point de vue, et en acceptant une certaine ironie vis à vis de la situation, nous sommes un peu comme ces peuples de Mésopotamie qui, 3000 ans avant notre ère, inventaient les premiers signes qui permirent non seulement de fixer, mais aussi de faire évoluer notre pensée.

 

Les partitions virtuelles.

En l’absence de ces outils conceptuels, il reste cependant à gérer la situation présente. Il semble acquis, vu la convergence d’un grand nombre d’oeuvres, que la mixité, c’est à dire l’alliance de l’électronique et de l’instrumental, triomphe de la solution qui consistait à n’offrir que de la musique conçue pour support synthétique. Si une nouvelle technologie se doit d’apporter de nouveaux concepts dans la discipline qu’elle sert, elle doit également intégrer le savoir-faire qui est en cours dans cette discipline. Ce savoir-faire est construit, selon moi, dans cet échange permanent entre l’écriture et l’interprétation. Les systèmes en temps-réel autorisent bien évidemment ce que l’on nomme du terme très prisé actuellement, voire même abondamment galvaudé, d’interactivité. Comme la virtualité était présente dans le couple écriture/interprétation depuis toujours, l’interactivité n’est pas non plus une chose nouvelle en musique. L’image des quatre musiciens d’un quatuor à cordes dont chacun produit de la musique tout en étant constamment à l’écoute de ses trois partenaires en est, entre autre, un exemple bien réel. Il ne s’agit cependant ici que d’interprétation mais au départ l’enjeu se situe bien là : faire entrer l’interprétation dans le contexte de la musique électronique. L’interprétation,  commence là ou s’arrête l’écriture, et est rendue possible par la nature même de cette écriture, son aspect métonymique. C’est en partant de l’analyse de ce que sont les conditions de l’écriture et de l’interprétation dans la musique traditionnelle que j’ai déterminé ce qui devait constituer, selon moi, les bases théoriques de la musique électronique en temps-réel. L’intrusion de l’outil technologique dans la création musicale bouleverse une quantité de choses. Il est normal que certaines données de la composition soient modifiées sans quoi la technologie ne serait rien de plus que ce qu’est la calculatrice électronique au calcul mental : une façon de faire la même chose avec plus de sûreté, plus de rapidité et moins de réflexion. Artistiquement, cette situation ne présente pas le moindre intérêt. Mais il est aussi normal l’outil technologique puisse s’adapter à une culture et s’intégrer à des pratiques qui sont à la base de cette culture. C’est dans ce mouvement d’adaptation réciproque, à double sens, que je conçois l’alliage de la technologie avec la pratique musicale. C’est pourquoi, quelque soit le sens que l’on donne aux termes de partitions et d’interprétation, je conserve la conception des données absolues et relatives comme concept de base dans les partitions virtuelles.

Les partitions virtuelles posent, comme prémisse, une donnée qui me semble être la base même de ce que l’on appelle le “temps réel” et qui est fondée sur la possibilité de détecter et d’analyser des événements produits en temps réel, c’est à dire, en musique, des événements produits par l’interprétation. Dans un premier temps, il s’agit de faire entrer les critères d’interprétation dans la musique électronique mais il va de soi que ces critères sont intimement liés à une stylistique particulière, voire à une époque, à des modes tout autant qu’à une analyse du texte à interpréter. Dans le cas d’une musique en devenir, les critères d’interprétation ne peuvent pas être du même ordre que dans celui d’une musique déjà codifiée culturellement. Il n’existe pas, à proprement parler, de critères d’interprétation en soi. Dès lors que l’on veut capter et faire interférer des phénomènes d’interprétation dans un contexte nouveau il semble évident que la conception du texte ou de la partition doit être également différente. Cependant ces partitions virtuelles sont basées sur la même appréciation que celle que j’ai donnée au sujet des partitions traditionnelles : elles ne donnent pas la totalité du contenu sonore, mais une partie seulement. Cette partie, qui  est codée dans la mémoire de la machine, demeure invariable quelque soit la manière dont l’interprète agira. La part manquante est déterminée par les relations qui sont établies entre l’interprète et la machine. C’est l’analyse en temps-réel des données instrumentales, ou vocales, qui définira les valeurs réelles qui serviront à produire le son. La musique, dans ce contexte déterminé, ne peut surgir que lorsque les données captées de l’interprète entrent en connexion avec celles qui sont fixées dans la machine. Elles sont, on l’a vu, organisées à l’intérieur de zones et non en tant que valeurs réelles puisque c’est comme cela que fonctionne l’interprétation. La partition virtuelle est donc une partition dont on connaît, a priori, la nature des éléments qui vont être traités mais dont on ignore les valeurs exactes qui vont définir ces éléments.

L’influence de données de l’interprète sur le programme est déterminée par le choix de ce qui constitue les valeurs absolues ou relatives du contexte musical dans lequel on se situe. Les valeurs absolues sont celles qui, d’une exécution à l’autre, ne varient pas. La connexion entre l’interprète et cette partie des paramètres fixés est inexistante car, quelque soit la manière dont l’interprète agit, ces valeurs restent rigoureusement identiques. Pour parler en termes anthropomorphiques on pourrait dire que, dans ces cas là, la machine “n’entends” pas ce que produit l’interprète. Les valeurs relatives, elles, seront soumises au contrôle de l’interprète. La machine les “entends”, les détecte, les analyse, les convertit en paramètres et les utilise dans les calculs nécessaires à la production de tel ou tel composant du son. Imaginons un instrument virtuel produisant de la synthèse. On considère que, parmi la grande quantité de paramètres nécessaires à la production du son, une partie d’entre eux soient “verrouillés”, c’est à dire qu’ils ne sa placent pas dans le champ d’influence de l’interprète. Les valeurs affectées à ces paramètres sont alors déterminées une fois pour toute dans une liste que le processeur viendra lire le moment venu. L’autre partie de ces paramètres est fournie par une détection et une analyse des comportements instrumentaux et variera continuellement soit en reproduisant à l’identique les résultats de cette analyse, soit en les modifiants par le biais de fonctions de transfert. A un autre moment, le verrouillage et le déverrouillage porteront sur une autre distribution de paramètres. Cette situation, on le voit, comporte deux aspects : l’un fixe et l’autre mobile. On y reconnaît ce qui, dans l’écriture, était invariable et ce qui était soumis à de déviations, des modifications, à tous les éléments que l’interprète produit, en temps-réel pourrait-on dire, et qui n’étaient pas inscrits dans le texte.

Cette dimension indéterministe peut avoir des conséquences plus ou moins importantes sur la morphologie du discours musical. Cette marge aléatoire peut être, au moins, celle qui définit les conditions traditionnelles de l’interprétation, à savoir ce qui détermine une qualité sonore, un phrasé, une attaque, une durée, etc., elle peut être, au plus, responsable de la structure entière du discours musical qui, dans ce cas, sera organisée en fonction des données reçues par l’interprète. Dans ce dernier cas, cela confine au statut de l’oeuvre ouverte et de la musique aléatoire, et peut aller, en bout de course, jusqu’à l’improvisation. C’est là une affaire de choix compositionnel et de choix esthétique que je ne veux pas traiter dans ce contexte. Ces choix sont avant tout d’ordre esthétiques mais sont également tributaires du type d’analyse que l’on effectue sur le son de l’interprète.

 

Reconnaissance et suivi.

L’organisation des partitions virtuelles est basée sur deux principes qu’il est important de distinguer : celui de la reconnaissance et celui du suivi. Par reconnaissance, il faut entendre la possibilité de se repérer dans un contexte déjà connu à l’avance mais qui risque d’être perturbé. C’est le cas de ce que l’on nomme improprement “suivi de partition” et que l’on devrait appeler “reconnaissance de partition”  La reconnaissance d’une partition jouée par un interprète se borne généralement à se repérer dans une succession chronologique d’événements tout en admettant une certaine tolérance à l’erreur. On attend un événement déjà mémorisé et le processeur doit le reconnaître instantanément. La partition instrumentale est déjà codée à l’avance, et le processeur compare les événements détectés avec ceux qu’il est censé reconnaître chronologiquement. En général cela se fait au moyen d’une “fenêtre d’analyse” qui joue sur la reconnaissance non d’événements isolés, mais d’une collection d’événements. C’est ce qui permet d’introduire une clause de tolérance à l’erreur car si trois événements sur cinq sont reconnus, par exemple, le processeur n’interromps pas son travail et en “déduit” que la partition détectée est bien ressemblante à celle qui est codée dans sa mémoire. C’est un des cas les plus délicats à traiter car, suivant les instruments utilisés, il est nécessaire de choisir des options différentes. La reconnaissance d’une partition monodique peut très bien se faire de manière acoustique : un micro capte le signal puis, grâce à une analyse du spectre, en calcule la fréquence fondamentale. Si cette fréquence correspond à la note attendue, alors l’événement est reconnu et le système reproduit la même opération et ainsi de suite. La reconnaissance d’une partition polyphonique pose beaucoup plus de problèmes car  lorsque quatre notes sont jouées simultanément, il est très difficile de déterminer à quelles fréquences fondamentales appartiennent la superposition de tous les composants des spectres. Des recherches existent dans cette direction [5.Miller Puckette, à l’Université de San Diego, réalise actuellement des recherches sur la détection acoustiques des instruments à corde. Ces instruments pouvant produire plusieurs sons à la fois, en tout cas deux de manière tout à fait simultanée, le problème de la détection polyphonique est abordé.] mais, pour le moment, on en est réduit à utiliser un type de détection purement mécanique tel que le code MIDI. La différence entre ces deux types de détections, acoustique et mécanique, n’a guère de conséquences sur la suite de la composition car il ne s’agit pas encore ici de contrôler quoi que ce soit mais de se repérer dans une partition. L’avantage de la reconnaissance de partition est cependant de tout premier ordre dans la gestion temporelle de la musique car, une fois cette étape maîtrisée, s’offre la possibilité d’introduire autant de points d’ancrage temporels que l’on désire entre la partition instrumentale et la partition électronique. A chaque événement reconnu, pourra être synchronisé tel ou tel type de son, de traitement, de processus dont certains, tels que l’échantillonnage en temps-réel, doivent obéir à une précision de l’ordre de quelques millisecondes. C’est la condition sine qua non pour en finir avec la rigidité temporelle des anciens systèmes et pour donner à la musique électronique une souplesse temporelle au moins égale à celle qui existe dans le monde instrumental.

Le suivi est d’un tout autre ordre. Par “suivi” on doit comprendre la détection d’événements qu’on ne connaît pas à l’avance. Le processeur détecte des valeurs mais ne les compare pas avec une liste déjà établie a priori. Il ne fait, sauf cas particuliers, aucune comparaison et accepte tous les événements comme également valables. Le suivi peut porter indifféremment sur n’importe quel composant sonore, hauteur, enveloppe dynamique, catégories spectrales, comportements acoustiques divers etc. C’est à ce niveau que s’opèrent toutes les opérations de contrôle qui permettent de modifier en temps-réel les paramètres de synthèse ou de traitement. C’est à ce niveau également que la dimension de l’interprétation peut servir de modèle pour l’élaboration des sons électroniques. C’est ici que le compositeur peut introduire dans sa partition la virtualité qui fait que le processeur peut mesurer l’écart qui existe entre la notation et le phénomène sonore produit à partir de cette notation. Un exemple simple, tiré de ma composition En écho pur soprano et système en temps reel 5, peut donner une explication de ce phénomène. Une voix humaine peut produire des voyelles à partir de la simple notation d’un texte sous des notes. Les voyelles sont définies acoustiquement par ce que l’on nomme les formants dont les fréquences se situent dans des zones assez bien connues. Il est cependant absolument impossible d’exiger d’un chanteur qu’il produise ses formants sur ces fréquences données. Cela fait partie de ces catégories sonores qui sont productibles mais absolument pas notables car “humainement” impossibles à contrôler. C’est exactement l’écart qui existe entre la complexité du phénomène sonore et son écrit. Cela dit, un processeur peut très bien faire l’analyse de ces formants et en opérer un suivi de façon tout à fait continue et exacte. Aucune valeur précise n’est attendue puisque l’interprète n’a pas la possibilité de les fournir avec exactitude. Ces valeurs détectées sont alors envoyées à un algorithme de synthèse qui les utilise en temps-réel. Le timbre de ces sons de synthèse reproduit alors une qualité qui est celle de la voix au moment ou l’interprète les chante. On reconnaît les différentes couleurs des voyelles dans les accords produits électroniquement. Ces sons de synthèse sont, d’autre part, définis harmoniquement sous une forme totalement fixée qui ne variera pas quel que soit la manière dont chante l’interprète. D’un côté on a des valeurs absolues, fixées une fois pour toute, de l’autre des valeurs relatives qui détermineront des qualités sonores en fonction de l’interprétation. Cette dualité entre valeurs absolues et relatives, qui définit les conditions de l’écrit et de l’interprétation dans la musique instrumentale et vocale, a déjà évoquée précédemment mais, dans le contexte de la musique électronique, détermine deux catégories qui continuent d’alimenter une grande querelle qui, à mon sens, n’a plus lieu d’être : celle du temps-différé contre le temps-réel.

 

La querelle des temps.

On observe un important clivage entre les compositeurs qui se réclament des techniques en temps différé et ceux, beaucoup moins nombreux, qui optent pour une utilisation du temps réel.  Ces deux termes, d’ailleurs, doivent être pris avec précaution. Comme on le verra, une grande partie des musiques qui se définissent comme appartenant à la catégorie du “temps réel” ne proposent finalement qu’un aménagement pratique des vieilles méthodes de studio en “temps différé” tout comme les musiques réellement conçues avec les techniques du “temps réel” acceptent une grande part de prédétermination absolue dans leur constituant, ce qui est la marque du “temps différé”. On peut résumer rapidement les situations dépendant du temps-réel et du temps-différé en disant que dans le premier cas, l’analyse des données de l’interprétation modifient la totalité ou une partie des aspects morphologiques du discours musical, alors que dans le second cas, ceux-çi restent identiques quelque soient les critères d’interprétation comme c’était le cas dans les anciennes musiques pour bande magnétique.

S’il est un élément fondamental qui détermine ces clans que sont le “temps réel” et le “temps différé”, c’est bien le Temps lui même. Non pas le temps psychologique mais le temps musical objectif, celui qui détermine les conditions de synchronisation et de coordination entre les événements. Le problème s’est tout de suite posé lorsqu’on a voulu faire dialoguer un temps immuable, celui des bandes magnétiques, avec un temps modulable, celui des instruments dans les premières musiques mixtes. Plusieurs cas de figures ont été tentées pour résoudre ce délicat problème de superposition. Un chef d’orchestre , ou des instrumentistes, peuvent suivre le déroulement d’une musique couchée sur support fixe “à l’oreille” si certains éléments sonores agissent comme des signaux de repérage. En y réfléchissant, c’est un peu le cas très classique d’un chanteur d’opéra attendant un “repère” dans l’orchestre soit pour prendre son intonation, soit pour chanter, soit pour accomplir un geste scénique. Dans un second cas, lorsqu’une précision rythmique beaucoup plus grande est demandée, comme dans le cas de modifications des tempi dans lesquels il faut synchroniser parfaitement les instruments et les événements électroniques, une autre solution consiste à diffuser un “click-track” (un bruit de métronome enregistré) que le chef écoutera par l’intermédiaire d’un petit écouteur placé sur son oreille. Cela permet d’être renseigné continuellement sur le bon tempo mais offre, outre le sentiment désagréable de jouer “au métronome”, le désavantage de rendre impraticable les continuelles variations de tempi qui, même lorsqu’elles ne sont pas inscrites sur la partition, sont nécessaires à l’interprétation. La troisième solution, qui ne devrait être qu’un cas particulier mais que l’on rencontre malheureusement très souvent, est de ne vouloir aucune synchronisation précise entre ces deux discours. Il est clair que les choses ne sont pas aussi tranchées dans la réalité d’aujourd’hui. On ne compose plus guère pour supports fixes tels que les magnétophones qui se sont vus remplacés progressivement par des systèmes sur disques durs. Ainsi sont souvent présentées comme “musiques en temps-réel” des oeuvres qui, quelque soient leurs qualités musicales intrinsèques, reproduisent le vieux schéma des musiques mixtes dans lesquelles le tempo de la bande était le maître du jeu. La seule chose qui soit remise en question, par rapport aux musiques sur bande magnétique, est la faculté de déclencher des séquences de manière synchrone avec un son instrumental. Mais, une fois la séquence déclenchée, le jeu de l’interprète n’aura plus d’incidence sur le devenir de l’oeuvre avant le prochain déclenchement. Tout au plus peut-on démarrer et stopper les séquences pré-composées avec plus de liberté. Cela est dû, pour l’instant, grandement à des impératifs technologiques qui font que, si l’on veut qu’une oeuvre puisse être jouée avec la même facilité que n’importe quelle oeuvre instrumentale, on est obligé de faire appel à une technologie largement divulguée par les outils du commerce qui ne permet pas, en général, de produire des musiques dans lesquelles la part de l’interprète puisse avoir une responsabilité sur l’oeuvre à un niveau équivalent à celui de la musique instrumentale. En contrepartie, les oeuvres mettant en jeu une dimension interprétable conséquente ne sont, pour le moment, possible que sur une technologie encore peu divulguée limitant ainsi les potentialités d’exécutions. Cette situation évolue, bien évidemment, dans le sens d’une plus grande accessibilité aux performances technologiques puissantes, mais contribue largement à entraver une évolution de la pensée musicale qui devrait remettre en question certains fondements même de la composition lorsque les moyens théoriques et techniques existent pour cela. Il n’y a aucune raison de se limiter à des catégories de temps aussi grossières que les seuls démarrages et arrêts de séquences dès lors que les outils technologiques le permettent car cela revient, musicalement parlant, à concevoir une oeuvre dans laquelle les points de synchronisation sont beaucoup plus espacés et soumis à un contrôle beaucoup plus lâche que dans n’importe quelle autre oeuvre. Imaginons, pour donner un exemple concret de cette situation, une pièce d’orchestre dans laquelle l’écriture ne prendrait en compte que la synchronisation du début de plusieurs séquences mais ou il n’y aurait plus de contrôles temporels internes dans leurs superpositions. Ces cas existent bien évidemment et ils peuvent avoir une raison d’être tout à fait valable (Zeitmasse  de Stockhausen ou Pli selon pli et Rituel de Boulez explorent systématiquement ces principes d’indépendance temporelle entre les structures) mais ils ne peuvent, en aucun cas, constituer une norme qui régirait une condition générale d’écriture. Cette dualité de situations impose finalement un choix entre une technologie en temps-différé et une autre en temps-réel et ce choix technologique provoque fatalement des répercussions sur un choix esthétique. Ce choix limitatif est souvent la conséquence d’oeuvres dans lesquelles on constate un choc stylistique entre une écriture instrumentale basée sur une articulation précise et une partie électronique qui ne peut pas bénéficier de la même finesse d’articulation et se concentre alors sur des événements plus massifs et plus monolithiques.

Les séquences pré-composées en studio ne bénéficiant que des options de déclenchement et d’arrêt en temps-réel appartiennent totalement au temps-différé, tandis que les musiques qui acceptent une part de mobilité dans leur constitution dépendent du temps-réel. Cette part de mobilité, qui n’est pas obligatoirement comparable à ce qui constituait les musiques aléatoires est identique à la mobilité qui est de fait dans toute musique instrumentale. Pendant longtemps, et non sans raison, les partisans de la musique en temps-différé avaient une attitude critique quant au manque de finesse et de raffinement qu’offraient les moyens de synthèse en temps-réel. Cette critique tend aujourd’hui à n’avoir plus de viabilité car les systèmes en temps-réel offrent désormais une puissance de calcul qui permet d’avoir un contrôle d’une très grande finesse. Le dilemme entre ces deux choix semble plus le produit d’une conception, d’une part, héritée des techniques de studio classiques dans lesquels les compositeurs étaient habitués à tout fixer (le vieux réflexe de la bande magnétique) et de l’autre, chez des musiciens pour qui l’écriture instrumentale était naturellement soumise aux gauchissements de l’interprétation. Cette querelle du “tout-temps-réel” ou du “tout-temps-différé” me semble pouvoir être définitivement levée car, comme dans tous les cas semblables, ce ne sont jamais les positions extrêmes qui aboutissent aux résultats les plus intéressants. Il est clair que la composition comporte énormément de cas de figures qui sont inaccessibles au temps-réel, en particulier dans tout ce qui concerne les constructions qui demandent une prédiction sur ce qui va se passer. Un trajet complexe de spatialisation, une évolution calculée de paramètres de synthèse nécessitent souvent une mise au point définitive à laquelle la situation du temps-réel pourrait être fatale. Il est clair aussi que la précision qu’un compositeur peut exiger d’un interprète soit également valable pour un processeur. On veut exactement telle chose et non une autre. Une composition, on l’a vu, peut aussi bien comporter des éléments qui ne varieront pas quelque soit la situation de l’interprétation, que des éléments qui seront soumis à ces variations d’interprétation. La distinction doit se faire ici entre le choix des valeurs absolues et des valeurs relatives qui formeront la composition. Si l’on raisonne au niveau des systèmes en temps-réel, il est évident que rares sont les cas de figures dans lesquels rien n’est fixé à l’avance. La distinction montrée plus haut entre les éléments absolus d’une partition instrumentale et les éléments relatifs à l’interprétation peut très bien servir de base à l’édification de partitions électroniques qui sont basées sur ce même modèle. C’est dans le choix conceptuel des objets musicaux qui constituent l’oeuvre que doit se faire la distinction entre ces deux entités et non dans une prise de position par rapport à une technologie qui appliquerait d’elle-même cette décision. L’indépendance temporelle des événements superposés dans une composition mixte, dès lors que les outils théoriques et pratiques existent pour cela, doit être aujourd’hui la conséquence d’un choix esthétique plus que celle d’une limitation technologique. “Mon paletot aussi était idéal”, cette phrase de Rimbaud reprise par Boulez dans Penser la musique aujourd’hui est malheureusement toujours d’actualité. La prise de position pour le temps différé ou pour le temps réel, en d’autre termes la répartition des événements constitués de valeurs absolues ou relatives, doit désormais cesser d’être un choix technologique pour devenir un choix compositionnel.

 

Le paramètrage numérique comme valeur de métamorphose.

Un des grands intérêts de la situation offerte par le principe de la détection et de l’analyse des sons instrumentaux dans le cadre du temps réel me semble résider dans la possibilité d’opérer des métamorphoses d’une catégorie sonore dans une autre. Cela est rendu possible par la conversion des valeurs analogiques en paramètrages numériques. Pour un processeur, toute valeur détectée dans un signal acoustique peut être paramètrée de manière numérique. Pour lui, toutes ces valeurs numériques sont égales comme on dit que le sont tous les citoyens devant la loi. C’est au compositeur d’en déterminer une hiérarchie et d’en déduire une structure de relations. Que ce soit une valeur de hauteur, de temps où de dynamique mais aussi des valeurs plus fines portant sur l’analyse spectrale d’un son que ce soit par son contenu fréquentiel ou formantique, le résultat est codé numériquement. Cette faculté de réunir des composants acoustiques différents sur une même échelle de valeurs permet de les faire s’influencer mutuellement, et de faire en sorte qu’une catégorie sonore puisse contrôler une autre catégorie sonore, voire un ensemble de catégories. Ainsi une valeur de temps ou de durée, peut influencer une valeur de transposition de hauteurs, l’analyse d’une enveloppe dynamique peut diriger un trajet de spatialisation. Un tel mélange de catégorie sonore est, bien entendu, totalement impensable dans la musique instrumentale. Grâce au paramètrage numérique il existe une équivalence de représentation des différents composants sonores qui peut très bien servir d’étalon autour duquel seront déterminés différents aspects du discours musical. L’interprétation, dans ces cas, n’est plus du même ordre que dans celui de l’acception classique de ce terme car elle pénètre entièrement la morphologie de la partition. Dans Pluton, j’ai utilisé des valeurs dynamiques comme critères de définition d’un choix d’échelles d’intervalles et dans Neptune, c’est le processeur lui-même qui, par le fait de calculs aléatoires, produit des déviations d’ambitus et de tempi sur lesquels sa basent les interprètes. En y réfléchissant bien, le cas de catégories s’influençant mutuellement n’est pas nouveau dans la musique : une acoustique particulière peut orienter un choix de tempo qui lui-même détermine des valeurs dynamiques et rythmiques. Mais dans le cas cité précédemment, la détection des valeurs d’interprétation peut aller jusqu’à la prise en charge d’éléments fondamentaux du discours musical. Là encore, l’importance que l’on voudra bien accorder à l’influence de ces critères temps réels sur la conception même de la musique est une affaire de choix esthétique.

 

Échantillonnage, transformation et synthèse : passé et avenir.

Trois domaines partagent actuellement la somme des travaux qu’effectuent compositeurs dans la musique électronique : l’échantillonnage, les transformations des sons instrumentaux ou vocaux et la synthèse sonore. Les deux premiers reproduisent la dualité qui existait dans les années 50 entre la musique concrète, spécialité du club d’essai de la R.T.F. à Paris, et la musique électronique pure sur laquelle le Studio de Cologne a fait les premières expérimentations. Ces deux démarches opposées au début se sont unifiées, dès 1955/56, dans le Gesang der Junglinge de Stockhausen. Ce n’est que dans les années 70 (pour la synthèse) et 80 (pour l’échantillonnage) que ces techniques apparurent dans l’informatique musicale. mais elles restèrent l’apanage du temps différé.

La synthèse sonore, de ce dernier point de vue, est l’instrument le plus puissant car, suivant les modes de synthèse utilisés, on peut construire le son en autant de paramètres que l’on veut qui seront autant de variables indépendantes pour déterminer tels ou tels aspects du son. Le problème qui se pose fréquemment pour les compositeurs est celui d’une relativement grande inertie du son lorsque la gestion des paramètres n’est pas suffisamment complexe. Lorsque l’on analyse l’aspect acoustique d’un son instrumental dans le temps, on est frappé par l’immense diversité et variabilité des comportements qui, lorsqu’ils doivent être reproduits par les méthodes de synthèse pure, demandent un contrôle d’une extrême complexité. De ce point de vue, la synthèse, définie comme un calcul de paramètres totalement préétabli, est une technique relevant complètement du temps différé puisqu’il n’y a aucune détection ni analyse d’un signal en temps réel.

L’échantillonnage a connu d’emblée un grand succès par le fait même de pouvoir combler en variété de comportements les difficultés que posent la synthèse. Cependant, si la technique de l’échantillonnage permet d’obtenir un résultat sonore satisfaisant de manière assez rapide, elle perd, en possibilités de contrôle, tout ce qu’offrent les techniques de synthèse. Ses potentialités de transformation et de développement sont d’ordre globales et ne pénètrent pas la structure interne du son. On peut lire un échantillon dans différents sens (à l’endroit, à l’envers, par traitements granulaire …), à différentes transpositions, dans des tempi variables, le filtrer, mais on ne peut pas le décomposer en petits atomes qui sont comme autant de petits instruments participant d’un son total. Il est vrai que la composition, souvent, peut très bien se satisfaire de cette restriction. Il n’y a pas toujours de corrélation évidente entre ce que l’on entends par “richesse sonore” et par “complexité conceptuelle”. Synthèse et échantillonnage sont, en quelque sorte, les compléments l’un de l’autre et il est évident que c’est souvent dans le sens d’une complémentarité qu’ils sont utilisés. En schématisant quelque peu, on peut s’apercevoir que la synthèse est plus fréquemment utilisée dans la gestion des structures continues, tandis que l’échantillonnage se révèle efficace dans un contexte plus ponctuel, discontinu et rythmique. La preuve en est que les premières oeuvres de synthèse par ordinateur, comme celles qu’ont composées John Chowning et Jean-Claude Risset, portent exclusivement sur des évolutions continues tout comme les premières pièces de musique concrète pratiquaient sans concession la rupture de ton. C’est le combat de la continuité des nombres contre le coup de ciseau 6. La transformation des sons instrumentaux est apparue aux USA sur des instruments analogiques mais c’est encore Stockhausen qui en donnera une première vision cohérente dans Mantra en 1970. Le traitement des sons est aussi un procédé très global en ce sens qu’il affecte la totalité du spectre soit par addition (techniques du frequency-shifter ou du ring modulator), soit par soustraction (filtrage) soit par transposition (harmonizer) ou réverbération et spatialisation. Répons de Boulez, en 1981, en fera une première utilisation plus complexe et maîtrisée par l’outil informatique. Ces techniques de transformation sonores, mise à part la réverbération et la spatialisation, ont été à la base de tout les systèmes en temps réel et c’était même, il y a quelques temps, ce qui en constituait l’essentiel.

Ces trois catégories étaient au début très séparées. On ne les utilisait qu’une à la fois. Bien que plus intégrées dans un même discours de nos jours, elles n’en restent pas moins assez séparées quant aux modes de composition qu’elles développent. Il est clair que, au bout de la chaîne de calcul qu’effectue un processeur pour les réaliser, le procédé est plus ou moins identique. Ce sont les modes d’approches qui diffèrent ainsi que les types de contrôles qu’on y effectue. Dans la plupart de mes compositions mixtes, j’ai eu l’occasion d’élaborer des principes qui reposent sur une hybridation de ces différentes méthodes. Le cas d’un synthèse sonore dont l’évolution, soit formantique, soit prélevée de l’analyse en temps réel d’un son instrumental ou vocal participe également du domaine du traitement et de la synthèse. Quant au procédé d’analyse/resynthèse sur lequel est développé actuellement un effort considérable, il permet dans certains as de reproduire avec une qualité confondante l’image sonore d’un son enregistré mais avec toutes les possibilités de contrôles puissants que permet la synthèse 7. La synthèse en temps réel, parvenant à rivaliser en qualité sonore avec la techniques de l’échantillonnage se substituera à cette dernière lorsqu’il sera possible d’effectuer également ces analyses complexes en temps réel. Ceci n’est qu’une affaire technologique qui, comme les autres, fonctionnera lorsque les processeurs de calcul auront la puissance suffisante. Ce cas est aussi ancien que l’existence des machines.

L’abolition de tous ces catégories est, selon moi, inéluctable, et il est souhaitable que ces catégories, tout comme celles du temps réel et du temps différé, finissent par se fondre en une seule et même technique unitaire relevant à la fois du traitement ou de l’échantillonnage mais dont les modes de contrôles seraient ceux de la synthèse dont une partie des paramètres serait géré par une analyse en temps-réel. Une fois cette unification réalisée, je pense que la question de la représentation symbolique, telle que je l’ai exprimée plus haut, pourra trouver un terrain propice à son développement. Mais, d’ores et déjà, les arguments théoriques existent et les barrières technologiques finiront par tomber. Le principe des partitions virtuelles est une des possibilité de cette unification. Il y en a certainement d’autres. Encore faut-il qu’un nombre suffisant de compositeurs en prenne conscience et surtout accepte de travailler dans ce sens, ce qui signifie, bien entendu, une limitation des exécutions musicales car de tels systèmes ne seront pas immédiatement accessibles commercialement dans tout les studios du monde. Ce dernier point, particulièrement ne me semble pas assuré. En ce qui me concerne, mon choix est fait depuis longtemps. Mon paletot n’est plus idéal.

                                                                           Philippe Manoury. Paris, Juin 1997.

 

  1. Luciano Berio, dans un entretien, disait que l’étude du contrepoint était le meilleur moyen de relier l’oreille au crayon. On constate malheureusement de nos jour une grande déficience dans cette capacité de représentation mentale de l’écriture. La raison en est probablement que, depuis quelques décennies, l’étude des disciplines d’écriture classique telles que l’harmonie et le contrepoint a été fortement délaissée. Bien qu’il soit clair que ces disciplines ne sont plus utilisées dans les compositions contemporaines, il n’existe, à ma connaissance, aucun autre moyen aussi efficace pour “relier l’oreille au crayon”.
  2. Ce n’est pas autrement qu’il faut entendre les agacements de Wagner dans l’interprétation de la musique de son époque. Ce n’est pas autrement non plus qu’il faut interpréter le soin que mettaient Mahler ou Stravinsky dans la précision de leurs partitions. Cette précision n’a pas été dans ces dernières années, il faut bien le reconnaître, sans quelques exagérations.
  3. Les interminables polémiques que l’histoire de la musique a vu surgir au sujet des différents tempéraments acceptant, par exemple, comme quinte, deux accordages différents, en sont une des preuves les plus évidentes.
  4. A la Renaissance, et jusqu’à J.S. Bach, des compositeurs utilisaient la “Tabula compositoria”, une sorte de matrice pour générer les relations polyphoniques. Athanasius Kircher, au XVIIème siècle, utilisait, après Zarlino et Mersenne, des procédés mathématiques relevant d’une tradition médiévale. Il y a également le “Wurfenspiel”, sorte de jeu de dés, que Mozart utilisa pour composer des petites valses. L’alliance de la combinatoire et de la musique est très ancien et serait trop long à développer ici. Au XXème siècle, c’est à Lejaren Hiller que l’on doit les premiers travaux de formalisations musicales par ordinateur en 1956. Ce n’est qu’une dizaine d’années plus tard que Max Matthews mettra au point les premiers programmes de synthèses des sons.
  5. Le cycle Sonus ex Machina comportant Jupiter, Pluton, La Partition du Ciel et de l’Enfer ainsi que Neptune à été réalisé avec le mathématicien Miller Puckette à l’Ircam. Ces pièces furent conçues pour le processeur 4X mis au point par Guiseppe di Guigno. En Écho, toujours réalisé avec Miller Puckette été composé pour la Station d’Informatique Musicale de l’Ircam élabore par l’équipe de Éric Lindeman.
  6. Il est intéressant de remarquer à quel point les outils ont laissé leurs marques sur les oeuvres. On peut aussi faire l’analogie avec le cinéma qui, dès ses débuts, a pratiqué un style très hachuré comme dans les premiers films d’Eisenstein pour ensuite développer des techniques de continuité comme les plans-séquences chers aux premiers films de Welles.
  7. Des expériences fort prometteuses sont actuellement en cours. Les travaux qu’effectue David Wessel à l’Université de Berkeley sont, à ce titre, très impressionnants par la qualité sonore de la resynthèse en temps réel d’un signal vocal complexe.