Posts Tagged ‘Guiseppe di Guigno’

Stockhausen au-delà … (2007)

Thursday, October 23rd, 2008

Karlheinz Stockhausen disparu, c’est le XXe siècle qui s’éloigne de nous. Sa puissance créatrice, son utopie donquichottesque, son pragmatisme professionnel, son aptitude à l’autopromotion, son esprit visionnaire et son intransigeance souvent provocatrice, font de lui une figure hors du commun, mais ne manquent pas non plus de nous poser quelques questions. Si toute sa personnalité semblait tendre vers la conquête d’un au-delà, il me semble pertinent aujourd’hui de scruter comment, « au-delà » de cette personnalité, émerge cette œuvre riche, diverse, mais parfois déroutante. Certes, on pourra objecter que l’œuvre et l’homme ne faisaient qu’un, et l’on aura partiellement raison (comme toujours). Mais l’attrait pour ce personnage fascinant, pour ceux qui l’ont connu, a eu tendance à masquer une œuvre, certes inégale, mais qui restera l’une des plus fortes de l’histoire de la musique du XXe siècle. Et ce, quoi que puissent en penser nos toujours si farouches contempteurs de la modernité. Afin de dresser rapidement un portrait de l’artiste, on rappellera simplement ceci.

Une famille de souche paysanne. Une enfance marquée cruellement par la guerre : mère internée en 1932 puis assassinée en 1941, victime de la politique nazie d’euthanasie des handicapés mentaux, père engagé volontaire dans la Wehrmacht et disparu sur le front de l’Est en 1945. Engagé comme brancardier à 16 ans en 1944, pianiste de bar, travail en usine, petits boulots pour gagner sa vie parallèlement à des études brillantes à l’université de Cologne. En 1951, aux cours de Darmstadt, il fait la rencontre du compositeur belge Karel Goeyvaerts, qui semble avoir exercé une forte influence théorique sur lui, mais dont le nom n’est curieusement jamais mentionné. Il passe une année dans la classe d’Olivier Messiaen au Conservatoire de Paris qui reconnaît en lui « un génie », selon ses propres termes. Il y fait la connaissance de Pierre Boulez qui deviendra bientôt son alter ego en France. Stockhausen fait aussi un bref séjour au Studio d’Essai de Pierre Schaeffer avec lequel il rentrera très vite en conflit. Il y réalise une étude électronique dite « aux 1000 collants » puis part travailler au studio de musique électronique de Cologne. Très rapidement, il se fait remarquer comme l’un des compositeurs les plus remarquables de toute sa génération et, en l’espace de cinq ans, ce jeune orphelin de guerre devient un compositeur de tout premier ordre en Europe et bientôt dans le monde.

Il s’établit près de Cologne, et participe à toute l’aventure musicale de l’après-guerre : le sérialisme, la musique électronique, la musique aléatoire, les œuvres spatialisées. Il enseigne, constitue son propre groupe de musiciens (à l’image des groupes pops), compose des œuvres dont les dimensions échappent peu à peu aux dimensions habituelles des concerts. On le décrit volontiers comme une sorte de gourou, visionnaire, autoritaire et mégalomane. Les anecdotes pleuvent sur son compte car il n’évite pas les déclarations provocatrices. Un exemple : c’est un grand éclat de rire que lui envoient les jeunes musiciens du Conservatoire de Paris qu’il vient diriger dans les années 70 : il leur avait interdit de jouer tout autre musique que la sienne pendant toute la semaine que duraient les répétitions. Plus récemment, il provoque un tollé en affirmant que les attentats du 11 septembre constituent la plus grande œuvre d’art jamais réalisée avant d’affirmer qu’il s’agit du chef-d’œuvre de Lucifer, donc du Mal, qu’il ne cautionne pas. Il est profondément catholique, ouvertement polygame, et ne cache pas ses attirances pour les croyances mystiques, les philosophies orientales et même les extra-terrestres. Celui qui, dans une interview faite au cours des années 60, déclarait que, « s’étant retrouvé seul sur terre à la fin de la guerre, il décida de faire tout ce qu’il voudrait sans jamais demander son avis à qui que ce fût » 1 a, de ce point de vue, admirablement organisé son destin.

Il publie, régulièrement depuis les années 50, ds nouveaux tomes de ses Textes dont chacun surpasse le précédent en nombre de pages plus qu’en réflexions esthétiques et théoriques, le plus souvent supplantées par des anecdotes mêlant graphiques, plannings de répétitions et nombreuses photos de famille. Il crée chez lui sa propre édition de disques et de partitions (ayant rompu avec Universal Edition et Deutsch Gramophone), sa propre fondation et sa propre académie d’été pour favoriser la diffusion de ses œuvres. Stockhausen ne laissait jamais rien au hasard et voulait tout contrôler. Ses exigences étaient redoutées et difficilement négociables. De la hauteur précise des podiums sur scène, jusqu’aux horaires des répétitions, en passant par les types de microphones et d’éclairage, tout est consigné dans les partitions. Il aurait souhaité construire sept auditoriums dans sa propriété pour y faire jouer chacun de ses opéras. Pour toutes ces raisons, on l’a souvent comparé (hâtivement, bien sûr) à Wagner. Nous y reviendrons. Au fur et à mesure que son âge avance, il travaille de plus en plus « en famille ». Ses deux compagnes, ses enfants, forment, avec quelques musiciens privilégiés, ses principaux interprètes. Il peut faire penser également au cinéaste Stanley Kubrick avec lequel il partageait cette même obsession du contrôle maniaque et absolu du devenir de ses œuvres, et dont les productions étaient également gérées par sa famille proche. Ce faisant, Stockhausen demeure de plus en plus isolé des institutions musicales. Ses œuvres ne peuvent s’insérer facilement dans le cadre des concerts. Il considère les orchestres comme des institutions dépassées, exige un nombre mirobolant de répétitions, demande à ses solistes de jouer par cœur des œuvres de longues durées, et son unique quatuor à cordes ne nécessite rien de moins que quatre hélicoptères !  Adulé parfois comme une pop star, il évolue dans un monde parallèle qu’il a créé de toutes pièces et dont il assure le contrôle avec une énergie et une rigueur sans faille. Quelles que soient les difficultés, il maintient cette position farouchement indépendante que l’on peut résumer en une seule phrase : il veut constituer, à lui seul, une tradition musicale à part entière. Stockhausen prétendait élaborer une œuvre totale dans laquelle sons, couleurs, chiffres, signes du zodiaque, gestes, configurations stellaires, saisons, jours, heures, minutes, et même plus récemment, odeurs, étaient organisées selon des procédures très formalisées afin de participer du grand TOUT. Ses œuvres, mêlant l’intuition la plus extrême, parfois la plus fine, et la rigueur, parfois la plus folle, ont évoluées peu à peu vers un étrange théâtre, qui n’est cependant pas du meilleurs « goût ». Que l’on adhère ou non à cette conception de l’art, il faut reconnaître que Stockhausen a tout entrepris avec un professionnalisme hors pair.

Depuis quelques années, lorsque le terme de « musiques électroniques » s’est vu désigner exclusivement certaines nouvelles formes de musique populaire, tout une génération de DJs, mixeurs se sont déclarés ses fils ou petit-fils. L’intéressé n’a pas boudé son plaisir, tout comme autrefois, lorsqu’il s’enorgueillit de voir figurer sa photo sur la couverture d’un disque des Beatles. Il n’a pas pour autant lâché une triple croche en faveur de leurs styles musicaux et sa coquetterie s’est limitée à récolter les faveurs populaires sans jamais tenter ni rapprochements, ni fusions, ni « métissages » stylistiques. Bien évidemment, c’est cette position de précurseur des « nouvelles (!) musiques électroniques » que la critique s’est récemment plu à mettre en valeur au moment de la disparition de celui qu’elle nomma le plus souvent :  « inventeur de la musique aléatoire » sans jamais esquisser la moindre définition de ce que ce terme pourrait signifier. À chacun d’imaginer. Fin de portrait.

Qui se cache donc derrière ces multiples facettes ? Que nous livre cette œuvre, au-delà du mauvais théâtre, de sa cohorte d’anges, des rituels personnels, de la mythologie de pacotille ? Il faut prendre la peine de l’explorer dans sa continuité.

 

Première période : du pointillisme à la Gruppen-Form.

Dans les années 50, Stockhausen fût, avec Boulez, le compositeur de la « tabula rasa ». La découverte de l’œuvre radicale d’Anton Webern sert de modèle. L’un et l’autre inventent l’idée de la série généralisée en partant d’une petite étude pour piano de leur maître Messiaen. Boulez compose son premier livre de Structures pour deux pianos, et Stockhausen son Kreuzspiel. Il faut ici rappeler que les cours de Darmstadt qui furent le lieu de naissance de ce que l’on a appelé la « série généralisée » ont été très brefs, tout comme le nombre d’œuvres créées avec cette technique. Pour rétablir une fois pour toutes la vérité historique, l’un comme l’autre ont abandonné très vite cette méthode trop contraignante. Il ne sert donc à rien de se gausser d’un terme – comme on le fait souvent – qui n’aura eu qu’une durée de vie très limitée. La théorie de la série généralisée n’aura jamais la même aura que celle de la relativité généralisée ! De cette période naîtra, entre autres, Kontrapunkte, premier chef d’œuvre de facture extrêmement rigoureuse, voire classique dans le traitement instrumental. Mais tandis que Pierre Boulez porte son intérêt à la fois sur des textes poétiques (Char, Michaud, Mallarmé) et sur une remise en question des formes classiques (Deuxième sonate pour piano), Stockhausen s’engage dans la voix d’une théorie formelle, radicale, mais extrêmement fertile et puissante. La musique de cette période, issue du pointillisme webernien (série généralisée oblige), se devait de dépasser ce stade d’expression pour créer des formes plus perceptibles. Ce sera, pour Stockhausen, la conception de la Gruppen-Form dans laquelle – influencé en cela par la Gestallt Theorie – le tout est supérieur à la somme des parties. La musique est alors constituée de groupes formels ayant des morphologies précises et perceptibles, et non plus de points isolés dans l’espace, identifiés par ce que l’on a appelé, en vertu d’une vague analogie mathématique, leurs paramètres (hauteur, durée, intensité, timbre). Les principes qui régissent ces groupes, et qui n’ont rien à voir avec la théorie mathématique du même nom, conduisent à l’élaboration de formes absolument nouvelles car les principes de développement, de tension, de détente, de transition, de progression, etc., n’ont plus du tout la même valeur. Il s’agit d’une musique très dense, discontinue, souvent pulsionnelle, mais obéissant à une logique interne très forte.

Avec une rapidité, une inventivité et une imagination confondante, Stockhausen enchaîne création sur création, parmi lesquelles la série des onze Klavierstücke. Si ces pièces sont comme des laboratoires des œuvres de plus grande ampleur qu’il composera à la même période, elles renouvellent néanmoins considérablement l’écriture pour piano. Les 4 courts premiers Klavierstücke ont fourni toutes les bases de la complexité rythmique dont un Brian Ferneyhough et ses nombreux élèves se feront plus tard les hérauts. Dans l’ensemble de ce cycle, guère de virtuosité démonstrative, mais un travail en profondeur sur les différents niveaux de résonances, les échelles de tempi, l’usage des harmoniques, l’introduction des clusters et des glissandi, le tout dans une conception renouvelée de la durée et des proportions, pour finir avec la musique aléatoire dans le célèbre Klavierstuck XI. Là encore, les chemins de Boulez et de Stockhausen se croisent, mais de là aussi naîtront leurs premières divergences. Boulez, avec sa Troisième sonate organise méticuleusement le parcours aléatoire en prenant comme références principales deux grands modernes de la littérature : Mallarmé et Joyce. Il critiquera vivement la position de son collègue allemand qui accepte, dans ce jeu de hasard, qu’une musique notée avec une métrique rigoureuse, puisse être jouée dans des tempi totalement différents. Boulez lui objectera que cela reviendrait à jouer une symphonie de Beethoven deux fois plus vite ou deux fois plus lentement. C’est que le temps musical est désormais au centre des préoccupations des deux musiciens. Stockhausen adopte ici une méthode qu’il conservera toute sa vie : l’organisation des tempi dans une échelle logarithmique, à l’image des 12 sons de la gamme chromatique. Puisque les sons sont traités sériellemment, pourquoi pas les tempi ? Le Stockhausen de cette époque cherche à tout concentrer à l’intérieur d’une pensée unifiée. À la même période, il compose Zeitmasse pour quintette à vent. Si cette œuvre n’est pas parmi les plus captivantes du compositeurs, elle fournit un éventail impressionnant de toutes les possibilités de superposer des couches rythmiques dans différentes vitesses et différentes évolutions.

Le point culminant de ces expériences sera atteint avec l’œuvre que l’on peut certainement considérer comme, sinon le chef d’œuvre des années 50, du moins celui de Stockhausen : Gruppen pour trois orchestres. C’est avec Gruppen que Stockhausen va intégrer toutes les techniques précédentes et, en premier lieu, celle des superpositions des tempi. Ici nous touchons à un trait curieux de sa personnalité. Je le formulerai sans ambages : les présupposés théoriques (très nombreux chez lui) qu’il construit en vue de l’écriture de ses partitions, s’avèrent très souvent faux et sans grandes conséquences sur la perception de sa musique. Mais il est un fait que ces approximations théoriques le conduisent à produire des œuvres d’une force esthétique extraordinaire. Gruppen nous en fournit un premier exemple. Regardons la situation. Stockhausen écrit un article qui fera date, Wie die Zeit vergeht …(Comment passe le temps…), dans lequel il expose ses nouveaux principes d’organisation du temps suivant une loi qu’il déduit de celle qui gouverne l’organisation des hauteurs. Stockhausen applique tout naturellement les principes d’organisation sérielle à tous les éléments de construction de sa grande partition pour 3 orchestres. Les tempi sont de ceux-là. D’un point de vue théorique, rien qui puisse heurter le bon sens. Les trois chefs battent des tempi différents, l’un accélère, l’autre ralentit, le tout étant organisé de manière très élaborée. Les divisions logarithmiques des tempi l’amènent à recourir à des indications d’une précision utopique telles que : la noire = 75,5 ou 113,5. 2 Cependant, la technique musicale qui prévalait à cette époque (sérialisme oblige…) évitait toute pulsation rythmique. Les structures musicales, composées souvent de différentes métriques superposées, sont jouées dans une vitesse, déterminée certes par un tempo, mais la perception des temps de la mesure étant bannie, celle du tempo demeure inexistante. Un extrait de cette partition fera bien comprendre ce problème :


Une autre approximation de représentation surgit lorsque Stockhausen évoque le modèle d’un spectre pour composer ses structures sonores. Le graphique suivant est une représentation d’un spectre sonore. Il s’agit d’une répartition de l’énergie sonore dans l’espace des hauteurs à un instant donné. En ordonnées sont représentées les amplitudes, et en abscisses les fréquences de hauteurs. Le temps n’est pas représenté puisqu’il s’agit ici d’un « instantané » . Les pics que l’on y voit représentent les fréquences qui contiennent le maximum d’énergie et que l’on appelle les « formants ». Au moment suivant, ces pics changeront de places. 

Dans le graphique suivant, dessiné par Stockhausen, on voit des crêtes et des vallées, et cela pourrait effectivement évoquer la représentation de type spectral que l’on a vue plus haut, si ce n’est qu’ici, c’est le temps qui est couché en abscisse et non les hauteurs qui, elles, sont représentées en ordonnées. N’ayant aucune indication précise sur l’interprétation d’un tel graphique, on peut imaginer que les traits verticaux représentent les barres de mesures et les lignes horizontales les différentes couches rythmiques superposées. Les « trous » situés au milieu de la figure sont sans doute des silences. Dans l’échelle située à gauche de ce graphique, dont chaque barreau correspond à chaque ligne horizontale, figurent les divisions internes des temps dans chaque mesure. On voit ainsi la répartition de ces couches en suivant la série des nombres entiers de 3 jusqu’à 26.  Cette série de divisions entières est évidemment inspirée par celle qui constitue la série des harmoniques d’un son. Stockhausen note curieusement en haut de l’échelle : « formant » alors qu’il ne s’agit que de divisions rythmiques. Certes, dans la réalité, chaque fréquence d’une série harmonique est elle-même une division du temps de la fréquence fondamentale, et il n’y a rien de choquant à vouloir prendre ce modèle pour l’utiliser dans une répartition rythmique. On retrouve ici la volonté du compositeur à tout unifier dans un même modèle. Mais ce graphique n’est rien d’autre qu’une fantaisie qui a certainement servi à élaborer un passage de Gruppen, mais n’est en aucun cas la représentation d’un spectre comme le compositeur le laisse entendre. Il s’agit d’une évolution de formes sonores dans le temps, tandis que la représentation spectrale, montrée plus haut, représentait un état sonore à un instant précis. Stockhausen avoue d’ailleurs très franchement que, composant cette partition à Paspels en Suisse, il ne s’est pas gêné pour dessiner les montagnes qui se trouvaient devant lui afin d’avoir des modèles de ce qu’il appelle curieusement des « spectres ».

                                                   Fundamental spectra over seven basic durations

                                                          (Mountain Panorama at Paspels)

 

 

La musique électronique.

Après le bref intermède chez Pierre Schaeffer avec lequel il se brouillera vite (comme Boulez, comme Barraqué et bien d’autres) lui reprochant de ne faire que du simple collage, Stockhausen créé au studio de la radio de Cologne ses deux Études électroniques entièrement composées de sons sinusoïdaux. 3. C’est l’antithèse de la musique concrète, faite de transformations de sons enregistrés, que l’on produit à Paris. D’aspects austères, ces deux études ont surtout une valeur historique. Stockhausen y développe un contrôle des hauteurs non tempérées avec une rigueur qu’il abandonnera assez vite. Très tôt aussi il comprit que le recours aux seuls sons  artificiels risquait de devenir stérile, et entama une synthèse de la musique électronique et concrète avec ce qui peut être considéré comme la première composition de réelle valeur artistique de musique électronique : Gesang der Jünglinge. Une voix d’enfant, enregistrée et transformée, dialogue des sons sinusoïdaux et, malgré des conditions acoustiques qui datent, ce petit chef d’œuvre garde, aujourd’hui encore, toute sa fraîcheur.

Vient ensuite Kontakte, œuvre de dimensions plus vastes, pour laquelle il réalise une partition d’une incroyable minutie à partir d’une immense série d’esquisses graphiques que j’ai pu voir à la Fondation Paul Sacher à Bâle. Cette œuvre, peut-être sa plus grande réussite en la matière, attaque plusieurs fronts : la spatialisation, le mélange d’enregistrements de sons transformés de pianos et de percussions avec des sons de synthèse beaucoup plus élaborés que dans les précédentes compositions, la création de nouvelles morphologies sonores, la construction de polyphonies de couches complexes, ainsi que le recours à la grande forme. C’est une œuvre charnière par laquelle Stockhausen aborda peu à peu le concept de Moment-Form. Pour la réalisation de cette œuvre, il fit construire une table tournante sur laquelle il fixa trois haut-parleurs dont il enregistrait la diffusion avec un simple micro. Le résultat donne des sons tournoyant sur eux-mêmes d’un grand effet. D’une construction très polyphonique et extrêmement élaborée, Kontakte dégage une poétique sonore d’une grande intensité. La fin de l’œuvre, dans laquelle les sons tournoyant dans l’aigu perdent peu à peu leur matérialité, est un des plus beaux moments de toute l’histoire de la musique électronique. Quelque temps plus tard, Stockhausen ajoutera une partie de piano et de percussion à la bande magnétique. La puissance dramatique qui se dégage de cette œuvre est impressionnante et, tout comme dans Gruppen et Momente, dans Kontakte, Stockhausen aborde la forme musicale avec une vision aussi novatrice qu’efficace.

En 1966, Stockhausen compose Telemusik au studio de la NHK au Japon. Cette courte pièce de 17 minutes mêle, jusqu’au méconnaissable des bruits enregistrés en Espagne, en Asie et en Hongrie. Dans ce dessein, Stockhausen réalise une partition dont la précision est telle, que l’on pourrait, à partir d’elle, reconstruire toutes les opérations de studio qui ont été réalisées pendant sa composition. La volonté d’étendre la durée des œuvres à celle d’un concert entier étant un des buts que s’était fixé le compositeur, Hymnen durera un peu plus de 2 heures. Le matériau musical utilise des enregistrements des hymnes nationaux du monde entier. Certains, situés  aux centres des 4 régions que comporte l’œuvre, sont aisément reconnaissables, mais la plupart sont tellement intégrés aux textures électroniques qu’est évité, de façon extrêmement habile, l’écueil qui consisterait à transformer l’écoute de la musique en un jeu de perpétuelle identification. Clin d’œil provocateur à l’histoire de son propre pays, Stockhausen n’hésite pas à incorporer, malgré la frayeur d’Otto Tomek, alors responsable de la musique contemporaine à la WDR, le Horst-Wessel-Lied (hymne officiel du parti nazi) dans la série de tous les Hymnes utilisés dans cette œuvre. L’époque était à la contestation estudiantine et à l’utopie révolutionnaire. Et bien que dégagé de toutes références politiques précises (à la différence d’un Luigi Nono), Hymnen reflète assez bien cet état d’esprit. Les très longues plages, que cette œuvre comporte, invitent souvent à la méditation. C’est dans Hymnen que l’on voit poindre, pour la première fois, ces « fantaisies utopiques » dont il ne se départira guère plus tard. Il y évoque un être artificiel, Pluramon, qui combine les aspects pluralistes et monistes, et qui vit dans la région d’Harmondie où l’harmonie se combine au monde. C’est sur l’hymne de Pluramon, sonnant comme une gigantesque respiration, que se termine cette grande fresque sonore. L’aspect hétérogène du matériau musical, comme s’est le cas dans sa musique instrumentale de la même période, prend de plus en plus d’importance. Mis à part les hymnes divers qui sont en intermodulations les uns les autres, on y entend des séquences de sons concrets à peine transformées, comme des bruits de postes à ondes courtes (très à la mode également chez Cage à cette époque), des cris d’oiseaux, des mots parlés, et même l’enregistrement d’une bribe de conversation qui eut lieu pendant une séance de travail en studio durant la composition de l’œuvre.  Avec Hymnen se clôt la série des 4 pièces historiques de ce compositeur pour la bande magnétique. Stockhausen ne reviendra à ce mode d’expression que neuf ans plus tard avec Sirius.

Il composera également Mixtur pour orchestre dont les sons sont transformés en temps réels par 4 modulateurs en anneaux. Cette partition, d’une écriture instrumentale assez sommaire, inaugure une technique qui trouvera sa véritable intégration dans Mantra, composé six ans plus tard. Mais s’il est une pièce qu’il faut absolument mentionner, tant sa portée expérimentale est conséquente, c’est Mikrophonie I pour tam-tam et électronique en temps réel. Composée en 1964, cette pièce visionnaire pour 6 interprètes met en œuvre un grand tam-tam, joué d’une multitude de manières (coups, frottements, raclements…) par 2 personnes, tandis que 2 autres effectuent une prise de son à l’aide de micros dont le signal est transformés par 2 autres musiciens qui actionnent filtres et potentiomètres. La partition de cette œuvre très expérimentale décrit avec une minutie extrême les différentes actions de ces 6 interprètes, des diverses manières de faire résonner le tam-tam, en passant par les mouvements et les places des micros par rapport à l’instrument, jusqu’aux actions des filtres qui doivent transformer les sons. Il s’agit ici de la première œuvre en temps réel, composée une quinzaine d’années avant que cette forme de musique ne commence vraiment à prendre son essor, dans laquelle un seul instrument de percussion fournit une matière sonore brute qui est sculptée, filtrée, modulée pendant près d’une demi-heure. D’une forme extrêmement élaborée, cette œuvre est emblématique de cette alliance d’intuition expérimentale, de conceptualisation formelle et de volonté de fixer le tout dans une écriture nouvelle qui aura caractérisé la personnalité de Stockhausen. Il existait certes, quelques musiciens expérimentaux qui travaillaient sur ces systèmes de transformations électroniques en temps réel, qui venaient tout juste d’être inventés, mais aucun n’a su donner à ces matériaux la puissance dramatique et formelle que Stockhausen a su leur insuffler. Avec cette œuvre, ainsi que les précédentes utilisant les moyens électroniques, Stockhausen a été le premier, et longtemps le seul, à montrer que l’expérimentation, même la plus aventureuse, n’était pas l’opposé du travail de composition le plus rigoureux. On peut observer quatre stades dans l’attitude de Stockhausen face aux moyens électroniques. L’expérimentation, phase indispensable pour « apprivoiser » les matériaux nouveaux, la conceptualisation, dans laquelle s’établissent les grands principes formels qui engendreront l’œuvre, la formalisation, où se sont définies les relations entre les différents éléments, puis la composition proprement dite, où l’intuition musicale organise le tout dans une expression artistique. Toutes ces méthodes se nourrissant l’une l’autre, elles en devenaient complémentaires et indissociables. Sur ce terrain, Stockhausen n’aura guère eu de rival, et c’est là une des contributions majeures qu’il aura faite à la création musicale.

 

Troisième période : musiques intuitives et partitions graphiques.

Après Hymnen, Stockhausen poursuivra ce chemin vers des formes de plus en plus libres, et dans plusieurs directions. L’époque est à la recherche de toutes formes de liberté, le free jazz connaît son heure de gloire, les improvisations se multiplient, la contestation est dans toutes les têtes. Stockhausen participera pleinement de cette situation, même si sa manière est jugée, tout de même, un peu trop autoritaire pour l’époque. Il forme un groupe d’interprètes qui improvisent tandis que, de sa console, il s’arroge le droit de supprimer les parties qui ne le satisfont pas. Il est vivement attaqué pour ses positions exigeantes, radicales, et toujours non-conformistes pour une époque qui ne jurait que par l’égalitarisme à tous crins. Son étudiant, le compositeur anglais Cornelius Cardew, rédige un pamphlet dans lequel Stockhausen est traité de « suppôt du grand capital », on n’hésite pas à le qualifier de « fasciste », « mystique », après qu’on l’a traité aux USA tour à tour de « communiste » et même d’ »antisémite » ! 4 Ses partitions abandonnent peu à peu l’écriture traditionnelle pour se concentrer sur des graphiques indiquant des modes de jeux pour les interprètes. Le matériau musical se simplifie et le compositeur cherche désormais à communiquer ses idées musicales par d’autres formes que celles de la notation traditionnelle. Sa volonté de tout concentrer sur l’unicité d’un matériau, déjà délaissée depuis la Moment-Form, est ici totalement abandonnée. En 1968, ce sera le célèbre et très orientalisant Stimmung dans lequel six chanteurs, assis en cercle, déploient des harmoniques à la manière des chanteurs tibétains, tout en scandant des noms de dieux hindous. Il s’agit d’une musique de méditation, basée sur un accord immuable, proche d’un de ces rituels religieux qu’il affectionnera tant par la suite, mais qui a le mérite d’être la première composition réellement spectrale. Viennent ensuite Prozession, Kurzwellen, Spiral, pièces dont le matériau musical est très simplifié et où se mêlent des transformations électroniques en temps réel, des récepteurs d’ondes courtes et des instruments. Le point d’aboutissement de ces expériences sera Aus den sieben Tagen, 15 pièces pour un interprète dont le contenu n’est plus noté sur partition mais sous forme de propositions écrites dans de courts textes. C‘est ce que Stockhausen appelle la musique intuitive. La portée de ces œuvres est loin d’atteindre celle des précédentes et, trop influencé par le goût du jour, il semble avoir abandonné toute sa rigueur visionnaire qui avait tant marqué auparavant. Entre l’extrême déterminisme de ses débuts et le total indéterminisme de cette période, fortement teinté de mysticisme, se profile un abîme que l’on a du mal à appréhender. Stockhausen continue encore quelques années dans cette voie, en y introduisant peu à peu des éléments théâtraux, des pas de danses effectués par ses interprètes, dessine leurs costumes, régle lui-même ses éclairages dans une succession de petits morceaux de cabaret laissant poindre les imageries qui peupleront son immense cycle de 7 opéras, Licht. Tandis que l’on imaginait la partie perdue, il effectue soudain, en 1970, un magistral volte-face en composant une autre de ses pièces maîtresses : Mantra.

 

Quatrième période : la composition par formule ou l’anecdote au milieu de la structure.

Elaboré lors de l’exposition universelle d’Osaka, au cours de laquelle Stockhausen, dans une magnifique sphère bourrée de haut-parleurs, effectue chaque jour des expériences musicales devant un public nombreux, Mantra pour 2 pianos et modulateurs en anneaux inaugure sa dernière période au cours de laquelle ses œuvres seront toutes composées à partir d’une formule musicale. La formule n’est pas, à proprement parler, un thème au sens classique du terme, mais une organisation morphologique comprenant modes de jeux, proportions, notes centrales, niveaux dynamiques, que l’on retrouvera dans toutes leurs formes d’expansion et de développement. Stockhausen réintègre peu à peu sa volonté de déduire le tout de l’un, et cela le conduira jusqu’à déduire un cycle de 7 opéras, d’une durée totale de 35 heures, d’une formule unique. Mantra inaugure cette nouvelle conception. Pour lui, la formule est la clé de l’univers sonore qu’il élabore. C’est son « e=mc2 » personnel, comme un lointain avatar de la formule déterministe qu’Einstein chercha jusqu’à la fin de sa vie pour expliquer l’Univers. Tout cela, évidemment, est à remettre à son niveau. Il s’agit, chez le musicien, d’une arithmétique passablement sommaire, dont les éléments sont bien loin de posséder la rigueur exacte des sciences. Ce n’est qu’une sorte d’imagerie scientifico-poétique qui lui permet, tour à tour, d’évoquer l’Univers, le rituel religieux, et même les extra-terrestres. D’une certaine façon, Stockhausen renoue peu à peu avec le déterminisme planifié qui présidait à la composition de Gruppen. Mais pour que la formule de base soit plus qu’une structure, pour qu’elle soit perçue et reconnue comme telle, il la contraint dans des profils mélodiques, tout à fait chantables et mémorisables. Dans cette nouvelle manière de composer, Stockhausen renoue également avec une certaine organisation sérielle. La plupart de ses formules seront composées avec l’utilisation rigoureuse des 12 sons de la gamme chromatique. On peut dire que de tous les compositeurs de sa génération, Stockhausen est celui qui est resté le plus fidèle à l’idée dodécaphonique. Mais, en réintégrant des aspects mélodiques, somme toutes assez simples, il ne renoue pas avec les textures discontinues et fragmentées des œuvres du début. La technique peut nourrir la stylistique, elle ne l’implique pas. Par certains aspects, cette nouvelle manière de composer peut se concevoir comme une sorte de synthèse du déterminisme technique des premières œuvres avec les grandes durées organisées à partir d’éléments morphologiques prédominants qui étaient le principe de la Moment-Form.

La formule de Mantra est une mélodie de 13 sons (le premier et le dernier étant identiques) ayant chacune sa durée, et son mode de jeux (note répétée, accent à la fin, gruppetto, tremolo…) :

 

À chacun de ces sons corresponds une section construite sur le mode de jeux principal, les autres se déroulant toujours dans le même ordre de succession. Chaque formule aura également 13 transpositions et 13 extensions et 13 proportions temporelles. Nous sommes ici dans un univers totalement pré-établi et, cette fois, les éléments de constructions sont tout à fait audibles dans l’œuvre. Ainsi, toute l’œuvre n’est rien d’autre qu’une gigantesque extension de la formule d’origine qui ne fait que se répéter (avec ses augmentations et transpositions), sans ajout, ni retrait. Les transformations électroniques obéissent également aux mêmes principes de circulation de ces 13 sons. De ce point de vue, Stockhausen dépasse le stade des expérimentations libres sur les transformations instrumentales par l’électronique qu’il avait utilisées dans Mikrophonie I et Mixtur en donnant au principe de transformation électronique une cohérence totale avec la construction de l’œuvre. Suivant l’accordage des modulateurs en anneaux, certains sons seront consonants, et d’autres dissonants. Ainsi, dans chacune des sections, le son central sera perçu dans toute sa clarté, tandis que les autres auront un timbre plus brouillé. L’œuvre dure environ une heure, c’est-à-dire la durée d’un 33 tours de cette époque. Stockhausen détermine ici les dimensions de son œuvre en obéissant aux conditions de diffusion moderne un peu à la manière d’un Stravinsky qui, avant la guerre, composait certaines de ses partitions en fonction de la durée des 78 tours. Là encore, malgré ce déterminisme d’un matériau musical qui pourrait sembler une contrainte draconienne imposée à l’invention spontanée, il parvient à maintenir dans le temps une tension sonore qui est réellement confondante. L’attrait pour les éléments orientaux est encore perceptible – à commencer par son titre même – dans les sonorités transformées du piano, qui ne sont pas parfois sans rappeler celles des gamelans balinais. L’avant-dernière section, la plus impressionnante, opère une contraction de toute l’œuvre en un minimum de temps. Il s’agit d’un perpetuum mobile dans lequel toutes les formes de transposition et d’extension de la formule se croisent dans les deux pianos et sont contractées en un minimum de temps. Contractions, expansions, il n’en faut pas plus à Stockhausen pour évoquer le Cosmos. Dans le curieux texte de présentation, il écrit ceci : « Naturellement (c’est moi qui souligne !) la construction unifiée de Mantra est une miniature musicale de la macrostructure unifiée du cosmos… ». Voilà qui risque de bien faire rire le dernier étudiant en physique, mais notre homme ne recule devant rien, tant sa confiance en soi semble inébranlable ! À un moment de l’œuvre, les deux pianistes, profèrent quelques curieuses onomatopées qui évoquent quelques borborygmes primitifs. Ces intrusions d’éléments anecdotiques, au milieu d’œuvres hautement structurées, vont désormais devenir une constante. Lointains souvenirs des happenings des années 60 que le compositeur fréquenta, elles déstabilisent l’écoute de l’œuvre par l’introduction d’un théâtre simpliste, anecdotique et sans contenu réel. On les retrouvera désormais presque systématiquement.

Stockhausen poursuit ensuite l’idée de la composition par formule dans une œuvre pour orchestre et danseur-mime composée trois ans après Mantra : Inori. Le titre signifie « adorations » en japonais. L’œuvre suit un parcours en cinq grandes sections privilégiant tour à tour les différents stades de la structuration musicale dans un ordre allant du plus simple au plus complexe : le rythme, l’intensité, la mélodie, l’harmonie et la polyphonie. Cette idée n’est pas sans faire penser à Momente, avec ses moments de durées, de mélodies, de timbres. Dans sa volonté de démiurge d’opérer de grandes synthèses historiques, Stockhausen n’hésite pas à dire que « l’œuvre se développe comme une histoire de la musique de ses tout premiers débuts à nos jours », oubliant que la polyphonie a précédé l’harmonie dans notre histoire musicale. Comme dans Mantra, les éléments sont ici soigneusement prédéterminés, mais de façon encore plus complexe. Mantra exposait la formule au tout début. Il n’y aura pas ici d’exposition proprement dite, mais une continuelle évolution de la formule, partant de sa forme rythmique la plus simple (le début n’expose qu’une seule note, répétée à différents niveaux d’intensités selon des schémas rythmiques déduits de la formule même), en passant par des évolutions mélodiques, harmoniques, pour terminer sur des couches polyphoniques. Le plan suivant montre la formule, dont les éléments donnent, un à un, les proportions des sections de l’œuvre. Plus que jamais, Stockhausen fixe au départ tout le déroulement de l’œuvre.

Dans son souci de dépasser les conditions habituelles de concevoir la musique, Stockhausen élabore un principe d’une grande complexité dont la réalité confine cependant à l’utopie. Il veut étalonner les niveaux dynamiques du plus faible au plus fort sur 60 degrés, organisés, comme de coutume, en échelles. Voici l’explication qu’il en donne: « Ces échelles comprennent 60 degrés d’intensité compris entre extrêmement faible et extrêmement fort. Les degrés se différencient par le fait qu’un même son est joué simultanément par un nombre variable d’instruments ; par exemple, degré 1 : seulement une flûte pianissimo ; degré 2 : deux flûtes pianissimo ; degré 3 : une clarinette et un violon pianissimo ; degré 4 : une flûte, une clarinette, un violon pianissimo… etc. jusqu’au degré 60 : quatre flûtes, plus quatre hautbois, plus quatre clarinettes, plus quatre trompettes, plus 26 violons, tous fortissimo. » Ce qui fonctionne très bien en théorie est, en fait, sans grand effet dans la perception. Une loi de la perception très connue 5 dit que la sensation est organisée suivant une courbe logarithmique. Cela signifie que pour éprouver une sensation additionnelle (lorsque des valeurs s’ajoutent les unes aux autres) il faut les multiplier et non les additionner. Un ff, joué par 20 instruments ne sera pas perçu différemment d’un autre ff, joué par 18 ou 23 instruments. Pour obtenir une perception réelle de ces différents degrés dynamiques, il aurait fallu ici changer d’échelle, et calculer chaque nouvelle incrémentation en multipliant la valeur précédente par une valeur constante, non en l’ajoutant. D’autre part, la production et la perception des valeurs d’intensité n’est pas soumise au même régime d’exactitude que celle qui gouverne les autres composants musicaux. Ce sont des zones relatives et non des valeurs absolues. Un sol ne ressemble pas à un sol#, même pour qui n’a aucune éducation musicale, tandis que, même le musicien le plus exercé ne saura jamais dire où se termine un mf, ni où commence un f.  La mise en échelle et le traitement formel de toutes ces valeurs dynamiques par Stockhausen, ici, a par conséquent un statut purement combinatoire, qui peut être perçu uniquement lors de grands écarts dynamiques, mais perds tout sens au fur et à mesure que les degrés sont proches.

Mais, comme ce fut le cas pour Gruppen, Stockhausen réussit, à partir de prémisses théoriques erronées, à produire une œuvre d’une grande puissance dramatique. Une tension continue est maintenue tout au long des 70 minutes de l’œuvre (on atteignait ici la durée maximum d’un disque vinyle !). Certes, on se demande parfois, au détour de certaines harmonies proches de la tonalité ou dans certaines progressions, où se niche la rigueur de construction par formule, mais la force dramatique qui émane de cette œuvre, qui ne sonne comme nulle autre, est étonnante. Un danseur-mime (ou un couple de danseurs-mimes) effectue, parallèlement à la musique, des gestes de prières soigneusement répertoriés, mis en séries, dont les évolutions accompagnent les changements dynamiques de la musique. L’extrême précision que Stockhausen exige lors des concerts, donne parfois un réel sentiment de magie. Il se produit un effet d’indissociabilité totale entre la perception visuelle et sonore comme si les différents gestes du danseur-mime engendrent toute la musique comme par enchantement. C’est, là encore, la force du très grand professionnalisme de Stockhausen. Cependant, sur toute la longueur de l’œuvre, cette absence d’indépendance entre le visuel et le sonore finit par enfermer l’imagination de l’auditeur/spectateur dans une sorte de rituel automatique et par être perçu comme tautologique. Autre élément anecdotique : vers la fin, le danseur-mime effectue une sorte de danse rituelle qui s’achève dans un cri : « Hu ». Stockhausen laisse ici une nouvelle fois libre cours à sa mythologie personnelle. « Hu », voyelle magique, proférée après qu’on a frappé trois fois du pied, évoque quelques cérémonies primitives dans une mauvaise représentation théâtrale et, le plus souvent, est accueilli par un éclat de rire ! Inori est, sans équivoque, une œuvre à écouter plus qu’à voir.

La dernière partition de grande envergure que Stockhausen a composée avant la mise en chantier de son cycle d’opéra Licht, est Sirius pour 2 chanteurs, 2 instrumentistes et musique électronique. Cette œuvre de 96 minutes ne repose pas sur une formule unique mais sur 12 formules, chacune correspondant à un signe du zodiac. Le matériau musical provient d’un petit cycle de mélodies, Tierkreis, composé la même année. L’intérêt principal de Sirius se trouve dans la mise en œuvre d’une musique hautement polyphonique, jouée par cœur pendant plus de 80 minutes. Stockhausen est probablement le musicien le plus résolument polyphonique de sa génération. Gruppen, Zeimasse, Kontakte, Hymnen et Mantra sont toutes des partitions irriguées par une réelle pensée polyphonique. Et son premier chef d’œuvre ne s’intitule-t-il pas Kontrapunkte ? Sirius est, de ce point de vue, une œuvre étonnante. Les quatre solistes sont placés aux 4 points cardinaux, chacune des 4 sections correspond à une saison, et on commence l’œuvre par la saison en cours. Cette partition marque aussi le retour de Stockhausen à la musique électronique sur bande magnétique qu’il avait quittée depuis Hymnen. Sur ce point, l’expérience est plutôt décevante. En utilisant un synthétiseur comme seul outil de création des sons électroniques, il limite les moyens étendus que le studio lui fournissait autrefois. La musique électronique de Sirius ne dialogue pas réellement avec celle des instruments. Elle produit des textures, des bribes de mélodies à différentes vitesses dont la couleur n’est pas sans évoquer, parfois, un bruitage de film de science-fiction. De la science-fiction, nous ne sommes d’ailleurs pas loin. L’anecdotisme, déjà rencontré dans Mantra et Inori, ouvre et ferme ici l’œuvre qui est censée présenter des individus qui viennent sur terre pour y jouer la musique de la planète Sirius. J’ai été élevé sur la planète Sirius et je compte y retourner“, nous prévient le compositeur. L’œuvre commence par un doux bourdonnement qui va s’accélérer tout en tournoyant et en montant dans l’aigu : cela doit évoquer le son d’une soucoupe volante (tel que pouvaient l’imaginer les réalisateurs des mauvais films américains de série B dans les années 50) qui amène nos quatre musiciens sur terre. Un effet du même style clôt également l’œuvre, lorsque ceux-ci sont censés retourner sur leur planète. Chez Stockhausen se côtoient, désormais souvent, la plus extrême naïveté et la plus grande science musicale. Certes, les représentations naïves ne sont parfois pas toujours des musiques les plus sublimes. Mais il est dommage que dans cette belle partition, parfois si exigeante et rigoureuse, Stockhausen ait eu recours à des procédés aussi platement descriptifs et se soit laissé aller à ce qu’il refusait la plupart du temps, c’est-à-dire l’utilisation des formes culturelles très conventionnelles et connotées. Nous n’avons assurément pas besoin de telles balises pour nous convaincre que Stockhausen est un compositeur visionnaire. Ayant renouvelé une technique qu’il avait peu à peu abandonnée, mais aussi peuplé son imaginaire d’une étrange mythologie de pacotille, Stockhausen  semble prêt à se lancer dans ce qui peut paraître comme le plus gigantesque projet jamais entrepris par un compositeur de mémoire d’homme : un cycle de 7 opéras, totalisant 35 heures de musique, dont la composition s’étendra sur un quart de siècle.

 

Les 7 opéras de Licht et le modèle wagnérien.

Stockhausen affectionnait particulièrement la forme de la spirale qui ne n’arrête jamais son expansion. Des 3 orchestres de Gruppen aux 4 orchestres et 4 chœurs de Carré, de la fragmentation, dans la Gruppen-Form, à la conquête de la grande durée, dans la Moment-Form, de la concision de ses premières œuvres électroniques aux grandes régions de Hymnen, on voit nettement que sa tendance est à l’expansion. Parallèlement, on note aussi une attirance vers la « contraction ». Après les 4 saisons de Sirius, ce sont les 7 jours de Licht, puis les heures, dans le nouveau cycle qu’il entreprit juste avant sa mort. La spirale semble tourner simultanément dans les deux sens. De la petite formule de Mantra, en passant par la formule évolutive d’Inori, nous arrivons à la super-formule, dont le compositeur nous donne ici la description : « Dans Licht, il y a une super-formule qui contient trois couches liées entre elles verticalement, basées sur une progression harmonique, et cette super-formule contient, comme dans un noyau, tous les aspects de sept soirées de musique. »

Le parallèle avec le cycle des 4 opéras de la Tétralogie de Wagner est bien sûr une comparaison qui saute aux yeux. Stockhausen s’est toujours posé en novateur, inventeur, visionnaire, qui ne devait rien, ou peu de choses, à la tradition. Il ne mentionnait que rarement les noms des compositeurs du passé, ne se voyait guère de filiation. En ce sens, le jeune Stockhausen ressemblait à une créature wagnérienne : comme Siegfried, seul au monde, sans antécédents. Mais s’il est un musicien qui s’est méfié des sortilèges que Wagner et tous les post-romantiques ont laissés dans la musique atonale, c’est bien lui. On ne dira jamais assez en quoi le radicalisme de l’après-guerre est aussi une volonté d’oublier un passé traumatisant, d’en finir avec les nationalismes, et qu’il représente une méfiance vis-à-vis des processus historiques. On pourrait résumer cette époque dans la  célèbre phrase que Joyce fait dire à Stephen Dedalus au début d’Ulysse : «  l’histoire est un cauchemar dont j’essaie de m’éveiller ». Même les relations que Stockhausen entretenait avec deux aînés qu’on ne peut pas accuser d’avoir eu des sympathies pour le nazisme – Bernd Aloïs Zimmermann et Karl Amadeus Hartmann –  ont été exécrables. Ce « Schmerz » que le romantisme allemand a déployé, et qui s’est transmis via Mahler, Schoenberg et Berg, Stockhausen, comme plusieurs de ses contemporains, le refuse. Seul Webern, par son refus de tout pathos, trouve grâce à ses yeux. La position de Boulez en France sera en tout points identique. Stockhausen n’est pas le musicien qui chante les souffrances, les crises existentielles, la solitude ni les traumatismes de la guerre. Ni même les siens. La psychologie n’est pas non plus son terrain de chasse favori. Les petites misères du quotidien, de l’existence individuelle ne l’atteignent pas réellement. Il n’a de cesse de créer du nouveau, de l’inouï, de lancer des pistes que d’autres, après lui, poursuivront. Il poursuit, comme Wagner, cette volonté de construction de la musique du futur. Et, bien évidemment, le cycle d’opéras : Stockhausen dépassant Wagner dans la démesure. Du simple point de vue de la volonté (qu’on me pardonne ce rapprochement) de s’astreindre avec acharnement à la composition de l’œuvre unique, Stockhausen a certainement dépassé tous les modèles historiques connus (il se déroulera 24 années entre le début de la composition du Rheingold et l’achèvement du Ring, Proust mit 14ans pour écrire la Recherche). Tout semble, à première vue, associer Stockhausen et Wagner. L’un et l’autre voulaient tout embrasser : religions, mythologies, philosophies, symbolismes, ils aspiraient à l’œuvre d’art totale et, avant tout, sont les musiciens du Temps et de la durée. Mais la conception de la durée de Licht est aux antipodes de celle de la Tétralogie. Celle-ci est par essence insécable. Son organicité est si savamment agencée qu’on ne peut pas la découper en « morceaux de concert ». Celle-là, pour monumentale qu’elle soit, se présente surtout comme une succession de pièces, écrites pour divers ensembles, dont beaucoup peuvent aussi être jouées en concerts. Wagner attendit six ans, après la création de La Walkyrie, pour livrer Siegfried et le Crépuscule des dieux au public de Bayreuth. Il est vrai que si Stockhausen s’était contraint de finir son cycle avant de le faire représenter, cela se serait chiffré en un quart de siècle !  Il est tout aussi vrai que les directeurs de théâtres ne se pressaient pas pour lui passer commande d’un opéra en entier. Stockhausen n’avait pas le soutien d’un Louis II de Bavière. Les commandes ont donc été étalées, pièces par pièces, pour les besoins des concerts. On y  trouve un grand nombre de pièces pour flûte, cor de basset, trompettes, piano, en solo, en duo, avec ou sans électronique, écrites, le plus souvent, pour les membres de sa famille. Voici un aperçu de la diversité des nomenclatures qui règne dans la succession des scènes de ce cycle. Il s’agit de Mittwoch aus Licht :

Salut : Mittwochs-Gruss : musique électronique

Scène 1 : Welt-Parlament : chœur a capella (le chef de chœur chante également).

Scène 2 : Orchester-Finalisten : douze musiciens et musique électronique.

Scène 3 : Helikopter-Streichquartett : Quatuor à cordes dispersé dans 4 hélicoptères.

Scène 4 : Michaelion : chœur, basse avec récepteur d’ondes courtes, flûte, cor de basset, trompette, trombone, synthétiseur, bande, deux danseurs.

Adieux : Mittwochs-Abschied : musique concrète et électronique.

Il ne faut pas en déduire que Stockhausen aurait répondu à des demandes de composer pour telle ou telle formation. On ne pouvait pas lui imposer ce genre de choses. Tout a été imaginé, voulu par lui, comme à l’accoutumée. Mais ces 35 heures d’« opéra », dans lesquelles les personnages principaux, Eva, Michael et Luzifer, ne chantent pas mais sont représentés par des instruments (successivement flûte, trompette et trombone) représentent plus l’aboutissement de sa volonté de théâtraliser le concert, entreprise dès Momente, qu’une réelle conquête de la durée musicale. Le théâtre qu’il nous propose, à bien des égards, se situe dans la droite ligne de celui qu’il a toujours fait : une cohorte d’imageries dont la naïveté le dispute au goût pour les rituels douteux. Aucune expérience du théâtre contemporain n’aura su l’effleurer, si ce n’est les expériences des happenings qu’il a connus dans les années 60, lorsqu’il côtoyait le groupe Fluxus. Les relations de Stockhausen avec la littérature, la poésie et le théâtre ont été, pour le moins, distantes.6 Le Chöre für Doris, composé en 1950 sur des poèmes de Verlaine, et les extraits de textes de William Blake utilisés dans Momente, sont des exceptions. Il cite Hermann Hesse qui sut le guider dans ses débuts, puis Sri Aurobindo, écrivain spiritualiste indien. Sinon, ce sont ses propres textes, sa correspondance, des emprunts à la Bible, où encore des textes des Indiens d’Amérique du Nord qui constituent sa relation à l’écriture littéraire. La forme de musique ritualisée prônée par Stockhausen se situe toujours dans la volonté de créer, à lui seul, une tradition. De là cette question : comment cet homme qui n’a eu de cesse de bousculer et de transformer les traditions de la musique, pour lequel une grande partie de cette tradition n’était même pas « utilisable», comment cet homme, qui ne rêvait que de l’inouï et d’utopiques futurs, a-t-il pu s’enfermer dans la conviction qu’il créerait, à lui seul, une tradition stable ? Dans une civilisation où l’écrit tient une place prépondérante – et l’on sait à quel point Stockhausen voulait tout fixer par l’écrit – la part de tradition véhiculée par l’oralité est mouvante. On ne donne plus les pièces de Shakespeare ou de Molière, ni les opéras de Mozart ou de Wagner, dans leurs formes d’origine. Même un Alban Berg qui notait scrupuleusement les indications scéniques dans les partitions de ses opéras ne peut plus être suivi de ce point de vue. Les réflexions du théâtre contemporain, ainsi que les moyens technologiques, ont considérablement modifiés les règles du jeu. Respecter à la lettre les images qui ont accompagné la naissance des œuvres n’est pas le moyen par lequel se constitue une tradition. La volonté inébranlable de Stockhausen de tout fixer dans les plus infimes détails ne fera pas exception.  La tradition, réelle, voulue par Wagner, n’est pas due à sa volonté personnelle – même si celle-ci n’était pas des moindres – c’est l’histoire qui l’a constituée. Stravinsky, pensant que ses enregistrements discographiques étaient les compléments indispensables à ses partitions, ne sera pas suivi sur ce point. Toute tradition (que Mahler n’hésitait pas, d’ailleurs, à considérer comme une cohorte de mauvaises habitudes !) est vouée à subir des transformations plus ou moins profondes, et principalement dans la culture occidentale. En cela, Stockhausen voulait sans doute se rapprocher plus de la tradition du théâtre japonais, qui nous semble n’avoir guère bougé depuis des siècles, que de celle du théâtre européen.

Ce qu’il met en œuvre dans Licht, afin d’apporter la cohésion nécessaire à l’enchaînement de ce qu’il faut bien appeler des « numéros », est, comme à son habitude, du domaine de la structure : ici, la super-formule. Mais on l’a vu précédemment, on peut tout faire dire à la structure. Lorsqu’elle est trop présente, elle devient une recette, lorsqu’elle est trop cachée, on ne peut plus en goûter la saveur. Il faudra probablement attendre le temps où nous pourrons écouter l’intégralité de ces 7 opéras pour pouvoir en apprécier la force musicale et dramatique. Mais tel que nous le connaissons déjà, il ne constitue pas une réelle continuation de cette conquête de la durée musicale qu’il avait su si bien maîtriser auparavant. Là, le parallèle avec Wagner s’arrête. Licht, malheureusement, apparaît comme inégal. Il y a des moments extraordinaires où nous retrouvons toute la puissance créatrice du compositeur. Le Welt-Parlament est une superbe pièce pour chœur (s’il n’y avait pas, une fois encore, une intrusion en forme de gag théâtral au milieu !), et l’on y trouve aussi quelques réelles réussites en musique électronique. Octophonie renoue, de ce point de vue, avec les grandes pièces électroniques telles que Kontakte ou Hymnen. Kathinka’s Gesang, pour flûte et sons électroniques, composé à l’IRCAM, utilise une technique de synthèse d’un grand effet  (inventée par Guiseppe di Guigno, l’inventeur de la machine 4X), qui consiste à déphaser et resynchroniser des sons électroniques. Mais, parmi la grande quantité de petites pièces solistes pour divers instruments que contient Licht, Stockhausen propose la continuation de la série des onze Klavierstücke historiques. Il faut avouer que ces numéros 12 à 17 font piètre figure en regard des précédents. Le Klavierstuck XIII au cours duquel la pianiste bombarde gentiment Luzifer (voix de basse) de petites roquettes en matière plastique est même consternant de faiblesses musicales et de conception théâtrale digne d’une fin d’année de lycée. Si l’on peut n’être qu’admiratif devant cette force de caractère qui a permis à Stockhausen de mener à son terme ce cycle colossal durant les 25 années qu’il aura consacrées sans relâche à sa composition, on ne peut pas affirmer, comme on l’a si souvent lu dans la presse au moment de sa disparition, qu’il s’agit là de son chef-d’œuvre et de l’aboutissement de son style musical. Wagner, baignant dans les images rédemptrices d’un catholicisme douteux dans Parsifal, s’était attiré les foudres de Nietzsche. Mais ce dernier ne manquait pas de reconnaître que jamais le génie musical de Wagner n’avait été aussi éclatant. Son traitement de la durée, des proportions et son style s’affirment plus que jamais dans son ultime opéra. Licht, malgré ses indéniables qualités, apparaît, de ce point de vue, trop souvent comme une parodie des éléments qui constituaient autrefois l’extraordinaire originalité de son œuvre. La super-formule ne l’aura pas sauvé.

 

Adieu Stockhausen.

L’influence de Stockhausen sur les générations suivantes a été immense. Surtout dans les deux premières périodes de son activité. Elle s’est ensuite amoindrie au fur et à mesure qu’il cherchait à « se personnaliser ». Son influence récente sur les « nouvelles musiques électroniques », qu’il partage en France avec son contemporain Pierre Henry, semble d’un tout autre ordre. C’est sa figure de pionnier qui y est pointée, non celle d’artiste. Ces musiques sont d’ailleurs beaucoup plus redevables aux apports des techniques numériques élaborées dans les années 70 (que Stockhausen n’aura abordé que de très loin) que de ses propres conceptions musicales. Il y aurait aussi beaucoup à redire sur la prétendue influence de John Cage sur Stockhausen à propos des jeux de hasards. Cage fut à Stockhausen ce que Satie fut à Debussy : un curiosité. Le compositeur allemand était trop absorbé par la forme et par la précision du détail dans les sons pour que l’attitude cagienne ait pu réellement l’influencer. Stockhausen a toujours été formaliste. Même dans ses compositions les moins rigoureuses, si l’on excepte ses musiques intuitives, la forme reste déterminée. Comment déterminer une forme et ses proportions, sans que son contenu ne soit encore précisé ? C’est une grande question qui divise les compositeurs et qu’il a, lui, tranché très tôt, parfois certes, arbitrairement. Très souvent, son intuition l’aura emporté sur ses conceptions ultra-déterministes.

Malgré ses hauts et ses bas, ses fuites, ses retours, ses brisures, l’œuvre de Stockhausen, pour déroutante qu’elle puisse être, n’en revêt pas moins une grande cohérence dans son ensemble. Elle semble suivre la courbe sinusoïdale d’un son. Une ascension vers le haut dans la période constructive jusqu’au milieu de années 60, puis une descente jusque dans la partie négative, jusqu’aux musiques intuitives, enfin un retour à la construction renouant avec certains principes des débuts dans une esthétique différente. C’est en artiste que Stockhausen s’est toujours exprimé. Comme Stravinsky, il aura eu maints visages, mais aura été unique.

Adieu donc, Stockhausen. Ceux qui se laissent envoûter par vos postures finiront très vite par vous oublier. Mais ceux qui sauront scruter, au-delà de vos apparences, l’héritage que vous nous avez laissé, y trouveront beaucoup à écouter, à méditer et à apprendre. Quoique vous ayez prétendu, vous avez été un musicien parmi les hommes. Et ce sera votre engagement total à réinventer sans cesse la musique ici-bas qui constitue le fil qui continuera de nous relier à vous.

 

Philippe Manoury

San Diego, 23 décembre 2007.

 

 

 

 

 

 

  1. Citation de mémoire extraite du film réalisé Gérard Patris avec Luc Ferrari « Momente ».
  2. Lors de la création de l’œuvre, sous les directions du compositeur, de Pierre Boulez et de Bruno Maderna, Stockhausen reproche à Maderna de diriger trop lentement un passage. « Parce que tu veux aussi le virgule cinq ! » lui rétorque alors Maderna. (Communication personnelle de Pierre Boulez)
  3. Lors de son passage au Groupe de Recherche à Paris, Stockhausen avait eu accès à un générateur d’ondes sinusoïdales. Mais ne pouvant en en superposer plusieurs, il reprit l’expérience dans les studios de la WDR à Cologne. Son ambition était de créer des « timbres » nouveaux en superposant des sons dans des fréquences non tempérées. Le compositeur Michel Fano, à qui il faisait écouter ces nouvelles expériences, lui dit avec raison, qu’à défaut de « timbres », ce n’étaient que des « accords » qu’il produisait. (Communication personnelle de Michel Fano).
  4. in «Conversations avec Stockhausen » (page 121) par Jonhatan Cott. Ed Jean-Claude Lattès.
  5. Cette loi, dite de Weber-Fechner, dit que « l’excitation varie comme le logarithme de la sensation ». Pour en avoir une démonstration simple, prenons une tasse de café, dans laquelle on ajoute des morceaux de sucres un à un. Le café perdra sa sensation d’être « plus sucré » au fur et à mesure que l’on arrivera à un grand nombre de morceaux de sucre : entre 15 et 16 sucres, il n’y aura plus de différences. Par contre, si l’on multiplie le nombre de sucres à chaque fois, on sentira la progression régulière d’une même sensation de « plus sucré » que l’on assimilera à un ajout. La perception musicale est soumise à la même loi. On rappellera simplement que la perception des demi-tons égaux d’une gamme chromatique, dans laquelle la sensation est additionnelle (puisque l’on perçoit toujours l’ajout d’une même quantité) résulte la « multiplication » des fréquences par une valeur constante et non de leur addition.
  6. Une anecdote, que m’a rapportée Pierre Boulez, est significative. Boulez, féru de théâtre depuis toujours, emmène Stockhausen à une représentation d’En attendant Godot de Samuel Beckett. Dans le premier acte, Lucky est tiré par une corde par Pozzo, qui lui crie : « Pense, porc ! Arrête ! Avance ! Là ! Pense ! ». Stockhausen lui demande pourquoi l’autre ne se révolte pas ! Boulez lui explique qu’alors, il n’y aurait plus de pièce !

Les partitions virtuelles

Wednesday, October 22nd, 2008

Deux univers coexistent dans mon activité de compositeur : celui de la musique instrumentale et celui de la musique électronique. Aussi loin que je puisse me souvenir, la question de leur confrontation et de leur intégration s’est toujours posée pour moi. Cette question n’est pas de celles qui appellent des réponses rapides ni simples car tout destinait ces musiques à suivre une chemin indépendant, un peu comme c’est le cas pour le cinéma et pour le théâtre. Les personnalités qui oeuvraient dans ces deux disciplines provenaient d’horizons et d’éducations parfois très différents, leurs expériences musicales n’était pas du tout du même ordre et leurs rapports à la composition ne se posaient pas dans les mêmes termes. Les compositeurs se séparaient en deux catégories très distinctes qui, non seulement ne se confrontaient pas, mais s’opposaient complètement : ceux qui composaient pour les voix ou pour les instruments et ceux qui produisaient de la musique pour bande magnétique. Les premiers ne voyaient dans les seconds que des “bricoleurs” plus ou moins habiles mais totalement ignorants des lois de la composition et de l’écriture, quant aux seconds, ils tenaient les premiers pour des musiciens prêts à entrer dans un musée conservateur et académique. Les personnalités qui, en France, ont réalisé les premiers travaux dans ce que l’on appelait alors la musique concrète, n’avaient, pour la plupart, qu’une culture musicale très rudimentaire. Cette naïveté par rapport à la composition leur a permit d’oser des expériences que, peut-être, des musiciens plus expérimentés auraient dédaignées mais elle ne demeure pas moins un trait caractéristique que le temps ne fait qu’accentuer. Cette opposition se reflète en particulier dans la querelle qui opposa des musiciens tels que Pierre Boulez ou Jean Barraqué au groupe qui s’était formé autour de Pierre Schaeffer dans les années 50. Les cultures étaient trop différentes et trop inégales pour pouvoir parvenir à un mode de pensée commun. Quelques tentatives de composition “mixtes” ont vu le jour parmi lesquelles ont peut citer Désert de Varèse ou Poésie pour pouvoir de Boulez. Dans le premier cas, le discours était basé sur une simple opposition entre ces deux supports, le second cas a été abandonné car il ne satisfaisait pas son auteur. Mais le problème de la confrontation de la musique instrumentale et de la musique électronique avait été posé. Karlheinz Stockhausen est de ceux qui trouvèrent le moyens les plus originaux dans ce domaine car, quoiqu’il ne réalisa ses oeuvres mixtes que plus tardivement, il proposa, dès ses premières oeuvres de musique électronique, une prise en charge de l’utilisation des moyens de la synthèse et du traitement des sons concrets dans une optique formelle qui trouvait une correspondance avec ses conceptions élaborées dans ses oeuvres instrumentales. Si la nature des sons et des techniques utilisées différaient d’un domaine à l’autre, ses oeuvres s’inscrivaient dans une logique d’une très grande cohérence formelle qui, le plus souvent, faisait défaut ailleurs. Ce fût, pour moi, le premier exemple qui m’ouvrit réellement les yeux sur les possibilités de confrontation de ces deux supports.

Vers les années 70 apparurent les premiers programmes de synthèse sonore par ordinateur dont le rôle allait être déterminant. Ils permettaient, d’une certaine manière, d’approcher certaines conditions de l’écriture musicale. La gestion et la formalisation de paramètres numériques contrôlant les différents composants du son pouvait, en quelque sorte, reproduire le phénomène de la composition instrumentale qui, lui aussi, est basé sur une élaboration et un traitement d’éléments distincts servant de matériau de base à une composition. En cela, cette méthode attira rapidement une catégorie de compositeurs plus habituée à ce mode d’approche qu’à celui consistant à travailler de manière plus intuitive, “à l’oreille” pourrait-on presque dire, sur le matériau musical comme c’était fréquemment le cas dans les musiques électroniques analogiques. Si l’on pouvait faire un parallèle entre la formalisation des programmes et celle de la composition, ces deux démarches proviennent néanmoins d’une situation culturelle très différente. Les personnes qui mirent au point ces premiers programmes n’étaient pas, dans la majorité des cas, des gens ayant une grande expérience de la composition. La distinction que j’ai opérée plus haut entre musiciens “acoustiques” et “électroniques” continuait d’être toujours visible. Mais, en cela, cette situation n’était guère différente de celles qui prévalaient dans toutes les autres disciplines dans lesquelles les machines électroniques s’étaient immiscées. Cependant quelque chose incitait également au rapprochement de ces deux modes d’expression. Des oeuvres avaient été composées dans ce sens et on voyait, ici et là, des musiciens appartenant à l’une ou l’autre de ces catégories se poser des questions. Ce sont ces échanges permanents d’une discipline vers l’autre, dont l’Ircam allait vite devenir le lieu privilégié, qui m’ont amené à concevoir ce que j’ai appelé les partitions virtuelles.

Il ne s’agit pas d’une méthode de composition à proprement parler, avec ses règles et ses lois, mais plutôt d’une conception de la composition dans un sens assez général. Le terme de partition virtuelle me semble avoir été prononcé pour la première fois par Pierre Boulez au cours de conversations que j’ai eu avec lui pendant les années 80. Ce n’est que vers 1986-1987 que je commençais à en définir la signification que je lui donne aujourd’hui. Je ne prétend pas, en cela, avoir résolu définitivement la question de l’intégration des musiques instrumentales et électroniques, mais avoir apporté une contribution assez précise sur ce que devrait être, à mon sens, la composition lorsqu’elle est confrontée aux technologies du temps-réel. A un niveau théorique, mais aussi pratique, ce principe est basé sur une volonté d’unification de ces deux univers au sein d’une approche plus ou moins identique. Cette unification passe, bien entendu, par l’abolition de certaines frontières qui n’ont pas manquées de s’ériger, soit entre ces deux univers, soit au sein même de l’un des deux. Ce qui était autrefois nécessaire au développement d’une idée ou d’une technique et nécessitait, pour ce développement, un certain isolement ou repli sur soi, n’est devenu, avec le temps, qu’une accoutumance à un mode de pensée ou de fonctionnement qui ressemble plus à une forteresse identificatrice qu’à un lieu d’échange fructueux. Ces frontières sont, d’une part, celles qui divisent la conception de la composition suivant le fait qu’elle est notée sur partition ou produit avec les moyens de la synthèse et d’autre part, à l’intérieur même de l’univers technologiques, le produit de cloisonnements qui existent de par la diversité des techniques dont on se sert pour produire le son. Ces techniques, d’abord utilisées séparément, coexistent désormais au sein des mêmes oeuvres. Elles n’ont cependant pas de mode d’approche unifié et remplissent des conditions très spécifiques. Enfin il y a un clivage qui, malgré les apparences, a la vie dure alors qu’en analysant de près la situation, il ne devrait, du moins théoriquement, ne plus poser de problèmes : c’est la séparation entre le temps différé et le temps réel. Comme on le verra, cette séparation est plutôt le fruit d’un choix technologique car, d’un point de vue strictement musical, rien ne semble la maintenir ni ne l’imposer dans le processus conceptuel de la composition. Ce choix technologique cependant conditionne grandement l’aspect esthétique et cette vision catégorielle des choses finit par encombrer inutilement le paysage musical alors qu’une plus grande simplicité dans l’unification des modes de pensée serait souhaitable. Il vient un moment ou toutes ces catégories, qui deviennent obsolète dans leur trop grande spécificité, doivent être dépassées. Pour moi, ce moment est arrivé. Les partitions virtuelles sont une réponse à cette question que je me pose depuis longtemps : pourquoi ne pourrait-on pas composer de la même manière, que l’on ait en face de soi, du papier réglé ou un ordinateur ? D’autres réponses doivent bien sûr exister, celle-çi m’est simplement personnelle.

Le principal problème, et il est de taille, qui continue de séparer ces deux supports est celui de la représentation. La représentation est évidemment un moyen de communiquer avec les instruments, une méthode pour fixer les idées, mais c’est aussi bien plus que cela. On sait parfaitement que le traitement et le développement d’une situation quelconque est éminemment conditionné par son mode de représentation. En quelque sorte, on peut affirmer que les développements que l’on fait subir à un matériau sont contenus dans son mode de représentation. Pour un musicien, ces modes de représentation peuvent avoir la forme d’une partition traditionnelle, mais aussi d’une liste de nombres, d’images graphiques, etc. Il y a cependant une distinction importante à faire quant à ces modes de représentation et quant à leurs natures respectives. On ne peut pas minimiser le rôle fondamental qu’a tenu l’écriture, non pas les différentes techniques d’écriture, mais le fait même d’écrire la musique, dans l’invention musicale. L’absence d’écriture dans la musique électronique est probablement un des phénomènes qui assura une parfaite étanchéité entre ces deux modes d’expression. Il y a ici un problème dont, pour des raisons de commodité évidentes, on persiste à penser qu’il n’a pas à se poser dans le contexte d’une musique basée sur des sons de synthèse mais qu’il va falloir, un jour où l’autre, aborder car il conditionne la pensée musicale toute entière et son développement. Il existe bien évidemment des modes de représentation sur lesquels travaillent les musiciens qui font de la synthèse électronique. Ces modes ne se situent cependant pas du tout au même niveau conceptuel que ceux qui définissent la notation musicale traditionnelle. La question de la représentation est au coeur de la problématique qui divise encore fortement musique instrumentale et électronique. Il est indispensable de l’aborder.

 

Symbolisme, perception et virtualité dans l’écriture musicale.

La notation musicale est de nature symbolique. Elle est, de ce point de vue assez proche de l’écriture dont certains travaux ont montré qu’elle était issue d’une représentation visuelle du phénomène qu’elle était censée représenter (pictogrammes), pour aboutir après de nombreuses évolutions (idéogrammes), à une conception symbolique dans laquelle toute idée figurative avait disparue (écritures phonétique et syllabique). On ne constate évidemment pas le même chemin dans la notation musicale, beaucoup plus récente, mais on peut y voir le même pouvoir d’abstraction de l’écriture en ce qu’elle n’est pas une description mais une représentation du phénomène sonore. Cela peut sembler curieux car la notation musicale ne représente qu’un phénomène d’essence tout à fait abstraite qui est le son et le parallèle avec l’écriture peut paraître alors un peu forcé. Cependant, dans son mode de représentation, il est clair que la notation musicale ne représente que partiellement le contenu sonore qui va en être déduit. Elle ne rend pas compte de la totalité perceptuelle de ce contenu mais que d’une partie, certainement la plus décisive pour le compositeur. Il est évident que, lors de la composition, le phénomène sonore n’est pas toujours totalement formé dans l’imagination. On connaît bien sûr l’exemple de Mozart disant que la musique se formait entièrement dans sa tête et qu’il ne lui restait plus ensuite qu’à la coucher sur du papier. Schoenberg s’est aussi expliqué sur ce fait dans Style et Idée : ” Il y a quelque quarante ans, j’écrivit mon premier quatuor à cordes op 7. J’avais pour habitude de me promener à pied chaque matin et de composer de tête 40 à 80 mesures complètes dans la quasi-totalité de leurs détails. Il ne me fallait ensuite que 2 ou 3 heures pour reporter sur le papier ces importants fragments déjà fixés dans ma mémoire”. Il n’y a aucun doute à avoir à propos de ces facultés mentales de conceptualisation. Cependant il paraît évident que l’imagination sonore, même lorsqu’elle semble à ce point ancrée dans le seul mental, est quand même située, d’une manière ou d’une autre, en référence à un écrit. Même dans ce cas, l’écrit reste bien évidemment la seule forme de représentation possible, ne serait-ce que pour la simple opération de mémorisation. La création musicale fonctionne également souvent par étapes successives, chacune des ces étapes pouvant être une nouvelle approche de l’objet final. Mais, même le processus créateur totalement achevé, l’écriture n’est toujours pas la description complète du phénomène sonore qui sera perçu. Elle est moins que cela. Il lui manque tous les éléments que l’interprète va y greffer afin de constituer un véritable objet musical. Or, comme on va le voir, ces éléments, pour la plupart, ne sont pas notables. En cela, la notation laisse le champ libre à l’interprétation. L’écriture musicale est basée sur un vocabulaire de signes extrêmement simple en regard de la réalité sonore. C’est même cette économie de moyens qui la caractérise qui a permit d’élaborer des constructions formelles d’une grande complexité. Il est probable que si l’écriture avait du rendre compte du phénomène sonore dans sa totalité, de telles constructions n’auraient jamais pu voir le jour. En quelque sorte, la notation musicale est une sorte de métonymie du phénomène sonore : le tout est exprimé par une partie seulement. Cette représentation symbolique possède un pouvoir similaire à celui du mot sur les choses : elle permet d’abstraire des catégories, de les manier, de les construire, elle permet surtout la déduction et toutes les opérations qui n’auraient pu avoir lieu si la représentation n’avait pas été dégagée de sa substance matérielle, c’est à dire la réalité sonore. Cette abstraction symbolique propre à la notation, est la condition même d’une grande partie de l’évolution musicale depuis les neumes grégoriens jusqu’à nos jours.

Une représentation quelconque, n’a cependant de véritable puissance créatrice que lorsqu’elle peut provoquer l’imagination de celui qui la travaille. Cette valeur existe pour le musicien lorsqu’il possède la faculté de se représenter “mentalement” ce qu’il écrit, en d’autres termes, lorsqu’il peut “entendre” intérieurement ce qui est représenté sur la partition. Il existe un lien perceptuel entre la notation musicale et sa réalité sonore un peu comme la lecture d’un texte peut provoquer des images dans l’esprit de celui qui lit. Cette faculté est grandement fonction de l’éducation et de l’entraînement du musicien. 1. Il faut en effet qu’il y ait dans la lecture de la musique le complément nécessaire à l’écriture puisque l’interprétation n’existe pas. Dans ce cas l’interprétation est imaginaire. Elle est provoquée par l’accoutumance à la lecture, par la faculté de percevoir les timbres instrumentaux, par exemple, par la seule lecture d’une partition. Chacun peut mesurer l’écart qui existe entre la lecture et sa propre facilité à en percvoir le contenu. Ainsi, beaucoup de compositions actuelles, comme celles de Helmut Lachenmann, utilisent des modes de jeu instrumentaux non traditionnels. Il a fallu pour cela inventer une sorte de “tablature” qui, d’ailleurs, varie grandement d’un compositeur à l’autre. L’écoute interne de la lecture de telles partitions est d’autant plus difficile quand ces oeuvres ne reproduisent plus les cas auxquels notre oreille a été éduquée (reconnaissance de hauteurs, d’intervalles, d’instruments …). Ces cas de figures anticipent, en quelque sorte, sur ceux que nous verrons  à propos de la musique électronique.

Un autre faculté propre à la notation musicale est sa virtualité. L’observation des conditions de l’écriture et de l’interprétation dans différentes partitions du répertoire est riche d’intérêt. Ces conditions forment d’ailleurs la base même de toute la tradition musicale occidentale. Un rapide survol historique montre clairement que, au fil des époques, l’écriture se fait toujours dans le sens d’une plus grande précision. C’est à dire qu’elle supplante progressivement tout un savoir qui provenait de traditions orales. De telles traditions finissent par devenir, au bout d’un certain temps, des “mauvaises habitudes” qui n’ont plus lieu d’être lorsque que le langage et la stylistique ont évolués 2. Si l’on prend, par exemple, la notation utilisée à l’époque baroque, on constate que n’y figurent, ni indication de tempi, ni indication de dynamiques, ni indication de phrasé… La notation est réduite à très peu de choses ce qui n’empêche nullement la grande complexité de certaines de ces oeuvres. Or l’interprétation de ce style de musique est fondé sur un grand nombre de ces valeurs qui ne sont aucunement notées dans la partition. Les compositeurs notaient ce qui était pour eux “les noyaux durs” de leur style propre, ce qui faisait que, dans le contexte de leur époque encore chargé de tradition orale, leur musique demeurait personnelle. Leur écriture comportait des éléments absolus ou relatifs suivant les cas,  qui allaient être “gauchis” et complétés par l’interprète. La somme des éléments qui vont donner naissance au phénomène musical n’est donc pas quelque chose qui est intégralement inscrit dans la partition. Bien que les traditions orales deviennent de plus en plus rares au fur et à mesure que l’écriture se précise, il est évident que cette dualité entre notation et interprétation continue de fonctionner quelque soit le style où l’époque. Il est important, à ce stade, d’observer où se situent les marges entre notation et interprétation et surtout de définir à partir de quelles conditions l’on peut parler d’interprétation.

L’interprétation agit sur des zones, mentales pour la plupart, à l’intérieur desquelles vont se trouver les valeurs qui détermineront les phénomènes sonores. Cette incertitude est la conséquence de l’imprécision, ou disons de la relativité de l’écriture. Les trois niveaux classiques sur lesquels se base l’écriture sont, par ordre de complexité : les hauteurs, les durées et les dynamiques. Le premier niveau est celui ou le pouvoir discriminateur de l’oreille est le plus fin : on peut ordonner une grande quantité de sons du grave à l’aigu sans problème. Mais, hormis les instruments à sons fixés tels que les claviers, on constate une zone d’acceptation assez grande de ce qui est une hauteur lorsqu’on entend un ensemble de cordes jouer à l’unisson ou même lorsqu’on examine la courbe d’un vibrato 3. La notation des temps est beaucoup plus floue en regard de la perception. Au delà d’un temps assez bref (que l’on peut avoisiner autour de deux secondes) il est déjà pratiquement impossible d’avoir une idée d’une durée si l’on ne la décompose pas en valeurs plus fines. De plus, un grand nombre d’études l’ont montré, le temps, dans une interprétation musicale, est soumis à une constante variation qui peut dépendre du contexte mélodique, harmonique ou stylistique. En tout état de cause, on ne peut pas ordonner un grand nombre de durées de manière aussi facile qu’en ce qui concerne les hauteurs. Quant aux dynamiques, le maximum semble avoir été atteint avec la célèbre étude de Messiaen Modes de valeurs et d’intensités. Ce cas de figure n’est même concevable que “très théoriquement”. Non qu’il soit impossible de percevoir plus de sept valeurs différentes échelonnées du ppp au fff, mais il est rigoureusement impossible d’exiger d’un interprète d’en définir plus. Ces exemples donnent une excellente description du caractère relatif de la notation musicale en regard de la perception. Si l’interprétation est fortement conditionnée par la notation, elle ne commence que lorsque l’autre n’intervient plus. Ces deux entités que sont la notation et l’interprétation se définissent par le choix de la nature absolue ou relative des composants. Mais, en tout état de cause, l’écriture interprétable ne se définit qu’à l’intérieur de zones plus ou moins floues. Ces valeurs sont virtuelles et ne deviennent réelles qu’au moment ou l’interprète les produit. On ne peut rigoureusement parler d’interprétation que lorsqu’il y a une incertitude sur la valeur réelle qui va intervenir.

Cette richesse de possibilités est offerte par un mode de représentation et ne pourrait pas exister sans lui. Le lien entre représentation et potentialité d’un matériau sonore est à la base de toute une réflexion qui a lieu en ce moment au sujet de la musique conçue pour ou par ordinateur, que cette musique soit destinée aux instruments traditionnels ou aux sons électroniques. C’est le second cas qui m’occupe ici bien évidemment car dans le cas des instruments acoustiques, quelque soit le mode de représentation que l’on s’est fixé au départ, on retombe fatalement dans la notation traditionnelle. On va voir que, si variées et si perfectionnées soient-elles, les méthodes de représentation dont on se sert pour composer de la musique de synthèse, n’ont pas du tout les mêmes valeurs que celles qu’on utilise dans la tradition vocale ou instrumentale.

 

Les modes de représentations sonores de la musique électronique.

On peut distinguer deux familles de représentation musicale dans le cadre de la musique électronique : celle qui traite des sons eux-mêmes, de leur morphologie, et celle, beaucoup plus abstraite qui traite de la composition des structures musicales. Le problème qui se pose concerne la nature des objets représentés dans le domaine de la musique de synthèse qui sont beaucoup plus variés et beaucoup moins standardisés que dans celui de la musique instrumentale. Ces objets ne sont pas obligatoirement réductibles aux catégories offertes par la notation traditionnelle, même s’ils peuvent les contenir. Il est important aussi qu’une représentation graphique soit en étroite relation avec la représentation mentale qu’on se fait de l’objet. Un compositeur organisant le schéma harmonique d’une composition instrumentale utilisera une notation rudimentaire qui ne tiendra compte, pour l’instant, que des phénomènes de hauteur à l’exception des durées, dynamiques, orchestration, phrasés, etc. Dans son esprit, et à ce stade de l’esquisse, l’objet sonore qu’il travaille n’est mentalement constitué que de ces relations harmoniques. C’est dans un stade ultérieur qu’il affinera cet objet en lui donnant une morphologie plus complète. L’ordre dans lequel ces opérations ont lieu n’est ici pris que comme exemple et peut fort bien être différent. Le même exemple pris dans le cas de sons de synthèses peut être comparé. Si l’on veut dépasser en finesse les catégories de hauteurs offertes par la notation traditionnelle, c’est à dire si l’on veut obtenir des coupures plus petites que le demi ou même le quart de ton, il n’y a guère qu’une représentation numérique qui s’impose. Elle a l’avantage de se prêter à toutes les opérations de calcul mathématique, sous quelque forme algorithmique que ce soit. Sa limitation cependant vient du fait qu’elle n’offre aucune base intuitive à partir de laquelle on pourrait extrapoler. Rien n’est moins convainquant, pour un compositeur, qu’une suite de nombres lorsqu’il cherche, dans la représentation des événements sonores, une vision imaginative.

Une autre possibilité actuelle consiste à créer des représentations graphiques du son  qui permettent, suivant les cas, d’opérer des manipulations diverses. La représentation sous forme de sonagramme permet d’obtenir une “coupe” dégageant les raies spectrales constituées par les différents partiels. On peut réécrire ou effacer ces raies spectrales afin de changer certains aspects du timbre. D’autres types de représentation graphiques, telles que celle qui donne le profil dynamique du son an amplitude et permettent des “zooms” pouvant aller jusqu’au sinus, c’est à dire au plus petit constituant possible, sont très efficaces dans les techniques de montage et de mixage. Ces méthodes ont l’avantage de proposer une représentation plus “intuitive” et plus directement “parlante” du son.

Il est clair que de tels outils relèvent plus de ce que l’on pourrait appeler une description morphologique que d’une écriture au sens ou on l’a définit précédemment. La situation est très complexe car on ne peut pas nier non plus que ces outils conceptuels existent ou, du moins, qu’il existe réellement des recherches dans cette direction. Tout ce qu’a apporté, depuis une vingtaine d’années, les modèles logiques et algorithmiques de l’informatique à la musique en sont la preuve. L’automatisation, partielle ou même totale, des processus compositionnels n’a, d’ailleurs, pas attendu l’invention des ordinateurs pour exister. Les machines étant, par nature, tout à fait adaptées à ce mode de travail, il aurait été inconcevable qu’elle ne le traite pas. En l’occurrence, les premiers essais utilisant les machines pour fabriquer de la musique ont été faits dans ce sens, les recherches purement sonores n’étant venues qu’après 4. On peut cependant faire la remarque suivante. Ces modes de représentation, logiques ou algorithmiques, peuvent comporter une puissance conceptuelle indéniable, ils présentent, en comparaison de l’écriture musicale traditionnelle, un désavantage de taille en ce qu’ils n’ont pas de valeur perceptuelle. Ils n’offrent pas la possibilité de se faire une représentation, sinon mentale, du moins perceptuelle du phénomène qu’ils engendrent. Ils sont, de ce point de vue aussi éloignés de la perception musicale que les représentations graphiques y sont noyées. Il y a là un fossé entre le travail sur les manipulations sonores et sur les structures compositionnelles que les méthodes de représentation diverses n’arrivent pas à combler ni à unifier. Il est un fait qu’un code numérique, ou une représentation graphique quelle qu’elle soit, n’est jamais parvenu à nourrir l’imagination d’un compositeur en vue d’en tirer des conséquences musicales. Ils ne sont que des méthodes de gestion de paramètres ou de manipulations qui, aussi puissante soient-elles, se révèlent incapables de représenter mentalement un contenu sonore réel. Il ne s’agit pas là d’un problème d’inacoutumance à un mode de représentation nouveau mais d’une différence de nature fondamentale entre la notation symbolique qui est celle de l’écriture traditionnelle et celles, numériques ou graphiques, dont on se sert avec les outils de synthèse. Les notations utilisées dans le cas des sons électroniques ne permettent pas de représentations mentales, au sens ou un musicien peut “entendre” intérieurement une partition par la seule lecture. Une représentation numérique ou graphique n’est pas, et ne sera jamais une partition, au sens ou la conçoit un compositeur. Ces différences ne donnent pas pour autant la suprématie d’un mode de représentation sur un autre. Ils indiquent les natures fondamentalement différentes qui existent entre la conception musicale qui prévaut pour les instruments traditionnels et celle qui est utilisée pour les outils de synthèse.

Les modes de représentation et les signes dont nous nous servons lors de la représentation des événements de la synthèse sont, pour le moment, très illustratifs et descriptifs de la réalité sonore. Or, on l’a vu, la force même de la représentation musicale dans l’écriture tient grandement à son caractère symbolique et métonymique et non exhaustivement descriptif. Dans l’état actuel de notre situation vis à vis des matériaux de la musique électronique, nous avons du mal à concevoir un type d’écriture qui rejoindrait, par son aspect symbolique, certaines possibilités de l’écriture traditionnelle telle que je l’ai décrite plus haut. Il est clair que la non-standardisation des objets est un obstacle de taille. Cependant, ce n’est pas tant les objets qui nous importent dans le problème de la représentation que les méthodes de transformations et de développements. Comme on le verra par la suite, l’idée d’une standardisation et d’une unification des méthodes diverses n’est pas impensable. Lorsque le vocabulaire général, qui est encore très éclaté, se réduira autour de conceptions globales des techniques diverses de la musique électronique, la possibilité d’une écriture symbolique se fera peut-être jour. Il est probablement trop tôt pour l’affirmer, mais il est grand temps de commencer à se poser le problème. Très certainement, nous n’avons pas encore découvert les principes de ces nouveaux modes de représentation et rien n’indique, pour l’instant, qu’il seront graphiques. Ils sont encore dans un type de représentation qu’il reste peut-être encore à inventer. Le passage de la description figurative à la représentation symbolique me semble un problème qu’il sera indispensable, à un moment ou à un autre, de traiter. Je n’ai, pour l’instant, aucune idée sur la manière d’y parvenir, simplement l’intuition qu’il faudra y parvenir. De ce point de vue, et en acceptant une certaine ironie vis à vis de la situation, nous sommes un peu comme ces peuples de Mésopotamie qui, 3000 ans avant notre ère, inventaient les premiers signes qui permirent non seulement de fixer, mais aussi de faire évoluer notre pensée.

 

Les partitions virtuelles.

En l’absence de ces outils conceptuels, il reste cependant à gérer la situation présente. Il semble acquis, vu la convergence d’un grand nombre d’oeuvres, que la mixité, c’est à dire l’alliance de l’électronique et de l’instrumental, triomphe de la solution qui consistait à n’offrir que de la musique conçue pour support synthétique. Si une nouvelle technologie se doit d’apporter de nouveaux concepts dans la discipline qu’elle sert, elle doit également intégrer le savoir-faire qui est en cours dans cette discipline. Ce savoir-faire est construit, selon moi, dans cet échange permanent entre l’écriture et l’interprétation. Les systèmes en temps-réel autorisent bien évidemment ce que l’on nomme du terme très prisé actuellement, voire même abondamment galvaudé, d’interactivité. Comme la virtualité était présente dans le couple écriture/interprétation depuis toujours, l’interactivité n’est pas non plus une chose nouvelle en musique. L’image des quatre musiciens d’un quatuor à cordes dont chacun produit de la musique tout en étant constamment à l’écoute de ses trois partenaires en est, entre autre, un exemple bien réel. Il ne s’agit cependant ici que d’interprétation mais au départ l’enjeu se situe bien là : faire entrer l’interprétation dans le contexte de la musique électronique. L’interprétation,  commence là ou s’arrête l’écriture, et est rendue possible par la nature même de cette écriture, son aspect métonymique. C’est en partant de l’analyse de ce que sont les conditions de l’écriture et de l’interprétation dans la musique traditionnelle que j’ai déterminé ce qui devait constituer, selon moi, les bases théoriques de la musique électronique en temps-réel. L’intrusion de l’outil technologique dans la création musicale bouleverse une quantité de choses. Il est normal que certaines données de la composition soient modifiées sans quoi la technologie ne serait rien de plus que ce qu’est la calculatrice électronique au calcul mental : une façon de faire la même chose avec plus de sûreté, plus de rapidité et moins de réflexion. Artistiquement, cette situation ne présente pas le moindre intérêt. Mais il est aussi normal l’outil technologique puisse s’adapter à une culture et s’intégrer à des pratiques qui sont à la base de cette culture. C’est dans ce mouvement d’adaptation réciproque, à double sens, que je conçois l’alliage de la technologie avec la pratique musicale. C’est pourquoi, quelque soit le sens que l’on donne aux termes de partitions et d’interprétation, je conserve la conception des données absolues et relatives comme concept de base dans les partitions virtuelles.

Les partitions virtuelles posent, comme prémisse, une donnée qui me semble être la base même de ce que l’on appelle le “temps réel” et qui est fondée sur la possibilité de détecter et d’analyser des événements produits en temps réel, c’est à dire, en musique, des événements produits par l’interprétation. Dans un premier temps, il s’agit de faire entrer les critères d’interprétation dans la musique électronique mais il va de soi que ces critères sont intimement liés à une stylistique particulière, voire à une époque, à des modes tout autant qu’à une analyse du texte à interpréter. Dans le cas d’une musique en devenir, les critères d’interprétation ne peuvent pas être du même ordre que dans celui d’une musique déjà codifiée culturellement. Il n’existe pas, à proprement parler, de critères d’interprétation en soi. Dès lors que l’on veut capter et faire interférer des phénomènes d’interprétation dans un contexte nouveau il semble évident que la conception du texte ou de la partition doit être également différente. Cependant ces partitions virtuelles sont basées sur la même appréciation que celle que j’ai donnée au sujet des partitions traditionnelles : elles ne donnent pas la totalité du contenu sonore, mais une partie seulement. Cette partie, qui  est codée dans la mémoire de la machine, demeure invariable quelque soit la manière dont l’interprète agira. La part manquante est déterminée par les relations qui sont établies entre l’interprète et la machine. C’est l’analyse en temps-réel des données instrumentales, ou vocales, qui définira les valeurs réelles qui serviront à produire le son. La musique, dans ce contexte déterminé, ne peut surgir que lorsque les données captées de l’interprète entrent en connexion avec celles qui sont fixées dans la machine. Elles sont, on l’a vu, organisées à l’intérieur de zones et non en tant que valeurs réelles puisque c’est comme cela que fonctionne l’interprétation. La partition virtuelle est donc une partition dont on connaît, a priori, la nature des éléments qui vont être traités mais dont on ignore les valeurs exactes qui vont définir ces éléments.

L’influence de données de l’interprète sur le programme est déterminée par le choix de ce qui constitue les valeurs absolues ou relatives du contexte musical dans lequel on se situe. Les valeurs absolues sont celles qui, d’une exécution à l’autre, ne varient pas. La connexion entre l’interprète et cette partie des paramètres fixés est inexistante car, quelque soit la manière dont l’interprète agit, ces valeurs restent rigoureusement identiques. Pour parler en termes anthropomorphiques on pourrait dire que, dans ces cas là, la machine “n’entends” pas ce que produit l’interprète. Les valeurs relatives, elles, seront soumises au contrôle de l’interprète. La machine les “entends”, les détecte, les analyse, les convertit en paramètres et les utilise dans les calculs nécessaires à la production de tel ou tel composant du son. Imaginons un instrument virtuel produisant de la synthèse. On considère que, parmi la grande quantité de paramètres nécessaires à la production du son, une partie d’entre eux soient “verrouillés”, c’est à dire qu’ils ne sa placent pas dans le champ d’influence de l’interprète. Les valeurs affectées à ces paramètres sont alors déterminées une fois pour toute dans une liste que le processeur viendra lire le moment venu. L’autre partie de ces paramètres est fournie par une détection et une analyse des comportements instrumentaux et variera continuellement soit en reproduisant à l’identique les résultats de cette analyse, soit en les modifiants par le biais de fonctions de transfert. A un autre moment, le verrouillage et le déverrouillage porteront sur une autre distribution de paramètres. Cette situation, on le voit, comporte deux aspects : l’un fixe et l’autre mobile. On y reconnaît ce qui, dans l’écriture, était invariable et ce qui était soumis à de déviations, des modifications, à tous les éléments que l’interprète produit, en temps-réel pourrait-on dire, et qui n’étaient pas inscrits dans le texte.

Cette dimension indéterministe peut avoir des conséquences plus ou moins importantes sur la morphologie du discours musical. Cette marge aléatoire peut être, au moins, celle qui définit les conditions traditionnelles de l’interprétation, à savoir ce qui détermine une qualité sonore, un phrasé, une attaque, une durée, etc., elle peut être, au plus, responsable de la structure entière du discours musical qui, dans ce cas, sera organisée en fonction des données reçues par l’interprète. Dans ce dernier cas, cela confine au statut de l’oeuvre ouverte et de la musique aléatoire, et peut aller, en bout de course, jusqu’à l’improvisation. C’est là une affaire de choix compositionnel et de choix esthétique que je ne veux pas traiter dans ce contexte. Ces choix sont avant tout d’ordre esthétiques mais sont également tributaires du type d’analyse que l’on effectue sur le son de l’interprète.

 

Reconnaissance et suivi.

L’organisation des partitions virtuelles est basée sur deux principes qu’il est important de distinguer : celui de la reconnaissance et celui du suivi. Par reconnaissance, il faut entendre la possibilité de se repérer dans un contexte déjà connu à l’avance mais qui risque d’être perturbé. C’est le cas de ce que l’on nomme improprement “suivi de partition” et que l’on devrait appeler “reconnaissance de partition”  La reconnaissance d’une partition jouée par un interprète se borne généralement à se repérer dans une succession chronologique d’événements tout en admettant une certaine tolérance à l’erreur. On attend un événement déjà mémorisé et le processeur doit le reconnaître instantanément. La partition instrumentale est déjà codée à l’avance, et le processeur compare les événements détectés avec ceux qu’il est censé reconnaître chronologiquement. En général cela se fait au moyen d’une “fenêtre d’analyse” qui joue sur la reconnaissance non d’événements isolés, mais d’une collection d’événements. C’est ce qui permet d’introduire une clause de tolérance à l’erreur car si trois événements sur cinq sont reconnus, par exemple, le processeur n’interromps pas son travail et en “déduit” que la partition détectée est bien ressemblante à celle qui est codée dans sa mémoire. C’est un des cas les plus délicats à traiter car, suivant les instruments utilisés, il est nécessaire de choisir des options différentes. La reconnaissance d’une partition monodique peut très bien se faire de manière acoustique : un micro capte le signal puis, grâce à une analyse du spectre, en calcule la fréquence fondamentale. Si cette fréquence correspond à la note attendue, alors l’événement est reconnu et le système reproduit la même opération et ainsi de suite. La reconnaissance d’une partition polyphonique pose beaucoup plus de problèmes car  lorsque quatre notes sont jouées simultanément, il est très difficile de déterminer à quelles fréquences fondamentales appartiennent la superposition de tous les composants des spectres. Des recherches existent dans cette direction [5.Miller Puckette, à l’Université de San Diego, réalise actuellement des recherches sur la détection acoustiques des instruments à corde. Ces instruments pouvant produire plusieurs sons à la fois, en tout cas deux de manière tout à fait simultanée, le problème de la détection polyphonique est abordé.] mais, pour le moment, on en est réduit à utiliser un type de détection purement mécanique tel que le code MIDI. La différence entre ces deux types de détections, acoustique et mécanique, n’a guère de conséquences sur la suite de la composition car il ne s’agit pas encore ici de contrôler quoi que ce soit mais de se repérer dans une partition. L’avantage de la reconnaissance de partition est cependant de tout premier ordre dans la gestion temporelle de la musique car, une fois cette étape maîtrisée, s’offre la possibilité d’introduire autant de points d’ancrage temporels que l’on désire entre la partition instrumentale et la partition électronique. A chaque événement reconnu, pourra être synchronisé tel ou tel type de son, de traitement, de processus dont certains, tels que l’échantillonnage en temps-réel, doivent obéir à une précision de l’ordre de quelques millisecondes. C’est la condition sine qua non pour en finir avec la rigidité temporelle des anciens systèmes et pour donner à la musique électronique une souplesse temporelle au moins égale à celle qui existe dans le monde instrumental.

Le suivi est d’un tout autre ordre. Par “suivi” on doit comprendre la détection d’événements qu’on ne connaît pas à l’avance. Le processeur détecte des valeurs mais ne les compare pas avec une liste déjà établie a priori. Il ne fait, sauf cas particuliers, aucune comparaison et accepte tous les événements comme également valables. Le suivi peut porter indifféremment sur n’importe quel composant sonore, hauteur, enveloppe dynamique, catégories spectrales, comportements acoustiques divers etc. C’est à ce niveau que s’opèrent toutes les opérations de contrôle qui permettent de modifier en temps-réel les paramètres de synthèse ou de traitement. C’est à ce niveau également que la dimension de l’interprétation peut servir de modèle pour l’élaboration des sons électroniques. C’est ici que le compositeur peut introduire dans sa partition la virtualité qui fait que le processeur peut mesurer l’écart qui existe entre la notation et le phénomène sonore produit à partir de cette notation. Un exemple simple, tiré de ma composition En écho pur soprano et système en temps reel 5, peut donner une explication de ce phénomène. Une voix humaine peut produire des voyelles à partir de la simple notation d’un texte sous des notes. Les voyelles sont définies acoustiquement par ce que l’on nomme les formants dont les fréquences se situent dans des zones assez bien connues. Il est cependant absolument impossible d’exiger d’un chanteur qu’il produise ses formants sur ces fréquences données. Cela fait partie de ces catégories sonores qui sont productibles mais absolument pas notables car “humainement” impossibles à contrôler. C’est exactement l’écart qui existe entre la complexité du phénomène sonore et son écrit. Cela dit, un processeur peut très bien faire l’analyse de ces formants et en opérer un suivi de façon tout à fait continue et exacte. Aucune valeur précise n’est attendue puisque l’interprète n’a pas la possibilité de les fournir avec exactitude. Ces valeurs détectées sont alors envoyées à un algorithme de synthèse qui les utilise en temps-réel. Le timbre de ces sons de synthèse reproduit alors une qualité qui est celle de la voix au moment ou l’interprète les chante. On reconnaît les différentes couleurs des voyelles dans les accords produits électroniquement. Ces sons de synthèse sont, d’autre part, définis harmoniquement sous une forme totalement fixée qui ne variera pas quel que soit la manière dont chante l’interprète. D’un côté on a des valeurs absolues, fixées une fois pour toute, de l’autre des valeurs relatives qui détermineront des qualités sonores en fonction de l’interprétation. Cette dualité entre valeurs absolues et relatives, qui définit les conditions de l’écrit et de l’interprétation dans la musique instrumentale et vocale, a déjà évoquée précédemment mais, dans le contexte de la musique électronique, détermine deux catégories qui continuent d’alimenter une grande querelle qui, à mon sens, n’a plus lieu d’être : celle du temps-différé contre le temps-réel.

 

La querelle des temps.

On observe un important clivage entre les compositeurs qui se réclament des techniques en temps différé et ceux, beaucoup moins nombreux, qui optent pour une utilisation du temps réel.  Ces deux termes, d’ailleurs, doivent être pris avec précaution. Comme on le verra, une grande partie des musiques qui se définissent comme appartenant à la catégorie du “temps réel” ne proposent finalement qu’un aménagement pratique des vieilles méthodes de studio en “temps différé” tout comme les musiques réellement conçues avec les techniques du “temps réel” acceptent une grande part de prédétermination absolue dans leur constituant, ce qui est la marque du “temps différé”. On peut résumer rapidement les situations dépendant du temps-réel et du temps-différé en disant que dans le premier cas, l’analyse des données de l’interprétation modifient la totalité ou une partie des aspects morphologiques du discours musical, alors que dans le second cas, ceux-çi restent identiques quelque soient les critères d’interprétation comme c’était le cas dans les anciennes musiques pour bande magnétique.

S’il est un élément fondamental qui détermine ces clans que sont le “temps réel” et le “temps différé”, c’est bien le Temps lui même. Non pas le temps psychologique mais le temps musical objectif, celui qui détermine les conditions de synchronisation et de coordination entre les événements. Le problème s’est tout de suite posé lorsqu’on a voulu faire dialoguer un temps immuable, celui des bandes magnétiques, avec un temps modulable, celui des instruments dans les premières musiques mixtes. Plusieurs cas de figures ont été tentées pour résoudre ce délicat problème de superposition. Un chef d’orchestre , ou des instrumentistes, peuvent suivre le déroulement d’une musique couchée sur support fixe “à l’oreille” si certains éléments sonores agissent comme des signaux de repérage. En y réfléchissant, c’est un peu le cas très classique d’un chanteur d’opéra attendant un “repère” dans l’orchestre soit pour prendre son intonation, soit pour chanter, soit pour accomplir un geste scénique. Dans un second cas, lorsqu’une précision rythmique beaucoup plus grande est demandée, comme dans le cas de modifications des tempi dans lesquels il faut synchroniser parfaitement les instruments et les événements électroniques, une autre solution consiste à diffuser un “click-track” (un bruit de métronome enregistré) que le chef écoutera par l’intermédiaire d’un petit écouteur placé sur son oreille. Cela permet d’être renseigné continuellement sur le bon tempo mais offre, outre le sentiment désagréable de jouer “au métronome”, le désavantage de rendre impraticable les continuelles variations de tempi qui, même lorsqu’elles ne sont pas inscrites sur la partition, sont nécessaires à l’interprétation. La troisième solution, qui ne devrait être qu’un cas particulier mais que l’on rencontre malheureusement très souvent, est de ne vouloir aucune synchronisation précise entre ces deux discours. Il est clair que les choses ne sont pas aussi tranchées dans la réalité d’aujourd’hui. On ne compose plus guère pour supports fixes tels que les magnétophones qui se sont vus remplacés progressivement par des systèmes sur disques durs. Ainsi sont souvent présentées comme “musiques en temps-réel” des oeuvres qui, quelque soient leurs qualités musicales intrinsèques, reproduisent le vieux schéma des musiques mixtes dans lesquelles le tempo de la bande était le maître du jeu. La seule chose qui soit remise en question, par rapport aux musiques sur bande magnétique, est la faculté de déclencher des séquences de manière synchrone avec un son instrumental. Mais, une fois la séquence déclenchée, le jeu de l’interprète n’aura plus d’incidence sur le devenir de l’oeuvre avant le prochain déclenchement. Tout au plus peut-on démarrer et stopper les séquences pré-composées avec plus de liberté. Cela est dû, pour l’instant, grandement à des impératifs technologiques qui font que, si l’on veut qu’une oeuvre puisse être jouée avec la même facilité que n’importe quelle oeuvre instrumentale, on est obligé de faire appel à une technologie largement divulguée par les outils du commerce qui ne permet pas, en général, de produire des musiques dans lesquelles la part de l’interprète puisse avoir une responsabilité sur l’oeuvre à un niveau équivalent à celui de la musique instrumentale. En contrepartie, les oeuvres mettant en jeu une dimension interprétable conséquente ne sont, pour le moment, possible que sur une technologie encore peu divulguée limitant ainsi les potentialités d’exécutions. Cette situation évolue, bien évidemment, dans le sens d’une plus grande accessibilité aux performances technologiques puissantes, mais contribue largement à entraver une évolution de la pensée musicale qui devrait remettre en question certains fondements même de la composition lorsque les moyens théoriques et techniques existent pour cela. Il n’y a aucune raison de se limiter à des catégories de temps aussi grossières que les seuls démarrages et arrêts de séquences dès lors que les outils technologiques le permettent car cela revient, musicalement parlant, à concevoir une oeuvre dans laquelle les points de synchronisation sont beaucoup plus espacés et soumis à un contrôle beaucoup plus lâche que dans n’importe quelle autre oeuvre. Imaginons, pour donner un exemple concret de cette situation, une pièce d’orchestre dans laquelle l’écriture ne prendrait en compte que la synchronisation du début de plusieurs séquences mais ou il n’y aurait plus de contrôles temporels internes dans leurs superpositions. Ces cas existent bien évidemment et ils peuvent avoir une raison d’être tout à fait valable (Zeitmasse  de Stockhausen ou Pli selon pli et Rituel de Boulez explorent systématiquement ces principes d’indépendance temporelle entre les structures) mais ils ne peuvent, en aucun cas, constituer une norme qui régirait une condition générale d’écriture. Cette dualité de situations impose finalement un choix entre une technologie en temps-différé et une autre en temps-réel et ce choix technologique provoque fatalement des répercussions sur un choix esthétique. Ce choix limitatif est souvent la conséquence d’oeuvres dans lesquelles on constate un choc stylistique entre une écriture instrumentale basée sur une articulation précise et une partie électronique qui ne peut pas bénéficier de la même finesse d’articulation et se concentre alors sur des événements plus massifs et plus monolithiques.

Les séquences pré-composées en studio ne bénéficiant que des options de déclenchement et d’arrêt en temps-réel appartiennent totalement au temps-différé, tandis que les musiques qui acceptent une part de mobilité dans leur constitution dépendent du temps-réel. Cette part de mobilité, qui n’est pas obligatoirement comparable à ce qui constituait les musiques aléatoires est identique à la mobilité qui est de fait dans toute musique instrumentale. Pendant longtemps, et non sans raison, les partisans de la musique en temps-différé avaient une attitude critique quant au manque de finesse et de raffinement qu’offraient les moyens de synthèse en temps-réel. Cette critique tend aujourd’hui à n’avoir plus de viabilité car les systèmes en temps-réel offrent désormais une puissance de calcul qui permet d’avoir un contrôle d’une très grande finesse. Le dilemme entre ces deux choix semble plus le produit d’une conception, d’une part, héritée des techniques de studio classiques dans lesquels les compositeurs étaient habitués à tout fixer (le vieux réflexe de la bande magnétique) et de l’autre, chez des musiciens pour qui l’écriture instrumentale était naturellement soumise aux gauchissements de l’interprétation. Cette querelle du “tout-temps-réel” ou du “tout-temps-différé” me semble pouvoir être définitivement levée car, comme dans tous les cas semblables, ce ne sont jamais les positions extrêmes qui aboutissent aux résultats les plus intéressants. Il est clair que la composition comporte énormément de cas de figures qui sont inaccessibles au temps-réel, en particulier dans tout ce qui concerne les constructions qui demandent une prédiction sur ce qui va se passer. Un trajet complexe de spatialisation, une évolution calculée de paramètres de synthèse nécessitent souvent une mise au point définitive à laquelle la situation du temps-réel pourrait être fatale. Il est clair aussi que la précision qu’un compositeur peut exiger d’un interprète soit également valable pour un processeur. On veut exactement telle chose et non une autre. Une composition, on l’a vu, peut aussi bien comporter des éléments qui ne varieront pas quelque soit la situation de l’interprétation, que des éléments qui seront soumis à ces variations d’interprétation. La distinction doit se faire ici entre le choix des valeurs absolues et des valeurs relatives qui formeront la composition. Si l’on raisonne au niveau des systèmes en temps-réel, il est évident que rares sont les cas de figures dans lesquels rien n’est fixé à l’avance. La distinction montrée plus haut entre les éléments absolus d’une partition instrumentale et les éléments relatifs à l’interprétation peut très bien servir de base à l’édification de partitions électroniques qui sont basées sur ce même modèle. C’est dans le choix conceptuel des objets musicaux qui constituent l’oeuvre que doit se faire la distinction entre ces deux entités et non dans une prise de position par rapport à une technologie qui appliquerait d’elle-même cette décision. L’indépendance temporelle des événements superposés dans une composition mixte, dès lors que les outils théoriques et pratiques existent pour cela, doit être aujourd’hui la conséquence d’un choix esthétique plus que celle d’une limitation technologique. “Mon paletot aussi était idéal”, cette phrase de Rimbaud reprise par Boulez dans Penser la musique aujourd’hui est malheureusement toujours d’actualité. La prise de position pour le temps différé ou pour le temps réel, en d’autre termes la répartition des événements constitués de valeurs absolues ou relatives, doit désormais cesser d’être un choix technologique pour devenir un choix compositionnel.

 

Le paramètrage numérique comme valeur de métamorphose.

Un des grands intérêts de la situation offerte par le principe de la détection et de l’analyse des sons instrumentaux dans le cadre du temps réel me semble résider dans la possibilité d’opérer des métamorphoses d’une catégorie sonore dans une autre. Cela est rendu possible par la conversion des valeurs analogiques en paramètrages numériques. Pour un processeur, toute valeur détectée dans un signal acoustique peut être paramètrée de manière numérique. Pour lui, toutes ces valeurs numériques sont égales comme on dit que le sont tous les citoyens devant la loi. C’est au compositeur d’en déterminer une hiérarchie et d’en déduire une structure de relations. Que ce soit une valeur de hauteur, de temps où de dynamique mais aussi des valeurs plus fines portant sur l’analyse spectrale d’un son que ce soit par son contenu fréquentiel ou formantique, le résultat est codé numériquement. Cette faculté de réunir des composants acoustiques différents sur une même échelle de valeurs permet de les faire s’influencer mutuellement, et de faire en sorte qu’une catégorie sonore puisse contrôler une autre catégorie sonore, voire un ensemble de catégories. Ainsi une valeur de temps ou de durée, peut influencer une valeur de transposition de hauteurs, l’analyse d’une enveloppe dynamique peut diriger un trajet de spatialisation. Un tel mélange de catégorie sonore est, bien entendu, totalement impensable dans la musique instrumentale. Grâce au paramètrage numérique il existe une équivalence de représentation des différents composants sonores qui peut très bien servir d’étalon autour duquel seront déterminés différents aspects du discours musical. L’interprétation, dans ces cas, n’est plus du même ordre que dans celui de l’acception classique de ce terme car elle pénètre entièrement la morphologie de la partition. Dans Pluton, j’ai utilisé des valeurs dynamiques comme critères de définition d’un choix d’échelles d’intervalles et dans Neptune, c’est le processeur lui-même qui, par le fait de calculs aléatoires, produit des déviations d’ambitus et de tempi sur lesquels sa basent les interprètes. En y réfléchissant bien, le cas de catégories s’influençant mutuellement n’est pas nouveau dans la musique : une acoustique particulière peut orienter un choix de tempo qui lui-même détermine des valeurs dynamiques et rythmiques. Mais dans le cas cité précédemment, la détection des valeurs d’interprétation peut aller jusqu’à la prise en charge d’éléments fondamentaux du discours musical. Là encore, l’importance que l’on voudra bien accorder à l’influence de ces critères temps réels sur la conception même de la musique est une affaire de choix esthétique.

 

Échantillonnage, transformation et synthèse : passé et avenir.

Trois domaines partagent actuellement la somme des travaux qu’effectuent compositeurs dans la musique électronique : l’échantillonnage, les transformations des sons instrumentaux ou vocaux et la synthèse sonore. Les deux premiers reproduisent la dualité qui existait dans les années 50 entre la musique concrète, spécialité du club d’essai de la R.T.F. à Paris, et la musique électronique pure sur laquelle le Studio de Cologne a fait les premières expérimentations. Ces deux démarches opposées au début se sont unifiées, dès 1955/56, dans le Gesang der Junglinge de Stockhausen. Ce n’est que dans les années 70 (pour la synthèse) et 80 (pour l’échantillonnage) que ces techniques apparurent dans l’informatique musicale. mais elles restèrent l’apanage du temps différé.

La synthèse sonore, de ce dernier point de vue, est l’instrument le plus puissant car, suivant les modes de synthèse utilisés, on peut construire le son en autant de paramètres que l’on veut qui seront autant de variables indépendantes pour déterminer tels ou tels aspects du son. Le problème qui se pose fréquemment pour les compositeurs est celui d’une relativement grande inertie du son lorsque la gestion des paramètres n’est pas suffisamment complexe. Lorsque l’on analyse l’aspect acoustique d’un son instrumental dans le temps, on est frappé par l’immense diversité et variabilité des comportements qui, lorsqu’ils doivent être reproduits par les méthodes de synthèse pure, demandent un contrôle d’une extrême complexité. De ce point de vue, la synthèse, définie comme un calcul de paramètres totalement préétabli, est une technique relevant complètement du temps différé puisqu’il n’y a aucune détection ni analyse d’un signal en temps réel.

L’échantillonnage a connu d’emblée un grand succès par le fait même de pouvoir combler en variété de comportements les difficultés que posent la synthèse. Cependant, si la technique de l’échantillonnage permet d’obtenir un résultat sonore satisfaisant de manière assez rapide, elle perd, en possibilités de contrôle, tout ce qu’offrent les techniques de synthèse. Ses potentialités de transformation et de développement sont d’ordre globales et ne pénètrent pas la structure interne du son. On peut lire un échantillon dans différents sens (à l’endroit, à l’envers, par traitements granulaire …), à différentes transpositions, dans des tempi variables, le filtrer, mais on ne peut pas le décomposer en petits atomes qui sont comme autant de petits instruments participant d’un son total. Il est vrai que la composition, souvent, peut très bien se satisfaire de cette restriction. Il n’y a pas toujours de corrélation évidente entre ce que l’on entends par “richesse sonore” et par “complexité conceptuelle”. Synthèse et échantillonnage sont, en quelque sorte, les compléments l’un de l’autre et il est évident que c’est souvent dans le sens d’une complémentarité qu’ils sont utilisés. En schématisant quelque peu, on peut s’apercevoir que la synthèse est plus fréquemment utilisée dans la gestion des structures continues, tandis que l’échantillonnage se révèle efficace dans un contexte plus ponctuel, discontinu et rythmique. La preuve en est que les premières oeuvres de synthèse par ordinateur, comme celles qu’ont composées John Chowning et Jean-Claude Risset, portent exclusivement sur des évolutions continues tout comme les premières pièces de musique concrète pratiquaient sans concession la rupture de ton. C’est le combat de la continuité des nombres contre le coup de ciseau 6. La transformation des sons instrumentaux est apparue aux USA sur des instruments analogiques mais c’est encore Stockhausen qui en donnera une première vision cohérente dans Mantra en 1970. Le traitement des sons est aussi un procédé très global en ce sens qu’il affecte la totalité du spectre soit par addition (techniques du frequency-shifter ou du ring modulator), soit par soustraction (filtrage) soit par transposition (harmonizer) ou réverbération et spatialisation. Répons de Boulez, en 1981, en fera une première utilisation plus complexe et maîtrisée par l’outil informatique. Ces techniques de transformation sonores, mise à part la réverbération et la spatialisation, ont été à la base de tout les systèmes en temps réel et c’était même, il y a quelques temps, ce qui en constituait l’essentiel.

Ces trois catégories étaient au début très séparées. On ne les utilisait qu’une à la fois. Bien que plus intégrées dans un même discours de nos jours, elles n’en restent pas moins assez séparées quant aux modes de composition qu’elles développent. Il est clair que, au bout de la chaîne de calcul qu’effectue un processeur pour les réaliser, le procédé est plus ou moins identique. Ce sont les modes d’approches qui diffèrent ainsi que les types de contrôles qu’on y effectue. Dans la plupart de mes compositions mixtes, j’ai eu l’occasion d’élaborer des principes qui reposent sur une hybridation de ces différentes méthodes. Le cas d’un synthèse sonore dont l’évolution, soit formantique, soit prélevée de l’analyse en temps réel d’un son instrumental ou vocal participe également du domaine du traitement et de la synthèse. Quant au procédé d’analyse/resynthèse sur lequel est développé actuellement un effort considérable, il permet dans certains as de reproduire avec une qualité confondante l’image sonore d’un son enregistré mais avec toutes les possibilités de contrôles puissants que permet la synthèse 7. La synthèse en temps réel, parvenant à rivaliser en qualité sonore avec la techniques de l’échantillonnage se substituera à cette dernière lorsqu’il sera possible d’effectuer également ces analyses complexes en temps réel. Ceci n’est qu’une affaire technologique qui, comme les autres, fonctionnera lorsque les processeurs de calcul auront la puissance suffisante. Ce cas est aussi ancien que l’existence des machines.

L’abolition de tous ces catégories est, selon moi, inéluctable, et il est souhaitable que ces catégories, tout comme celles du temps réel et du temps différé, finissent par se fondre en une seule et même technique unitaire relevant à la fois du traitement ou de l’échantillonnage mais dont les modes de contrôles seraient ceux de la synthèse dont une partie des paramètres serait géré par une analyse en temps-réel. Une fois cette unification réalisée, je pense que la question de la représentation symbolique, telle que je l’ai exprimée plus haut, pourra trouver un terrain propice à son développement. Mais, d’ores et déjà, les arguments théoriques existent et les barrières technologiques finiront par tomber. Le principe des partitions virtuelles est une des possibilité de cette unification. Il y en a certainement d’autres. Encore faut-il qu’un nombre suffisant de compositeurs en prenne conscience et surtout accepte de travailler dans ce sens, ce qui signifie, bien entendu, une limitation des exécutions musicales car de tels systèmes ne seront pas immédiatement accessibles commercialement dans tout les studios du monde. Ce dernier point, particulièrement ne me semble pas assuré. En ce qui me concerne, mon choix est fait depuis longtemps. Mon paletot n’est plus idéal.

                                                                           Philippe Manoury. Paris, Juin 1997.

 

  1. Luciano Berio, dans un entretien, disait que l’étude du contrepoint était le meilleur moyen de relier l’oreille au crayon. On constate malheureusement de nos jour une grande déficience dans cette capacité de représentation mentale de l’écriture. La raison en est probablement que, depuis quelques décennies, l’étude des disciplines d’écriture classique telles que l’harmonie et le contrepoint a été fortement délaissée. Bien qu’il soit clair que ces disciplines ne sont plus utilisées dans les compositions contemporaines, il n’existe, à ma connaissance, aucun autre moyen aussi efficace pour “relier l’oreille au crayon”.
  2. Ce n’est pas autrement qu’il faut entendre les agacements de Wagner dans l’interprétation de la musique de son époque. Ce n’est pas autrement non plus qu’il faut interpréter le soin que mettaient Mahler ou Stravinsky dans la précision de leurs partitions. Cette précision n’a pas été dans ces dernières années, il faut bien le reconnaître, sans quelques exagérations.
  3. Les interminables polémiques que l’histoire de la musique a vu surgir au sujet des différents tempéraments acceptant, par exemple, comme quinte, deux accordages différents, en sont une des preuves les plus évidentes.
  4. A la Renaissance, et jusqu’à J.S. Bach, des compositeurs utilisaient la “Tabula compositoria”, une sorte de matrice pour générer les relations polyphoniques. Athanasius Kircher, au XVIIème siècle, utilisait, après Zarlino et Mersenne, des procédés mathématiques relevant d’une tradition médiévale. Il y a également le “Wurfenspiel”, sorte de jeu de dés, que Mozart utilisa pour composer des petites valses. L’alliance de la combinatoire et de la musique est très ancien et serait trop long à développer ici. Au XXème siècle, c’est à Lejaren Hiller que l’on doit les premiers travaux de formalisations musicales par ordinateur en 1956. Ce n’est qu’une dizaine d’années plus tard que Max Matthews mettra au point les premiers programmes de synthèses des sons.
  5. Le cycle Sonus ex Machina comportant Jupiter, Pluton, La Partition du Ciel et de l’Enfer ainsi que Neptune à été réalisé avec le mathématicien Miller Puckette à l’Ircam. Ces pièces furent conçues pour le processeur 4X mis au point par Guiseppe di Guigno. En Écho, toujours réalisé avec Miller Puckette été composé pour la Station d’Informatique Musicale de l’Ircam élabore par l’équipe de Éric Lindeman.
  6. Il est intéressant de remarquer à quel point les outils ont laissé leurs marques sur les oeuvres. On peut aussi faire l’analogie avec le cinéma qui, dès ses débuts, a pratiqué un style très hachuré comme dans les premiers films d’Eisenstein pour ensuite développer des techniques de continuité comme les plans-séquences chers aux premiers films de Welles.
  7. Des expériences fort prometteuses sont actuellement en cours. Les travaux qu’effectue David Wessel à l’Université de Berkeley sont, à ce titre, très impressionnants par la qualité sonore de la resynthèse en temps réel d’un signal vocal complexe.

Considérations (toujours actuelles) sur l’état de la musique en temps réel

Wednesday, October 22nd, 2008

En guise d’introduction

Voilà plus d’un quart de siècle que mon esprit ne cesse d’être préoccupé, hanté même, par cette invention qui, un autre quart de siècle auparavant, a provoqué une fissure dans le monde de la musique : celle de l’électronique.

Mes premiers contacts avec la musique électronique ont eu lieu au cours des années soixante-dix. Ce serait un euphémisme que de dire qu’à cette époque, en France, les musiques électroniques et instrumentales ne faisaient pas bon ménage. La querelle qui, dans les années cinquante, opposa les « compositeurs de l’écriture »  (Barraqué, Boulez  et Stockhausen principalement) à ceux de « l’intuition expérimentale » (incarnés par le GRM de Pierre Schaeffer) n’est que la plus célèbre de toutes. Pour être bref, les premiers reprochaient aux seconds de n’être que des analphabètes musicaux, tandis que les seconds auraient aimé reléguer les premiers dans les greniers poussiéreux de la tradition. Provenant d’horizons culturels très différents, les compositeurs œuvraient soit dans l’une, soit dans l’autre de ces catégories, mais rarement dans les deux. Élevé dans la tradition de l’écriture instrumentale, je n’en éprouvais pas moins une réelle attirance pour les possibilités offertes par la musique électronique. Ce furent les fréquentes venues de Stockhausen à Paris, au cours des années soixante-dix, qui me firent prendre conscience de la possibilité et du grand intérêt qu’il y aurait à relier ces deux conceptions musicales en une seule. Je découvrais qu’on pouvait à la fois composer de la musique d’orchestre et de la musique électronique, et parfois, au sein d’une même œuvre. La création parisienne de Mantra, en 1973, fut pour moi un moment initiatique. J’y découvrais la richesse potentielle de l’unification des mondes instrumentaux et électroniques au sein de ce que l’on aurait pu, déjà à cette époque, appeler « la musique électronique en temps réel ». Mais cette œuvre, aussi emblématique qu’elle fut, n’en demeurait pas moins, à mes yeux, inégalement proportionnée quant à l’usage de ces deux modes d’expression. La partie électronique ne consistant qu’en une transformation passive des sons des deux pianos, à aucun moment, elle ne possédait une structuration formelle autonome, comparable dans sa construction à celle des instruments. Dans ses œuvres précédentes, ce même Stockhausen avait magistralement montré dans quelles mesures les textures électroniques pouvaient être rigoureusement composées. Mais, à l’époque de Mantra, l’état de la technologie rendait encore impossible une telle complexité dans le contexte du temps réel. Le seul support possible pour composer des formes évoluées avec les matériaux électroniques demeurait la bande magnétique. 

C’est donc avec une certaine frustration, due à la difficulté de réunir ces deux modes d’expression, que j’entrepris mes premiers travaux. Autant les potentialités sonores de la musique électronique m’attiraient, autant la rigidité de son organisation temporelle n’en finissait pas de me poser problème. Ce n’est qu’au début des années quatre-vingt, avec la construction des premiers modèles de synthétiseurs en temps réel par Guiseppe di Guigno à l’Ircam, que j’entrevis immédiatement une ouverture possible vers une plus grande souplesse temporelle qui libérerait la musique électronique de ce temps figé qu’imposait la bande magnétique. Je me souviens tout particulièrement d’une séance de travail autour de Pierre Boulez et « Peppino » di Guigno, au cours de laquelle la preuve fût faite que ce que jouait le flûtiste Lawrence Beauregard pouvait être identifié par un ordinateur, et ce, quelque soit le niveau de virtuosité instrumentale. Je vécu ce jour-là comme une sorte de second moment initiatique : il était donc possible de synchroniser automatiquement la musique électronique avec le jeu instrumental. Le point le plus important de cette avancée consistait dans le retournement de la situation habituelle dans laquelle l’instrumentiste était l’esclave du déroulement automatique et inexorable d’une bande magnétique. Dorénavant ce serait l’instrumentiste, le maître du temps. Il pourrait jouer à son propre tempo, accélérer, ralentir, faire des points d’orgue, bref, retrouver toute la respiration et la liberté qui était la sienne depuis que la musique existe, l’électronique le suivrait désormais. Au cours des dix années qui suivirent, je menais, avec la collaboration du mathématicien Miller Puckette, une série de recherches dont le premier résultat allait être Jupiter, pour flûte et électronique. Cette œuvre, composée en 1987, était la première à utiliser un suiveur de partition et développait de nombreux principes d’interactivité entre la flûte et les sons de synthèse 1. Elle marquait le début du déclin de la musique sur bande magnétique qui, malgré quelques positions nostalgiques, voire d’arrière-garde, allait finir par disparaître. Ensuite naquirent successivement Pluton, La partition du Ciel et de l’Enfer, Neptune et En écho, œuvres dans lesquelles je développais de nouvelles relations avec le monde instrumental tout en cherchant d’aller aussi loin que possible dans les modes de communications interactifs. Pas à pas, j’entreprenais une sorte de « recherche du temps perdu », celui, continu, organique et flexible, de la musique jouée par les musiciens, et que je cherchais à réintégrer dans les musiques électroniques. J’ai alors porté tous mes efforts sur le développement de structures musicales électroniques élaborées, dépassant le simple procédé de la transformation passive des instruments, et pouvant être soumises au temps flexible d’un interprète. En d’autres termes, je voulais doter la musique de synthèse de la possibilité d’être interprétée.

 

Pourquoi le temps réel ?

Une critique contre le temps réel a souvent été formulée, pointant une qualité sonore insuffisante, inférieure à celle qui était produite par les moyens de l’électronique traditionnelle sur bande magnétique. Cette critique était fondée dans les débuts, mais n’a plus lieu d’être aujourd’hui car le raffinement auquel sont parvenus les moyens de la synthèse sonore n’a désormais plus rien à envier aux anciennes méthodes. Une des premières commodités du temps réel a été l’instantanéité des résultats dans des calculs parfois complexes. C’était un avantage considérable si l’on se souvient des nuits interminables, passées autrefois à attendre que les machines aient terminé leur travail avant de constater que le résultat n’était pas à la hauteur des espérances et qu’il fallait relancer les calculs pendant autant de nuits successives qu’il était nécessaire. La rapidité des calculs n’entraînait pas pour autant une plus grande rapidité dans le processus de composition. C’était parfois même le contraire. Mais lorsqu’un compositeur est à sa table de travail, ce qu’il note sur sa partition « sonne » dans sa tête et il bénéficie ainsi d’une sorte de « temps réel virtuel » qui guide son intuition et son imagination. Ce n’était pas le cas quand l’écoute du résultat n’intervenait que très longtemps après  l’écriture. D’autant plus que cette « écriture » n’était en fait qu’un langage fait de nombres et de valeurs numériques, ce qui est la manière la moins intuitive qui soit pour composer de la musique. Malgré l’affirmation de Leibnitz, selon laquelle « toute musique est un calcul inconscient », il restait difficile d’appréhender une qualité sonore à la simple vue d’un listing de colonnes chiffrées. Ce fût un autre atout du temps réel, plus important que ce simple gain de temps, que d’avoir profondément modifié la manière dont un musicien transmet ses idées à une machine. Avec les premiers programmes en temps réels – et je pense particulièrement à l’invention du programme Max par Miller Puckette – l’utilisation de curseurs graphiques et virtuels a permis d’intégrer des éléments gestuels comme outils de contrôle de l’ensemble des qualités sonores. Il n’était plus besoin de formaliser numériquement une structure de timbre, car on pouvait la construire et la faire varier d’une façon analogue à celle d’un musicien qui produit le son par une variation de souffle ou une pression de l’archet. De fait, ces machines commençaient alors à ressembler à des instruments de musique, du moins dans les manières avec lesquelles on communiquait avec elles.

Enfin, le temps réel a ouvert la voie à l’interactivité entre les instruments acoustiques et les machines. Or, si de nombreux pas ont été faits pour ce rapprochement, le mode de communication qui domine le plus souvent n’est, pour le moment, qu’une sorte de « code morse ». De temps en temps, pour les besoins d’une captation ou d’une synchronisation, s’ouvre une communication entre instrument et machine, qui se referme une fois le processus de captation achevé, laissant instruments et électronique continuer de manière indépendante sans plus de relations entre eux. Ainsi ce que l’on a parfois appelé « temps réel » s’avérait souvent n’être que des séquences musicales pré-composées, comme des petits morceaux de bandes magnétiques mis bout à bout, que l’on pouvait, certes, démarrer au moment propice, mais dont le contrôle dans le temps nous échappait. On entrait dans le temps musical par de petites fenêtres, qui s’ouvraient par intermittence, pour se refermer aussitôt. Pour obtenir une véritable continuité dans la communication entre instruments et électronique et faire en sorte que la réaction de cette dernière soit non seulement instantanée, mais aussi suffisamment riche pour s’adapter aux différentes situations et se modifier dans le temps d’une œuvre, il existe un outil fondamental. L’artisan majeur d’une réussite en la matière est, sans aucun doute, le suiveur de partitions.

 

 A l’approche du Temps retrouvé.

 Un suiveur de partitions est un programme qui a mémorisé une partition et cherche à la reconnaître lorsqu’elle est jouée. Cet outil possède plusieurs niveaux de tolérance car des erreurs peuvent toujours intervenir pendant une exécution. Il est celui qui suit, pas à pas, le déroulement de la musique dans le temps et permet aux événements électroniques de se synchroniser avec une précision à laquelle l’oreille (ou une quelconque action humaine) ne peut pas atteindre. Si, depuis son invention, il a permis de retrouver une partie de ce « temps perdu », il faut bien avouer que nous sommes loin du « Temps retrouvé ». En amont de ce suiveur de partitions se dresse l’épineux problème de la détection, de la reconnaissance et de l’analyse en temps réel des sons instrumentaux. Plusieurs poches de résistances se sont trouvées sur ce chemin, certaines naturelles, comme l’extrême complexité du fonctionnement des instruments de musique, d’autres technologiques, comme la difficulté d’analyser et de reconnaître des éléments polyphoniques, d’autres enfin psychologiques : beaucoup de compositeurs hésitaient à se lancer sur une voie aussi complexe et jonchée de tant d’embûches technologiques.

Les instruments de musique ne sont en rien comparables aux objets standardisés que notre époque aime tant à produire. Mis à part les instruments du quintette à cordes, chacun possède son propre mode de fonctionnement. Flûtes, hautbois, clarinettes, bassons, cors, trompettes, trombones et tubas, bien que réagissant tous au souffle, ne possèdent guère de caractéristiques mécaniques communes. La richesse de leur diversité nous pose des problèmes d’une grande complexité lorsque l’on veut les accoupler avec la technologie moderne. Il faut souvent inventer autant de manières différentes, pour capter leurs informations, qu’il y a d’instruments. On a mis des capteurs pour détecter les doigtés sur une flûte, d’autres sous les touches d’un piano ou d’un vibraphone, on a utilisé des systèmes de vidéo pour analyser tel ou tel geste de percussionniste, on a placé des antennes pour mesurer la position d’un archet ou utilisé des méthodes spécifiques pour analyser sa pression sur une corde. D’abord purement mécaniques, les systèmes de captations ont ensuite utilisé les moyens audio, vidéo, les capteurs sensitifs, la gravitation… et souvent, c’est par le couplage de deux ou trois de ces méthodes que nous arrivons à construire des systèmes qui nous donnent satisfaction, souvent au prix d’un fouillis de fils, de câbles, de caméras et autres micros. Si l’absence de standardisation gouverne le fonctionnement de nos instruments, elle gouverne également l’attitude de ceux qui les utilisent. Tel pianiste aimera parfois enfoncer silencieusement les touches de son instrument avant de plaquer un accord, tel violoniste tiendra son archet d’une façon différente de tel autre, tel flûtiste produira un staccato beaucoup plus bref que ses collègues… La variété de gestes et de comportements est pratiquement infinie. Pour cela, nous avons appris à nos machines à apprendre, et à s’adapter à telle ou telle personnalité ; de réelles avancées ont été accomplies dans ce domaine depuis les dix dernières années.

Une des méthodes les plus unifiée pour reconnaître ou analyser les signaux acoustiques consiste à transmettre à une machine ce qui est capté par un simple micro. On peut ainsi identifier non seulement quel son est joué mais aussi quelle est sa structure et comment il évolue dans le temps. La vitesse de réaction des machines est parfois effarante dans des traits de très grande virtuosité et dépasse de beaucoup les capacités de l’oreille humaine la plus exercée. Cela permet, en outre, de capter la voix humaine sans imposer une chirurgie quelconque sur un chanteur ou une chanteuse afin de leur greffer des capteurs. Cela a toutes les apparences d’une plaisanterie, mais que l’on se souvienne de nos castrats et de ce qu’on leur faisait subir pour l’amour du beau chant ! La méthode audio semble la plus riche de toutes… jusqu’au moment où on demande à l’ordinateur d’identifier deux sons superposés. Une polyphonie, même minimale, semble pour l’instant hors des possibilités actuelles de détection audio, car deux sons qui se superposent, mélangent tous leurs harmoniques et l’on ne sait plus à quelles fondamentales chacun appartient. Seuls les instruments monodiques peuvent être utilisés avec ce procédé. Ce n’est donc pas par reconnaissance des hauteurs que l’on arrive à suivre une partition polyphonique, mais en ayant appris à une machine tous les spectres sonores qui proviennent d’une interprétation et en lui demandant de les reconnaître au moment de l’exécution. Dans le début de son roman Sound and Fury, Faulkner présente un jeune garçon atteint de débilité qui capte, néanmoins avec beaucoup de sensibilité, tous les événements qui lui parviennent mais sans pouvoir les nommer. C’est à peu près ce que fait un suiveur de partitions actuel. Il reconnaît ce qu’il a appris mais est encore incapable de nous dire s’il s’agit d’un « do » ou d’un « ré ». Ce n’est pas d’une importance capitale tant qu’on ne lui demande rien d’autre que de reconnaître. Mais il serait parfois intéressant de pouvoir augmenter le « niveau d’intelligence » de ces systèmes pour pouvoir effectuer des opérations qui seraient basées sur l’analyse fine d’un discours musical. Ainsi dans ma Partita I pour alto et électronique, il a été totalement impossible de reconnaître des doubles sons qui devaient être joués dans un ordre aléatoire. La partition prévoyait un espace de liberté de navigation dans lequel l’altiste pouvait, à son gré, modifier la musique électronique suivant le chemin qu’il prenait. Seul un système pouvant identifier « musicalement » ce qu’il captait aurait pu venir à bout de ce problème. J’ai dû alors me résoudre à adopter un ordre déterminé dans l’enchaînement de ces séquences. La recherche de méthodes fiables capables d’analyser le contenu d’une situation polyphonique me semble être l’une des priorités majeures sur laquelle les chercheurs devraient se concentrer aujourd’hui.

À cette série de problèmes, il faut ajouter un autre, d’ordre plus psychologique, pour faire le tour de ces poches de résistances qui ont freiné le développement du temps réel tel qu’il aurait dû avoir lieu. Force m’est de constater que, parmi tous les musiciens qui se sont approchés du temps réel de façon décisive, ce n’est pas dans ma famille esthétique proche – celle des compositeurs – que j’ai trouvé l’engagement le plus conséquent, mais dans un courant esthétique beaucoup plus éloigné de mes orientations artistiques : celui des musiques improvisées et des « performers ». Cette curieuse situation m’a laissé assez isolé pendant longtemps, car cette union d’orientations esthétique et technologique qui était la mienne, n’était que rarement partagée par d’autres. Le seul compositeur chez qui j’ai pu observer, durant ces années, un intérêt soutenu dans la nécessité de construire un temps réel véritablement puissant et interactif, n’est autre que Pierre Boulez. Alors directeur de l’Ircam, il fit du temps réel la priorité de recherche de cet institut et mit l’utilisation du suiveur de partition au centre de ses intérêts, comme en témoignent les œuvres Explosante-fixe et Anthème II. Ce manque d’intérêt de la part des compositeurs pour le développement d’une technologie du temps réel puissante et du suivi de partitions créa, pour de longues années, une situation stagnante. C’est une sorte de principe démocratique qui sous-tend généralement la recherche : moins un champ d’investigation est partagé par un grand nombre de personnes, moins il évolue car c’est sur la diversité des expériences que fleurissent les développements. Ce fut le cas du suivi de partition, et de celui de l’interactivité entre les instruments acoustiques et les méthodes de synthèses sonores. En revanche, l’attrait du temps réel, pour la construction de musiques de synthèse interactive, a par contre été immédiat chez les musiciens improvisateurs. Ce fût chez eux que les recherches ont avancé le plus vite. Ces musiciens concentraient tous leurs efforts sur des procédés d’analyse du son en temps réel, afin de construire des musiques de synthèses réactives à la manière dont les « performers » produisaient le son. Mais, n’écrivant pas leur musique, ils n’ont pas eu à se préoccuper d’une quelconque synchronisation avec une partition. Les compositeurs de musique écrite demeuraient réticents face à cette absence de prédétermination qui consistait à attraper, « à la volée » dans le jeu instrumental, les éléments nécessaires à la création des sons électroniques. Eux voulaient fixer, et avec le maximum de précision, les configurations sonores de leur invention afin que se reproduise le même résultat au cours de différentes interprétations de la même œuvre. Cette attitude est évidemment en accord avec la pratique contemporaine de la musique instrumentale qui est basée sur des notations de plus en plus précises. De par ma formation et mes orientations esthétiques, c’est dans cette dernière direction que s’inscrit ma démarche et non dans celle des musiques improvisées.

L’improvisation m’a toujours semblé ne prendre un réel sens artistique qu’à partir du moment où certains éléments étaient au préalablement déterminés. La musique classique indienne ou la tradition du jazz en sont des exemples connus. Les musiques entièrement improvisées, si prisées de nos jours, mettent souvent en œuvre un « performer » et un ordinateur. La plupart du temps, rien n’est prédéterminé. La machine est censée réagir au contenu acoustique de ce que le musicien joue, ce qu’elle fait généralement très bien. C’est la toute puissance de nos calculateurs qui est alors mise sur scène. On sait qu’ils réagiront d’une façon ou d’une autre à ce que le musicien inventera sur le moment. Mais lorsque aucune structure musicale ne sert de base à la création spontanée, la musique reproduit des archétypes formels souvent simplistes, standardisés, et connotés. Trop fréquemment le résultat bascule tantôt du côté d’une complexité maximale, tantôt dans celui d’une simplicité désarmante. Et l’on sait qu’au niveau de la perception, ces extrêmes se rejoignent. On y décèle des comportements, que l’on pourrait qualifier de basiques car, quand bien même ils partageraient un large spectre d’expressions musicales avec les compositions écrites, ils sont présentés dans la simplicité d’une succession linéaire, comme pour une démonstration. On y reconnaît l’imitation, l’influence, le contraste, la progression vers une tension qui sera obligatoirement suivie par une détente avant une nouvelle progression… Tous ces phénomènes existent aussi dans les musiques écrites, mais, à la différence de ces improvisations, ils peuvent être insérés dans des formes temporelles élaborées. Les formes temporelles des musiques totalement improvisées, bien qu’il s’y produisent parfois des réussites sonores indéniables, sont pareilles à un nuage qui change constamment d’aspect, dans une pure linéarité, avant de disparaître. La raison en est simplement qu’un discours musical élaboré est une chose beaucoup trop complexe pour être inventé et présenté sur le champ. Les phénomènes de mémoire, de prémonition, la construction de formes hybrides, les stratégies de préparation et de conclusion, les transitions, les proportions, les courts-circuits ne peuvent s’improviser. Cela demande une réflexion critique, des esquisses, des biffures, des recommencements, et je ne pense pas qu’il existe un seul cerveau humain capable d’organiser toutes ces formes, parfois simultanément, dans l’instant même où elles sont présentées. L’ordre dans lequel apparaissent les différents éléments d’une composition musicale ne respecte pas obligatoirement, peu s’en faut, celui dans lequel ils sont nés dans l’imagination du compositeur. Une introduction peut très bien naître d’une transition, comme un motif peut être déduit de ce qui aura valeur de son propre commentaire. Le « temps réel » de la composition, qui est le propre de l’improvisation entièrement spontanée, est impuissant à même imaginer de telles constructions, encore plus à les mettre en œuvre.

Il faut, à mon sens, qu’il existe une partie du discours musical déjà déterminée d’une manière ou d’une autre. Et s’il fallait relever encore une différence fondamentale entre les musiques improvisées et écrites, je dirais qu’elle se trouve dans le fait de déterminer et de séparer ce qui doit être fixé, de ce qui ne l’est pas, ou ne peut pas l’être. On peut vouloir concevoir des musiques de synthèse comme on conçoit des partitions écrites, et déterminer ce que l’on veut exprimer avec le maximum de précision. Ce sont là des attitudes artistiques tout à fait respectables. Mais si la partition instrumentale est un support fixe et non modifiable, la façon dont elle va être interprétée ne rentre pas dans ces catégories de reproductibilité à l’identique. L’interprétation, par définition, n’est pas déterministe. On ne peut raisonnablement pas parler d’interprétation lorsqu’on connaît d’avance exactement ce qui va se produire. L’interprétation n’est pas, non plus, totalement aléatoire. Elle se situe dans une région intermédiaire entre les deux et se produit « en temps réel ». Ces notions de temps réel et de temps différé ne sont pas une chasse gardée de la technologie informatique, mais appartiennent aussi à la pratique musicale traditionnelle. La séparation entre valeurs fixes et variables, déterminées et indéterminées, constitue sans doute l’élément le plus important de toute cette problématique. On  ne peut pas faire l’économie d’un examen attentif de cette situation si l’on veut, tout à la fois, sortir définitivement de la rigidité et du déterminisme hérité de la musique sur bande sans tomber pour autant dans une pratique qui relèverait de la seule spontanéité. Pour continuer ce rapprochement entre les musiques instrumentales et électroniques, il n’y a pas meilleure méthode qu’examiner le contexte traditionnel de nos partitions musicales.

 

La partition, son interprétation et les ordinateurs.

Une partition fixe des valeurs que l’on pourrait considérer comme « absolues » car, idéalement, on devrait pouvoir les vérifier lors de chaque nouvelle interprétation. Ce terme de valeur « absolue » n’a, à bien y regarder, de réalité que dans le seul cadre d’un écrit. Mais c’est aussi suivant le degré de mécanicité des instruments que ces valeurs tendront à devenir absolues. La hauteur et l’évolution dynamique d’un son joué sur un violon, n’ont évidemment rien absolu car elles sont à tout moment modifiables par le mouvement d’un doigt sur une corde ainsi que par la variation d’une pression de l’archet. À l’opposé, sur un orgue, ces dimensions sont déjà mécanisées et ne dépendent d’aucun geste physique. Plus on substitue une mécanique au geste physique, plus on limite les possibilités d’interprétation. Le temps devient alors la seule variable possible dans un tel système hautement mécanisé. Pour écrire des partitions, on a créé des symboles comme les notes de la gamme et les indications de dynamiques et de durées. Ces symboles représentent en fait plus des champs que des valeurs absolues. On accepte comme un « la »  toute une bande de fréquences, gravitant autour de 440 Hz. On détermine un « mezzo forte » comme un champ d’énergie sonore, encore plus vaste et imprécis que le précédent, situé entre les champs « piano » et « forte ». Les ambitus de ces champs varient selon le pouvoir discriminateur de l’oreille. Des oreilles très bien exercées reconnaissent, de façon immédiate et sans ambiguïté, un « la » d’un « la + ¼ de ton », mais divergeront grandement lorsqu’il faudra déterminer ce qui est un « piano » ou un « mezzo forte ». Une partition comporte donc des champs, plus ou moins vastes, mais qui ont la particularité d’être fixés et que l’on doit respecter.

Cependant, l’écriture d’une partition, aussi élaborée fût-elle, ne pourra jamais déterminer intégralement touts composants nécessaires à la production de la musique. La somme des phénomènes sonores que nous entendons dépasse largement celle qui provient de la notation. En d’autres termes la notation peine à déterminer la fréquence exacte d’un vibrato, la durée exacte d’un son comme la courbe exacte d’une transition entre deux sons. Elle propose un cadre qui, par son impuissance même à tout déterminer, ouvre tout un espace à l’interprétation. Il suffit de prendre l’exemple des suites pour instruments seuls de Bach, dans lesquelles ne figure aucune indication de tempo, de nuances ou d’expression, pour se faire une idée de tout ce qu’un interprète se doit de compléter pour produire un discours musical pourvu d’un sens. Une grande part d’oralité se greffe sur l’écrit pour que la musique advienne. Il ne s’agit pas d’improvisation ; mais de l’espace de l’interprétation. Ce temps de l’interprétation est fondamentalement un « temps réel » qui n’est pas fondé sur une prédétermination totale. Ces deux grandes entités, valeurs absolues ou fixes, et valeurs relatives ou mobiles, qui séparent l’écriture de l’interprétation, se trouvent aussi dans la manière dont fonctionnent les ordinateurs.

Dès leur invention, il existait deux manières fondamentales de les faire fonctionner :

1-    On leur donnait une série d’instructions précises qu’ils exécutaient au moment voulu ; nous étions alors dans le pur déterminisme.

2-    On leur faisait produire des nombres aléatoires que l’on acceptait ou refusait selon les cas ; nous étions dans l’indéterminisme le plus total.

Depuis l’invention des machines en temps réel 2 et grâce à de nombreux développements technologiques, il existe maintenant une troisième manière de les faire fonctionner : on leur demande de capter des informations dans le monde extérieur et de les traiter selon des règles prédéfinies. Mais dans tous les cas nous observons une séparation entre déterminisme et indéterminisme, entre ce qui est fixé et ce qui ne l’est pas, qui me semble correspondre à la séparation qui existe entre la partition et son interprétation. Ce qu’on appelle alors « temps réel » dans la composition musicale serait un abus de langage puisqu’une part des composants musicaux est souvent déjà fixée, et n’a pas pour vocation à varier d’une interprétation à l’autre. Il doit donc exister une manière de composer de la musique électronique dans laquelle, à l’image de la musique instrumentale, certains composants sont préalablement déterminés, et certains autres, soumis à des variations plus ou moins importantes selon ce que nous cherchons à exprimer. On entre alors dans ce que j’appelle « les partitions virtuelles ».

 

Les partitions virtuelles.

J’ai donné à ce terme la définition suivante : une partition virtuelle est une organisation musicale dans laquelle on connaît la nature des paramètres qui vont être traités mais pas toujours la valeur exacte qu’ils vont recevoir le moment voulu. Une partie de ces paramètres sera fixe et ne changera pas d’une interprétation à l’autre [3. Dans la plupart de mes œuvres électroniques, la notion de « temps réel » se vérifiera cependant toujours, car les procédés de synthèse que j’utilise ont tous en communs de n’être pas des enregistrements préalables mais d’être calculés au moment même où je le décide dans le cours de l’œuvre. Même si certains de ces paramètres ont le statut de valeurs fixes, ils ont la possibilité d’être modifiés pendant les répétitions pour s’adapter aux conditions acoustiques de telle ou telle salle de concert. Il s’agit d’un temps réel technologique mais pas musical.], une autre sera influencée par la captation d’événements extérieurs (un micro, par exemple), qui sera analysée et traitée suivant certaines règles de composition. En ce sens, toute partition ne peut qu’être virtuelle puisque son rôle est d’être interprété et de ne jamais être reproduit de manière identique. Voici quelques exemples de partitions virtuelles, dans lesquelles la musique se crée par le mariage de paramètres déjà inscrits dans la mémoire de la machine avec d’autres, qui proviennent de l’analyse en temps réel du son instrumental pendant le concert.

Lorsque j’ai composé Pluton, pour piano et électronique, en 1987, j’ai conçu des partitions dans lesquelles j’ai déterminé les seules les hauteurs des sons de synthèse. Un suiveur de partition permet de passer d’une configuration harmonique à une autre en se synchronisant avec le jeu du pianiste. Tous les autres composants sonores, nécessaires à la création des sons de synthèse, sont déduits de l’analyse du son du piano pendant l’exécution de l’œuvre. L’ordinateur effectue, au moment où joue le pianiste, une sorte de « film », constitué d’une succession rapide de petites « photographies sonores », dans lesquelles sont représentées les énergies sonores du piano, c’est-à-dire la répartition des sons en composants graves, médiums et aigus à chaque instant. Ces énergies sont appliquées à la liste des harmonies, fixées au préalable dans la mémoire de la machine. La musique de synthèse produit alors une musique dont les composants harmoniques diffèrent de ce que joue le pianiste, mais dont la distribution des énergies dans le spectre reproduit celle du piano. Les différentes attaques des sons, leurs durées, leurs intensités, le jeu des pédales et les résonances viennent nourrir, en temps réel, l’ordinateur qui applique l’image sonore du piano, dans toutes ses évolutions spectrales et temporelles, sur les sons de synthèse. La partition du pianiste est écrite avec suffisamment de liberté rythmique pour que ce dernier puisse, à son tour, réagir à ce que produit la musique de synthèse. Il y a donc une interactivité de part et d’autre.

Dans une autre section de cette même œuvre, le pianiste joue une « toccata » comme une sorte de perpetuum mobile dont chaque note est analysée en termes de hauteur, durée et intensité. La machine reproduit, en temps réel, ce que joue le piano tout en y introduisant des variations d’ordre des notes, suivant le principe des chaînes de Markov et dans une boucle infinie. À divers endroits, le pianiste intervient et, selon son jeu, cette « toccata » électronique change de timbres, de registres, se contracte, s’étire et, pour finir, se fige en grands accords jusqu’à ce qu’elle meure. J’ai utilisé un procédé similaire dans Neptune, pour 3 percussions et électronique, composé en 1990. La machine produit un autre perpetuum qui va être découpé en séquences de proportions diverses par les instruments. Selon le niveau dynamique qu’un des joueurs de vibraphone produit, ces séquences découpées varieront en longueurs, tempi et intensités. Dans ces deux cas, c’est par l’analyse de l’interprétation que cette forme de musique électronique se créé. Il s’agit de la distorsion du temps mécanique de la machine par le temps flexible de l’interprète humain.

Dans En écho, pour soprano et électronique, composé en 1991, une petite partie des paramètres nécessaires à la production des sons de synthèse, est déterminée en valeurs absolues dans le programme. L’ordinateur effectue une analyse en temps réel des variations de hauteurs et d’intensités des formants de la voix de la chanteuse et transmet instantanément le résultat au programme de synthèse. Les formants étant ce qui caractérise les différentes voyelles, les sons de synthèse produisent des harmonies complexes, mais dont le timbre épouse celui des voyelles chantées et de leurs transitions.

Enfin, dans Partita I, pour alto et électronique, composé récemment en 2006, j’ai utilisé une méthode qui permet de mesurer l’accélération d’un mouvement d’archet sur les cordes. La musique de synthèse, lorsque le soliste ne joue pas, n’est qu’une sorte de « bain sonore » tournoyant lentement sur lui-même dans un registre medium. À chaque poussée de l’archet, certains de ces sons sont propulsés dans un registre aigu tout en opérant une accélération continue de leurs rotations. Plus la poussée est forte, plus les sons accélèrent leurs tournoiements et plus ils parviennent dans les régions suraiguës.  Ici, c’est l’énergie physique du soliste qui est convertie en énergie de propulsion sonore, comme lorsqu’on lance des toupies volantes en l’air.

Dans tous ces cas, la part déterminée de la musique de synthèse est réduite, car l’essentiel des composants provient de l’analyse en temps réel du signal instrumental ou vocal. Il est important de souligner que c’est grâce à la nature fondamentalement indéterministe de l’interprétation que ces configurations peuvent avoir lieu. L’ordinateur est capable d’analyser 127 manières différentes d’attaquer une note sur le piano et il serait utopique de demander au soliste de jouer précisément une valeur exacte. Je lui indique, tout au plus, un champ « mezzo forte » sachant que la valeur absolue interviendra lors de l’analyse du son. De la même manière, il serait « inhumain » de demander à une chanteuse de poser les formants de sa voix sur une fréquence précise. Je compose une mélodie sur un texte, sachant que la machine analysera tous les contenus sonores des voyelles et produira la musique de synthèse en fonction de la manière dont cette chanteuse articulera sa partie vocale. Enfin, je ne connais pas à l’avance la durée exacte des poussées d’archet qui propulseront les rotations sonores dans l’aigu, mais j’ai déterminé que dans tels champs de durées, les sons auront un comportement dont je peux prévoir les contours généraux. Il n’y a pas d’improvisations dans ces partitions virtuelles, mais une analyse précise des conditions, toujours vastes, de l’interprétation. L’idée d’un rapprochement de ces deux formes que sont la musique instrumentale et électronique trouve son plus grand intérêt dans l’intégration des phénomènes d’interprétation d’un écrit. C’est ainsi que je parviens à donner à la musique électronique la possibilité d’être interprétée. À tout moment cependant, je peux décider que tel paramètre sera déterminé au préalable et non plus influencé par des événements extérieurs. Ce sont des « verrous » que l’on peut ouvrir ou fermer. Lorsque tout est ouvert, nous sommes dans un monde proche de celui des improvisateurs, lorsque tout est fermé nous retrouvons les conditions de notre vieille bande magnétique. D’un extrême à l’autre nous naviguons entre rigueur et liberté, intuition et construction mais c’est le subtil dosage des échanges entre toutes ces catégories qui me semble le plus fécond.

S’il est possible de construire des structures sonores dotées d’un grand pouvoir de réactivité au jeu instrumental, on perçoit encore une grande résistance à la réunion des musiques acoustiques et électroniques dans un temps musical commun. Une frontière semble encore opaque entre ces deux conceptions temporelles et qui tient à la nature même du contrôle du temps dans la musique. La raison en est que l’être humain utilise des moyens plus visuels que sonores dans ce qui constitue certainement l’élément majeur du contrôle musical du temps : la possibilité de prédiction.

 

La prédiction temporelle.

Il existe une différence fondamentale entre le temps organisé par des machines et celui de l’être humain. Le temps produit par des machines est soumis à de multiples horloges qui le découpent en tranches suffisamment fines pour qu’il soit perçu comme un continuum, tout comme le cinéma nous donne une illusion de la continuité visuelle en déroulant 24 images fixes par secondes. Grâce à des procédés élaborés, on parvient parfois à faire intervenir des mécanismes de mémorisation et de prédiction qui rendent plus souple ce contrôle temporel. Mais, fondamentalement, le temps des machines est celui des horloges et le restera. Le temps psychologique humain, à la différence de celui des machines, est incapable d’une telle finesse dans le découpage temporel en unités si petites. Mais lorsqu’un musicien contrôle le temps, il le fait dans la continuité d’un geste ou d’une respiration. Il a aussi une conscience du passé et du futur, il fait intervenir la mémoire et surtout la prédiction. Le fait que des musiciens puissent jouer à l’intérieur d’un temps commun est un phénomène grandement visuel. C’est par un petit signe de la tête ou du bras qu’ils commencent ensemble. La continuité du geste du chef d’orchestre envoie, sans interruptions, des signaux prédictifs qui orientent les actions musicales dans la direction d’un futur proche. On devine où va « tomber » le deuxième, le troisième puis le quatrième temps. Certes, un musicien est souvent conduit à compter le temps, mais il le fait dans des proportions beaucoup plus larges et, pourrait-on dire, dans une situation de polyphonie. Il a une conscience simultanée des durées des temps et de celles de ses divisions internes. À ce titre, le temps des machines et celui de l’humain paraissent, dans leurs essences, incompatibles. Il serait vain d’attendre des premières qu’elles réagissent avec psychologie, comme des seconds qu’ils puissent compter en millièmes de secondes. Il nous faut donc pouvoir représenter, du mieux qu’on pourra le faire, le temps des machines à l’image de celui des humains. Cette fusion sera rendue possible lorsque ces machines seront capables de suivre et de reconnaître, dans sa continuité, le flux musical produit par des musiciens vivants. Nous savons très bien organiser les dimensions de hauteurs, de timbres et de spatialisations dans la musique électronique, mais nous sommes encore impuissants quant à l’organisation d’un temps qui serait véritablement musical. J’évoquerai, pour cela, une situation concrète.

Lors des répétitions de mon opéra  La frontière, composé en 2003, dans une des sections devait se superposer, dans le même tempo, des glissandi de cordes à d’autres glissandi de sons de synthèses. Pour des raisons dramatiques, il a fallu accélérer le tempo de cette section. J’ai donc dirigé plus vite l’ensemble et me suis évidemment trouvé décalé avec la musique électronique qui se déroulait suivant les durées indiquées dans un programme prédéterminé. Toutes les durées de ces glissandi de synthèse (et il y en avait un certain nombre) étaient rigidement figées en valeurs exprimées en millisecondes qu’il m’a fallu recalculer dans toutes leurs proportions une nuit durant. Cette situation aurait pu être résolue d’une manière plus élégante si les outils de notation qui me servaient à composer cette musique de synthèse avaient été plus proches  de ceux que j’utilise depuis que je compose de la musique. Il est curieux de constater que dans les deux grandes « écoles » qui utilisent la technologie pour faire de la musique, les méthodes de synthèse en temps réel et les systèmes d’aide à la composition musicale, ces derniers sont dotés d’outils de représentation musicale proches de ceux de l’écriture traditionnelle qui font complètement défaut aux premiers. La représentation temporelle dans les systèmes temps réel ne bénéficie d’aucun moyen symbolique qui permettrait de noter des noires, des croches, des triolets ou des indications de tempi. Le système temps réel ne connaît que des valeurs absolues et il est encore impossible de changer globalement un tempo ou de noter un accelerando. Les systèmes en temps réels ne connaissent bizarrement encore que les millisecondes ! Quand bien même ma partition électronique, après son recalcul, se trouverait temporairement mieux adaptée aux circonstances, elle n’est restée pas moins figée comme si elle avait été reproduite sur une bande magnétique. Les musiciens, qui suivaient ma battue des yeux, étaient déjà renseignés sur le moment où allait se produire le temps suivant et la continuité de mon geste était le garant d’un suivi de tempo et de toutes ses déviations possibles. Ce pouvoir était évidemment inaccessible à l’ordinateur, et il le reste, du moins dans l’état actuel de son application à la musique 3.

Si des outils de représentation du temps musical avaient existé dans les programmes en temps réel, il aurait été possible d’adapter le temps courant en suivant, par des moyens visuels, la battue du chef. La dimension visuelle est d’un grand secours pour suivre une musique qui n’est pas fondée sur une fixité de tempo. Il existe cependant des cas de figures où un système de reconnaissance visuel ne serait pas approprié. Pour suivre les variations de tempi dans une pièce pour piano il n’y a guère que le son qui pourrait être pris en compte. De réelles avancées ont été faites dernièrement dans ce domaine 4 mais le jour où il sera possible de suivre, avec des moyens purement sonores, les contours temporels d’un simple prélude de Chopin ou de Debussy, un grand pas aura été accompli. Il existe cependant de nombreux cas où la prédiction temporelle est difficile. Lorsqu’on enregistre en temps réel une phrase musicale ou même parlée, et que l’on veut n’en développer qu’une seule partie, nous sommes dans l’incertitude totale des proportions qui vont être inscrites car nous ignorons pas le tempo exact de cette phrase. Un outil de représentation graphique, qui pourrait analyser en temps réel cette phrase afin de repérer automatiquement le moment recherché, devrait être inventé dans ce but.

 

Peut-on inventer une véritable notation pour la musique de synthèse ?

Il s’agit d’un vieux rêve auquel se sont attelés beaucoup de compositeurs. Stockhausen a poussé la précision de la notation de la musique électronique fort loin dans des œuvres telles que  Kontakte ou Telemusik. Mais l’écrit, dans ces conditions, n’a pas le même statut que celui qui gouverne la pratique instrumentale, car il intervient après le processus de composition, comme une notation a posteriori. En ce sens, il est exhaustif et ne nécessite aucun complément oral. J’ai souvent pensé que l’écriture musicale était l’une des plus merveilleuses inventions de l’humanité. Elle est tout à la fois un langage symbolique, un outil conceptuel, une méthode de mémorisation, un système d’interprétation, un moyen d’écoute et un support de la pensée. À quoi ressemblerait une écriture nouvelle pour la musique de synthèse qui permettrait également d’être un outil puissant pour la composition ? Avec Miller Puckette, à l’Université de San Diego en Californie, nous nous sommes à nouveau penchés sur cette question. L’idée première était de limiter au maximum toute représentation de style numérique au profit de systèmes purement graphiques. Ainsi pourraient être dessinées des valeurs fixes, des courbes représentant des évolutions temporelles, des profils dynamiques, des glissandi, des niveaux d’entrée d’un son dans des modules de traitement, des évolutions de paramètres, etc. Un tel outil pourrait être complété par une bibliothèque de fonctions permettant d’opérer des transformations, des étirements, des contractions, des transpositions, des duplications, le tout étant unifié dans le même type de représentation. Il nous est d’abord apparu que, vu l’énorme quantité de paramètres qu’il nous faudrait représenter, une meilleure solution consisterait à garder la représentation numérique pour toute valeur qui ne serait pas variable dans le temps. Ensuite, de nombreuses questions se sont posées. Comment représenter des évolutions micro-tonales dans un système de coordonnées cartésiennes (les hauteurs en abscisse et le temps en ordonnée) tout en conservant la lisibilité de toutes les voix ? Comment écrire chaque voix, comportant elle-même une grande quantité de paramètres, sur une seule « partition » ? Jusqu’à quel point peut-on intégrer la notation musicale traditionnelle et comment l’unifier avec une notation différente dans les cas où cette première serait insuffisante ? Comment exprimer le temps d’un événement qui nous est connu (lorsqu’il fixé comme dans le cas d’une bande magnétique) par rapport à un autre qui ne l’est pas (lorsqu’il doit être déterminé par l’interprétation) ? Ce sont là des interrogations qui sont encore devant nous. Mais il me semble évident qu’un tel outil permettrait de résoudre de nombreux problèmes, ceux, principalement, qui concernent les structures de temps comme les changements et les variations de tempi.

 

En guise de conclusion: une théorie des « verrous ».

Faut-il le préciser, la musique de synthèse n’a de sens que là où s’arrêtent les possibilités de la musique instrumentale. Le monde sonore qu’elle porte en elle n’a pas les mêmes fondements, le même statut historique ni les mêmes attributs expressifs. Les sons instrumentaux restent chargés d’histoire et s’effacent souvent devant le discours musical. Lorsque nous entendons une symphonie classique, nous ne procédons pas systématiquement à une série d’identifications qui nous ferait dire : ici, joue une clarinette, ici une contrebasse, là un trombone… Nous avons même tendance à oublier qui joue pour nous concentrer sur  ce qui est joué.  Dans l’univers des sons de synthèse, il est parfois difficile de distinguer les éléments qui portent le discours du discours lui-même car, très souvent, ces éléments ne nous sont pas connus et nous ne pouvons donc ni les nommer, ni les identifier. Cette situation ne changera probablement jamais, à moins qu’une volonté de standardisation à très grande échelle soit un jour entreprise pour des raisons de classification mercantile d’étiquetage. Cela n’est pas impossible, mais il ne sera plus question d’art. On a pris conscience, au fil des années, de la nécessité d’intégrer une certaine dose d’historicité dans les sons électroniques, d’adjoindre aux sons électroniques des attributs que l’on puisse nommer et de les doter d’un aspect qui les rapproche d’une catégorie ou d’une famille connue. Que l’on compare les musiques qui se faisaient au temps des premiers programmes de synthèse sonore (Chowning, Risset) avec celles qui se composent aujourd’hui et la preuve sera évidente. Ce rapprochement entre des types morphologiques séparés n’a pas pour but de rendre totalement invisibles leurs différences. Il s’agit qu’un même champ morphologique recouvre les deux univers  musicaux qui continuent de se distinguer par ailleurs. Si l’on veut affiner ce rapprochement, il me semble que l’attitude mimétique que l’on a constatée au niveau des qualités morphologiques des sons doit être conservée lorsqu’on se penche sur les structures de fonctionnement et les modes de composition. La partition et son interprétation nous fournissent un excellent modèle de ces structures. Les ordinateurs, quant à eux, deviennent des instruments à part entière, à la différence près qu’ils ne sont pas uniquement manipulables par des gestes, ou par des informations extérieures, mais peuvent se comporter comme des automates. Ils peuvent, ou non, être « sensibles » au monde extérieur. Sur l’immense chaîne des circuits qui se partagent son activité, on peut poser des « verrous » qui permettent ou interdisent l’accès du monde extérieur. C’est au compositeur de décider de la marge de liberté et d’interactivité qui doit être introduite. De ce fait les catégories du temps réel et du temps différé n’existent, pour ainsi dire, plus. La totale liberté des improvisations et la rigidité fixe de la musique entièrement calculée – reproduisant la bande magnétique – sont les extrêmes de cette situation. Dans les premières, tout est déverrouillé, dans les secondes, tout est cadenassé. Le compositeur, quant à lui,  peut organiser son monde de contraintes et de libertés. C’est ainsi qu’il l’a toujours fait.

 

Philippe Manoury, San Diego, septembre 2007

 

 

 

 

  1.  J’utiliserai le terme « son de synthèse » ou « musique de synthèse » pour représenter tous les sons qui sont produits par les moyens technologiques. Dans la réalité, ils peuvent appartenir au monde de la synthèse pure, mais aussi à celui du traitement. Je considérerai qu’ils sont tous produits par un synthétiseur.
  2.  Ce terme est, bien sûr utilisé par commodité car il faut toujours un temps pour le calcul. En musique, il suffira que ce temps soit suffisamment court pour que l’oreille ne puisse pas le percevoir.
  3. Dans le domaine militaire, le calcul de la trajectoire future d’un missile, en vue de le faire exploser en plein vol, est un problème qui est réglé depuis longtemps. Il peut, à tous moments, être repéré dans toutes ses coordonnées spatio-temporelles et, instant par instant, on peut adapter la trajectoire de l’objet qui devra le percuter. La somme d’énergies et d’efforts qui ont été mis à la disposition de ce type de recherche, comparé à celui de la musique, ne se situe évidemment pas dans le même ordre de grandeur.
  4. Je pense particulièrement aux travaux d’Arshia Cont à l’Ircam.