Aller au contenu

Entretien avec Frank Mallet

  • par

Quels ont été vos premiers travaux dans le domaine électroacoustique ?

J’ai suivi des études classiques au Conservatoire, comme tout compositeur devrait le faire : fugue, contrepoint, harmonie, analyse… Je me suis intéressé ensuite à l’informatique musicale par le biais de la formalisation par ordinateur. Dans les années soixante-quinze, j’avais suivi les travaux de Pierre Barbaud qui, avec Iannis Xenakis, fut un pionnier des premiers prototypes de formalisation. Nous allions à Rocquencourt, à ce qui s’appelle aujourd’hui l’Inria (Institut national de recherche en informatique et en automatique) — l’Iria à l’époque —, où il était chef de projet pour travailler sur ces problèmes.

Nous travaillions à l’époque encore sur des cartes perforées ! Cela s’appelait la « composition automatique » ; on tentait de formaliser des processus de composition sous forme d’algorithmes ; le résultat était ensuite retranscrit sur partition pour être joué par des instruments. Il n’y avait donc pas de son de synthèse. J’avais fait une composition pour piano, une autre pour quintette à cordes ; je ne les ai jamais incluses dans mon catalogue car je ne trouvais pas le résultat esthétique intéressant. Je ne pense pas que l’on puisse formaliser la totalité des choix que nous faisons lorsque nous composons. Les règles explicites de la composition ne sont que « la partie visible de l’iceberg ». Il faut dire qu’au Conservatoire, j’avais été dans la classe de Michel Philippot, qui avait une formation poussée de mathématicien, et s’était lui aussi intéressé aux processus de formalisation. Le problème n’était d’ailleurs pas nouveau, il y avait la « tabula compositoria » à l’époque baroque et même Mozart avait eu l’idée de composer des valses à l’aide de dés…

En revanche, je n’avais pas été très intéressé par la classe du Grm. Cette démarche était pour moi trop intuitive, et manquait de fondements théoriques.

Aujourd’hui, la situation est différente, mais à l’époque il existait une barrière entre ceux qui écrivaient pour les instruments et ceux qui composaient pour l’électronique. À dire vrai, plusieurs de ces derniers n’avaient guère de connaissances musicales. Bref, tout le monde se détestait cordialement. Celui qui m’a réellement ouvert les yeux sur la musique électronique — sans que je le connaisse personnellement à l’époque —, c’est Karlheinz Stockhausen. Il venait chaque année en France, à l’invitation de Maurice Fleuret, au Théâtre de la Ville. J’ai donc pu assister aux grandes créations telles que Mantra, Hymnen, Kontakt… J’écoutais cette musique, mais je ne la pratiquais pas encore. Après mes études à Paris, je suis parti au Brésil prendre l’air pendant quelque temps. L’Ircam venait de se créer ; j’avais déposé un projet de recherche musicale sur les sons inharmoniques.

Lorsque je suis revenu en France, à ma stupéfaction, ce projet, purement théorique, avait été retenu. Je n’étais pas très connu à l’époque et l’Ircam recherchait justement des jeunes compositeurs… J’ai donc conduit ce projet jusqu’à ma première pièce, Zeitlauf, (1978/79), créée en 1980. J’ai donc appris ici, à l’Ircam, toutes les techniques de synthèse, pour produire des sons électroniques et des transformations, notamment, dans Zeitlauf, sur les percussions et les voix. Bien sûr, les appareils sur lesquels j’ai travaillé n’existent plus. Il en traîne peut-être encore plusieurs au fond d’un couloir… L’ordinateur 4X avait la taille d’une grande armoire, aujourd’hui il suffit d’un simple MacIntosh et d’une carte son, et bien sûr de pouvoir y raccorder des haut-parleurs.

La voix a-t-elle été votre premier domaine de recherche ?

Non, avant cela, j’avais composé une série de pièces pour soliste et ordinateur : Jupiter (1987), Pluton (1988) et Neptune (1991) et pour ensemble instrumental et ordinateur : La Partition du ciel et de l’enfer (1989). Je me rappelle d’une séance de travail en 1981 à laquelle assistaient Pierre Boulez, Giuseppe di Giugno — l’inventeur de la 4X — et Laurence Beauregard, flûtiste de l’Ensemble Intercontemporain, mort depuis. C’est là que nous avons pris conscience qu’on pouvait faire comprendre à un ordinateur ce qui était joué sur un plan instrumental. Le système Midi existait encore à peine, mais les techniciens avaient développé un système de captation du jeu instrumental. C’est à partir de là que j’ai réalisé les possibilités offertes par la machine. J’ai vu que l’on pouvait synchroniser un instrument avec l’électronique, donc être libéré de la bande magnétique.

L’ordinateur suivait désormais, le jeu instrumental pas à pas, peu importe qu’il soit joué lentement ou rapidement — l’interprète ayant la liberté du tempo, libre à lui de faire des points d’orgue, des accélérés, des ralentis…

Le mathématicien américain Miller Puckette a été, à cet égard, très important pour moi ; il est à l’origine du programme Max, fort connu aujourd’hui et que le monde entier utilise. Nous avons travaillé ensemble pendant dix ans.

Ensemble, nous sommes partis de pratiquement rien, si ce n’est des modules de transformation du son, des systèmes de réverbération, de spatialisation, de transposition, mais il existait peu de choses dans le domaine de la synthèse en temps réel. Après Jupiter, j’ai pensé réaliser une autre pièce, pour piano, cette fois, puisque c’est mon instrument, que j’ai appelée Pluton. Ici, l’ordinateur reconnaît non seulement ce qui est joué, mais également la manière dont c’est joué. Si l’on joue « forte » ou « piano », cela peut avoir une incidence sur la spatialisation ou la qualité du son qui sort des haut-parleurs. Du coup, la qualité du son est prise en compte. Ensuite, tout mon travail a été de rapprocher la sensibilité humaine — dans Pluton le jeu, le toucher du piano — avec un programme d’ordinateur.

Vous êtes donc passé du monde instrumental à celui de la voix…

La voix, pour moi, n’est pas un instrument. Il y a celle de Montserrat Caballé, mais aussi celle d’Elisabeth Schwarzkopf ; des voix différentes. Dans En Écho (1993/94), pour soprano et système électronique, le timbre même de la voix est reproduit et analysé en temps réel. Suivant le timbre de la voix, la pièce change de couleur, puisque ce qu’enregistre et analyse l’ordinateur ce sont les formants de la voix, la couleur des voyelles… On touche ici à l’articulation du son et aux caractéristiques intimes de la voix de la chanteuse. J’ai utilisé le terme de « partition virtuelle », pour ce rapprochement du geste instrumental — une interprétation est, par essence, impossible à déterminer à l’avance avec exactitude —, codifié plus ou moins précisément par l’écriture, avec des systèmes qui puissent l’analyser et en déduire des configurations musicales.

L’un de vos autres domaines de recherche est celui de la spatialisation…

Lorsque l’on est dans un studio, les haut-parleurs sont placés idéalement par rapport à l’auditeur. Dans une salle de concert, on a des groupes rassemblés près de l’un de ses haut-parleurs, avec une perception sonore déséquilibrée. Donc, j’ai réfléchi à une diffusion sur plusieurs échelles. Dans En Écho, par exemple, on trouve une mélodie qui est un récitatif de la voix. Elle n’est pas accompagnée par l’électronique, mais c’est la voix qui est transformée.

À certains moments, lorsque l’interprète chante dans l’aigu, les sons sont projetés à l’avant et lorsque la voix atteint le grave, à l’inverse, le son est dirigé vers l’arrière et au milieu. Donc, si la voix se déplace très rapidement dans l’aigu, on entend physiquement un balayage — ainsi se créent des situations dramatiques. Plus récemment, dans l’opéra 60e Parallèle  et dans le second, K, en 2001, j’ai utilisé des synthèses de chœurs, notamment pour une scène dans une cathédrale. Des accords de chœurs sont successivement projetés dans trois acoustiques différentes : assez proche, plutôt lointaine et très lointaine, ainsi que devant, au milieu et derrière. Je souhaitais recréer l’acoustique d’une cathédrale. Imaginez quelqu’un marchant dans une grande cathédrale tandis que, dans un coin, plusieurs personnes chantent.

Suivant la position géographique de celui qui se promène, il va entendre plus ou moins le son direct, et celui qui va lui revenir par des réflexions différentes, ou plus lointaines. Dans un tel cas, se produisent plusieurs interférences et illusions sonores, en relation avec l’architecture du lieu. Donc, le public de l’Opéra Bastille avait vraiment l’impression d’être à l’intérieur d’une cathédrale, à l’écoute d’un chœur à des distances variées — un peu comme un voyage à l’intérieur du chœur, sauf que c’est le son qui voyage.

On arrive aujourd’hui à placer plusieurs catégorisations sonores dans différentes acoustiques. La notion d’espace est beaucoup plus facile à traiter grâce à l’électronique ; on peut superposer plusieurs plans sonores, les dégager les uns des autres, sans qu’ils s’annulent. Dans K, une scène se passe dans le bureau où travaille Joseph K, elle est très courte, près de trois minutes et on entend des bruits de machines à écrire, produisant une sorte de samba avec l’orchestre. C’est groupé en plusieurs séquences, et chacune d’elle est scandée par un retour chariot. Plusieurs haut-parleurs sont placés au-dessus de la scène afin que l’on puisse entendre ce « retour chariot », de droite à gauche — ce qui, à la Bastille, représente une vingtaine de mètres.

On ne voit pas ce chariot, il est purement virtuel, mais on entend sa masse importante se déplacer. J’ai pu obtenir également des trajectoires du son, qui va non seulement de gauche à droite, mais aussi de l’arrière jusqu’à l’avant. Mais, compte tenu des dimensions de la salle de l’Opéra Bastille, il est nécessaire de pouvoir disposer d’un certain nombre de haut-parleurs, pour obtenir une réelle continuité sonore.

On peut faire en sorte que le son vienne d’un endroit où il n’y a pas de haut-parleurs, en en calculant la phase. On obtient ainsi des sons qui « balayent » la totalité de l’espace.

Lorsque vous êtes sur votre partition, de quelle manière envisagez-vous ce qui est instrumental et électronique ?

Il vaut mieux avoir une solide formation de compositeur, même lorsque vous écrivez une partition d’orchestre — comme lorsque j’ai composé Sound and Fury pour l’Orchestre de Chicago —, de façon à entendre intérieurement ce qui se passe… Je ne dispose bien évidemment pas de l’orchestre lorsque je compose, je dois imaginer le son à la seule lecture de ce que j’ai écrit sur partition. Avec l’orchestre, on dispose d’un bagage culturel. En revanche, avec l’électronique, on est vierge. Je ne sais même pas si l’on possédera, un jour, une connaissance identique à celle que nous avons des instruments, parce que c’est un terrain mouvant.

Les choses évoluent, changent, se modifient. Il y a bien quelques principes qui se stabilisent, mais notre connaissance se forge essentiellement à partir de l’expérimentation, que l’on ne cesse d’acquérir.

Lorsque je travaille à une nouvelle composition, après avoir délimité les matériaux à utiliser, je passe plusieurs semaines à tester le résultat. Par exemple, en ce moment, je suis sur un opéra de chambre, créé en octobre 2003.

Il y a tout un passage qui se déroule pendant une guerre. J’ai donc recueilli une cinquantaine de bruits de mitrailleuses, canons, etc., pour montrer qu’il se passe une guerre en arrière plan. Ce ne sont pas seulement des bruits de théâtre, anecdotiques, mais des sons musicaux, comme des instruments de percussions. C’est une certaine vision de la musique concrète.

Donc, je passe plusieurs heures, plusieurs jours à essayer de transformer ces sons de manière à ce qu’ils puissent avoir suffisamment de prégnance musicale, pour que l’on oublie qu’en fin de compte c’est un bruit de mitrailleuse. Je cherche une forme de déréalisation. Il y a un objet concret, on en retire la substance réaliste, pour n’en garder que l’abstraction musicale. De manière générale, le son concret, en lui-même, n’a pas assez d’information esthétique pour être séduisant sur un plan musical.

Vous travaillez à l’Ircam depuis près de vingt ans ; qu’en retenez-vous ?

Bien sûr, l’Ircam m’intéresse pour les recherches que l’on y fait, mais aussi pour les contacts avec les compositeurs. Il y a toujours ici six ou sept musiciens en permanence ; j’ai ainsi pu connaître Magnus Lindberg, Jonathan Harvey, Gérard Grisey, … ou les plus jeunes qui arrivent. J’y ai même croisé des figures plus atypiques telles que Steve Reich, Frank Zappa… On n’imagine peut-être pas assez que c’est aussi un lieu de rencontre. On y discute, on peut poursuivre la conversation en allant déjeuner. On dispose de temps pour pouvoir partager des idées, des expériences ; il arrive parfois que l’on montre son travail… Il est important que l’Ircam demeure ce lieu de prospection. Plusieurs techniques d’analyse et de synthèse du son, couramment utilisées aujourd’hui, ont été initiées ici ou dans des universités américaines (à Stanford ou Berkeley) — qui ont été les modèles pour la création de l’Ircam —, avant de partir ailleurs… et revenir…

Vos recherches portent-elles toujours sur le geste instrumental ?

Tous mes travaux portent sur ce geste instrumental. D’ailleurs, c’est  curieux de constater que les plus ouverts à ce type de recherche sont les « performers ». Face au temps réel et à la captation, la plupart des compositeurs classiques sont plutôt timides, sur la retenue ; ils préservent une culture « livresque », basée sur la partition écrite, durable. En revanche, les « performers » ou ceux qui pratiquent l’improvisation, ont développé beaucoup de choses dans l’interaction en temps réel. Si je ne partage pas souvent leurs goûts esthétiques, ni leur direction, en revanche, je suis sensible à leur approche de la captation instantanée du jeu instrumental par l’électronique. Un chercheur tel David Wessel, par exemple, aux Etats-Unis, qui travaille la performance et l’improvisation avec des musiciens indiens, ou de jazz a été très important pour moi. Je suis dans une position contradictoire, pas toujours facile, essayant d’intégrer des techniques nouvelles dans une esthétique qui leur est étrangère.

 

(Entretien apru dans la revue Art Press en 2003)