Você está na página 1de 11

La note et le son

Le choix du support.

Dans les trois dernières oeuvres que j’ai produites à ce jour 1, mon principal but a été
d’intégrer dans un même discours deux mondes qui, auparavant communiquaient de
façons plus parallèles que conjointes : la musique instrumentale et la musique
électronique. Je ne veux bien sûr pas dire par là que ces oeuvres sont les premières à avoir
confronté ces deux genres, mais plutôt qu’elles inaugurent une démarche tendant à une
unification de ces deux domaines, tant du point de vue théorique que de celui de leur
propre mode de fonctionnement. En un mot, j’ai essayé d’unifier ces méthodes dans une
vision commune en faisant bénéficier la plus récente des apports de la plus ancienne.

S’il est certain que l’activité créatrice n’a jamais pu faire l’économie de l’intégration de
nouveaux matériaux, il est intéressant de comprendre pourquoi ces phénomènes, dès leur
apparition, ont du s’accommoder d’une scission que quarante années d’existence n’ont
pas suffit à résorber totalement. Il est très clair en effet que, à quelques exceptions près,
les musiciens de l’après-guerre ont du choisir très vite leurs camps : celui de l’écriture
instrumentale ou celui de la musique électronique ( alors ayant comme support la bande
magnétique ). Le choix d’un support implique le musicien dans sa réflexion et jusque
dans son propre mode de fonctionnement à l’intérieur de la création. Ce choix dépendait
en grande partie du niveau de culture musical de chacun, celui des premiers
électroacousticiens étant, il faut l’avouer, moins complet. On a pu dire, non sans quelques
exagérations, que d’un côté l’on composait avec des notes alors que de l’autre on
composait avec des sons. Notes et sons sont des étendards qui représentent, en fait, une
réalité plus complexe.

Bien qu’il ne s’agisse pas, pour moi, de nier les différences les caractérisant, je pense
qu’aujourd’hui ces deux domaines sont très complémentaires dans la problématique
musicale actuelle. Avant d’en expliquer la raison, je tenterai de montrer ce qui, selon moi,
a provoqué cette séparation.

L’écriture.

Une des caractéristiques essentielle entre ces deux supports est très certainement le fait
que, pour s’exprimer, la musique instrumentale passe par une écriture. L’écriture, dans
la composition, n’est pas uniquement un moyen de fixer les idées sur papier pour pouvoir
les transmettre à des instrumentistes, mais a plusieurs autres fonctions dont deux me
paraissent fondamentales : son pouvoir d’abstractiond’une part, et son
côté symbolique de l’autre. Ces deux foncions, on le verra plus tard, sont tout à fait
complémentaires.

Le langage musical traditionnel évolue à partir d’éléments codifiés, répertoriés, classifiés,


voire même standardisés, qui permettent une combinatoire. Ce que j’appelle “pouvoir
d’abstraction” est la faculté de pouvoir travailler sur des objets encore abstraits, c’est à
dire dégagés de leur contexte final rendant possible plusieurs niveaux de structurations
qui peuvent, soit s’interpénétrer, soit fonctionner de manière plus indépendante. En
prenant un objet simple tel qu’un intervalle, il est clair que, quelque soit sa transposition,
sa registration, sa durée, son intensité, ou encore le timbre avec lequel il sera révélé, un
intervalle reste un intervalle et sera reconnu comme tel. Il est un objet encore abstrait que
l’on peut manipuler hors de tout contexte. Il ne faut pas en déduire pour autant que la
composition instrumentale passe fatalement par ce stade de séparation de tout ses
composants, mais elle le permet. Les conséquences perceptuelles en sont immenses car
le discours musical, évoluant à partir de différentes couches superposées, ayant chacune
leur poids perceptif, c’est le rapport entre les éléments variants et invariants qui décidera
de faire transiter l’information sur l’une ou l’autre de ces couches 2. Cette faculté
d’abstraction permet donc d’opérer sur plusieurs niveaux de langage, et c’est ce qui en
fait en grande partie sa richesse.

La condition de cette abstraction réside grandement dans le fait que la notation musicale
est tout à fait symbolique. J’entends par là que lorsque j’écris pour une clarinette
“Mib” “pp crescendo”, “blanche pointée”, je ne définis en aucune manière le phénomène
sonore du point de vue physique, mais fournis à un interprète les indications de doigté et
de souffle qui lui permettra de réaliser cet événement, et qui me permettra, à moi,
d’imaginer ce que sera le résultat. En d’autres termes, ce n’est pas l’effet que je note mais
la manière de le produire. Quiconque a déjà vu l’analyse physique de tout les paramètres
d’un son instrumental sait de quelle complexité il s’agit. Il n’est pas vain de constater que
cette réduction de la complexité physique en un symbolisme simple et abstrait a été le
garant de l’édification de constructions musicales extrêmement complexes 3.De manière
plus générale, il faut entendre par “écriture” toutes les techniques de transformation d’un
matériau sonore. Il est clair qu’aujourd’hui, quiconque désirerait analyser une partition
contemporaine, aura du mal à se passer des esquisses successives qui ont amené au
résultat final tant est important le nombre de transformations que l’on fait subir à un
matériau de base. Ces différentes étapes non seulement situent certains de ces éléments
abstraits en contexte et permettent de dégager peu à peu l’image finale, mais aussi font
infléchir de manière substantielle l’idée musicale de base. L’intégration d’une structure
de rythme, par exemple, dans une problématique de hauteurs et de timbres, suscite très
souvent de nouvelles solutions qui n’auraient pas pu être imaginées sans elle. Les carnets
d’esquisses de Beethoven, mais aussi de Debussy, montrent que cet état de fait ne date
pas d’aujourd’hui. L’écriture, on le voit, est aussi catalysatrice d’idées et de concepts ou,
souvent, une idée initiale se voit supplantée par d’autres qui sont directement issues de ce
travail spécifique de l’écriture.

L’interprétation

Cependant, cet écrit sera interprété. Il serait plus juste de dire une partie de cet écrit, car
suivant les époques, les compositeurs, mais aussi les divers instruments, les critères
d’interprétation ont variés grandement 4. Les instruments de musique offrent des modes
de contrôles divers et cela revient à exprimer que dans un partition il y a des valeurs
absolues et relatives. S’il on prend le cas d’une partition pour piano, il est évident que la
seule chose qui soit productible avec une exactitude absolue sont les hauteurs, tandis que
les dynamiques se situent à l’intérieur de zones définies globalement (pp, mf, sfz …) mais
ne correspondent en aucune façon à des valeurs absolues tant qu’elles restent dans le
cadre d’un écrit. Seules les valeurs relatives sont interprétables et il faut souligner ici que
interprétation est synonyme d’absence de prédétermination totale. En tout état de cause,
une partition ne délivre qu’une partie du message, celle que le compositeur considère
comme essentielle en regard de ce qu’il veut exprimer, l’autre partie étant définie en
temps-réel par l’instrumentiste. Le compositeur fournit un texte qui sera “gauchis”. Le
rapport entre l’écrit et l’interprétation s’étant établit dans le cadre d’une longue tradition,
on a pu s’apercevoir que lorsque des compositeurs ont cherché à échapper par différents
moyens à cette tradition, ils n’ont pu y parvenir que par le moyen d’une plus grande
précision dans la notation 5. Mais il n’en demeure pas moins que, quelque soit la précision
de la notation, certaines données sont interprétables et d’autres non. Tout ces
phénomènes, on va le voir, ne se retrouvaient pas dans la musique électronique à ses
débuts, et il me parait évident que c’est une des raisons qui a poussé bon nombre de
compositeurs à se détourner de ces voies.

Matériaux et transformations dans la musique électronique.

Si l’écriture, par son pouvoir tant symbolique qu’abstrait, permet entre autre de travailler
sur des objets encore détachés de leur fonction sonore définitive, les sons électroniques,
de ce point de vue, offrent une grande réticence. Le matériau ne se laisse pas apprivoiser
avec autant de souplesse. La réalité sonore était présente dès le début du travail et il était
difficile d’abstraire autant de catégories que ne le permettait la musique instrumentale.
Dans les débuts de la musique électronique s’opérait une distinction fondamentale entre
sons de synthèse et sons concrets (ou techniques de traitement). Les premiers, surtout
issus des travaux du studio de Cologne, proposaient, il est vrai, une approche plus
déterministe et précise en ce sens que les compositeurs pouvaient définir des échelles de
hauteurs non-tempérées et travailler ainsi sur des relations harmoniques nouvelles. Sur
les seconds, expérimentés au studio de la RTF à Paris, on tentait d’opérer des
transformations sur des sons enregistrés, et parfois non détachés d’un contexte
anecdotique ce qui n’était pas sans dommage pour l’oeuvre. Stockhausen, le premier,
semble avoir pris conscience du fait qu’on ne peut pas se passer impunément de
références culturelles lorsqu’il a très tôt mélangé les sons d’une voix d’enfant aux sons
électroniques dans Gesang der Junglinge, unifiant du même coup techniques de synthèse
et de traitement dans un même discours. Dans la musique de synthèse pure, un problème
harmonique est dû au fait que l’espace des hauteurs étant complètement libre et
modulable, les catégories d’intervalles proposées ne se situent plus dans un contexte
culturel tel que l’oreille puisse les identifier. D’autre part, réutiliser un espace totalement
ou partiellement tempéré comme celui des instruments acoustiques n’a absolument aucun
sens dans un tel contexte. On peut bien sûr concevoir des échelles sonores à profusion à
l’aide du calcul, il n’est pas du tout évident que ces échelles demeurent pertinentes quant
à leur perception. Enfin, d’un point de vue sonore, il faut bien reconnaître que ces
premiers sons synthétiques souffraient d’une inertie très gênante du point de vue de leur
morphologie sans parler des techniques d’enregistrement de l’époque qui “datent”
cruellement ces oeuvres. On a pu assister, par ailleurs, à des tentatives d’apprivoiser ces
sons dans les canons de l’écriture traditionnelle (sérialisation des objets, savants calcul
des durées …) mais il faut bien reconnaître que ces démarches ne dépassaient pas un
cadre formaliste assez étroit et étaient, tout au plus, une manière de réagir contre le laisser-
aller, tant théorique qu’esthétique, qui accompagna souvent ces premières expériences.

Cependant, pour fondée qu’elle fût, la critique de la musique électronique, a aussi ses
limites et, bien heureusement, on ne la rencontre plus aujourd’hui que dans des esprits
aussi étroits qu’académiques. Si les concepts mirent un certain temps à se développer, il
font désormais partie du back-ground musical actuel et je ne vois pas comment un
compositeur pourrait, avec la même assurance que celle prônée autrefois, négliger cet état
de fait.

Quel est donc le statut de ces nouveaux matériaux dans le cadre de la composition ? On
peut dire d’une certaine manière qu’ils dépendent de leur rapport au contexte dans lequel
il vont évoluer. La construction de leur morphologies, plus ou moins complexe, leurs
relations avec un modèle connu 6, leur faculté à être transformés jusqu’à l’anonymat en
fera, ou non des objets intégrables. Il se joue ici une dialectique entre la complexité de
l’objet et celle de son contexte. La frontière entre les deux pourra être parfois ambigüe :
lorsque l’objet est trop complexe pour pouvoir être intégré dans un contexte en tant
qu’élément de celui-ci, il deviend lui-même ce contexte. On n’est pas loin ici d’une
situation déjà connue : la perception d’une structure harmonique ou polyphonique ne peut
se faire que lorsque les éléments qui la révele remplissent les conditions d’un certain
anonymat ou d’une certaine standardisation, alors que dans d’autres civilisations, la non-
standardisation de la forme des sons a été de pair avec des systèmes en grande partie
monodiques.

Comment peut-on conceptualiser cette notion d’objet aujourd’hui ? il s’agit en fait d’un
ensemble sur lequel pointe plusieurs paramètres de variations qui sont responsables des
differents niveaux morphologiques qui le constitue. Le nombre de ces paramètres peut
être différents suivant les cas, la chose importante étant qu’une indépendance de contrôle
d’un paramètre sur l’autre soit respecté. Les différentes techniques permettant les
transformations de ces objets sont trop nombreuses pour pouvoir être ici énumérées et
beaucoup restent à inventer car le nombre de ces objets étant aussi grand que ce que
l’imagination peut concevoir. Mais il me semble qu’un grande partie de ces opérations
vont dans le sens d’une décomposition de l’objet sonore ou les divers éléments d’un
matériau peuvent être isolés et manipulés de manière indépendante et avec lesquels on
peut travailler. Je citerai comme exemple celui de l’indépendance des contrôles
harmoniques et spectraux. ou l’on peut, tout en gardant la fonctionnalité harmonique d’un
objet, faire varier sa morphologie spectrale dans laquelle apparaîtront et disparaîtront
certains des éléments qui le composent et vice versa. La création de variations continues
entre des objets, en modifiant progressivement chacun des paramètres qui contrôlent leurs
caractéristiques harmoniques, spectrales ou autre, peut les faire transiter de familles à
familles. Il faut pour cela déterminer des familles morphologiques qui réuniront, sous
leurs principes, une certaine quantité d’objets. Les critères de définition morphologique
sont, eux aussi, très nombreux : harmonicité, inharmonicité, stables ou instables en
fréquences, suivant certaines caractéristiques d’enveloppes, bruités ou non, suivant leur
niveaux de brillance ou de rugosité etc…. Lorsqu’il est possible d’isoler ainsi certains
composants, nous ne sommes pas loin de la situation décrite précédemment dans
l’écriture traditionnelle ou les objets ont la propriétés de fonctionner comme autant de
couches superposées. Ici, c’est au niveau des relations entre les différents types de
contrôle que s’opérera, ou non, une fusion de l’objet dans lequel chacun de ses paramètres
sera intégré dans une entité perceptuelle.

Certes, il ne faut pas penser parvenir à une situation stabilisée et standardisée, ce ne serait
d’ailleurs guère souhaitable. C’est plutôt au niveau de la méthodologie et de la
conceptualisation qu’il faut porter ses efforts. Il est clair que dans ce cadre, certaines
opérations classiques comme les transpositions, les inversions ou les renversements
pourront se révéler totalement inefficaces et d’ailleurs s’appliqueraient fort mal aux types
de matériaux à traiter. L’utilisation de nouveaux matériaux remet en question certaines
bases établies et il est clair que le choix de techniques de composition ne peut se passer
d’une réflexion sur les matériaux qu’elles vont utiliser. Celles-ci ne peuvent prétendre
préexister dans tout les cas aux matériaux, comme en retour, un matériau peut engendrer
son propre mode de développement plutôt qu’un autre. S’il fallait tirer une conclusion
théorique de cette situation, je dirai qu’on assiste, actuellement, à une grande prolifération
des composants musicaux utilisés. Les méthodes de synthèses, se faisant toujours plus
perfectionnées, on peut évidemment traiter le son du plus profond de lui-même. Si les
composants traditionnels sont évidemment toujours de mise, ils ne sont pas les seuls
constituants de l’appareil compositionnel. Il faut désormais pouvoir se placer à différents
niveaux hiérarchiques du discours musical, quelque part entre la structure globale et la
définition morphologique des sons tout en sachant qu’il est un leurre de vouloir traiter
tout le temps ces deux extrêmes simultanément. La différence d’attitude se fait surtout en
ce sens que, dans la musique électronique, les modes de transformations sont à imaginer
par rapport à un matériau spécifique, alors que dans la musique instrumentale, ils peuvent
rester plus indépendant de ce matériau. La raison en est, j’y reviendrai plus tard, que nous
n’avons aucune mémoire pour ces nouveaux matériaux.

Le statut de l’écriture et de l’interprétation dans la musique électronique.

Il est courant de dire que la musique électronique ne se situe pas historiquement dans le
cadre d’une écriture. C’est tout à fait vrai si l’on prends en considération tout ce qui a été
dit a ce sujet précédemment. Mais on peut concevoir aussi que l’écriture est avant tout
une manière de définir le comportement de ces objets dans le discours musical, ou pour
reprendre la belle formule de Pierre Boulez se fait jour “une sociologie des
comportements musicaux”. Finalement, les comportements et la morphologie sont ce qui
constituent la totalité du discours. En tout état de cause, l’écriture traditionnelle a pour
but d’assigner des valeurs à des composants musicaux et c’est exactement ce qui se passe,
surtout lorsque l’on a recours aux moyens informatiques. Il est intéressant de constater
que ce terme “écriture” est fréquemment utilisé dans le jargon informatique, on “écrit” et
on “efface” des valeurs dans les registres d’une machine. L’association de toutes ces
valeurs écrites définie l’objet et son comportement, et qui plus est, il est tout à fait légitime
de mettre en parallèle les différents stades d’écriture traditionnelle avec les différentes
couches de transformation que l’on peut faire subir à un matériau. On y retrouve la même
faculté génératrice d’idées et, les moyens techniques le permettant, il est tout à fait
possible d’agencer ces couches de manière à ce qu’elles interfèrent les unes avec les
autres. On peut, pour bien saisir cette situation, prendre l’image d’un objet vu au travers
de différents prismes qui, chacun, a le pouvoir d’altérer sa morphologie de manière
spécifique. La superposition, partielle ou totale, de ces différents prismes ainsi que leur
changement dans le temps donnent à l’objet des configurations nouvelles et variées. Il est
extrêmement fréquent, dans ces conditions, de découvrir des situations qui n’auraient pu
être imaginées sans ce travail “d’écriture sur du matériau”, c’est même, d’une certaine
manière, nous le verrons, un peu la loi.

Reste la question de l’interprétation. Ici la question du support est essentielle. Peut-on


raisonnablement parler d’interprétation dans le cadre d’une musique figée sur support
magnétique ? La marge de manoeuvre est très mince car, mise à part la spatialisation et
le niveau sonore, rien ne permet d’agir sur le devenir musicale qui, de plus, est
constamment figé dans le temps de déroulement immuable d’une bande magnétique. Si
la spatialisation est une donnée assez peu manipulable dans la musique instrumentale,
elle représente, en effet, un apport de la musique électronique. Mais il faut bien
reconnaître que dans la liste des composants utilisés par un compositeur, la spatialisation
ne se situe pas à un niveau hiérarchique très fort. Je ne dis pas en cela, qu’il faille négliger
pour autant cette possibilité, elle est même indispensable dans bien des cas, ne serait-ce
que pour aider à la perception de différentes structures sonores si souvent compressées
dans ces outils encore imparfaits que sont les haut-parleurs, mais la perception a beaucoup
de mal à identifier des chemins topologiques qui n’entrent pas dans le cadre de formes
très simples comme un mouvement stéréophonique ou encore un mouvement rotatif. Au
delà de ces archétypes, et si ils se déroulent à une trop grande vitesse, les figures spatiales
ne sont plus reconnues en tant que forme et se prêtent mal à des variations ou à des
superpositions. Pour ces raisons limitatives, je ne pense pas que la spatialisation devienne
un composant essentiel pour le compositeur ainsi qu’un élément véritablement primordial
pour l’interprétation. Elle n’est que la place géographique à laquelle se situe un matériau.
Elle peut aider dans la perception simultanées de différentes structures qui ne pourraient
pas se démarquer les unes des autres sans cet aide mais ne possède pas un pouvoir de
mémorisation formelle aussi puissant que celui d’autres composants musicaux. Il est
pratiquement certain que ce n’est là aussi qu’un problème culturel et qu’une
reconnaissance de forme spatiale complexe n’est “théoriquement” pas impossible. Mais
c’est plusieurs siècles de musique et toute une éducation qu’il faudrait alors revoir.
Quant au niveau sonore, pour ne pas employer le terme musical de dynamique ou
d’intensité, ce n’est guère que des valeurs de tensions électriques qui font modifier le
niveau d’un signal, qui reste, d’autre part rigoureusement le même, exactement lorsque
nous tournons le bouton de volume d’une chaîne hi-fi. La dynamique musicale, elle, n’est
pas un paramètre en ce sens qu’elle fait varier toute une série d’autres composants
musicaux comme les amplitudes, mais surtout l’apparition de nouveaux partiels à
l’intérieur du spectre. La morphologie sonore est différente suivant les intensités avec
lesquelles on produit le son, en d’autres termes la variation des dynamiques est un facteur
qualitatif autant que quantitatif, ce qui n’est pas le cas dans la musique sur bande. Jusqu’à
une époque relativement récente, et tant que la musique électronique n’était pas produite
par des systèmes en temps-réel, on ne pouvait, il est vrai, absolument pas parler
d’interprétation. L’absence d’interprétation était le dernier bastion dans lequel pouvaient
se retrancher les farouches opposants de cette pratique musicale, mais, fort heureusement,
les choses ont bien changé de ce point de vue.

L’informatisation, désormais totale, de la musique électronique a considérablement


évoluée avec l’apport des systèmes en temps-réel. Ce terme de temps-réel est à prendre
cependant avec certaines précautions. Dans le contexte musical, cela signifie simplement
que le temps entre lequel les données sont envoyées à un processeur de calcul et est
restitué le résultat sonore est tellement rapide que l’oreille ne peut pas le percevoir. Cela
ne signifie pas pour autant que tout ce qui est produit, lors d’une exécution, le soit en
temps réel. En d’autres termes, et pour reprendre la définition de l’objet musical telle que
je l’ai donnée précédemment, dans la quantité de paramètres dont je dispose, certains
pourront être définis en temps-différé (c’est à dire écrits une fois pour toute dans la
partition synthétique) alors que d’autres seront le seront en temps-réel. On retrouve, ici,
la notion de partition telle que je l’avais exprimée plus haut, c’est à dire un mélange de
valeurs absolues, non-modifiables par l’interprète, et de valeurs relatives, exprimées non
par des symboles précis mais par des zones. A partir de cela, il me parait évident que le
grand apport des systèmes en temps réel, plus que l’immédiateté avec laquelle on obtient
le résultat du calcul, se situe dans le domaine de l’interactivité. Qui dit interactivité,
musicalement parlant, dit aussi interprétation. La musique électronique peut très bien se
concevoir par rapport à une interprétation possible et ces critères d’interprétation peuvent
être choisis dans le champ traditionnel qui est celui de la musique instrumentale. Il aurait,
en effet, été fort dommage, dans un premier temps, de substituer à l’apport que nous
lègue la longue expérience de la musique instrumentale des critères d’interprétations
conçus sur d’autres modes que ceux auxquels sont habitués les musiciens. La
réunification de ces deux approches doit passer fatalement par l’alliance d’un savoir
empirique avec un autre, plus expérimental. Il ne faut cependant pas en déduire de tout
cela que les compositions instrumentales et électroniques s’abordent d’une manière
totalement identique.

Mémoire et expérimentation.

Toutes les attitudes engendrées par l’écriture traditionnelle sur lesquelles je me suis
expliqué au début, proviennent d’un savoir empirique qui s’est transmis de générations
en générations. Certes, certaines parties (les plus théorisables comme l’harmonie ou le
contrepoint) de ce savoir ont été codifié dans des traités qui, comme l’a dit quelqu’un
“disent ce qu’il ne faut pas faire plus que ce qu’il faut faire”. Mais, si l’étude de ces
disciplines ne peut faire de mal à personne, il faut bien reconnaître qu’elle n’est plus
vraiment d’actualité pour la musique telle qu’elle se conçoit aujourd’hui. Cependant, un
domaine comme celui de l’orchestration, beaucoup moins théorisable et moins
directement lié au langage, a fait aussi l’objet de nombreux traités qui, même les plus
géniaux comme celui de Berlioz, restent assez confus à cet égard. On y trouve les règles
de base comme la liste des possibilités instrumentales à une époque donnée, les manières
de bien faire sonner un accord avec l’alliage de plusieurs familles instrumentales,
quelques exemples tirés du répertoire et surtout des renseignements sur la manière dont
on concevait le timbre à ces époques. Finalement ces ouvrages restent plus
musicologiques que réellement utilisables. En y réfléchissant on peut se demander
comment il pourrait en être autrement, l’orchestration n’obéissant pas à des règles de
déductions aussi précises que les autres domaines. Aujourd’hui, la tâche n’en est que plus
difficile car l’orchestration n’est plus considérée comme un domaine consécutif à la
composition mais peut être très tôt intégrée à l’intérieur des esquisses. Vue la faiblesse
pédagogique inhérente à cette discipline, c’est par l’étude des partitions que nous pouvons
acquérir les connaissances nécessaires. Mais il n’en demeure pas moins qu’il s’agit de
matériaux que nous connaissons bien et nous devons être capable d’imaginer ce que
donnera le résultat final, ou du moins une grande partie, sans avoir un orchestre à notre
disposition. Dans ce domaine la mémoire culturelle catalyse notre imagination car nous
travaillons à partir d’objets connus et répertoriés. Ce n’est absolument pas le cas avec les
nouveaux matériaux. Nous n’avons, dans ce cas, aucune histoire, ou une histoire tellement
récente et éclatée, qu’elle peut difficilement agir sur notre comportement. Certes il existe,
des méthodes de synthèses très diverses et très spécifiques ayant chacune leur propre
mode de fonctionnement et leurs propres contrôles, mais le matériau sonore lui-même
étant tellement spécifique à une oeuvre donnée qu’il me paraît impensable de le réutiliser
dans un autre contexte sans transformations substantielles 7. De ce point de vue la
meilleure méthode d’investigation, la mémoire faisant défaut, reste l’expérimentation.

En écrivant Pluton ou La Partition du Ciel et de l’Enfer il m’a été très fréquent de


rencontrer des situations fortuites (parfois même consécutives à une erreur de
programmation) qui, n’ayant pu être prévues, se sont ensuite révélées très fructueuses.
J’avais initialement prévue toute la section introductrice pour l’orchestre seul, pensant y
inclure ensuite des événements synthétiques une fois le programme mis au point. La
section orchestrale terminée, je tentais d’y intégrer une partition synthétique qui devait
parfois épouser les configurations instrumentales ou en dériver. Avec un peu de patience,
je suis arrivé à quelques résultats satisfaisants quant au rapport son
instrumental/synthétique, mais le problème s’est surtout posé lorsque je me suis aperçu
que les dérivations que j’avais expérimentées m’ouvraient un champ d’investigation
extrêmement riche que je n’avais pu imaginer. Le travail sur les sons inharmoniques, ainsi
que sur le rôle du bruit comme altération des composants harmoniques qui étaient
produits dans l’orchestre s’accommodait fort mal de la partition instrumentale qui
évoluait sur des principes tout autres. J’ai alors préféré laisser libre cours aux potentialités
de l’expérimentation dans le domaine de la synthèse et réécrire totalement la partition
instrumentale à partir de ces résultats. Il m’était, en effet, plus facile d’imaginer des
situations instrumentales propres à s’allier avec certains développement synthétique que
le contraire, la faculté de prévisibilité étant dans ce domaine incommensurablement plus
grande. J’ai ensuite continué l’écriture de cette pièce conjointement entre la synthèse et
l’orchestre mais il m’était devenu évident qu’il me fallait laisser une ouverture aux
solutions que l’expérimentation me proposait.

Si j’ai tenu à raconter cette anecdote, c’est avant tout pour montrer que tout en cherchant
à unifier ces deux méthodes dans un même creuset théorique et fonctionnel, il n’est pas
possible de transposer brutalement une attitude créatrice d’un domaine dans l’autre. Il
faut opérer une transsubstantiation qui doit prendre en compte une réflexion,
incontournable à mon sens, sur le support comme sur le matériau. Mémoire et
expérimentation sont les bornes de cette réflexion.

Quant à l’esthétique.

Si je me suis longuement penché sur des considérations théoriques et techniques, il va de


soi que tout ceci n’a de valeur que lorsqu’est proposé un but esthétique. D’autres l’on dit
avant moi, technique et esthétique ne sont guère séparables, c’est par la première que l’on
peut trouver la seconde. S’il ne m’est pas donné de dire en quoi cette esthétique peut
consister, j’aimerai juste relever qu’il s’agit pour moi d’une problématique de l’instant.
Cela signifie que, même à mon corps défendant, je suis amené à travailler de plus en plus
localement sur des propositions qui se font jour dans le cadre d’une expérimentation. Si
je peux imaginer quel but je dois atteindre, j’ignore encore quels sont les chemins qui
vont m’y conduire. Poussé à l’extrême ce raisonnement pourrait conduire à l’incohérence.
C’est là affaire d’engagement personnel. Dans la situation ou se trouvent les compositeurs
de ma génération, il ne sert plus à rien de réveiller les bonnes vieilles querelles de nos
prédécesseurs. Il s’en trouvera probablement plus devant nous que derrière. Les différents
courants musicaux qui se font jour actuellement, mis à part cependant les résurgences et
les nostalgies, ont chacun leurs propres concepts à développer, parmi ceux-çi, la note et
le son ne demandent pas mieux que s’harmoniser.

Philippe Manoury.

Paris, Janvier 1990.

1. “JUPITER” pour flûte et 4X (1986), “PLUTON” pour piano et 4X (1987-88), “LA PARTITION DU CIEL ET
DE L’ENFER” pour trois solistes, 4X et orchestre (1989). Oeuvres réalisées à l’IRCAM avec la

collaboration technique de Miller Puckette et Cort Lippe.

2. Pour prendre un exemple classique, la perception du rythme dans la musique tonale s’effectue suivant
plusieurs hiérarchies : celles des durées séparant chaque événements produits dans le temps
chronologique, celle de la fréquence des changements harmoniques, des phrases, des modulations, et

enfin des proportions temporelles.

3. Si l’on se prenait à imaginer ce qu’aurait donné une notation devant décrire les phénomènes sonores dans
leur constitution physique, en admettant qu’on ai eu les appareils pour cela, il y aurait fort à parier que la
musique en aurait été très différente. Cette situation, pour incongrue qu’elle puisse paraître, ne l’est pas
tant que cela : c’est en effet à elle que nous sommes fréquemment confrontés dans la musique de

synthèse.

4. A d’autres époques, les partitions admettaient moins de symboles lorsqu’une tradition orale suppléait à ce
qui n’était pas noté. Les symboles notés en priorité correspondaient au pouvoir discriminateur de l’oreille
: les mouvements de hauteurs d’abord (les neumes du chant grégorien), les durées ensuite (surtout à

partir de la polyphonie), les dynamiques ensuite (vers le XVIIIème siècle).

5. Les exemples de Boulez et de Stockhausen dans leurs premières oeuvres sont, de ce point de vue, tout
à fait éclairants. L’un comme l’autre ont tenté d’échapper au des formes d’expression qui relevaient d’une
rhétorique traditionnelle (cf. les Structures pour 2 pianos et les Klavierstücke I-IV). Dans l’une ou l’autre
de ces oeuvres on peut facilement voir une volonté de noter avec une ultra précision les indications de
durées et de dynamiques de manière à ne pas laisser les vieilles habitudes prendre le dessus. Il est
évident que ces notations étaient issues de principes de même nature et n’étaient pas un simple garde-
fou pour l’interprête. Plus tard, s’apercevant de l’impasse que cela pouvait constituer, ils firent entrer des

critères de variabilité dans leur notations.

6. La notion de modèle connu est un problème de reconnaissance de forme et peut aujourd’hui être
considérablement élargie. Un tel modèle peut être l’expression d’une catégorie repérable (contexte
harmonique ou rythmique), une simulation de timbre instrumental (ou une hybridation entre plusieurs
timbres), ou même simplement la description d’un comportement typique (une enveloppe de type
percussif, par exemple, peut très bien servir de modèle de référence à tout une catégorie d’objets différents

quant à leurs morphologies spectrales, harmoniques ou autres).

7. Stockhausen, là encore, avait depuis longtemps, mais avec des moyens beaucoup plus rudimentaires,
montré la voie. Dans Microphonie I un tam-tam est excité par différents modes de vibration qui sont ensuite
filtrés. Si la valeur esthétique de cette oeuvre a quelque peu vieillie, en grande partie due au fait du peu
de possibilités des moyens de transformation disponibles à cette époque, elle n’en démontre pas moins
qu’aujourd’hui, plus qu’hier, chaque oeuvre doit posséder son propre monde sonore et qu’on ne peut pas

impunément dupliquer tels quels les moyens de transformation d’une oeuvre sur l’autre.

Você também pode gostar