« J’ai fait des études d’écriture au  Conservatoire (harmonie, fugue, contrepoint…). J’ai ensuite travaillé au  Groupe de Recherches Musicales, avec Pierre Schaeffer, et c’est à cette  occasion que je me suis rapproché de la musique tout d’abord  électro-acoustique, puis électronique.
La musique électro-acoustique est une  musique concrète. C’est-à-dire qu’il y a un traitement de sons naturels,  enregistrés à Paris à l’aide d’un micro et transformés soit par  montage, soit par filtrage. La musique électronique, elle, est une  musique faite par des instruments électroniques. C’est au Groupe de  Recherches Musicales que j’ai eu l’occasion de travailler sur l’un des  plus gros synthétiseurs d’Europe. »
Pourquoi vous êtes-vous dirigé vers la musique ?
Je suis d’une famille de musiciens, ce qui m’a paut-être prédisposé dans cette voie.
Vers les années 60, parallèlement à mes  cours, je jouais dans des petits groupes de rock. Cela m’a permis de  conserver un angle beaucoup plus large sur la musique que certains  musiciens qui se limitent dans le classique en ayant un profond mépris  pour tout ce qui n’est pas leur musique, ou bien dans la Pop Music où  les musiciens ont un certains complexe vis-à-vis du classique.
Je me suis donc aperçu qu’il y avait  peut-être des manques dans l’enseignement traditionnel de la musique. On  apprend encore la musique comme on l’apprenait au XIXè siècle. Les  livres que j’avais ont été faits à cette époque.
Avec la technologie actuelle,  l’évolution musicale et surtout la façon dont on reçoit la musique, il  m’a semblé que c’était un peu limité et je suis donc entré au Groupe de  Recherches Musicales.
 C’est au GRM que vous avez fait connaissance avec le synthétiseur ? 
Oui, je m’y intéressais auparavant, mais  c’est là que j’ai fait mes premières armes. Là aussi je me seuis rendu  compte que les gens de la musique contemporaine et les gens du GRM  avaient une attitude très intellectuelle et très abstraite vis-à-vis de  la musique, et qu’ils se préoccupaient beaucoup de philosophie, de  mathématiques, voire même de sociologie appliquées à la musique que de  musique elle-même. Comme je me sentais plus proche du musicien que du  chercheur de laboratoire, j’étais mal dans ma peau puisque ce dont  j’avais envie, c’était de faire de la musique.
De plus, il y avait une attitude assez  élitiste vis-à-vis du public. On faisait de la musique de recherche, et  on avait tendance à dire : « Voilà mon dernier chef-d’oeuvre ! » Or il  est tout à fait normal de faire de la recherche, c’est ce qu’on fait  tous, mais entre la recherche et le travail musical abouti, il y a un  pas qu’il faut non seulement franchir soi-même, mais faire franchir aux  gens ; et non pas leur dire : « Si vous ne comprenez pas, retournez à  l’école ! » C’est, à mon avis, un peu la tendance de la musique  contemporaine actuelle, que ce soit l’IRCAM ou les différents groupes ou  groupuscules. Il y a une attitude réactionnaire par rapport à la  musique et tout ce qui peut se rapprocher de la sensibilité, d’un  certain plaisir est considéré comme suspect !
Un effort a été fait au niveau de la  musique classique (ce qui ne veut pas dire grand-chose, puisqu’à  l’époque où elle a été faite, elle n’était pas « classique »). C’était,  au départ, une musique réservée à une caste, mais il n’y a jamais eu de  problèmes particuliers pour que les les gens la « ressentent ». C’est  seulement après la deuxième Guerre mondiale que certains musiciens ont  adopté une attitude de « penseurs de la musique ». De la même façon au  cinéma, il y a eu toute une génération qui a été faite de penseurs,  plutôt que de metteurs en scène, et je pense que la crise du cinéma en  France depuis 15 ans est la même que celle de la musique depuis 25 ans.  On commence à ouvrir les portes, mais c’est un début.
 Pensez-vous que cela va changer ? 
Oui, je pense. Ne serait-ce que par les  médias, par l’ordinateur, qui vont profondement changer les moeurs et la  vie quotidienne des gens.
Si on prend l’exemple de l’ordinateur  (GRM, Ircam), on associe maintenant le synthétiseur à l’ordinateur. Ne  pensez-vous pas que l’ordinateur risque de conduire les musiciens à  faire une musique beaucoup plus abstraite donc moins agréable ?
Le problème est que la Banque de France elle-aussi utilise l’ordinateur  et que l’on a tendance à faire porter le chapeau de l’émotion ou du  manque d’émotion à l’instrument qu’on utilise. Or, cela dépend  uniquement de la personne qui utilise l’instrument. Vous pourriez me  poser la même question pour le synthétiseur, à savoir que le public  considère le synthétiseur comme quelque chose de froid, de robotisé. Les  gens ne font pas bien la différence et trouvent cela beaucoup plus  proche de la machine à laver ou de la machine à coudre que d’un  instrument musical authentique. Cela vient de cette frange de musiciens  qui ont tendance à considérer ces instruments électroniques comme des  machines. Ce sont les musiciens eux-mêmes qui ont entretenu cette  confusion ; et ce, pour une raison bien simple : ces instruments  électroniques ont été fabriqués pour la première fois par des  techniciens, qui ont alors fait de la musique dessus comme des  techniciens, puisqu’aucun musicien ne s’y était interessé. Donc le  résultat était abstrait. Ce qui ne veut pas dire que le synthétiseur ne  peut pas donner de résultats sur le plan émotionnel.
 Quelle est donc votre approche du synthétiseur ?
 Je me suis dit, à l’époque où j’étais au GRM, que la seule solution  (étant donné que notre génération est une génération de pionniers  vis-à-vis de ces instruments électroniques), la seule solution était  donc d’explorer cela, tout seul. Petit à petit (ce qui n’était pas  évident à l’époque étant donné leur prix), j’ai donc commencé avec  presque rien : quelques générateurs, deux Revox, une petite console  maison, un dispatching fait dans une boîte de chaussures, tout ce qu’il a  de plus « Concours Lépine » !
C’est, en fait, la meilleure école. Il est extrêmement dangereux d’avoir  au départ des instruments sophistiqués, parce qu’on est alors noyé, on  s’y perd ! Il est important d’évoluer lentement pour ne pas se  décourager. Donc ne pas commencer par de gros synthés.
Les gros synthétiseurs qui apparaissent sur le marché en ce moment sont  pour la plupart programmables qui donnent un accès direct aux sons.  Peut-on, à votre avis, commencer avec ce genre d’instruments ?
 Il n’y a pas de loi. A mon avis, le synthétiseur est la meilleure façon  d’aborder la musique pour un enfant, car c’est la première fois dans  l’histoire de la musique qu’on a la possibilité de travailler le son  lui-même. La différence essentielle entre instruments acoustiques et  électroniques, c’est que les instruments acoustiques ont un timbre  déterminé au moment de la fabrication qu’on pouvait, à la rigueur,  transformer ou alterner, mais il fallait faire avec.
 Maintenant, on peut créer son propre son, comme un sculpteur travaille  son bloc de pierre avec ses mains. Cela me parait fondamentalement  nouveau. En occident, on a tendance à mettre la charrue avant les  boeufs, on apprend aux enfants le code avant de leur apprendre le son.  Avec un synthétiseur, on peut vraiment réaliser ce qu’est le son,  comment est forme un son, une attaque, une résonance, etc., comment on  peut filtrer un son, lui mettre de l’écho, on va réaliser ce qu’est la  hauteur du son, le rythme.
J’ai d’ailleurs fait des conférences dans des universités américaines,  car je suis convaincu que le synthétiseur va ouvrir aux générations  futures des horizons nouveaux sur la musique.
Pensez-vous que la démarche de certains fabricants japonais de proposer  des synthétiseurs à 2000 francs ou moins, aille vers une généralisation  du synthétiseur ?
Oui, absolument ! Cet après-midi-même, je fais, à leur demande, une T.V.  pour les enfants du Conservatoire qui apprennent à jouer des  instruments « classiques », et qui ne connaissent pas le synthé. C’est  le genre de chose importante à faire pour modifier l’image du  synthétiseur perçue par le public. Cette image se modifie en France, en  partie grâce à la musique que j’ai faite, et qui a eu une audience  totalement imprévue.
C’est donc une bonne chose, car on peut avoir vis-à-vis du synthé une  attitude intuitive, ce qu’on ne peut avoir vis-à-vis du piano par  exemple. Les instruments acoustiques sont paradoxalement des instruments  beaucoup plus culturels que les instruments électroniques qui  permettent une attitude plus naturelle vis-à-vis du son parce que vous  êtes en même temps votre propre luthier.
Le petit synthé a cependant des limites au point de vue expression…
Oui, mais on ne demande pas à une flûte à bec de tenir le rôle d’un  orchestre symphonique. Un petit synthé a un rôle bien déterminé. Si on  veut aller plus loin, on peut utiliser un instrument plus sophistiqué.  On est, en ce moment dans la première génération de synthétiseurs, et on  aborde la seconde génération, celle des synthés digitaux qui vont  permettre la synthèse auditive d’une façon beaucoup plus pratique que  les genres modulaires ou autres. On pourra alors avoir des sons aussi  riches que les sons acoustiques. Jusqu’à présent, le son électronique  manque d’harmoniques, ce sont des fréquences pures que l’on peut  mélanger les unes aux autres, mais on ne peut pas avoir la richesse d’un  son de piano ou l’on a des harmoniques entre le début du son et la fin  de la résonance qui naissent et qui meurent. C’est la raison pou  laquelle les synthés analogiques de la première génération sont un peu  limités du point de vue harmoniques.
Sur le plan de l’expression, il y a aussi le clavier sur lequel la force de frappe n’intervient pas…
Le clavier du synthé est en effet un élément rapporté. Pour jouer du  synthé, il n’y a pas besoin de clavier, mais notre culture européenne  nous a fait connaître le clavier. Jean-Luc Ponty, par exemple, utilise  sa technique de violon pour jouer du synthétiseur, et ce depuis des  années. De la même façon des batteurs utilisent leur technique pour  jouer du synthé.
Si vous voulez, le clavier est peut-être quelque chose qui va  disparaître dans les années à venir sur le synthétiseur pour trouver son  autonomie. On peut imaginer un clavier de Morse, ou n’importe quoi, y  compris les interfaces qui existent à l’heure actuelle. Le clavier est  l’interface entre le musicien et le synthétiseur. Chaque musicien est  libre de choisir l’interface qu’il souhaite.
 C’est en ce moment assez limité, à part certaines productions comme le synthétiseur à vent.
C’est pourquoi je dis que nous en sommes au départ.
Les convertisseurs sont pour le moment assez inefficaces et ne permettent pas une approche suffisante.
On a évidemment de gros progrès à faire puisque l’on compare des  instruments qui ont quatre cent ans d’existence avec des instruments  vieux d’à peine quinze ans, et cependant ces derniers sont, à mon avis,  plus riches que les premiers. On se trouve aujourd’hui, pour les  synthés, dans la situation des compositeurs du XVIIè siècle qui  travaillaient avec des luthiers pour essayer d’obtenir des instruments  appropriés au vocabulaire qu’ils voulaient utiliser. Les instruments  étaient donc adaptés au contexte de l’époque.
Or, depuis trois cents ans, on n’a pratiquement pas inventé  d’instruments en dehors du saxophone et quelques autres dérivés. On ne  vas pas faire jusqu’à la fin du monde de la musique avec les mêmes  instruments. Ce serait une attitude extrêmement passéiste. Je ne mets  pas en doute la qualité des instruments acoustiques.
Mettre un micro sur un violon, c’est considérer les instruments comme  des infirmes, parce qu’ils n’ont pas été faits pour çà, même si on  obtient de bons résultats avec.
Il est temps de trouver une nouvelle palette sonore, une nouvelle  lutherie appropriée à la façon dont les gens écoutent de la musique. Les  violons, par exemple, sont adaptés au mode d’écoute de la musique, en  prise au XVIIè, XVIIIè et XIXè siècles dans la mesure où l’on écoutait  la musique par des voies électro-acoustiques, électriques (chaînes  Hi-Fi, haut-parleur, etc.). Il est donc certain qu’un instrument  acoustique n’a pas été pensé pour cela et qu’un synthé est beaucoup plus  adapté, à cause deson identité de facture entre les médias qui  diffusent la musique et les instruments qui créent le son.
Il y a identité de facture, mais un synthé n’a pas de son propre, il a  un signal électrique, et si on le fait passer à travers un H.P. de  voiture ou une enceinte de studio, on aura deux instruments totalement  différents.
Comme tous les instruments ! Et c’est pour cette raison que la caisse de  résonance des instruments des musiciens d’aujourd’hui, c’est le H.P.,  c’est la chaîne hi-fi, c’est le résultat final.
C’est pour cette raison que, dans mon  travail, je m’attache à suivre jusqu’au bout la gravure et le pressage,  les duplications de cassettes. Cela fait partie de l’orchestration de la  musique. C’est le résultat. Dès qu’il y a techniquement une  amélioration au niveau de la gravure, du pressage, je refais mes  gravures, mes pressages (ce qui ne fait pas plaisir à une maison de  disques !). Je pense que c’est normal.
Il faut faire des mixages différents  pour l’écoute dans les voitures, sur les chaînes hi-fi et les radios ou  les discothèques. C’est ce que je fais pour mes prochains disques, et  que j’ai fait pour « Equinoxe ».
En dehors du phénomène disco, si la  musique est diffusée dans un aéroport, c’est forcément une musique  différente. Il faut remixer ce que vous avez fait en fonction du canal  que vous utilisez.
Cette façon de voir, vous ne l’avez pas envisagée avec « Oxygène » mais avec « Equinoxe » et la suite.
Je ressors actuellement une version  d’ »Oxygène » avec une gravure totalement différente : un disque  haute-fidélité pour « Oxygène » en 45 tours avec un disque « sans  colorant », car je me suis aperçu que les disques en vinyl noir  permettaient de « cacher » les défauts. Sur des disques translucides, on  a une possibilité de contrôle plus importante. J’ai déjà fait des  essais. Ca coûte beaucoup plus cher, mais les resultats sont nettement  meilleurs.






No comments:
Post a Comment