Jason Graves : plongée dans les profondeurs

Compositeur deux fois récompensé aux British Academy Awards, Jason Graves a contribué à redéfinir le son du jeu vidéo actuel avec ses bandes originales évocatrices et texturées pour des titres acclamés tels que Dead Space, Tomb Raider, Until Dawn, Far Cry Primal ou encore The Dark Pictures Anthology. Connu pour sa manière de combiner performance live, instrumentation sur mesure et techniques d’enregistrement innovantes, Graves a façonné des paysages sonores troublants devenus une pierre angulaire de ce que l’industrie du jeu vidéo considère aujourd’hui comme des classiques du "survival horror".
En plus d’avoir signé certains des moments musicaux les plus marquants du jeu vidéo, Jason Graves s’est aussi illustré au cinéma et à la télévision avec les bandes originales de Swamp Thing de DC Comics et de Prey, le préquel de Predator produit par 20th Century Studios. Compositeur très sollicité, il s’impose aussi comme une figure majeure du jeu vidéo interactif, ayant récemment achevé Moss: Book II, suite de la franchise d’aventure en réalité virtuelle plusieurs fois récompensée.
Graves revient aujourd’hui avec Still Wakes the Deep: Siren’s Rest, un nouvel épisode du jeu d’horreur de The Chinese Room, triple lauréat des BAFTA. Avec près de cinquante minutes de musique originale, la bande-son explore de nouvelles profondeurs sonores, transformant piano préparé, waterphone et penny whistles en textures sous-marines envoûtantes. Utilisant Ableton Live comme véritable laboratoire créatif, Graves détourne les outils de conception sonore du logiciel pour les adapter à des moteurs de jeu interactifs.
Quand tu étudiais la musique de film et de télévision à l’Université de Californie du Sud, le concept de composition pour jeux vidéo existait-il déjà ?
Pas du tout. La musique de jeu vidéo existait bien sûr déjà en 1997, mais Internet n’en était qu’à ses débuts. J’avais même dû acheter un annuaire universitaire pour trouver les coordonnées de l’USC, où j'ai fait mes études. À l’époque, nous n’avions pas la surabondance d’informations qu’on connaît aujourd’hui. Je sais cependant que le programme que j’ai suivi, Scoring for Film & TV (composition pour le cinéma et la télévision), est désormais devenu Scoring for Film, TV & Video Games, preuve que le domaine s’est considérablement élargi.
Étais-tu toi-même un adepte des jeux vidéo ?
Si on remonte aux années 1980-1990, j’allais dans les salles d’arcade, mes amis jouaient, et moi, je regardais. J’y jouais parfois deux minutes, mais j’ai toujours préféré jouer de mes instruments. D’une certaine manière, la boucle est bouclée : aujourd’hui, j’ai accès aux versions développeurs des jeux sur lesquels je travaille, et je peux les passer en God Mode, et avoir des munitions illimitées et devenir invincible, ce qui me permet de jouer tranquillement, sans mourir toutes les dix secondes !
Le design sonore des jeux d’arcade classiques comme Defender, ça t’intriguait à l’époque ?
D’un point de vue musical, les sons de Defender étaient composés de ce bruit blanc rugueux typique en 8 ou 12 bits, et c’est par là que j’ai commencé, en réalisant des arrangements pour des jeux sur Game Boy Advance. Cela revenait à travailler avec seulement deux ondes sinusoïdales, un générateur de bruit blanc et une onde carrée. L’un de mes premiers projets fut la musique de Star Wars : la partition de John Williams comptait une dizaine de voix simultanées, et je devais la réduire à trois. Je repense souvent à ces jeux rétro comme Defender, Asteroids, Pac-Man, puis Super Mario, et je suis frappé de voir à quel point ces sons restent présents dans ma mémoire. Aujourd'hui, je dispose de 1 000 voix et d'un nombre illimité de pistes sur mon DAW, mais j'aime toujours l'idée de créer une mélodie que l'on peut fredonner ou jouer au piano, même si elle est très simple.
Qu’est-ce qui t’a le plus surpris ou demandé le plus d’adaptation quand tu es passé du cinéma au jeu vidéo interactif ?
D'abord, l’aspect interactif, bien sûr. L’un de mes premiers projets avec Sony, The Mark of Kri, était quasi intégralement composé de percussions, ce qui était parfait pour moi qui suis un ancien percussionniste. On a fini par tout programmer à partir de zéro, en intégrant de petites banques de sons dans le jeu et en écrivant des fichiers MIDI pour les déclencher. J’ai procédé de la même manière sur plusieurs jeux Game Boy, notamment Tim Power, dont la bande-son reposait sur des breakbeats et de puissants sons de batterie que je devais finaliser avant même d’écrire la musique, les sons étant déclenchés directement par le jeu. À l'époque, il fallait disposer d'un kit de développement pour pouvoir écrire la musique. Ils vous l'envoyaient par la poste et vous deviez apprendre le langage de programmation. Je me souviens avoir passé des heures au téléphone avec le directeur audio, simplement pour réussir à faire fonctionner le boîtier de développement du jeu et pouvoir déclencher les sons. Ce n'est pas comme aujourd'hui, où si l'on connait Wwise ou FMOD, on maîtrise probablement 90 % de la musique ou de la programmation audio des jeux.
Parle-nous de Still Wakes the Deep: Siren’s Rest. C’est l'univers sous-marin qui t’a séduit ?
C’est le fait que Still Wakes the Deep ait été développé par The Chinese Room qui m’a avant tout attiré vers le jeu original. Après avoir terminé le projet, on a eu une pause d’environ six mois avant qu’ils me recontactent pour composer de nouvelles musiques. J’adore la philosophie créative de The Chinese Room : leur manière d’écrire les histoires a quelque chose de très cinématographique. Leurs récits ont de l’ampleur, une véritable progression, des personnages qui évoluent, et il y a toujours une signification plus profonde que dans certains jeux de shooter plus basiques. J’ai donc accepté sans hésiter. Mais l'univers sous-marin de Siren’s Rest a ensuite défini tout le son du projet. Dans le jeu, tu portes une combinaison pressurisée, et les seuls sons que tu entends sont des vibrations tactiles. Tout est étouffé, feutré, subaquatique. Je voulais que la musique reflète cette sensation, la profondeur, la pression, la densité. D’où une bande-son très grave, sombre, chargée de réverbération… compliquée à mixer, mais vraiment plaisante à produire.
Tu es connu pour composer des bandes originales d’horreur, mais Siren’s Rest a une dimension beaucoup plus épique, presque de science-fiction. J’imagine que ça se prête bien à cet environnement sous-marin, presque "alien" ?
Oui, complètement. Le jeu dégage une atmosphère unique où on a l’impression d’être sur une autre planète, ou dérivant quelque part dans l’espace. L’océan est l’endroit le plus dangereux au monde, surtout quand tu plonges en profondeur : tout y évoque l’isolement, la solitude et la claustrophobie, des sensations déjà présentes dans le jeu original. Cependant, quand j'ai vu une partie du gameplay, j'ai dit au directeur audio que nous devions supprimer tous les sons métalliques et stridents, car nous sommes désormais sur une plate-forme pétrolière engloutie et cela ne semblait pas correspondre à cet environnement sous-marin. En réalité, on n’a vraiment découvert à quoi la bande son allait ressembler qu’à mi-parcours du projet.
Comment les sons s’articulent-ils avec l’histoire de ce deuxième volet de la série Still Wakes the Deep ?
Tout dépend de la manière dont le gameplay est construit et de la façon dont on interagit avec le jeu. Dans le Still Wakes the Deep original, il n'y avait pas du tout d'arme ; le but était simplement d’éviter les créatures. L’univers était fait de métal, de recoins, de couloirs interminables, et la créature pouvait te voir, ce qui faisait évoluer la musique en conséquence pour accentuer la tension. Dans Siren’s Rest, tu es cette fois immergé dans la plate-forme engloutie. Tu ne peux communiquer qu’avec une seule personne par interphone, et il y a "autre chose" dehors. Ce qui rend l’expérience terrifiante, c’est que le jeu est totalement ouvert : tu ne vois pas à plus de 3 ou 4 mètres devant toi. Dès qu’une présence s’approche, tu paniques, tu cours, tu frappes, ou tu nages aussi vite que possible. Tu peux même te réfugier dans un conduit ou contourner un angle pour te cacher, le jeu est très ouvert. La musique devait donc être beaucoup moins réactive au gameplay et suivre un mouvement plus fluide, mettant 10 ou 15 secondes à monter en puissance. Cela impliquait des sons au ralenti, des hauteurs qui montent lentement et des textures souples, feutrées, légèrement chaudes, qui apparaissent et disparaissent, à l’exception de quelques stingers.
Tu écris la musique "à l’image", comme pour un film ?
J’ai un PC dédié au jeu, relié à un grand écran au-dessus de mes enceintes de studio, un peu comme si je composais pour un film. Sauf qu’ici, j’ai une manette Bluetooth, je peux jouer, faire passer le son dans mes enceintes, et utiliser Ableton, Cubase ou Pro Tools en parallèle des captures de gameplay du développeur. C’est pratique, car je peux tout importer dans mon DAW et travailler de manière linéaire, ou bien ouvrir un chapitre et consulter les notes détaillées et les repères de séquence sur Steam, pour jouer directement ces passages, surtout une fois que la musique y est intégrée. Le processus est fait d’allers-retours constants, car tant que le jeu n’est pas sorti, rien ne fonctionne jamais vraiment. C’est tout le charme (ou le cauchemar) du développement de jeux vidéo !
Qu’est-ce qui t’a attiré vers Ableton Live comme outil de création pour le jeu vidéo ?
Je n’ai encore rien trouvé de mieux qu’Ableton pour sa capacité à tout moduler. Tu peux charger un LFO et l’assigner à n’importe quoi, ou même faire en sorte qu’un LFO en module un autre. C’est infini. Et ça me rappelle la logique du développement de jeux où la question n'est pas de savoir si je peux le faire, mais plutôt quelle est la meilleure façon de le faire. J’adore utiliser des plug-ins tiers, et je me sers rarement des plug-ins natifs, à part ceux d’Ableton, comme les EQ, distorsions ou compresseurs. Côté percussions, j’ai créé énormément de sons à partir des pads, parce qu'on peut lier chaque pad à un élément différent. Je sais que Cubase a fini par intégrer des LFO, mais franchement, le potentiel de design sonore qu’offre Ableton est d’une liberté incroyable. Ces derniers temps, j’utilise beaucoup mon rig modulaire, mais on peut aussi relier les générateurs internes d’Ableton à un rig et les accorder avec. Je dispose également d’une interface USB avec 16 sorties, ce qui me permet de tout router vers et depuis mon ordinateur portable. Je peux ainsi enregistrer uniquement la reverb, les modules de tonalité indépendants ou les différents paramètres d’effets, tout en générant des sons dans Ableton, que je fais entrer et sortir de mon rig modulaire avant de les retravailler de là. Et je n'ai même pas encore parlé du potentiel interactif d’Ableton lui-même qui est une source d’inspiration créative à part entière.
Ta façon d’utiliser Ableton te permet-elle de recréer la manière dont la musique du jeu s’adapte aux actions du joueur ?
Ah oui, complètement. La possibilité de personnaliser un clip, d’en définir l’ordre de lecture et d’ajouter de la randomisation (grâce aux follow actions) en fait un élément clé. J’ai probablement commencé à faire ça il y a dix ou douze ans, à une époque où Ableton était le seul logiciel capable de le faire. Aujourd’hui, je prends littéralement une phrase de 8 ou 16 mesures, je la place dans les clips, j’assigne différents instruments à des pistes séparées, puis je cherche la meilleure façon de gérer la randomisation et le déclenchement des sons d’un point de vue interactif. Par exemple, il m’arrive d’avoir trois segments de musique d’une vingtaine de secondes chacun, censés pouvoir interagir entre eux. Je peux ensuite ajuster la fréquence à laquelle chaque segment est joué, ainsi que le nombre de fois qu’il se répète. Rien de tout cela n’existait quand j’ai commencé à utiliser Ableton, et honnêtement, à part des moteurs de jeu externes comme Wwise, MetaSounds ou FMOD, je n’ai encore rien trouvé d’équivalent. Ce qui est génial avec Ableton, c’est qu’il fonctionne de manière totalement indépendante ; je ne dépends donc pas des game states ou d’un environnement externe. C'est très similaire à l'intégration de musique dans le jeu.

La station de travail DAW de Jason Graves
Tu as mentionné des outils comme FMOD et Wwise. Comment Ableton fait-il le lien avec ces middlewares ?
La force d’Ableton, c’est qu’il permet de tout programmer et de lancer les clips d’un simple clic, tout en assignant des comportements différents à chaque piste. Souvent, je simule des changements d’état du jeu (game states) sans passer par les développeurs. Je garde l’écran d’Ableton ouvert à côté et je teste directement mes transitions et les variations de gameplay, sans dépendre d’une intégration manuelle dans le jeu. C’est comme avoir un aperçu en temps réel. Même lorsque je programmais directement dans Wwise, il était bien plus simple pour moi d’importer tous mes extraits sonores dans Ableton et d'élaborer, en cinq minutes, une petite session interactive pour tester le ressenti des transitions ou de la randomisation, plutôt que d’attendre que le développeur relie tout dans le middleware. Ableton me permet donc de simuler ces processus très rapidement et je peux les dupliquer ou les développer facilement. C’est aussi un excellent outil de prévisualisation pour les développeurs, car ils peuvent entendre l’évolution et le mouvement naturel des sons, sans avoir encore à tout intégrer dans le jeu.

Le waterphone de Jason Graves
Sur le plan du design sonore, tu as utilisé plusieurs instruments acoustiques comme le waterphone et le penny whistle. Comment t’ont-ils aidé dans l'élaboration du design sonore ?
Le penny whistle était déjà présent dans le jeu original. C’était l’une des premières fois que j’expérimentais l’enregistrement en 192 kHz. Je ne suis pas un joueur d’instruments à vent, encore moins de penny whistle, mais j’en ai commandé deux à dix dollars pièce, je les ai joués en même temps, légèrement désaccordés, et enregistrés en stéréo. L’idée était de capturer un son très aigu, fin et faible. Mais une fois passé de 192 kHz à 48 kHz, le son est descendu de deux octaves et sa durée a quadruplé. J’ai pris cette seule note et lui ai ajouté un vibrato prononcé qui sonnait un peu étrange à la hauteur d’origine, mais qui s’est transformé en quelque chose d’aquatique, évoquant le mouvement des vagues. J’adore Simpler d’Ableton. J’ai donc intégré cet enregistrement dedans, j’ai commencé à expérimenter à 48 kHz, et c’est devenu l’un des sons emblématiques d'une des parties du jeu original. Le reste de la bande son de Sirens Rest a été conçu selon le même principe ; l’un des premiers instruments auxquels j’ai pensés a donc été mon waterphone. J’en ai un très grand, avec beaucoup de notes différentes, et je voulais créer quelque chose qui évoque un objet qui flotte à la surface, puis coule lentement dans les profondeurs. J’ai aussi utilisé un Moog DFAM pour obtenir des sons proches de battements de cœur, mais la plupart du temps, j’ai eu recours à des LFO et enveloppes inversées dans Ableton pour simuler le flux du sang dans les veines ou la respiration. En tant que batteur et percussionniste, la première chose qui me vient à l'esprit, c'est : quels sons originaux puis-je créer qui soient uniques et encore plus intéressants ? C’est là que la puissance de design sonore d’Ableton prend toute sa dimension.

"The Rig", issu de l’arsenal d'outils de design sonore de Jason Graves
Est-ce qu’il t’arrive souvent d’acheter des objets de récup' en te disant que tu pourrais les utiliser plus tard ?
Oui, complètement. Il y a une quinzaine d’années, j’ai acheté un piano pour 200 $, avant même de réaliser que j’allais souvent être sollicité pour créer des ambiances sonores effrayantes, texturées, abstraites et pleines de tension, un achat qui a été rentabilisé mille fois depuis. J’ai acheté le waterphone et les penny whistles il y a quelque temps, mais en réalité, j’achète tout ce qui peut produire un son intéressant. Quand je travaille sur une bande son spécifique, comme Far Cry Primal, je vais chercher des pierres, des cailloux, des plantes ou des buissons. D'autres fois, je me contente de fouiller ici et là. J'ai l'équivalent d'une voiture remplie d'instruments stockés dans l'un de mes garages, avec de gros tambours, des morceaux de métal... Tu vois la tringle métallique qu’on trouve dans les penderies en carton pour suspendre les vêtements ? J’en avais gardé trois quand on a déménagé il y a dix ans, et je les ai enfin utilisées pour la première fois sur Call of Duty il y a deux ans. Je les ai suspendues à un pied de micro avec des colliers de serrage et ils produisent un son génial. J’ai tracé une croix au sol avec du ruban de marquage au centre de ma pièce, entourée d’environ huit micros disposés pour des prises de son rapprochées, moyennes et lointaines ; je joue tout en temps réel et j’enregistre sur les huit canaux simultanément.

Jason Graves a débuté sa carrière musicale comme percussionniste, une formation qui continue de nourrir son travail aujourd’hui.
En termes de composition, as-tu remarqué des changements particuliers dans l’industrie du jeu vidéo ces dernières années ?
Ce que j’ai remarqué récemment, c’est que presque tous les contrats de confidentialité (NDA) que je signe précisent désormais : "Nous ne vous engageons pas encore, mais vous pouvez nous soumettre de la musique, à condition qu’elle ne contienne aucun élément généré par l’IA." Ce n’est pas que les studios détestent le son de l’IA ; c’est plutôt qu’ils n'ont aucun contrôle sur les droits d’auteur des sons générés par l'IA. Je ne parle pas ici d’un plugin comme Soothe qui adoucit un son trop métallique, mais bien du fait de taper quelques mots et de laisser une IA générer un morceau entier. On est en plein Far West en matière de propriété intellectuelle, surtout dans le jeu vidéo. Beaucoup d’entreprises ferment donc la porte à toute utilisation de sons produits par IA. Je sais que ces outils vont inévitablement s’immiscer dans nos DAWs, et c’est déjà le cas. Dans GarageBand, par exemple, tu peux simplement tourner un bouton pour rendre une rythmique plus complexe ou ajouter un fill : ça, c’est utile. Mais il ne s’agit pas juste d’appuyer sur Entrée et d’accepter ce que la machine te recrache.
Si tu pouvais concevoir la bande-son idéale d'un jeu, à quoi ressemblerait-elle ?
Ce serait un projet que je ne terminerais jamais, car il aurait un budget illimité et aucune deadline. Et si je devais citer un studio de rêve avec lequel j’aimerais travailler, ce serait Naughty Dog. J’ai appris qu’ils avaient fait appel à Nine Inch Nails pour l’une de leurs bandes-originales. J’adorerais travailler avec eux, parce que j’adore leur approche cinématographique et narrative du jeu vidéo. Mais bon, ça voudrait dire que je serais littéralement en compétition avec des rock stars ! Cela dit, c’est beau de rêver. Alors, qui sait, peut-être que ça arrivera un jour.
Suivez Jason Graves sur jasongraves.com
Texte et interview : Danny Turner
Photos transmises par les artistes