Jason Graves:深海から響くサウンドスケープ

二度の英国アカデミー賞(BAFTA)受賞歴を持つコンポーザー、Jason Graves。
彼は『Dead Space』『Tomb Raider』『Until Dawn』『Far Cry Primal』『The Dark Pictures Anthology』など、現代ゲームのサウンドを再定義した数々の名作で知られています。ライブ演奏やカスタム楽器、革新的なレコーディング技法を組み合わせたその音楽は、ホラーやサスペンス作品の世界観を支える「サウンドデザインの芸術」として高く評価されています。
近年では、映画『Prey(プレデター:ザ・プレイ)』やDCドラマ『Swamp Thing』など映像作品の音楽も手がける一方、VRアドベンチャー『Moss: Book II』などのインタラクティブ作品でも注目を集めています。
そして今回、彼は『Still Wakes the Deep: Siren’s Rest』のサウンドトラックで再び深海へと潜ります。The Chinese Roomによる三度のBAFTA受賞を誇るホラーゲームの拡張版となる本作では、約50分にわたるオリジナルスコアを収録。ピアノ、ウォーターフォン、ペニーホイッスルを変形させながら、圧力と静寂が支配する水中世界の音を描き出します。Ableton Liveを彼自身の「音の実験室」として駆使し、ゲームエンジンとの融合を前提にしたサウンドデザインを展開しています。
USCで映画音楽を学んでいた頃、ゲーム音楽という分野は視野に入っていたのでしょうか?
まったくなかったですね。僕が在籍していた1997年頃は、まだインターネットも普及しておらず、大学の住所を調べるために分厚い大学案内の本を買ったほどです(笑)。当時は「映画とテレビのスコア」という専攻しかありませんでしたが、今では「Film, TV & Video Games」というコース名に変わっていて、時代の流れを感じます。
そもそも、ゲームをプレイする方でしたか?
子どもの頃は友達がアーケードで遊ぶのを横で見ているだけでした。自分はその間ずっと楽器を練習していたんです。でも今は、開発中のゲームを“God Mode(無敵モード)”でプレイしながら音を確認するので、結果的には同じような感覚ですね(笑)。
—『Defender』のようなクラシックなアーケードゲームのサウンドデザインに興味はありましたか?
もちろんです。Defenderのざらついたホワイトノイズや、8〜12ビットの荒い音がすごく印象に残っています。Game Boy Advance版の『Star Wars』を手がけたときも、John Williamsの壮大なスコアをたった3つの音に絞る必要がありました。当時のハードでは同時に鳴らせる音が限られていたので、旋律をいかに成立させるかが大きな挑戦でしたね。今ではDAW上で何千ものトラックを扱えますが、結局のところ、口ずさめるシンプルなメロディこそが一番強いと感じています。
映画からゲームという“インタラクティブな世界”へ移行する中で、最も驚いたことや苦労した点は?
やはり“インタラクティブ”という部分ですね。最初にSonyと制作した『The Mark of Kri』では、音をすべてゼロからプログラムし、MIDIでトリガーする仕組みを構築しました。当時は開発キットを郵送してもらい、独自のプログラミング言語を勉強して使っていました。オーディオディレクターと電話をしながら、何時間もかけて音を鳴らすだけのテストをしていた時代です。今ではWwiseやFMODを使えば90%のことが簡単にできますが、当時はすべて手作業でした。
『Still Wakes the Deep: Siren’s Rest』では、やはり“水中”というテーマが魅力だったのでしょうか?
一番の理由はThe Chinese Roomが制作していたことです。彼らのストーリーテリングは映画のように深く、キャラクターの成長や物語の余韻があります。そのうえで、“深海”という環境が音の設計全体を方向づけました。プレイヤーは潜水服の中にいて、聞こえるのは振動や低音だけ。だから音楽でも圧力や閉塞感を表現する必要がありました。低域を強調し、リバーブを深くかけたブローディなサウンドに仕上げています。ミックスは難しかったですが、制作自体はとても楽しかったです。
ホラー作品の印象が強いですが、『Siren’s Rest』にはSF的な壮大さも感じます。
そうですね。深海はまるで別の惑星のような環境です。海は地球で最も危険な場所でもあり、孤独や圧迫感、閉鎖空間の恐怖といった感覚がすべて詰まっています。オリジナル版のような金属的な軋み音は排除して、沈没した油田プラットフォームという“水の世界”にふさわしい音を目指しました。
この『Still Wakes the Deep』続編では、どのようにサウンドをゲームのストーリーに合わせて構築したのでしょうか?
サウンドの構成は、ゲームプレイの仕組みやプレイヤーとのインタラクションに大きく左右されます。オリジナル版では武器がなく、ただクリーチャーから逃げるしかありませんでした。金属的な環境音が多く、長い廊下や角の多い空間で、敵に見つかると音楽が緊張感を増すように設計されていたんです。一方で『Siren’s Rest』は、沈んだプラットフォームの内部が舞台。通信できる相手はたった一人で、周囲には何かが潜んでいる。しかも目の前10〜15フィート(数メートル)しか見えないので、何かが近づくだけでパニックに陥る。だから今回は、音楽が即座に反応するよりも、ゆっくりと波打つような流れを意識しました。10〜15秒かけて緊張感を高めるような構成です。ピッチがじわじわと変化するスローモーション的なサウンドや、曖昧で温かみのある音を中心にして、時折“スティンガー”と呼ばれる突発的な効果音を差し込んでいます。
実際に映像を見ながら作曲しているのですか?
ええ。専用のPCで開発中のゲームをプレイしながら、上の大型モニターに映し出して作曲しています。まるで映画のスコアリングのような環境です。Bluetoothジョイスティックでゲームを操作しながら、Ableton、Cubase、Pro Toolsを同時に立ち上げて音を当てていきます。開発者が送ってくれるゲームプレイ映像をDAW上に取り込み、シーンごとのメモやチャプターを確認しながら進めることも多いですね。
ゲーム開発は常に“未完成の中で作る”プロセスです。バグや変更が絶えず起きるので、音楽も行き来を繰り返しながら少しずつ形にしていく。まさに“ゲーム開発の宿命”ですね(笑)。
ゲーム音楽制作のツールとして、Ableton Liveのどんな点に惹かれていますか?
Abletonほど自由にモジュレーションできる環境は他にありません。LFOを別のLFOに割り当てたり、ドラムパッドごとに独自のエフェクトを設定できる。まるでゲームをプログラムしているような感覚なんです。最近はモジュラーシンセとも組み合わせていて、AbletonのLFOを外部機材にリンクしてリアルタイムに音を変化させています。音を“生成”していくその過程が、本当に楽しいですね。
映画音楽からゲーム音楽へと移行する中で、一番苦労した点は何でしたか?
やはり“インタラクティブ”という部分ですね。最初にSonyと制作した『The Mark of Kri』では、音をすべてゼロからプログラムし、MIDIでトリガーする仕組みを構築しました。当時は開発キットを郵送してもらい、独自のプログラミング言語を勉強して使っていました。オーディオディレクターと電話をしながら、何時間もかけて音を鳴らすだけのテストをしていた時代です。今ではWwise、MetaSoundsやFMODを使えば90%のことが簡単にできますが、当時はすべて手作業でした。

GravesのDAWワークステーション
FMODやWwiseなどのツールにも触れましたが、Abletonはそうしたミドルウェアとどのように連携するのでしょうか?
Abletonの素晴らしい点は、1クリックで複数のトラックに異なる命令を設定できるところです。私はAbletonを使って“ゲーム状態の切り替え”を疑似的に再現し、開発者に依存せず自分でテストできる環境を作っています。Abletonのセッションビュー上でランダム再生やトランジションを設定し、実際のゲームのように曲の展開をプレビューするのです。これは開発者にとっても便利で、ゲームに実装する前にサウンドがどのように変化・遷移するかを体験できます。たとえ最終的にWwiseに書き出すとしても、Abletonで“インタラクティブな音の流れ”を再現できれば、試作の段階で何倍も速くアイデアを検証できます。私はこれを「リアルタイムのプレビュー環境」と呼んでいます。

Jason Gravesのウォーターフォン
サウンドデザインでは、ウォーターフォンやペニーホイッスルなど、特別な楽器を使用されたそうですね。それらはどのように役立ちましたか?
ペニーホイッスルは前作の段階から使っていました。実は私は管楽器の演奏家ではありませんが、10ドルほどの安価なホイッスルを2本購入し、わざと少し音程をずらして同時に吹き、192kHzで録音しました。その後、48kHzに変換したところ、音が2オクターブ下がり、波のようにうねる独特のトーンが生まれたんです。AbletonのSimplerにその音を読み込み、リバースやLFO、ピッチモジュレーションを試していくうちに、“海の中の呼吸音”のような質感に仕上がりました。これが『Still Wakes the Deep』の象徴的なサウンドのひとつです。『Siren’s Rest』ではさらに発展させ、大型ウォーターフォンを使用しました。水面に浮かぶ金属が深海に沈むような音を表現するために、AbletonのLFOとエンベロープを駆使して、血流や呼吸のような有機的な音の流れを再現しています。ドラマーでもある私は、常に“音の物理的な触感”を重視しており、Abletonのサウンドデザイン機能はその創造性を最大限に引き出してくれます。

Jason Gravesが使用するサウンドデザイン用ツール「The Rig」
日用品やジャンクを“楽器”として買い集めることもあるそうですね?
ええ、よくあります。15年前に200ドルで買った古いピアノは、今でもサウンドデザインの中心です。怖さや緊張感を音で表現する際に、これほど便利な素材はありません。ウォーターフォンやペニーホイッスルもそうですが、私は“面白い音が出そうなもの”なら何でも取っておきます。『Far Cry Primal』を制作していたときは、石や植物、枝など、自然素材を買い集めました。金属片や工具なども倉庫いっぱいに保管しています。引っ越しの際に捨てずに取っておいた“洋服ラックの支柱”を10年越しに『Call of Duty』の録音で使ったこともあります。マイクを8本配置し、近距離・中距離・遠距離の音を同時に録音することで、リアルな立体感を出しています。

打楽器奏者としてのキャリアが、今もGravesの音楽づくりを支えている。
近年、ゲーム業界における作曲のあり方にどんな変化を感じていますか?
ここ1〜2年で特に目立つのは、AI生成素材に対する契約上の規制です。多くのゲーム会社のNDA(機密保持契約)には、「AI生成音源を使用しないこと」という条項が加わるようになりました。これはAIの音が嫌いだからではなく、“著作権の帰属が不明確”になるリスクを避けるためです。私が言っているのは、補助ツール(Sootheなど)ではなく、テキスト入力で音楽を自動生成するタイプのAIのことです。この分野ではまだ法整備が追いついていないため、著作権の扱いがグレーゾーンなんです。業界は今まさに“西部開拓時代”のような状況にあります。もちろん、GarageBandのようにドラムの難易度をノブで調整する機能など、AI的な要素はすでにDAWに組み込まれています。そうした“支援ツール”は便利ですが、“AIが曲を作る”という段階までは、私はまだ信頼していません。
もし理想のゲームサウンドトラックを自由に作れるとしたら、どんな作品にしたいですか?
締切もなく、予算も無限にあるプロジェクトですね(笑)。一生かかっても終わらないような作品を作ってみたいです。開発チームで言えば、Naughty Dogのような映画的な物語性を持つスタジオと仕事をしてみたいですね。彼らがNine Inch Nailsを起用したと聞いたときは「もうロックスターと競う時代か!」と思いました。でも、いつかそんな夢のコラボが実現することを願っています。
Jason Gravesの最新情報は jasongraves.com で
テキスト・インタビュー:Danny Turner
写真提供:アーティスト本人