interviewsでタグ付けされているポスト

Soundwalk Collective: ソニック・ノマド

Artists

Soundwalk Collective: ソニック・ノマド

そこをさまよう旅人と同じく、音の世界は、それ自体が命を持ち常に変化する存在です。場所、領域、地勢をサウンドで捉えるには?場所は、そこに発生する音によってどれほどまで定義されうるのか?そこに住む者の言葉、歴史、音楽により形作られるサウンドは重要なのか?そして、そこでマイクを手にする者が、マイクを向ける方向とは? ベルリンとニューヨークをベースに活躍する国際的なトリオ、Soundwalk Collectiveは、レコーディング、ライブパフォーマンス、インスタレーション、ラジオ劇、マルチメディアのプレゼンテーション、本、ビデオの分野で、これらと関連するテーマに10年以上にわたって取り組んでいます。彼らのサウンド・ワークは遠く離れた世界各地への旅で集められたフィールド録音から構成されており、情報と抽象芸術の間で微妙な均衡をとっています。実際の録音内容と現実を反映した音の断片から形作られた音は、変化する物語風のランドスケープをさまよう、イマーシブなオーディオの旅として結実します。 SoundwalkメンバーのKamran Sadeghiに、Collectiveの着想、作曲、作品の発表方法について話を聞きました。 Soundwalk Collectiveの構成を教えてください。 創始者のStephan Crasneanscki、Simone Merli、そして私Kamran Sadeghiの3名です。皆さまざまなバックグラウンドを持っており、私たちの経験とさまざまなアプローチが組み合わされ、作品が形成されていきます。すべてはこのコンセプトから始まっており、私たちの作業は主にフィールド録音をベースとしたもので、特定の地域を対象としています。 バックグラウンドについてお話しいただけますか? 私のバックグラウンドはエレクトロニックミュージックで、若い頃はインスピレーションでもありましたが、その後はアバンギャルドやジャズといった音楽に傾倒するようになりました。そこから音楽テクノロジーに凝り出し、1年半学んだ後、レコーディング・スタジオを開設しました。その後、美術やサウンドアート、生成的でベクターベースのサウンドやイメージ作品が主のビジュアル要素にも取り組むようになりました。なので、サウンドだけ、イメージだけを扱っていたのではなく、パフォーマンスやインスタレーションを行ったり、ニューヨークのサウンドアートギャラリーで働いたりもしました。今はそれらすべてを少しずつ行っているという感じですね…ええ、それが私のバックグラウンドです。 他のお二人は? Stephan Crasneansckiはコレクティブの創始者です。アイデア、コンセプト、コラボレーション、目的地などは、彼がすべて考えます。一度旅に出ると、3カ月にわたってこれらのエリアでサウンド録音を行います。彼はこの面でかなりのリサーチを行います。彼のバックグラウンドは美術史や芸術なんです。Simone Merliはサウンドアートが専門で、私たち3人、私たちの世界、外の世界をつなぐ橋となっています。彼はすべてを貼り合わせる接着剤のような存在です。コンセプトからパフォーマンスまで、彼が仲立ちとなり、コレクティブとしての私たちの活動を可能にしています。 プロジェクトの起点となるのは何ですか? 私たちの活動はすべて、場所、人、旅から始まります。音楽用語や方向性はまったくといっていいほど関係ありません。短波ラジオやフィールド録音、偶然聞こえてきた音、古いSPレコードなど、いろんな音を幅広く録音します。 たいてい、非常に厳密な構成に従って作業を行うので、録音は何百時間分にもなり、これらを分類し、タイトルを付け、カットし、フォルダーに整理し、フォルダーを親フォルダーに整理する必要があります。終わりのない構成なので、作曲する段階になったら、それがレコーディング用であってもパフォーマンス用であっても、旅や場所のオリジナルの構成を保つように心がけています。作品を作っているときはそれが継続するように努めています。 Medeaプロジェクトはこの好例でしょうか? はい、その通りです。この作品は、根本的には地図なんです。Medeaでは、まずトルコからスタートし、黒海の周りを移動しました。すべて実際の旅の構成が元になっています。ライブ演奏では、この枠組みでの時間、場所、特定のインスタンスをベースとするグリッドベースの構図を使用しています。 技術的にはどのような仕組みなのでしょうか?サウンド素材を集めるのが起点で、パフォーマンスやインスタレーションが終点ということになるでしょうが、その間ではどのようなことが起こっているのでしょうか。 そうですね、まず基本的な構成を決めて、どのような素材が手元にあるのかを見極めます。その後、このアレンジから最も優れた部分、つまり、音楽的なクオリティを持つ部分や完全性を有した物語的なクオリティを持つ部分を抜き出していきます。それから、これらを別々のチャンネルでアレンジしていきます。私たちのうち、ある者はボイスを、別の者はラジオ録音を、また別の者はフィールド録音の作業を行いますが、どれも同じ場所、たとえばトルコで録音した素材です。それが終わったら演奏を始め、素材のマルチチャンネル録音を行います。 それはつまり、ある程度の範囲内で即興録音を行うということですか? そうです、アレンジ用の素材を生成するためです。たとえばアレンジメントビューで動きを描画する代わりに、これらの要素をアレンジから抜き出してライブで演奏してから、より自然な動きやバリエーションとしてアレンジに戻します。 皆さんの作品には、どれも必ずビジュアル、映画的、写真的要素があります。どのようにしてこれらをまとめるのでしょうか。また、音の要素とビジュアルの要素の関係はどのようなものなのでしょうか。 Stephanは写真家で、よく撮影も行っていますが、基本的に私たちは移動中の行動すべてを記録するようにしています。ときには、誰かに同行してもらい、旅の記録を書き留めてもらうこともあります。ビジュアル面は、実際のサウンドよりも抽象的になります。実際にイメージを使用し、それを楽譜と見立てて制作した作品があります。砂漠だったんですが… どの作品ですか? 「Empty Quarter」という、オマーンとイエメンの間の砂漠で生まれた作品です。私たちはそこで3カ月にわたって、短波ラジオとスキャナーを使用し、会話や音楽など砂漠の真ん中で耳にした音を録音しました。 ビジュアルの側面は、内的なものから、他の人々とのコラボレーションへと変化しました。たとえば、モスクワのArma17でも行った「Berghain」という朗々とした作品では、クラブ内の人々のポートレート写真を撮り、ソース素材として使用しました。また、私はベクターベースのビデオが専門なので、Stephanが捉えたイメージを取り込み、サウンドと連動するこれらのイメージに対するトリガーを作成して、リズミカルなバーチャルコンポーネントを作成します。実のところ、ビジュアル部分は私たちにとっていつも苦労の種です。どういう展開になるのか見えないし、だからといって外部によるイメージや平凡なベクターベースのビデオに頼ることもしたくないですから。 皆さんのプレゼンテーション、インスタレーション、ディフュージョン、パフォーマンスの多様性についてご説明いただけますか? これは大変です。ひとつのものに固執することなく、常に新しい試みを行っているので、自分たちに苦労を課しているようなものです。同じく、スタジオも常に変化しています。一箇所にとどまることがないですし、セットアップを常時変更しているからです。また、パフォーマンスやインスタレーションのたびに、会場の制約に合わせたカスタマイズを加えています。 (会場に)「私たちの内容はこれです。この会場で実現可能であればやりますが、そうでなければやりません」などとは言いません。たとえば、ライブパフォーマンス込みのインスタレーションや、あるいはインスタレーションだけなど、会場とロケーションに合わせてカスタマイズを行います。New Museumでの「The Passenger」では独自のダブプレートを作成してターンテーブルで自動再生させ、ベニスのビエンナーレではビデオとサウンドのディフーションだけを行いました。つまり、作品と会場の要件により大きく異なるということです。 先日、Club Transmedialeで新作を発表されましたね。 Club Transmedialeでは、「Killer Road」という作品を上演しました。ベルベット・アンダーグラウンドのニコの詩(未公開のものを含む)を読むパティ・スミスの声をフィーチャーしています。この作品では、パティ・スミスとパフォーマンスを行うというのが当初のアイデアでしたが、最終的にフェスティバル用に作品を調整する必要がありました。(ビデオアーティストの)Lillevanに依頼し、ビジュアルを制作しました。私たち自身はサウンドブースの裏にいてサウンド・ディフュージョンのようなことを行い、素材を再生して、いくつかの要素にEQをかけて分離させます。この作品は制作にほぼ3年かかったのですが、絶対に公開したいと思っていました。だからこそ、妥協を許しませんでした。制作やコンセプトは、ステージ上に姿を現すよう努めることよりも、ずっと重要で強力な要素なのです。 メンバーはステージには立たないし、ステージ・プレゼンスも実質的に皆無なので、ビデオには、炎、熱、光といった感覚…太陽のようなイメージを求めました。当初は、太陽の作品で有名なOlafur Eliassonとのコラボレートを希望していました。 しかし結局環境は変化するので、そこに作品をはめ込み、試行して掘り下げていくことになります。私たちは毎回異なることを行っています。それは神経をすり減らすことでもありますが、最後の最後まで私たちを押し上げてくれることもあります。こういったことは、作品を通して学び、体験していくものだと思います。素材は一定でなく、シンセでもません。できることには終わりがないのです。 Soundwalk Collectiveのウェブサイトでは、その他の記事、サウンドやイメージをご覧いただけます。

Producer

Artists

Producer's Corner - The FrontlinerのEDMアーティスト・プロフィール特集

上: Producer's Cornerで特集されているアーティストのひとり、Mr. Bill The Frontlinerは、実力のあるアーティストと新進気鋭のミュージシャンの両方に関する記事とニュースを提供する、EDM界の優れたソースとなっています。 「Producer's Corner」と名付けられた特集記事で、The Frontlinerは一連のミュージシャンやサウンド・デザイナーにスポットを当て、お気に入りの機材やテクニックについて話を聞いています。インタビューを受けたアーティストには、Mr. Bill(写真)、Morten、His Majesty AndreなどのLiveとPushのユーザーも含まれています。この特集記事からいくつか抜粋してご紹介しましょう。 「友達と学ぶのは重要だと思う。これを始めてから、いきなり学習のスピードが10倍になった。毎週、アイデアやソフトウェアについて学んだ知識を共有していたからね」 - Mr. Bill 「一番大切なのは、お金で買えるものではないと思う。体験と耳 – 頭さえ付いてればお金をかけなくても手に入る。それに、学ぶことと体験することはお金に換えられないものだ。高価な機材は音楽制作のプロセスを支援してくれるし、頭を悩ませることや時間の浪費を防いでくれるけど、ごく普通の機材を使っても、オーディオ分析プラグインの読み方を知っていればいい結果を生むことができる」 - His Majesty Andre The Frontlinerで詳しく読む

Push:ハードウェア・ドラムマシンをプレイする

Tutorials

Push:ハードウェア・ドラムマシンをプレイする

メロディの演奏、クリップのトリガー、ビートのシーケンシングなどに活躍するAbletonのインストゥルメント、Pushについてはもうご存じのことでしょう。Pushは、ハードウェア・シンセサイザーの演奏とコントロールにも使用できます。今回はハードウェア・セットアップをトピックに取りあげ、Pushのパワフルなドラム・パッドやシーケンサー・モードの使用方法を紹介します。お手持ちのドラムマシンを表現力豊かに演奏できます。 バルセロナを拠点に活動するアーティスト、CardopusherとNehuen(2人でCWS(クラシックワークス)としても活動)に彼らのPushのハードウェア・セットアップについて話を聞きました。下からインタビュー内容をお読みください。また、プロダクト・スペシャリストのJesse Abayomiによる、Pushとドラムマシン・リグのセットアップ方法、カスタムDrum Rack、オートメーション、ドラムのバリエーションをPushインターフェースから直接操作する方法の実演説明もご覧ください。 Nehuen (L) and Cardopusher (R) perform live 新しいライブ・セットアップを採用されたとお聞きしました。その構成についてお話しいただけますか。 Cardopusher & Nehuen:個人的なプロジェクトではDJがメインですが、新しいこのCWSプロジェクトでは生で演ろうと決めました。現時点では、同期させた2台のラップトップ(と2台のAbleton Push)に、Ableton Live + 1 Vermona DRM1 Drum Machine + 1 Sherman Filterbank + 1 Vermona Mono Lancet + 1 Bassbot TT303)303クローン) + ディレイ・ペダル数台(Boss Tera Echo + Strymon El Capistan) + エフェクト内蔵の小さなミキサーが私たちのセットアップです。 Pushはどのようにご使用ですか? C & N:スタジオでは、作曲、シーケンシング、外部ドラムマシンやシンセのコントロールと、ほとんどをPushで作業しています。ステージでは、1台をオーディオやエフェクトのトリガーに、もう1台をMIDIのトリガーに使用しています。MIDIですべてを同期させ、Pushを使用してすべてをシーケンシングしています。...

Input/Output: Komon & Appleblim

Artists

Input/Output: Komon & Appleblim

最初のSideshowのリミックスをきっかけに、Appleblimとして知られるLaurie OsborneとKomon(またはKomonazmuk)として知られるKeiran Lomaxは、その後も複数の優れたリリースを通してコラボレーション関係を築き上げてきました。彼らの最新作である「Jupiter」EPは、長年の友人でもあるWill Saulが共同運営し、各方面からリスペクトされているAus Musicからリリースされました。私たちはLaurieとKieranと話す機会を得て、スタジオでの共同作業、「Jupiter」制作秘話、そして曲を完成させる上でコラボレーション相手がいることの利点などを聞きました。 実際の制作時は、お二人は一緒にスタジオに入るのですか?それともセットを相互に送り合いながら作っていくのでしょうか? 二人:一緒にスタジオに入ります、99%の場合は。 Keiran: 同じ気分を共有するために、お互いに曲を聴かせ合ったりして、DAWのスイッチを入れる前に二時間くらい一緒に過ごすこともあります。 Laurie: 僕たちは、僕がブリストルに引っ越したときからずっと友達だったので、最初は本当に仲間同士で協力するという感じだったんですが、一緒にスタジオに入るといい結果も伴うということが分かってきた。共同リミックスが本当に上手くいったので、それを4~5曲やるうちに、オリジナルの曲も作ってみた方がいいんじゃないかということになった。面白そうだと思ったし、それまではリミックスの依頼ありきで、もっと「仕事」という意識だったんです。そこから、「ワオ、これをスタジオに持ち込んで、ゼロから曲を作れたらいいんじゃないか?」と思うようになった。 お二人で共同作業をする際は、どのようにアイディアをまとめるのですか? Keiran: 最近の作品に関しては、わりとマニュアル通りにPushとMax for Liveを使いこなすようにしていますね。僕もまだ学びながらという感じなので、例えばチャンネル・ストリップを作成したら、早い段階でLaurieにも見てもらうようにしています。 Laurie: 彼が、「ちょっとクールなもの作ったんだけど、この前の夜にやり方を覚えてさ、まずはこれを使ってみないか」と言ってくるんですよ。最近作った曲のひとつは、Keiranが作り方を覚えた音楽生成パッチから作り始めたし… Keiran: 一つの音がすべて音階に合う24の音を生み出すんです。 Laurie: そういうものを聴くと、「ワオ、これはクレイジーだな。すごく面白いけど、僕一人だったら絶対こんなこと出来なかっただろうな」と思って、それを曲作りのとっかかりにする。それから、テンポを決めて、ビートを足していこう、という感じで進めていきます。 「Jupiter」にはOperatorとAnalogを使用していますよね? Laurie: ああ、今になってアレンジを確認してみて、「ワオ、これがOperatorでこっちがAnalogだったか」と思った箇所はいくつかありましたね。僕は自分がどういう風に作ったかすぐに忘れてしまうので、「あの部分ってどうやったんだっけ?」と思い出せないことがよくあります。自分ではすごくアナログっぽい音だと思ったところが、実はOperatorをGrain Delayなどで加工した音だったりする。おそらくEPを聴いた人が「ああ、これは絶対Roland Jupiterでしょ」と思うであろう箇所が、実は違うんですよ。 僕はAbletonを使い始めてもずっと使いこなせなくて、まだ学びながらやっているので、Keiranがそれで作業しているところを横で見ているといつも本当に感心するし、少しずつ勉強させてもらってます。 Keiran: 君はアレンジメントをやり方を知っているし、カット&ペーストなども問題なく出来ているよ。 Laurie: 僕たちは一緒に座ってしばらく音楽的なジャムをして、そのクリップを一緒にエディットしたりする。僕がKeiranを必要とするのはそういうときで、隣にいてくれて、そのボールを受け止めて少し走って、またパスしてくれる ― 意味わかるかな?そういう相手がいないと、僕一人でぐるぐる考え込んでしまいますから。でもKeiranがいると、次のステップに進めてくれて、どんどん組み立ててくれるんです。 [背後で「Jupiter」の収録曲が流れているのを聴いて] これは君のFM音源で作ったキック音だっけ? Keiran: ああ、これはOperatorを使って完全に合成したキック音で、その最後に足したのはDynamic Tubeだけだ。 Komon's custom kick synth Rack 「Jupiter」収録の「Glimmer」には、複数のシンセをレイヤーしたような音が入っています。これはどう作ったのか説明してもらえますか? Laurie: 確か、Arpeggiatorsで作り始めたと思います。Ableton内蔵のScaleやArpeggiatorsなどは、僕たちが特に気に入ってよく使っているものですね。僕はずっとアルペジオに固執してきたタイプなんですが自分ではどうやるのかよく分かっていなかった。ただKeiranと一緒に作業をしていて、一つのコードでそれが出来て、その上から、7セミ・トーンだけピッチを上げた別のアルペジオを足したんです。 かなり要素は多いんですが、KeiranのEQのスキルが高いので、それらが全てうまく納まるんですよね。ごちゃごちゃしたりとか、やりすぎな感じになり兼ねないものを、それぞれがちゃんと所定のスペースにはまっていると思います。僕がこの曲を好きな理由は、とてもクリアで(各要素が)分離されているところなんです… 中心にキラキラするシンセがあって、上部にクリックっぽいパーカッションがあり、ボトムにはファットで丸みのあるベースがある。それがとっ散らかったりごちゃごちゃせずにまとまって聴こえているといいんですが。 Keiran:...

Neil Rolnick: A Sampler For The Ages

Artists

Neil Rolnick: A Sampler For The Ages

Darius MilhaudとJohn Adamsの元で作曲を、(FMシンセシスを発明した)John Chowingの元でコンピューター音楽を学び、パリの(MaxMSPを生んだ)IRCAMでPierre Bouezと共に研究者として勤務したNeil Rolnickは、20世紀の近代音楽の多様な潮流に精通した人物だ。しかしながら、学問の世界に30年以上携わってきたRolnickの作曲とテクノロジーに対する見方は、学問的とはほど遠い。実験精神に溢れ生き生きとした彼の音楽は、時に極めて複雑ながらも決して威圧的ではなく、むしろとっつきやすくメロディックで(あえて言ってしまうと!?)口ずさめるほどだ。 音楽パフォーマンスにコンピューターを用いた最初の(70年代後半)一人であるRolnickは、デジタル・サンプリング、インタラクティブ・マルチメディア、ヴォーカル、室内・オーケストラ作品といった分野を網羅し、常に技術的に洗練された手法と、人間的要素のバランスを保ち続けてきた。多くの場合、彼の作品には生楽器、即興演奏、不変のリズム、そしてミュージシャンとマシンのリアルタイムな相互作用が含まれている。 多忙なNeil Rolnickと話す機会を得た私たちは、彼の作曲家、教師、技術者としての進化について聞いた。 あなたのキャリアを考えると、その間に音楽テクノロジーは劇的な変化を遂げました。ハードウエアからソフトウエアへの移行がもたらした、あなたの考える良い点と悪い点とは何ですか? まず最初の問題として、私は技術進歩の賛否を理論化することは非生産的だと思います。実践的な観点では、色んなことが変わった、それに合わせて自分も変わるか、置いていかれるか、のどちらかしかありません。 とはいえ、そこには双方のバランスを取る方法もあります。ソフトウエア・ツールは操作性という面で、BuchlaやMoogといったアナログ・シンセサイザーで8あるいは16ステップのシーケンスを組んでいた、あるいはテープ・ループを使って作曲していた1970年代前半には想像もつかなかったような、ある種の音楽的能力と柔軟性をもたらしてくれました。70年代後半にStanfordやIRCAMでリアルタイムではないコンピューター・シンセシスを使っていた頃と比較してもです。1980年代に「A Robert Johnson Sampler」を作曲した頃でさえ、各5~15秒しかサンプルを保存出来ませんでしたから… 個別のフレーズをサンプルし、ループするのが精一杯だったのです。それと比較すると、現在出来ることの可能性は規模が違います。作り手は、テクノロジーの可能性を越えて、それをさらに押し広げるような想像力を持たなければならなくなりました。 しかしその一方で、全てがソフトウエアに移行したことで、音楽制作は物理的な触れ合いをほとんど必要としなくなりました。再生ボタンを押すことは実に簡単です。でも、少なくとも私にとっては、音楽作りに身体的な関わりを持たなくなったことで何かが失われてしまった。ですから、私は全ての作品において、私自身が音楽に集中しそれを感じてプレイしなければいけない状態を作るようにしています。現在、ピアノとコンピューターのための新しい作品を作っているところで、二週間ほどで公開される予定になっていますが、毎日何時間も自分のパートを練習しています。まるで生楽器を演奏するかのように。アナログ時代は、同じようにケーブルやノブを使ってモジュラー・シンセを生演奏するために練習しなければなりませんでしたから。でも現在は、あえて自分にそれを課しているのです。 あなたの作品、「A Robert Johnson Sampler」がプラットフォームからプラットフォームへと’ポーティング’しても、本質的には同じままを保っているのはどうしてですか? 「A Robert Johnson Sampler」が、音楽的に、1987年と同じままを保っているという見方は興味深いですね。それは、私の音楽の作り方と関係しています。原則的に、私は作品のサウンドとアイディアを先に考えます。それをエレクトロニクスを使って実現するか、あるいは生楽器の演奏家のために書き出すかを考えることは、また別の作業です。確かに実演方法を考案している間に曲自体に対する考え方が変化することはあり得ますが… 曲自体はそのままです。ですから、実演方法が進化しても曲の聞こえ方が大きく変わっていないということは、新たなテクノロジーを起用しても、自分がやりたいことを達成できる段階まで使いこなせているということになります。新しい可能性を開拓するためにテクノロジーを試すことは、新しい作品を作る際にやることが多いですね… そして私はそれをやり続けている。 もともと「A Robert Johnson Sampler」を制作したMac Plus上のOpCodeシーケンサーとハードウエア・シンセとサンプラーという構成から、現在のLiveへのポーティングは、自分に自分が求めるサウンドを実現するにはどうしたらいいか、パフォーマンスに必要な相互作用を作り出すにはどうしたらいいか、を問う作業でした。最近になって、コントローラーとしてiPad上でLemurを使用し始めました。これによって、あらかじめデザインされたインターフェースに限定されることなく、パフォーマンスに必要不可欠な身体的な要素を持たせながら、それぞれの曲に最適なインターフェースをその場でイメージし直し、様々な音の可能性を模索することが出来ます。 あなたは先日、常勤の教師の仕事を退職されました。持てる時間を全て作曲に費やせるようになった今の心境はいかがですか? はい、確かに私は32年間務めたRensselaer Polytechnic Instituteの学部の仕事を終えました。でも実のところ、これまでもほぼフルタイムで作曲も行っていたのです… だからこそ、その間CD17枚分に及ぶ音楽を発表することが出来ました。それに、私の教育に対する姿勢は、生徒に生計を立てたり、家族や人間関係を築いたり、世の中に自分の居場所を見つけたりといった無数の層から成る日常生活の中で、いかに音楽制作に集中すればよいかを伝授することでした。自分自身がそれを実践していないと、人に教えることは出来ません。私が教えた音楽的・技術的なスキルは、アーティストとして生きること、アートまたは音楽を通していかに自分の言いたいことを伝えるかというより大きな課題への道筋でしかないのです。 とはいえ、大学の官僚主義からやっと解放された気分はとても爽快ですね。今でも朝6時に起きて作曲を開始し、複数のプロジェクトに関わっています。 それ以外では、自分の好きな音楽をマッシュアップするパフォーマンスを、現在のテクノロジーを使って実現する方法を模索し始めました。夏の間に、私が10歳か11歳の頃に初めて所有したLPの1枚だった、Everly Brothersの曲を二つ使ったマッシュアップ曲を作りました。これを8月からコンサートで演奏していますが、観客からの反響はとても良いです。この形態、あるいはアプローチは、私が1980年代後半から1990年代前半に特に集中的に従事していた、コンピューターの音楽制作方法でした。20年近く経ってから、またこの手法に戻って来ることは、とても興味深くエキサイティングでしたね… それに、自分が20年前よりもずっとしっかりと説得力を持ってコンピューターによるパフォーマンスが出来るようになったことを実感しました。それに、私の音楽、サンプリング、マッシュアップに対する考え方も確実に進歩しました。 それ以外では、現在はどんなことに携わっているんですか? 昨年の10月に、バイオリニストのTodd ReynoldsとAlan Piersonが指揮するAlarm Will Soundのメンバーたち、Nicole Paiementが指揮するサンフランシスコ音楽大学のNew Music Ensembleを迎えて作った新しいCD、『Gardening...

Borderland: Time Changes

Artists

Borderland: Time Changes

Juan AtkinsとMoritz von Oswaldは共に、私たちがその後テクノとして認識することになった音楽を定義づけ、その可能性を広げる上で決定的な役割を果たしました。デトロイトとベルリンという、それぞれのホームタウンである二つの点を線で繋ぎ、彼らは3MBという名義で1993年に初めて共同制作をしています。それ以降、彼らは不朽の名作の数々を生み出してきました ― von OswaldはBaric Chennel、Maurizio、Ryhthm & Soundとして、Atkinsは個人名義及びModel 500として。彼らの新たなコラボレーション・プロジェクト、Borderland(エンジニアとしてMoritzの甥っ子であるLaurensも参加)は、まるで繊細な形状、空間、緊張感、テクスチャーが描き出す風景の中を、地中から響くベースとキックドラムの鼓動に押されて進んでいく、ひとつのトリップのようです。 私たちが昨年開催されたAtonal Festivalで映像に収めた彼らのパフォーマンスを、下のリンクからお楽しみ頂けます。さらに、彼ら3名のメンバー全員と、過去、現在、未来の音楽の作り方について話をしました。 Laurens von Oswald Borderlandのステージでは、あなたはミキシング・ボードとエフェクトを担当していました。スタジオ内でも同じ役割を担っていたのですか? 基本的にはそうです。私たちは、ステージ上でもスタジオ内でも、過去の手法をモダンなアプローチで採用しています ―― 要するに、ミキシング・ボードを重要な楽器のひとつとして捉えるということです。JuanとMoritzが演奏するシークエンスや楽器の音を処理し、最終的なミックスとして送り出すことが私の主な役割です。通常であれば会場のミキシング・エンジニアが担うことなので、少し変わったやり方ではありますが、私たちのやり方には通常とは異なる相互作用があるのです。 楽器としてのミキシング・ボード ―― この考え方には独自の伝統があります。ダブもテクノも、この考えから生まれたもの。Borderlandの他の二人のメンバーは、この両方の分野でよく知られた存在ですが、あなた自身の役割は、その伝統を受け継ぐことか、それとも脱却することだとお考えですか? 基本的には、私たちはライブをなるべくスタジオでのセッションに近づけることを重要視していました。それと同時に、それらは全く別物であるということも意識しなければいけませんでした。一定のテーマが流れるのに沿って、その場でそれに適したアイディアをプロデュースしていくこと。Borderlandの曲は、シークエンス、リズム、モチーフを丁寧に作り上げていく長いプロダクション・セッションによって出来ています。MoritzとJuanにとっては慣れたやり方で、おそらくModel 500の「Sonic Sunset」や「Starlight」も同じように作られたことでしょう。でもこのプロジェクトに関しては、お互いの最大公約数を見つけることが必要でした。ですから、伝統は確かにありますが ―― 脱却している部分もありますね。 L-R: Juan Atkins, Laurens von Oswald, Moritz von Oswald. Photo...

Hiawatha Blue:James Patrickと生徒たちによるコラボレーティブ・アルバム

Artists

Hiawatha Blue:James Patrickと生徒たちによるコラボレーティブ・アルバム

長年にわたって、認定トレーナーJames Patrickは「ブルー・ライン」として知られるミネアポリスのハイアワサ・ライトレール・ラインを利用してきました。Institute of Production and Recording(IPR)の生徒とともに、Jamesは、ブルー・ラインのさまざまな駅で録られたフィールド録音をベースとするコラボレーティブ・アルバム「Hiawatha Blue」を構想しました。このアルバムは、現在無償でダウンロード可能です。Abletonは、この意欲的なプロジェクトについてJamesに話を聞きました。 「Hiawatha Blue」は、初めから生徒たちとのコラボレーティブなプロジェクトとして生まれたものだったのでしょうか? はい。中間試験の期間中、変化をもたらすにはどうしたらよいか考えていて、思いつきました。近々IPRを去ることが決まっていたので、在任の記念となる足跡を残したいと思いました。また、生徒たちからはとてつもないポジティブなエネルギーをいつも感じていました。このエネルギーこそが私の推進力と動力です。彼らのサウンドへの愛、それがエネルギーです。 フィールド録音で特に印象に残ったものはありますか? もちろんあります。ダウンタウンのファーマーズ・マーケットでは、口の悪い生粋の市民の議論する声や、彼らの腕の中で大声で泣いている子供たちの声を録音しました。バスや電車にいるドラッグ中毒者たちの目には、ブームマイクを担いで歩き回る19歳が奇妙に映ったことでしょう。ほとんど凍り付いた滝をよじ登って、端からほとばしる滴のサウンドを捉えたことや、テンポ変更やハーモニー間の遷移用に、アンビエントなメヌエットを構築したのも印象的でした。風や自然は、無調でありながら美しいソノリティにぴったりです。 アルバムの作曲プロセスにおけるあなたの役割はどのようなものでしたか? プロジェクトの全体的なコンセプトを生徒の手を借りながら構築しました。その後、実際の「アルバム」に含める重要なファクターを検討していきました。まず、私たちが着目したい、サウンドと音楽の世界における変化について考えることから始めました。私にとって、大きな不満は「アルバムの死」です。皆も賛成してくれたので、まとまりとしてアルバムという形態を採ろうということになりました。(ピンク・フロイドの)「狂気」といったアルバムに、私たちは皆、心を動かされたものでした。個々のトラックだけでは、あのような音楽体験を得ることはできなかったでしょう。そこで、この問題を解決しようと考えたのです。まず、各人の音楽スタイルとアーティストとしての方向性を挙げました。その後、それらを並び替え、このコンセプト・アルバムの全体的なイメージについて考えました。心をつかむアーク(物語の横糸)を構築し、ライト・レール・システムのマップに沿って並べていきました。そして、各生徒に駅を割り当て、カメラ、フィールド・レコーダーなど必要な機材を提供しました。 次に、プロジェクトの残り6週間の計画を立てました。ある生徒がこんなことを言ったのを覚えています。「1曲に6週間も?退屈!」私は笑ってしまいました。この彼の名誉のために話しておくと、最終的に彼は2作品とウェブサイトを作成し、プロジェクトのアシスタント・プロデューサーにもなりました。 それから、私はSSL 4000G+と最高のミックス/マスタリング・エンジニアBrian Jacobyをブッキングしました。結局、2週間を作曲と制作に、1週間を最終的な調整とグループ内のフィードバックに、1週間をミキシングに、1週間をマスタリングに、そして最後の週をA/Vパフォーマンスの組立に割り当てました。 公共の交通機関で移動中に聴いているお気に入りの音楽があれば教えていただけますか?「Hiawatha Blue」以外で何かありますか? そうですね。 アコースティックなら、 エリック・サティの「ジムノペディ」、ヤン・ティルセンの「アメリ」サウンドトラック。 エレクトロニックなら、 Rain Dogの「Two Words」、ISHOMEのすべての作品です。 Hiawatha Blueについての詳細とダウンロード

Input/Output: Holly Herndon

Artists

Input/Output: Holly Herndon

これからお届けする新シリーズInput/Outputの第一弾として、私たちが大好きなアーティストの一人に、彼女の最新プロダクションに寄与したインスピレーション、テクニック、テクノロジーについて話を聞きました。 私たちは、2012年のデビュー・アルバム発表時から、Holly Herndonの様々な活動に注目してきました。『Movement』は、挑戦的なヴォーカルのテクスチャーと力強く官能的なリズムを、丁寧に紡ぎ合わせ、緻密でいながらフレッシュなサウンドに仕上げた作品です。過去2年間に渡り、Hollyは数えきれないライブをこなし、管弦楽団、ロボット・バレエ、電気自動車のための作曲をしながら、スタンフォード大学にてコンピューター音楽の博士号を取得すべく研究を続けてきました。これらの活動については、今後追って詳しく紹介していきますが、ここでは私たちをわくわくさせてくれた、彼女の最新作「Chorus」をご紹介します。下のリンクからビデオをご覧の上、この作品についての彼女との簡単なインタビューをお楽しみ下さい。 デビュー・アルバム『Movement』で、あなたは既にヴォーカルをとても巧みに使用していましたが、この新作においてもヴォーカルが中心的な役割を果たしています。まず、「Chorus」で使用されている声は全てあなた自身のものですか?そうだとしたら、それらは全て同じような状況で録音されたのでしょうか? 「Chorus」に使用されている声は、いくつかの異なるソースから取得したものです。オンライン・ブラウジング、合成、自分の声を加工したもの、サンプルなどで、全て私のラップトップを通して録音されています。私が使用したシステムは、サンフランシスコのアーティストMat Dryhurstがデザインしたもので、彼とはよくコラボレーションもしています。私のオンライン・ブラウジングをスパイするように設計されていて、その音源をサンプルし、混ぜ合わせるんです。要するに、私のブラウザーを通して取得される音源の最高振幅を分析し、それによって様々な音源間の意外な相互作用をトリガーするのです。これをヴォーカルだけでなく、ほとんどのサウンド・デザインに使用しました。 「Chorus」はかなりのエディットとアレンジを要したかと思いますが、その制作手法を説明してもらえますか? この曲は、恐らく私が今まで作ったものの中でも最も凝ったエディットを施した作品でしょう。私は何時間にも及ぶブラウジングを録音し、加工を施し、それを録音し直し、作曲するようにエディットしていきました。結局使わなかった音源が、まだ山のようにあります。 トラックの骨格部分 ― 合唱部分のコード進行、ベースライン、そしてコーラス自体 ― は2012年の夏に作ったものです。これを、『Movement』のツアーを回っていた際のライブセットでダンス・ジャム・トラックとして、ヴォーカル・シンセのパートを、私のラップトップ・プロセッサーより発生された電気フィードバックにマッピングしたジェスチャーコントロールによって生演奏しました。たくさんの人に、この曲はいつリリースされるのかと聞かれたので、曲として仕上げることにしました。 私はMax for Liveを使用して、ハードドライブ上にマイクの振幅エンベロープをマッピングしています。これは、楽器、エフェクトなど、あらゆるものマッピングに使用することが出来ます。私はスタジオでもときどき使用しています。Conrad Shawcrossとのコラボレーション、Ada Projectでのサウンド・デザインのレコーディングにも使用しました。 それとは対照的に、12インチのB面収録の「Solo Voice」は、所定のパラメータの範囲で突発的かつ即興的に作られた印象を受けます。この曲はどのように制作されたのですか? この曲は、Daniel Pearlの追悼式のために作曲しました。この式では、Verdiの『四季』の楽章のひとつの間に”微気候”を演奏して欲しいと言われたんですが、このような行事で何をすればいいのか、全く分かりませんでした。故人の家族も参列していて、会場は美しい大聖堂でした。私はひとつの声から派生するプロセスによって構成される曲、「Breathe」と似たアプローチの曲を作りたいと思い、それを声ではなくひとつの音色でやってみたものです。 これが、私のライブ・パフォーマンスの導入としてぴったりだということに気づき、ライブセットに組み込むことにしました。最初にこの曲を演奏することによって、私がどんなことをやるのか、それをもっとも削ぎ落とした形で表現しているので、お客さんに理解してもらい易いと思います。 この曲は、Mark Pistellと共にスタジオに入り、ワンテイクで録音されました。ですから、そうですね、この二曲の制作方法は大きく異なります。実はこの曲のパフォーマンスに使用するシステムを開発するのにはとても長い時間がかかったのですが、パフォーマンスそのものはかなりシンプルです。 「Chorus」のビデオは、ラップトップを中心に置いた、あなたのデスクトップが焦点となっています。デジタル音楽やデザイン、執筆といった仕事に携わっているたくさんの人たちには馴染み深い光景です。こうした日常的な光景が抽象化されていく映像のイメージと、人の声が加工され極めて人工的な音響空間に配置されている楽曲との間には、重なる部分があるのでしょうか? はい、重なります。私はラップトップとの親密性をひとつの問題意識として扱ってきており、それは間違いなく『Movement』のテーマのひとつでした。『Movement』では、私はデジタル音楽の中に肉体的なものを見出すべく、人の声を使用したわけですが、「Chorus」では自分のツール/環境としての、デジタルとの親密性にフォーカスしました。特に、最近のNSA(米国国家安全保障局)の活動と個人のプライバシーの問題を考えると、さらに示唆的であるといえるでしょう。私はときどき、「私のラップトップは私以上に私のことを知っている」と言っているんですが、それを誰かが監視していると考えるとちょっと恐ろしいですよね。 Hollyについてさらに詳しく 「Chorus」についてさらに詳しく

Dan Freeman:指揮官の素顔

Artists

Dan Freeman:指揮官の素顔

かさばるハードウェア・サンプラーを使用したバックグラウンド作業やニューヨークをベースに活躍する多数のミュージシャンとのコラボレーションを行ってきたDan Freemanは、豊富な経験を持つミュージシャンです。Ableton認定トレーナーでありDubspotインストラクターでもあるDanは、ソロ・アーティストC0m1xとして、バンドCommandante Zeroとして、さらに他バンドとのコラボレーションで世界各地でパフォーマンスを披露しています。 教育者としての活動、ツアー、TV on the RadioのTunde Adebimpeとの活動などのプロジェクトを進行させている多忙なスケジュールについて、またPushを使用したアシッド・ハウスの再発見について、Danに話を聞きました。

Noah Pred: Third Culture

Artists

Noah Pred: Third Culture

Noah PredのAbleton Liveセットの非の打ち所のない構成具合から考えれば、彼が「Thoughtless Music」という名のレーベルを共同設立したのは少し皮肉です。しかしまた、新アルバム「Third Culture」にも表れているとおり、Noahは、耳を傾ける者をリズムとサウンドに没頭させる言外の深みと音楽を操る力を持っています。「Third Culture」は、Thoughtlessの立ち上げ、Noahの故郷であるトロントからベルリンへの移住といった、数年間にわたる変動から生まれました。 ミュージシャンやDJとしてのキャリアに加え、NoahはAbleton認定トレーナーとして、AskAudio/macProVideoやベルリンのNoisy Academyでインストラクターとしても活躍しています。AbletonはNoahにインタビューを行い、ミュージシャンとしてのこれまでの活動について、移住過程でのアルバムの作品づくり、音楽制作についてや現在の音楽業界で前進していくための関する生徒へのアドバイスについて話を聞きました。 数年前にベルリンに引っ越されたと伺っています。「Third Culture」はベルリンでお書きになったのですか、それとも一部はトロントで? トロント時代に書き始めたトラックもいくつかありますが、90%はここベルリンで書きました。 ベルリンへの移住は音楽に影響を与えましたか? ベルリンへの移住が何の影響も与えなかったというと嘘になります。音楽は自己表現の一形式ですから、アーティストの人生に起こるすべてのことに影響を受けると思います。ただ、このアルバムを書いているときには、ここに移住してきたこと以外にも、数々の心を動かされる出来事がありました。それらすべてが重なって作品が生まれてきたのです。クリエイティブ・プロセスという冒険には、物事を行う新たな手法と、検証すべきサウンドを見出すという側面が必ず存在するものです。 アルバム制作時にPushはご所有でしたか? Pushを入手したのは3分の1ほど書き上げた後だったので、残りの3分の2はPushで生成した素材といっていいでしょう。ですから、今回のアルバムにはPushを使用した痕跡がしっかり残っていますよ。少なくとも全トラックの半分で、核となるメロディとリズムをPushを使用して生成しています。このインストゥルメントがなければ、まったく別のアルバムになっていたと思います。 Noah Pred - photo by Jacob Hopkins Pushを使用したスタジオ・プロセスについて少しご説明いただけますか? Pushのあるなしに関係なく、最も重要なのはトラックをセッションビューからスタートさせることです。ここでできるだけジャミングや即興アドリブ演奏をするようにしています。リズムのアイデア、サンプル、メロディのアイデアのうちどれからスタートするかはトラックによって異なります。Pushでは、まず最初にドラムラックにStep Sequencerを使用します。カスタムのドラムラックをたくさん作成しているのですが、Pushを使えば、メロディのバックボーンとなる面白いリズムを簡単に作成できます。その後、MIDIエフェクトラックを使用します。MIDIエフェクトラックはさまざまなコードボイシングやその他同じようなものにかなりの頻度で使用します。Pushでの次のステップは、使用したいスケールを見出すことで、さまざまなインストゥルメントを使用してそこから作曲をスタートさせます。 「Third Culture」 Liveパックをダウンロード タイトル曲「Third Culture」のセットは、非の打ち所がないほど整然と構成されていますね。 ここまで整然としているのには僕の性格も影響していると思いますが、トラックをセッションでの即興アレンジモードからアレンジメントでの完成されたプロジェクトに確実に持って行けるよう、僕が考え出したシステムから生まれた結果でもあるんです。 ループからフルトラックを作成する際のプロセスについてもう少しお聞かせください。どのようなプロセスなのでしょうか? まず最初に、セッションビューでクリップのシーケンスのようなものを作成します。たとえば、すべてのドラムクリップを下準備してマスターとなるドラムクリップを作成できるようにしておき、その後どのようにスタートするかを考えます。次に、トラックの冒頭で使用したくないドラムパートをすべて無効にしてから、そのクリップを複製し、次に来るパートを有効にします。無効なノートはマスタークリップ内にすでにあるので、こうした操作が可能なわけです。 こうして、クリップを複製しつつ、クリップごとに新しいパートを有効にしていきます。その後、ベースラインやコードなどをどこに入れるか考えて、それらを含めた演奏をセッションビューからアレンジメントビューに録音します。 この演奏には間違いも含まれていますし、この後も演奏やエディットを繰り返すことになりますが、ここで重要なのは、生まれたばかりの新鮮なエネルギーと直感的な印象を捉えることです。アレンジメントビューできっちりコピー&ペーストすることからは生まれないエネルギーを捉えることができると思います。もちろん、これらの作業中にもパラメーターの調整を行っています。アレンジメントビューに移ったら、オートメーション処理を行います。トランジションやエディットをチェックして望みどおりのインパクトやフローになるよう確認したら、その後ミキシング処理を行います。 Noah Pred - photo by Jacob Hopkins ジャム演奏から楽曲を完成させるというのは、プロデューサーの卵にはなかなか難しいことのようです。教えていらっしゃるクラスでもその傾向が見られますか? はい、クラスでも生徒たちに言い聞かせるようにしています。生徒たちには、即興的なスケッチから完成された作品を仕上げる段階的なプロセスを伝授しています。ただ、制作プロセスは人それぞれ異なるので、どれが正しいとか間違っているとかいったことは言わないようにしています。自分にとってうまく機能するシステムが僕にはあるので、それが生徒たちの参考になればと思っています。 アーティストとしてもご活躍ですが、業界の現状を考慮して、作品を耳にしてもらいたいと願っている生徒に対してはどのようなアドバイスをしていますか?活動するアーティスト層が厚くなり、新人アーティストの活躍が非常に難しくなって来ているように思えます。 生徒には焦らないようアドバイスしています。自分の音を見つけるのに時間がかかることもあります。作品をリリースするようになって5年経っても自分の音が見つかっていないということになれば、その5年間にリリースした作品のことを後で後悔することになるでしょう。だから、私はまず自分の音を見つけることを勧めます。そうすれば、業界でも独自性を発揮できます。独自性が強いほど、どのような分野であっても頭角を現すことができると思います。 Liveでアルバムのミックスも行っているとお聞きしました。カスタムのチャンネルストリップ(「Third Culture」Liveセットダウンロードに付属)についてお聞かせいただけますか? サウンドの種類をもとに、すべてのトラックをグループにまとめてバス送りしています。ドラムはすべてまとめてバス送りしています。低域もいつもまとめてバス送りし、その後ミッドをまとめてバス送りします。アルバムはすべてLiveでミックスしました。Live 9に付属のAbletonプラグインを使用しましたが、とても気に入っています。温かみを加えるDynamic...

Ambivalentによる「Hexen」大解剖 - 無償Liveセットとインタビュー

Artists

Ambivalentによる「Hexen」大解剖 - 無償Liveセットとインタビュー

遊び心を感じさせる「R U OK」、2012年のイマーシブなミックス「_ground」などの良質なリリースで、Ambivalent名義で活躍するKevin McHughは、ミニマル/テクノ・ミュージック界で一流ミュージシャンのリストに名を連ねています。Kevinは長年にわたるLiveユーザーでもあり、スタジオ制作、ライブ・パフォーマンス、DJセットの一部としても使用しています。 Octopus Recordingsからの最新リリース「Blackfish EP」と同時に、Kevinは新曲「Hexen」の主要サウンドとシーケンスをフィーチャーした無償Liveセットを公開しました(注:使用にはLive 9 Suiteが必要です)。AbletonはKevinにインタビューを行い、「Hexen」のサウンド・デザイン、ミニマル・ミュージック制作における苦労、完全五度の美しさについて話を聞きました。 「Hexen」では数少ないパートが効果的に使用されていますが、この制約がトラックにスリリングさを与えているように思えます。トラックのパート数の判断の決め手となるのは何ですか? 「シンプルであることは簡単だ」などと言う人にかぎって、間違ったことをやっているのではないかと思います。私も同じで、しっかり理解できているとは断言できません。制作における自制はてこずる事柄のひとつです。アイデアには複雑さが必要になることもありますが、重要なのは、「今加えようとしているこれは、最終形に必要なものなのか?」という問いを投げかけることです。私はこの問いをプロセスの早い段階で投げかけるようにしています。完全なアイデアがありながら、そこから逸脱する余地のある状態に達することができればいいですね。欠かせない要素を取り出し、その声を優れたアレンジとして形にすることが重要です。切りのいいところに到達するまで、出来の良し悪しについて自問しないように気を付けています。何週間もかけても完成しない考えすぎのループ1つが出来上がるより、完成させたトラック10つをあきらめる方がましです。 「Hexen」のアレンジでは、クリップとエフェクトは生で演奏したのでしょうか?それとも手動で編集されたのですか?通常、アレンジはどのように行っていますか? Live Packにはオリジナルのセッションと同じシステムを使用しています。キーボードを使って演奏したあるアイデア(シンプルなペンタトニックのリフ)からスタートし、他のシンセを加えてレイヤーを追加しました。その後、AbletonのMIDIツールChordを使用して各シンセに完全五度とオクターブを追加し、シンプルさを保ちながら、ハーモニーに厚みを与えました。元となるツールが同じなので、オリジナルのセッションをこのLive Packで再現するのはとても簡単でした。 「Hexen」では、和音に3種のシンセがレイヤーされています。各レイヤーのサウンドのデザインについてお聞かせください。 オリジナルのトラックにある外部シンセで使用したパッチのいくつかを再現しようと考えました。オリジナルでもレイヤーされていたものです。Abletonシンセにも同じパワーがあり、場合によっては私が使用したオリジナルのシンセより機能に優れています。アナログ機器とデジタル機器の違いは、単に好みの問題だと思っています。あるインストゥルメントで別のインストゥルメントを再現しようとする試みはなかなか面白いものでした。どれほど重複するものなのか理解することができました。レイヤーにより、シャープでアタックの強いサウンド、オリジナルのパッチで気に入っていたエンベロープや波形を残すことができました。その一部は、特定のパッチの進化具合とアレンジ内の別のボイスによる強化の必要度により決まります。Operatorのインスタンスのひとつはすばらしいのですが、他が変化を続けるのに対して、こちらは変化しません。Analogのインスタンスはハーモニーを強化するために置かれていますが、他を打ち消してしまうようなことはありません。 パッチの設定が完了したら、Dynamic Tubeツールで少し色づけし、プリアンプなどのサウンドを再現していきました。その優れた再現能力には驚きました。 Ambivalentの「Hexen」のコード進行 コードの複雑度もトラック内で変化しています。これについてもお聞かせいただけますか? 常々思うのですが、アイデアについて考える際、最も重要な場面は、そのアイデアがどこまで広がるものなのかを試すときだと思います。そういう意味で、テクノは、あるフレーズから最後の一滴までアイデアを絞り出すのに適しています。このトラックは、このフレーズからドラマとストーリーを生み出す試みでした。目新しいことは何もありません ― 私より上手くやれたアーティストはたくさんいるはずです ― ただ、一定のゾーンだけにとどまるべきフックではないように感じられました。私が求めていたのはジェットコースターでした。行き先のわからないまま上へ上へと引っ張り上げられ、ゼロ地点に突き落とされ、またスタートするというような感覚です。 ハイハットはAnalogでシンセサイズされています。このような形でドラムをシンセサイズすることは多いのですか?サンプリングではなくシンセサイズすることの利点とは何でしょうか? オリジナルのセッションはVermona DRM1を使用して録音されていて、ハイハット・ボイスのディケイとフィルターをオープンにしたライブ・テイクを録音しました。コントロールを触りながらアレンジに合わせて演奏するのはとても楽しかったですよ。Analogプラグインは自然な選択でした。ノイズ・フィルターとエンベロープというクラシックな構造とサウンドを持っていますからね。ここでもDynamic Tubeを使用してオリジナルで用いたシグナル・チェーンをエミュレートしました。Live Packのアレンジ・セクションのオートメーションと自分のライブ・スタジオ・レコーディングが近づくよう努力しました。 ベースのトラックでのおさまりがいいですね。EQが効果的に使用されているように思えます。これについて詳しくお話しいただけますか? ベースの倍音には長い間苦労してきました。特に、キック・ドラムに合わせて調整する際は大変でした。トラックの出来はそこにかかっているといっても過言ではないでしょう。ベースは十分な倍音の幅が必要ですが、ミックス全体を支配してしまうことがあってはいけないし、キックがしっかり抜けるよう余裕を持たせなければなりません。このトラックでは、キックの基音と二次倍音の周波数をベースから引き出し、ベースラインのリーチがローミッドにおさまるようにしました。これで、シンセ・レイヤーの副倍音のじゃまをせず、私の好きなブーミーなサウンドを聴かせることができます。ベースがリードと同じピッチを追うようにすることで交差するポイントを見つけ、ベースのローパス・フィルターと、リードのハイパスとシェルフをそれぞれ設定することができます。少しだけサイドチェーンをかけるとキックに余裕ができ、ふくらみが強調されすぎることがありません(多少の膨張感はありますが)。サイドチェーンには、ソースがデジタルであるかアナログであるかにかかわらず、いつもAbletonのコンプレッサーを使用しています。シンプルで、機能と透過性に優れたツールです。Abletonのエフェクトでのサイドチェーンはすばやく簡単に設定できますし、またLive 9のEQにはハイパスとローパス用のシェイパー・カーブ、スペクトル表示、ミッド/サイド処理などの便利な新機能がたくさん搭載されています。 Ambivalentについてさらに詳しく 「Hexen」LiveセットをOctopus Recordingsからダウンロード

Dusty Kid、最新アルバム「III」とLiveについて語る

Artists

Dusty Kid、最新アルバム「III」とLiveについて語る

スタジオでのDusty Kid 10年間にわたる作品リリース、そして20年以上にわたる音楽制作を続けてきたDusty Kidは、もはや「キッド」ではなくベテランの域に達しています。Dusty Kidの最新アルバム「III」は、ダビーなリズム、現実離れした雰囲気、心地よいシンセラインが詰まったダブルディスクです。Dusty Kidは、ビンテージ・シンセのコレクションとLiveを使用して、エレクトロニック・ミュージックへと回帰しながら、神童と呼ばれた幼少時代のピアノやバイオリンといったクラシック音楽における経験も活かしています。 そんなDusty Kidに、アルバムについて、無償ダウンロードとして提供されているミックス・バージョン公開について、アルバム・ツアーの計画について聞きました。 Dusty Kid「III」カバー このアルバムを個別のトラックとしてではなく1つの長い体験として聴いて欲しいというリスナーに対する意図を表明されていますね。このことは作曲プロセスにどのような影響をもたらしましたか?たったひとつの巨大なセットを扱っての作業だったのでしょうか? 単一のトラックとして構想していた「Leather Bears Cinematic Suite」以外は、まずトラックごとに作業を開始しましたが、すべてがつながった形となる完成形を強く意識してすべての作業を行いました。トラックが形になってきたところで、それぞれのトラックのすべてのパートを含む1つのセットを作成し、連続するミックスを作成しました。トラック間のトランジションは、結果として作業する上で最もクールな場面になりました。トラックの「寝床」となるさまざまなランドスケープを作成することができました。 最新ビデオでハードウェア・インストゥルメントの再評価についてお話しされていましたが、アルバム制作にはソフトウェアも使用されていますね。ハードウェアとLiveをどのように組み合わせて使用されていますか? サウンドやエフェクトの多くは、外部ハードウェアで録音しています。ここではLiveが重要な役割を果たしています。Liveには、シンセサイザーやエフェクトなどのハードウェアを内部プラグインとして使用・管理するのに必要な設定(MIDIチャンネル、イン/アウト設定など)すべてを含むプリセット・ファイルを作成できるクールな機能があって、クリックひとつですぐに使用できるようになります。これが可能なのは、オーディオ・カードAntelope Orion 32を使用しているからです。このカードには32のアナログ入出力があるので、使用しているハードウェアすべてをカードに接続し、スタジオ全体を簡単に操作し、まるで巨大なモジュラー・セットアップのように扱うことができます。たとえば、SH-101の出力をEms Synthiのフィルターに接続し、結果をSpace Echoに送ってArp 2600でフィルターするといったことが簡単に行えます。こうすることで、複雑なプロセス・チェーンを作成し、時には非常に変わった結果を得ることができます。アイデアとして初めからあったのは、アルバム全体のサウンドを、最近聴かれる耳慣れたサウンドとは異なるものにするということでした。ここ最近の作品は非常にデジタルかつ大音量で、パーフェクトでクリーンなサウンドで、冷たく、時に個性のないものが多いと思います。批評するつもりは一切ありませんが、こういった要素が含まれていれば、90年代にインスパイアされたサウンドからはかけ離れたコンセプトの作品になっていたでしょう。 Dusty Kidのハードウェア・シンセ・コントロール・ラック スタジオでのAbleton Liveの役割は? Liveは私のスタジオの核となっています。他のソフトウェアは使用していません。先ほど話したとおり、Liveならコンピューターからすべてをコントロールできます。外部ハードウェアを使用したいときもクリック操作ひとつですぐに準備できます。これは作曲する際にも重要な機能です。ワークフローのじゃまをしませんからね。 クラシック・ピアノを学ばれていたとお聞きしましたが、電子機器やコンピューターを使用し始めたきっかけは何でしたか? ピアノとバイオリンを勉強したのですが、子供の頃から音楽にとりつかれていたといっても過言ではありません。音楽以外に興味がありませんでしたから。普通なら習得に6~7年かかる作品をあっという間に演奏できるようになる子供でした。それで音楽学校に通うようになり、教師たちから将来有望だと言われていました。11歳のとき、モーツァルトのピアノ・コンサートを演奏したくなり、コンサートのオーケストラ部分をだけを録音できる機器が欲しいとねだりました。こうすれば、録音したオーケストラに合わせてソロ・パートを演奏することができるからです。それがYamaha QY20でした。これをMIDIで手持ちのデジタル・ピアノに接続したのですが、これが電子機器との初めての出会いでした。このモジュールにはベーシックなサウンドだけしかありませんでしたが、TR-909や808のサンプルも含まれていました。こうして、モーツァルトが4つ打ちに化けてしまったというわけです。両親にとってはとんだ災難でしたね! 新作アルバム「III」のミックス・バージョンを無償デジタル・ダウンロードとしてリリースされていますね。今回無償リリースを決断した理由は? 2013年は重要な年でした。Dusty Kid名義で初トラックをリリースしてから今年で10年だったからです。長年私の音楽を聴いてくれている皆さんに何かしなければと思い、感謝の気持ちを伝えるために無償アルバムをプレゼントするのがいいのではと思ったのです。 「III」リリースに続いて大規模なツアーを予定されていますね。アルバムには多数のハードウェアが使用されていますが、ライブはどのような構成となっていますか? すべてのパートは8つのチャンネルにステムとループとして録音されていて、すべての作品のほぼあらゆるパートを完全にコントロールできるようになっています。こうしておけば、トラックのサウンドを他のソングとミックスし、使用できるあらゆる要素を組み合わせて、非常に複雑であるにもかかわらず管理が簡単なライブ・パフォーマンスを構築できます。外部ハードウェアをライブ・パフォーマンスに加えたいとは思いますが、それが可能なのは(自宅に近い)サルデーニャで演奏するときだけです。扱いに注意が必要なシンセを運ぶことは問題ではありませんが、飛行機での移動は無理です。ハードウェアをライブ・パフォーマンスに大規模に使用しているのを見て感心することがありますが、彼らはどうやってすべての機器を運搬しているのでしょうか?飛行機での手荷物の紛失、サウンド・システムの不調、そういった話をよく耳にします。だからセットアップはできるだけシンプルにしようと決めているんです。

Nishimoto & Lippok

Artists

Nishimoto & Lippok

国際的ギター奏者ペペ・ロメロの元でクラシック・ギターを学んだ西本毅は、ミニマリストなソロ作品、ジョン・テハダとの「I’m Not a Gun」プロジェクトなどのコラボレーション作品、サウンドトラックなどで頭角を現しています。すでに大きな活躍を見せている彼ですが、最新アルバム「Lavandula」は自身にとって新たな一歩であると感じているといいます。新興レーベルSonic Piecesからの初リリース作品となるこのアルバムは、コラボレーション作品でもあります。「Lavandula」セッションに、西本は、To Rococo Rotの創設メンバーであり、老舗レーベルRaster-Notonでソロ・アーティストとしても活躍するエレクトロアコースティック・ミュージックのベテラン、ロバート・リポックを起用しました。 「Lavandula」は、作品制作に手練れた、気心のしれた2名の熟練アーティストの競演から生まれた作品です。また、互いの新たな探求として作品を印象づける繊細な変化を受容する2名のミュージシャンの姿を映した作品ともなっています。Abletonは、「Lavandula」制作、アコースティック楽器とエレクトロニクスを使用したインプロビゼーション、間近に迫った日本ツアーについて2人に話を聞きました。 お二人は知り合ってどれくらいになるのでしょうか?また一緒に仕事をするようになってどのくらいになりますか? ロバート・リポック(以下リポック):ベルリンを拠点に活動するビジュアル・アーティスト、ニーナ・フィッシャーとマロアン・エルサーニーと長いつきあいがあり、彼らのビデオ・インスタレーションに参加していたのですが、彼らが成田空港に関する映画を撮ったとき、サウンドトラックを作成して欲しいと頼まれたんです。そのときギターを使うアイデアが思い浮かびました。 西本毅(以下西本):「このプロジェクトを一緒にやらないかい?」と声をかけてもらったとき、とても興奮したのを覚えています。「ああ、もちろんだよ!」と即答しました。 リポック:ベルリンでの映画初上映に、毅と、僕の友人でハープ奏者のベアトリス・マルティーニを招き、サウンドトラックを生演奏しました。別の2作品にもサウンドトラックを作成しました。 新作でのコラボレーションのプロセスはどのようなものでしたか?同時に作業されたのでしょうか、それとも別々に? リポック:まず毅から、2~3曲参加して欲しいと話がありました。一緒にスタジオに入って即興で演奏し始めると、たくさんのアイデアが生まれました。どのトラックもとても良い出来で、結局ほとんどのトラックに参加することになりました。もともとは数曲に少しだけ参加する予定だったんです。制作は2人同時に行いました。トラックの編集はあまり行いませんでした。 西本:どのトラックもほぼライブ・レコーディングです。即興で演奏し、そのまま録音しました。 リポック:そうです。To Rococo Rotでの作品制作と、イタリア人作曲家ルドヴィコ・エイナウディとの仕事にヒントを得ました。(エイナウディの)グランドピアノ演奏のプロセッシングの一部を担当したのですが、こういった状況の要件に詳しくなりました。それに、Ableton Liveを使用すればレコーディングに適切なセットアップを見つけることは難しくありません。 西本:これこそ、ロバートに参加して欲しかった理由のひとつです。ラップトップ・アーティスト、優れたエレクトロニック・アーティストはたくさんいます。でも、私に言わせれば、彼ほどラップトップとAbleton Liveの使用に長けていて、ライブ・プロセッシングに巧みなアーティストはいないと思います。実は、このプロジェクトが形になるずっと前、数年前にはすでに彼に話はしていたんです。実際に一緒に作品を作り始めるまでに時間がかかってしまいましたが、一度取りかかってしまえば、3日で作品ができあがりました。 リポック:そうなんです。私はかなり時間がかかる方だと思います。最初の作品をリリースするまでに10年かかったくらいですから。制作のスパンが長いんです。 ということは、ソロ・デビュー・アルバム「Redsuperstructure」に収録の作品のいくつかは、To Rococo Rot時代に生まれたということになりますね。To Rococo Rotは現在も活動中ですか? リポック:はい、アート・リンゼイとスタジオで数曲を録音しました。このまま制作を続けて、2014年の春には次の作品をリリースする予定です。 時間をかけて制作するのが好きなんです。急いで作業しなければならなかったり、「これが終われば来週はマスタリング」などと予定が詰まっているのは好きではありません。音楽に関してだけでなく、人間関係においても同じです。ゆっくりと成長していくのがいいんです。なので、スタジオで過ごす時間よりも、パブで一緒に過ごす時間の方が長くなることもあります。 すべて即興とのお話でしたが、楽曲のおおまかなイメージのラフ・スケッチはあったのでしょうか? 西本:そうですね、いくつかの楽曲についてはアイデアがありました。でも、スタジオに入るとクリエイティブ・モードのスイッチが入って、聞きたかった音が生まれてくるんです。 この作品には繊細なエレクトロニックさが加えられていますが、サンプルを追加したり、シンセを使用したりといったことはありましたか?それとも、エフェクト・プロセッシングのみでしょうか? リポック:基本的には、毅の演奏にエフェクト・プロセッシングを加えただけです。毅のギターのループもいくつか追加しています。ピアノやギターをプロセッシングしたものには素晴らしい作品があふれています。たとえば、クリスチャン・フェネスの作品は、どれもとても美しい。オヴァルの最新作もいいですね。このタイプの、リッチで複雑なプロセッシングがとても好きなんです。 でも、このアルバムには別のアプローチを採りました。そうですね、90年代のエフェクト・ラックのようなものを考えたのです。一定の雰囲気を作り出すには、どのシンプルなエフェクトを積み重ねれば良いだろう?と考えたわけです。エフェクトの多くはAbleton Live付属のもの、リバーブ、ディレイ、ディストーションなどです。シグナル・チェーンでリバーブ前にディストーションを多用し、サウンドをより豊かで深いものにしました。トランスポーズもありますが、複雑なものはありません。どのエフェクトも、92年以前にはすでに存在していたものです。 L-R: Takeshi Nishimoto, Robert Lippok このアルバムは非常にまとまりがよく、詰め込んだ感がありません。西本さん、リポックさんのエレクトロニクス用に余地を残すために、演奏スタイルを意識的に変化したということはありましたか? 西本:ロバートに絶大な信頼を置いていたので、彼のすることについてはまったく心配しませんでした。この作品に彼を起用したかった理由はたくさんありますが、特に自分のサウンドに変化を加えたいという気持ちがありました。彼を信頼していたからこそ、彼のために自分のスタイルを変えるということを意識する必要はありませんでした。自分の音楽を演奏しさえすれば、彼がうまくやってくれると確信していたからです。 Abletonやその他のアウトボード機器を使用してご自身でエフェクトを加えた部分などはありましたか? 西本:はい、いくつかのトラックで行いました。「6/8」ではループを使ったと思います。「Straßenlaterne」ではブーメラン・ペダルを使用しました。それ以外は、すべてのトラックを通して演奏し、ロバートがエフェクトを加えました。ほとんどのトラックがワンテイクで録音できました。アコースティック・ギターで演奏した2曲目は、いくつかテイクを重ねましたが。 各トラックにLiveテンプレートを設定したのですか?それとも変更を加えましたか?...

Nicolas Bernier:インティメートな周波数

Artists

Nicolas Bernier:インティメートな周波数

おおまかに「サウンドアート」と定義されている分野に、今、注目が集まっています。ニューヨークのMOMAやメトロポリタン美術館などの有名な団体がオーディオ作品の展覧会を開催したり、CTM、Mutek、Unsoundといったエレクトロニック・ミュージックのフェスティバルでは、サウンドを彫刻作品、パフォーマンス、ビデオ、その他の音楽以外の分野と結びつけた作品が多く盛り込まれるようになっています。 この文脈において、モントリオールを拠点に活動するNicolas Bernierは、現在最も注目を集めるアーティストのひとりといえるでしょう。彼は、自身の作品を、過去のオブジェクトを用いて作成し、現代的な手法(LiveとMax for Liveを含む)を用いて操作するエレクトロニック・ミュージックであると説明しています。その洗練された手法に加え、Bernierは知性と肉体的感覚の見事なバランスを実現させており、それは「frequencies (a)」にもはっきりと現れています。この作品で、彼は名誉あるArs Electronica Golden Nica for digital musics and sound artを受賞しました。 Golden Nicaの受賞おめでとうございます。「frequencies (a)」での音叉を使用するアイデアはどこから生まれたものですか? 音叉のアイデアはかなり前からありました。ノイズやオブジェクトをベースとするサウンド・パフォーマンスに安定したピッチを組み込む方法を探していたときに思いついたものです。トーナルな要素として一般的な楽器を使用することを避けたいと思っていました。旧式の物を使用することが多いので、音楽、サウンド、新旧の技術の間の関係についてはいつも考えを巡らせています。音叉の使用はパーフェクトだったと思います。音叉はもともと科学的な精密ツールとして使用されていましたし、調性音楽を象徴するものでもあり、また何よりも、エレクトロニック・ミュージック作品で使用される非常にプリミティブなサウンド、純粋な正弦波に近いサウンドを生成するオブジェクトでもあります。私はまず、あらゆる種類の音叉を集めることから始めました。440Hzより低い19世紀のものから医療用として使用されている最近のものまでさまざまな音叉を集めました。どこへいくにもそれらを持参し(当時は今よりも即興でやることが多かったのです)、それらを使ってファーストアルバム(Crónicaから2010年に発表した「strings.lines」)を制作しました。徐々に音叉にはまっていき、私にとってある意味一番重要な楽器となりました。ただ、手動で音叉を操作したのでは思った通りの正確さが得られないことに不満でした。音叉のオートメーションのアイデアはそこから生まれたものです。 「frequencies (a)」を演奏する際の理想的な条件とはどのようなものですか?また技術面でのセットアップは? モントリオールで開催されたElektra Festivalでは最高のコンディションで演奏できました。100名が限度の小さな会場で、3日間にわたって「frequencies (a)」のパフォーマンス専用にセッティングされました。これは本当に贅沢なことでした。エレクトロニック・ミュージックのフェスティバルでは、会場が広く、大型ビデオスクリーンがあり、新しい環境に合わせてセットアップを調整する時間が与えられることはないのが一般的ですから。このようなセッティングであるのには理由があることは分かっていますし、文句を言うつもりもないのですが、作品によっては要件が異なることがあるのも事実です。「frequencies (a)」もそうでした。通常のパフォーマンス形態を想定した構成ではなく、特別な条件を要する作品でした。音叉、小型ソレノイド、微音、精密部品などの小さな物体を扱う作品なので、オーディエンスの近くで演奏しなければなりません。壮大さにではなく親密さに重きを置いた作品なのです。 機材については、Laurent LoisonとOlivier Lefebvreの協力を得て、音叉と、音叉を作動させるソレノイドの台となるアクリル製の構造体を作成しました。音叉とソレノイドは、カスタムのライティングテーブルのコンタクトマイクと光束につながっています。 このテーブルには電子機器(USB/DMXボード)も隠されています。光とソレノイドに送られる電圧はすべてこのボードを介して送信されます。残りは、作品、オーディオビジュアルのシーケンスを時間内にまとめるという作業です。これにはAbleton LiveとMax for Liveを使用しています。 エレクトロニックな要素とメカニカルな要素を組み合わせて作品にするというアイデアはどこから生まれたものですか? エレクトロニックな要素とメカニカル/フィジカルな要素のこのような関係こそが、エレクトロニック・アートの分野で作品を作りたいと思ったきっかけそのものでした。今でこそこれらの間のやりとりはスムーズなものになりましたが、10~15年前はラップトップのパフォーマンスが理想的になってきたところで、作品のほとんどは完全にデジタルであるか一切デジタルを含まないかのどちらかだったので、このようなミックスは非常に魅力的でした。 それ以来、私の作品は常にコンピューターによりプロセスされるフィジカルな要素を使用したものになっています。アイデアやプロジェクトのきっかけはいつもフィジカルな世界からやって来ますが、このアイデアを表現する手段には必ずコンピューターが必要となります。しかし私にとって最も重要なのは要素のバランスです。完全に「自然」や完全に「デジタル」な作品を作成することのないよう心がけています。本当のところ、自然とバーチャル/人工なものの間に差異はないと思っています。すべてはつながっていて互いにコミュニケートしており、いろいろな点でプロセスが加わっているのだと思うのです。 Ars Electronicaを受賞されましたが、受賞された部門はデジタル・ミュージックとサウンド・アートの分野でしたね。ご自身では、第一にミュージシャンであるとお考えですか? 芸術そのものに大きな興味を持っていますが、そこに「カテゴリ」がある理由についてはよく理解できません。政治的または歴史的な理由があったのなら別ですが…。とはいえ、私が用いる主な媒体はサウンドであることは争いようのない事実ですし、きっとこれからもずっとサウンドを用いて作品を作っていくと思います。ただし私の興味はあらゆるところにあり、それが作品に多様な影響を与えています。何かに感銘を受けるとき、それがどのカテゴリに適合するかということは考えません。それは作品を作るときも同じです。ただ必要なことをするだけで、こちらのカテゴリか、あちらのカテゴリかということを考えることはありません。ですから、たとえ私の媒体はサウンドであっても、パフォーマティブなもの、シアトリカルなもの、ジェスチャー的なもの、ビジュアル的なもの、そしてもちろん音楽的なものについてしばしば自問するのです。 新作「frequencies (synthetic variations)」と「frequencies (a)」の関係について教えてください。また今後の活動予定についてもお聞かせください。 「frequencies」は、純と不純の二分法に関するシリーズ作品で、アコースティック、デジタル、エレクトロニックの3つのパートに分かれています。これら3つの音の歴史的な進化の段階を訪ねるというコンセプトです。第1部の「(a)」は「オーディオ」や「アコースティック」を指しています。音叉はほぼ純音を生成するからです。Mutekで発表した第2部「(synthetic variations)」は、完全デジタルサウンドで作成しました。このパフォーマンスでは、「frequencies (a)」で使用したのとまったく同じシステムを使用していますが、音叉、ソレノイド、人間によるパフォーマンスなど、アコースティックな要素はひとつもありません。私にとって初めてのラップトップ・パフォーマンスですが、ビジュアル的にはフィジカルな要素にトランスレートされています。あらかじめ記述されたシンセサウンドのシーケンスと、小さなアクリル製の構造体内で同期するライトから構成されています。第3部についてはまだ秘密としておきましょう。 Nicolas Bernierの「Frequencies (Synthetic Variations)」は好評発売中です。 Nicolas...

Alluxe:フィジカル・リアクション

Artists

Alluxe:フィジカル・リアクション

Laura Escudéは、さまざまな肩書きを持つ女性です。Ableton認定トレーナーであり、サウンド・デザイン・メーカーでありレコード・レーベルのElectronic Creatives創立者である彼女は、長年にわたってサウンド分野に従事しています。しかし、何よりもまずアーティストである彼女はここ最近Alluxe名義で活動しており、パフォーマンスやミュージック・ビデオを通して音楽でも輝きを見せています。AbletonはLauraにインタビューを実施し、Liveの使用歴、Alluxeプロジェクトについての自身の見解、要求の厳しいスーパースターとのツアーでの作業について話を聞きました。下からお読みいただけます。Lauraの無償Effect Rackをダウンロードすることも可能です。 Ableton Liveに出会ったきっかけは何でしたか?Ableton認定トレーナーとしての活動歴はどれくらいになりますか? Ableton Liveには、M-Audioのテクニカル・サポート部門で働いていた頃、2005年に出会いました。当時、M-AudioがAbletonのディストリビューションを行っていたので、「Oxygen 8にバンドルされていた『アルバトロン』とかいうソフトウェアを試しているんだけど…」といった電話に対応していたんです。こういった質問に答えるために、ソフトウェアについて知ろうと思ったのがきっかけです。そうしたらAbletonが大好きになって、このソフトウェアばかり使用するようになりました。2007年にAbletonで西海岸担当のプロダクト・スペシャリストとして働き、認定プログラムの確立を手助けした後、2008年に初の認定トレーナーのひとりとなりました。 多くのミュージシャンにとって、「サウンド・デザイン」は重要ではあるけれど、定義があやふやな用語といえます。プロのサウンド・デザイナーとして、ご自身の活動をどのように分類されますか? サウンド・デザインは、私にとってさまざまなキャパシティにおいてさまざまな意味を持っています。数年前、ある映画のスコア制作に関わる機会があり、長編映画用の「サウンド・デザイン」を担当しました。映画のサウンド・エフェクトすべてを変更することもあれば、音楽やサウンド・エフェクトとともに使用されるサウンド・ベッドを作成することもあります。劇場で、特定のスピーカーにサウンドを配置する「サウンド・デザイナー」たちとも仕事をしたこともあります。今はもっぱら、サウンドを録音し変更を加えて、私自身のプロジェクトに使用するユニークなサウンドを作成しています。 あなたはクラシックの教育を受けたバイオリニストでもありますが、サウンド・マニピュレーターでありビートメイカーでもあります。トラック制作では、アコースティック、またはエレクトロニックのどちらサイドから作業を開始しますか?あるいはハイブリッドにどちらとも? 最近はアップテンポなビート主導の音楽により重点を置いているので、ほとんどの場合、エレクトロニック・ドラムから初めてヴァイブやテンポを作成します。バイオリンと声に加えて、Live 9のMIDI変換機能を使用してメロディをシンセで演奏しています。キーボードを使用するよりも、この方がアイデアが出やすいんです。アコースティックなサウンドにエフェクトをかけてそこにシンセを重ねることもあります。楽しいですね。 Alluxe Cello Effect Rackをダウンロード Alluxe Cello Effect Rackは非常にみずみずしい印象を受けます。リバーブ/フィードバック・テイルが豊富で、ディストーションやフィルタリングの「ヒュー」といったサウンドが印象的です。このようなEffect Rackの典型的な使用法について、たとえばスタジオとライブのセッティングでお教えいただけますか? Cello Effect Rackはほとんど無調なので、サウンド・デザイン・ツールとしての使用を想定しています。チェロを数々の変わった方法で演奏していて、さまざまな物体を使用して叩いたり、キーキーきしませたり反響させています。これらのエフェクトの一部はこれまで作成したもののなかでも特に気に入っていて、ライブ・セットでも使用しています。あらゆる種類の制作や作曲に使用でき、推移音、轟音、優美なサウンドを作成できます。少し他と違う変わったサウンドをお探しの方におすすめです。 最新のAlluxeでの素材の前にも、アルバム「Pororoca」で変わったサウンドを生み出していますね。あれから、アーティストとして何か変わったと思うことはありますか? 「Pororoca」をリリースしたのは2010年ですが、あれは長い間温めていた音楽のコレクションでした。一部は5年も温めていたものなんです。他のアーティストとリリースすることが多かったので、自分自身の作品を集めたのはこれが初めてでした。リリースしたときにはすでに別の作品の制作にとりかかっていたのですが、みずみずしく美しいシネマティックなチューンにのめり込んでいたこの時代に敬意を表する必要があると感じたんです。リリース後、ヒップホップの世界にどっぷりつかり始めました。2000年からダンス・ミュージックに夢中になり、私のムーディでシネマティックなヴァイブとこういったインスピレーションを組み合わせることにしたのです。いろいろと試してみた後、Alluxe(Allure(「魅力」)とLuxe(「贅沢」)の組み合わせ)プロジェクトのアイデアを思いついたんです。Lauraとして行っていた活動と、音楽業界のプロとしての活動と分けようと思いました。Alluxeはよりビート主導でダンスフロアに合う音楽です。ショーではよりオーディエンスとつながることができて、素晴らしい気分を味わえます。オーディエンスが音楽に合わせて体を動かすのを見るのが大好きなんです。フィジカルな反応を見ることでやりがいを得られますし、エネルギーを与えてもらって、やっていることが間違っていないんだと確信を持つことができます。つい最近、初のEP「Nomad」をリリースしました。また、Mr. Hudson、M83、Polica、New Beat Fundのリミックスを行いました。また、エキサイティングなコラボレーションもいくつかリリースされています。 あなたのクライアントにはビックネームが並んでいますね。カニエ・ウェストと一緒に仕事をすることになったきっかけは?M83はどうでしょう? どのクライアントも紹介がきっかけでした。幸運なことに、ここ数年ネットワークを大きく広げることができました。Electronic Creativesを2009年から運営しており、オーディオ/ビジュアル・パフォーマンスに対する最先端のソリューションを設計・プログラムしています。推薦を受けたら、ネットワーク上にいる信頼のおけるアーティストに対して機会を作るようにしています。今秋は、カニエ・ウェスト、Drake、The Weeknd、Yeah Yeah Yeahs、Sleigh Bellsとショーを行いました。このようなネットワークを成長させることができ、才能ある人々にその才能を活かす場を見つけることができることは楽しいものです。タレント・エージェンシーとしても成長しています。ライブショーに関する技能を持つさまざまなアーティストと提携し、ライブショーをプログラムするだけでなく、最先端の機器を使用してショーを行うこともしています。ECの事業における次のステージがこれです。 アメリカのEDM(エレクトロニック・ダンス・ミュージック)シーンで活躍するアーティストでありながら、現在のEDMブームよりずっと前のジャンルにご興味をお持ちですね。また、ご自身の作品や、Electric Daisy Carnivalといったクライアントとの作品で、EDMが注目を集めていく様を最前線で体験されています。あなたにとって、EDMとは(ポジティブな意味で)どのような意味を持っていますか?また、シーンの拡大について問題だと考える点はありますか? レイヴに足を運び、ダンス・ミュージック作品でバイオリンを弾いた後で、2000年にエレクトロニック・ミュージックの世界に足を踏み入れました。まずはトランス(Sasha & Digweed)、ドラムンベース(Metalheadz)ダウンテンポ(Kruder & Dorfmeister)に夢中になりましたが、その後はレイヴで耳にするものよりも変わったサウンドを探すようになりました。2002年頃に(Squarepusherの作品)「Do You Know Squarepusher?」を聞いてIDMにはまりました。あの曲は今でも大好きです。2003年には、私の初のソロ・ライブのためにタンパでMachinedrumをブッキングしました。Merckレーベルからリリースされる作品に心を奪われていたからです。当時の私は、音楽について今よりももっとこだわりがありました。エクスペリメンタルさがたりない音楽を受け入れようとしなかったのです。 そこから言えば、今のEDMブームをはねつけるのは簡単ですが、年月を重ねるにつれて、商業的音楽も受け入れるようになり、ダンサブルであるかどうかにより興味が動いています。とはいえ、今でも足繁く通うのは「アンダーグラウンド」なイベントだけです。近頃のレイヴは私には強烈すぎるし、変わったサウンドが好きなことに変わりはないので。歌詞や、曲のその他の要素には親近感が感じられませんが、EDMで使用されているサウンドには素晴らしいものがたくさんあります。以前よりもたくさんのものからインスピレーションを感じられるようになり、よりオープンになりました。音楽スタイルや細かなジャンルについて厳密になりたくありません。あらゆるものから優れたエッセンスを得たいと思っています。...

トーマス・フェールマン - 流れるモーション

Artists

トーマス・フェールマン - 流れるモーション

誰もが認める好人物で有名なトーマス・フェールマンは、しかるべき時にしかるべき場所に居合わせていました。最初のバンドパレ・シャンブルグは、1980代初頭にノイエ・ドイチェ・ヴェレの第一線で活躍しました。また彼は、草創期のテクノシーンのヨーロッパにおける立役者であり、モーリッツ・フォン・オズワルドとホワン・アトキンスとのプロダクション・トリオである3MBを通じてベルリンとデトロイトの強固なつながりの実現に貢献しました。The Orbのメンバーとして、またソロアーティストとしても活躍する彼は、フレッシュな魅力で人々の心を捉えるエレクトロニック・ミュージックを発表し続けていますが、その多くはKOMPAKTレーベルからリリースされています。 KOMPAKTの20周年記念を機会に、Abletonはトーマス・フェールマンにインタビューを実施し、ワークフロー、オーケストラとの演奏、想像上のキーボード奏者、手荷物について話を聞きました。 アレックス・パターソンとThe Orb用の素材を扱う際の制作シチュエーションはどのようなものですか? アレックスとの作業ではそのほとんどが細かい操作です。彼が提供してくれたサウンドを私がレコーディングし、トラックのフォーマットやチューンのフォーマットに合わせて調整していくという作業です。このスタイルはAbletonを使用することで実現しました。Logicを使用していた頃や、もっと前のサンプラーを入力ソースに使用していた頃は、タイミングやチューンなど細かな部分を合わせるのにかなりの時間がかかっていました。 おおまかな構造をつくるということでしょうか? そうです。以前は「アレックス、ちょっと時間がかかるよ」と言わなければならないことも多かったし、またあまりにも時間がかかるので細部に手をかけたくないと思っていましたが、今はまったく逆です。いわゆる「クイック・ソリューション」ループにとりあえず入れてみたとき、一見いいアイデアに思えない場合もよくあります。でも、後になって初見のときよりもずっといろんなことを発見することもあります。レスポンスの素早さと優れた操作性だけではありません。制作における私たちの関係性にも一役買っています。近年におけるトラック制作においても、Abletonをインターフェースとして初めから終わりまで使用していなければ、違ったサウンドになっていたはずです。 2005年発表のThe Orbのアルバム「Okie Dokie It’s The Orb On Kompakt」から一部をお聴きください。 大まかに言って…それにこのことを話すのはこれが初めてなんですが、Liveがなかったら再びライブ演奏することはなかったと思います。かなり長い間、2000年あたりまで、裏方としてずっとやってきました。「ライブ」と呼ぶに値するワークプロセスの可能性を見いだせるようになったのは、2000年だったんです。 これまでAbleton Liveを使用してきて、ライブでの演奏方法に変化はありましたか? そうですね。最近Pushを手に入れました。ステージに持ち込みたいという段階ではまだないのですが、「ライブ」という形態を向上し、再定義してくれるギアだという予感がしています。正直言って、重くて、旅行用バッグを変更しなければならないような機材を持って行くことはためらわれるんです。この点は本当に不精なんですよね… 手荷物だけですか!? さすがに米国でのツアーに手荷物だけということはありませんが、ヨーロッパだったら絶対そうですね。 フェールマンさんの「手荷物オンリー」ポリシーはかなり有名です。ご本人はそれをご存じでしたか? かなり前からの習慣なんです。79年にロバート・フリップに初めて会ったとき、彼はFrippertronicsのコンサートで世界を回っていました。キング・クリムゾンが1回目の大きな波を越えた後で、休止期間に入っていた頃だったんですが、そのとき彼が言ったことはずっと私の頭に残っています。「未来は小型で携帯式になる」ここまで発展するとは彼も想像していなかったでしょうが、私は今でもこのアイデアに強い共感を感じているのです。もちろん肉体的な労苦から自由にしてくれるという側面もありますが、資金繰り、効率性、人材、全体的なインフラという観点から見れば、ツアーという形態の構造自体を変えるアイデアだと思います。そういう点からも、役立っていると思いますね。 パレ・シャンブルグの1981年の作品「Wir Bauen Eine Neue Stadt」をご覧ください。トーマス・フェールマンはトランペットを演奏しています。 コンサートの話が出たところでもう少しお聞きしたいのですが、ラップトップを開いてセットをスタートするときの状況をお話しください。 セッションビューを使用しています。テープレコーダーのような感じで使っています。ベースドラムすべてを1つのチャンネルに、インストゥルメントをそれぞれのチャンネルにそれぞれ置いて、だいたい全部で14トラック程度です。その後、各トラックに一定数のクリップ(20列ほど)を置きます。これでアレンジの下準備が少しだけできているような状態になります。下に移動しながら途中でいくつかバリエーションを加えていく形です。 コンサートとコンサートの合間には、少しだけ時間を取って(これがとても楽しいんですが)、ライブセットを通しでリハーサルし、直前のギグの最中に考えたことを思いだすようにしています。新しいサンプルや、新しいシンセラインのアイデアを試すこともあります。こうして新しいアイデアを追加していくんです。自分にとって興味深く新鮮なサウンドになるようにするためです。 あなたの作品は音が非常に豊かです。サウンドを見つけてメロディパートを生み出す際の一般的なアプローチはどのようなものですか。 私のアイデアやパートの探し方は、キーボーディストがノートを演奏するようなスタイルとは異なります。キーボードでは簡単に再現できそうにないメロディラインを生み出したいといつも努力しています。伝統的な意味で言えば私はキーボーディストではありませんし、ベースラインやメロディやコードを演奏しているキーボーディストを想像すると、いつも少し凡庸な感じがするんです。できるだけ自然で無意識なものになるよう心がけています。これを形にすることがこの仕事の主要な部分です。だから、このサウンドを生み出すシンセを思い浮かべるということはありません。程度の差はあれ、オリジナルのソースから離れたものを作りたいのです。またサンプルの使用については、これまでにも増してサンプルの元をたどるのが難しくなってきていると感じます。識別できるリックやブレイクなどではなくなっているからです。 Liveでも同様です。最近はLiveを幅広く使用していますが、たとえば1小節のサンプルがあるとしたら、ボリュームレベルをゼロにして、サンプル内の1つか2つの要素だけをピックアップして、同様の処理を行った他のサンプルに織り交ぜます。一種のコラージュのようなテクニックです。こうすることで、サンプルの元の形やどこから手に入れたサンプルなのかをすぐに忘れてしまいます。何だったかは覚えていませんが、こうしてあっという間に新しい命を得ることになるのです。これが非常に楽しいんです。アレックスとの作業スタイルの話に戻りますが、これだとすばやく簡単にまったく異なる結果を得ることができます。 アレックスがベルリンに来るときはだいたい3~4日の滞在日程なので、ときにはかなりの作業量になることがあります。だからといって、スピードアップを自分たちに課しているわけではありません。本当に意図したことではないのですが、自然とすばやく作業できるようになりました。ほんのわずかの時間でトラックの方向性を決めることができることに、ときどき自分たちでも驚くほどです。もちろんそれで完成というわけではありませんが、核となる部分がクリアになるのに時間がかからなくなりました。 サウンドソースとインストゥルメントについての話が出たところで、KOMPAKTから発表された象徴的な12インチ「Titan One / DFM」の誕生秘話をお聞かせください。オーケストラとのコラボについてはどのような準備をされたのでしょうか。 あのプロジェクトは、Mutekと連携したモントリオール交響楽団からの依頼が発端でした。クラシック音楽とエレクトロニック音楽を本来とは異なるオーディエンスに届けるのが目的でした。モントリオールのシンフォニーホールとは違った空間で、オーケストラにマーラーの交響曲第1番を演奏させたんです。非常に感銘を受けました。100名にも上るオーケストラがあのような場所で演奏するのを見たのは初めてでした。その後、オーケストラの後に私が通常のライブセットを演奏する前の幕あいの部分を作成してほしいと依頼を受けたのです。つまり、橋のようなものを作ることになったのです。 マーラーの第1番の録音素材からいくつかの要素をサンプリングし、そこからチューンを作り上げていきました。これは第1楽章、これは第2楽章という風に単純に進めていったのではなく、第1番のさまざまな部分から30ほどのサウンドを抜き出し、そこから作成していきました。Ari Benjamin Meyersに同席してもらって、サンプルをいくつか置き換え、彼に記譜してもらって数人のミュージシャンに私と一緒に演奏してもらったんです。基本的に、クラシック楽器のセクションと、私が担当するエレクトロニックなセクションとに分けられていて、私は楽譜に変換しにくい部分を演奏しました。 「Titan One」と「DFM」の一部をお聴きいただけます。 オーケストラの録音素材をサンプリングして、サンプルベースの曲を作成し、サンプルのいくつかは記譜してオーケストラ楽器を使用して演奏したということですか? そうです。それが1曲目の「Titan One」でした。「Titan」というタイトルは、マーラーの交響曲第1番の標題から来ています。2曲目の「DFM」(これは「Du Fehlst...