Artists

Monolake: Gute Geister

Robert Henke gewährt uns tiefe Einblicke in den Aufnahmeprozess, das Design von Sounds und Räumlichkeit, den Mixdown und die Bühnenumsetzung seines jüngsten Monolake-Albums: Ghosts.

monolake-ghost.jpg

Monolake

Mit welchem Ansatz hast du bei der Produktion des Albums das Thema Klangqualität behandelt, und welchen Einfluss hatte diese Herangehensweise auf den Kompositionsprozess und das Ergebnis?

Ich finde den Begriff ‚Klangqualität’ etwas problematisch; zumindest sollte man ihn definieren, bevor man dieses Thema erörtert. In der Musik sind die Ergebnisse immer subjektiv, und sehr oft gibt es keine klare Trennlinie zwischen dem ‚Signal’ und den ‚Verzerrungen’ und ‚Artefakten’. Ist eine verzerrte Bassline ein technisches Problem oder beabsichtigt? Wenn wir über meine Musik sprechen, können wir den Begriff ‚Qualität’ beiseite lassen und einfach über ‚Klang’ oder ‚Sound’ sprechen.

In erster Linie habe ich angefangen, mit höheren Sampling-Raten zu experimentieren, weil ich herausfinden wollte, ob oberhalb von 20 kHz irgend etwas Interessantes geschieht und ob das bei starker Abwärtstransponierung hörbar wird. Ich habe ein Paar ziemlich gute Mikrofone, die Signalanteile deutlich oberhalb von 20 kHz erfassen können. Damit habe ich – bei einer Sampling-Rate von 96 kHz – alle möglichen Klänge aufgenommen. Dann habe ich die Ergebnisse in Lives Sampler abgespielt und sie zwei Oktaven abwärts transponiert. Bei 96 kHz Sampling-Rate sind Signale bis hinauf zu etwa 40 kHz möglich. Transponiert man solche Sounds zwei Oktaven abwärts, verschiebt sich die Frequenzgrenze auf 10 kHz, so dass die ursprünglich [für das menschliche Gehör] ‚versteckte’ Oktave im Bereich 20 - 40 kHz auf 5 - 10 kHz verschoben und somit hörbar wird. Transponiert man hingegen ein Signal, das mit  44,1 kHz Sampling-Rate aufgezeichnet wurde, um den gleichen Betrag abwärts, hat das Ergebnis entweder typische Downsampling-Artefakte (falls die Interpolation in Sampler auf ‚Normal’ oder ‚No’ gestellt wird) oder es klingt matschig (wenn man die Interpolation auf ‚Good’ stellt).

Bei 96-kHz-Aufnahmen hat man einfach mehr ‚spektralen Spielraum’ und mehr ‚Luft’. Wenn man dieses Material abwärts transponiert, klingt das Ergebnis nicht mehr künstlich. Allerdings bin ich dabei bisher noch nicht auf wirklich interessante ‚versteckte Signale’ gestoßen. Es ist ähnlich wie der Unterschied zwischen RAW- und JPEG-Fotos. In den meisten Situationen ist es ziemlich egal, aber manchmal – oder für manche Arten von Nachbearbeitungen – können die Unterschiede verblüffend sein.

Ich re-sample sehr oft mein eigenes Material, um so komplexere Klangtexturen zu erzeugen. Weil für das Re-Sampling die gleichen Regeln wie für Originalaufnahmen gelten, habe ich mich dazu entschlossen, das neue Album komplett in 96 kHz zu produzieren. Glücklicherweise war mein aktueller Computer auch schnell genug, um meine Projekte bei dieser Sampling-Rate bearbeiten zu können.

Wenn man in Live mit variablen Sampling-Raten produzieren will, ist das nicht trivial und erfordert eine gewisse Disziplin. Live spielt Audiofiles beliebiger Original-Sampling-Raten in jeder aktuell gewählten Sampling-Rate ab, die durch die Soundkarte unterstützt wird. Es kann deshalb schnell passieren, dass man bei einem Projekt in der falschen Sampling-Rate arbeitet, ohne es überhaupt zu bemerken. Man sollte es sich deshalb zur Gewohnheit machen, die aktuelle Sampling-Rate der Soundkarte und auch die Sampling-Raten beim Audio-Export genau im Auge zu behalten.

Ich persönlich habe keine Probleme mit Artefakten, die durch Sampling-Raten-Konvertierung entstehen: In 99 % aller Fälle höre ich sie einfach nicht, und mir ist es auch egal, falls sie sich ‚unter Laborbedingungen’ im Spektrum zeigen. Für den Klang von Instrumenten und Effekten macht es jedoch einen riesigen Unterschied. Fast all meine Drumsounds entstehen mit Operator, und ein essenzieller Teil meiner Anwendung von FM-Synthese beinhaltet den gezielten Einsatz von Aliasing und Rundungsfehlern. Alle Hi-Hat-Presets, die ich in Operator bei 44,1 kHz gemacht habe, klingen in jeder anderen Sampling-Rate völlig anders. Ich habe es mir deshalb jetzt zur Gewohnheit gemacht, die Sampling-Rate im Preset-Namen zu erfassen:  ‚Metal_Hihat_03_sr44’, ‚Zoink_sr96’… Auch bei allen Bit-Crusher-, Sample-Rate-Reduction- und vielen Verzerrer-Plug-ins sind die Klangdifferenzen bei unterschiedlichen Sampling-Raten nicht zu überhören.

In einigen Fällen habe ich einen bestimmten Track einfach bei 44,1 kHz abgespielt, um diesen bestimmten Sound zu bewahren. Danach habe ich den Track mit der Freeze-Funktion ‚eingefroren’ und die Sampling-Rate dann wieder auf  96 kHz angehoben. Das zählt zu den Dingen, die ich sehr an Live mag: Es hält für fast jedes Problem eine Lösung bereit, auch wenn diese bisweilen nicht offensichtlich ist.

Du hast mir erzählt, dass du das Album ursprünglich anders mischen und mastern wolltest, deine Meinung dann aber geändert hast. Könntest du uns das näher erläutern?

Nun, ich arbeite gerne zu Hause. Ich hatte einmal einen semiprofessionellen Studioraum, aber irgendwann wurde das Gebäude verkauft und ich musst dort raus. Seitdem arbeite ich einem kleinen Raum mit guter Akustik, aber das ist nichts, was man als ‚Studio’ bezeichnen könnte. Während ich an Ghostsarbeitete, hatte ich die Vorstellung, zu Hause nur eine Rohmischung zu machen und dann später für den finalen Mixdown in ein ‚richtiges’ Studio zu gehen, am liebsten auch mit einem externen Engineer, der ein Paar frischer Ohren mitbringen würde. Es ergab sich, dass ich in Basel einen Freund von mir besuchte: Daniel Dettwiler, der dort ein Mastering- und Recording-Studio betreibt. Er hatte diese fantastischen Lautsprecher der kleinen Schweizer Firma Strauss, und die hauten mich wirklich um. Sie hatten dort nicht nur die richtig großen Exemplare, die weder in meinen Raum noch in mein Budget gepasst hätten, sondern auch kleinere Nahfeldmonitore.  Später bekam ich dann einmal die Möglichkeit, diese kleinen Monitore in meinem eigenen Studio auszuprobieren. Nach dieser kleinen Hörprobe musste ich sie einfach auf der Stelle kaufen. Nachdem ich dann einige Wochen lang damit gearbeitet hatte, war ich mir meiner Mischungen so sicher, dass ich den Entschluss fasste, den externen Mixdown zu überspringen und mein Homestudio nur für das Mastering zu verlassen, das dann gemeinsam mit Daniel in Basel erfolgte. Ich habe die komplette Produktion in Live gemacht, und in Basel spielten wir die Sets aus meinem Laptop ab und übertrugen den Stereomix fürs Mastering in Pro Tools. Während des gesamten Prozesses blieben wir in 96 kHz / 24 bit.

monolake_web_02.jpg

Monolake workplace

Robert Henkes Homestudio. Monitore: Strauss SE-NF3 und Genelec 8020A.

 

Du hast das Album auch in einer 24-bit/96-kHz-Version zum Downloadveröffentlicht. Ich kann verstehen, warum es sinnvoll ist, während der Produktion in hoher Auflösung zu arbeiten, aber glaubst du, dass diese Version besser klingt als die CD-Version mit 44,1 kHz?

Die Grenze für menschliches Hören liegt bei 20 kHz oder sogar deutlich tiefer. Ich bin mir absolut sicher,  das wir nichts oberhalb dieser Grenze hören. Und dennoch: Ich habe gemeinsam mit Daniel ausgiebige Hörtests gemacht, bei denen wir ständig zwischen beiden Versionen umgeschaltet haben, und wir waren uns beide sehr sicher, dass wir einen Unterschied hören konnten – besonders was die Wahrnehmung der Räumlichkeit betrifft. Ich habe diesbezüglich eine Theorie, hatte bisher aber noch keine Zeit, sie mit erfahreneren Leuten zu diskutieren: Ich glaube einfach, dass wir Phasendifferenzen in der Größenordnung einzelner Samples bei 96 kHz hören können, sobald mehr als ein Lautsprecher im Spiel ist.

Du hast Ghosts komplett in Live gemischt, ohne zusätzliches Outboard-Equipment. War das in deinem ursprünglichen Plan, in einem großen Studio zu mischen, ebenfalls anders vorgesehen?

Ja, in der Tat. Und es war keine einfache Entscheidung. Egal ob man komplett in Live (oder einer anderen DAW) oder mit einem externen Pult und Outboard-Equipment mischt: Für beide Ansätze gibt es jeweils gute Argumente. Ich habe den Eindruck, dass es eine große Unsicherheit bezüglich der Vorteile und Probleme beider Varianten gibt. Als jemand, der im Ableton-Forum viel Zeit damit verbringt, über die ‚Klangqualität’ von Live zu debattieren, fühle ich mich fast schon verpflichtet, etwas zu diesem Thema zu sagen. Zunächst einmal ist es extrem kostenschonend, eine Produktion direkt in Live und ohne externe Mischung zu realisieren – und das ist ein äußerst wichtiger Punkt. Ein guter DA- [Digital-zu-Analog]-Konverter mit 16 oder mehr Kanälen, eine gute Analog-Konsole und weiteres Outboard-Equipment: all das ist extrem teuer. Ein Studio mit solch einer Ausstattung zu mieten kostet ebenfalls eine Menge, und vielleicht hat man mehr davon, dieses Geld in etwas wie ein Paar guter Lautsprecher zu stecken, oder in einen schnelleren Computer – oder in Musikunterricht.

Der zweite Aspekt ist Raum- und Arbeitsergonomie. In einem kleinen Schlafzimmerstudio gibt es meist nicht genug Platz für ein großes Mischpult. Entweder ist der Laptop an der optimalen Hörposition oder der Mixer – aber niemals beide gleichzeitig. Musik zu produzieren oder zu mischen, ohne dabei im ‚Sweet Spot’ zu sitzen, ergibt keinen Sinn. Aber selbst falls man all dies irgendwie in den Griff bekommt, gibt es einen weiteren Aspekt, und der ist für mich der wirklich wichtige: Ich will die Möglichkeit haben, das komplette Projekt einschließlich der Mischung einfach zu archivieren, und ich will gleichzeitig an verschiedenen Projekten arbeiten können. Sobald Outboard-Effekte und -Mixer im Spiel sind, ist das so gut wie unmöglich – höchstens vielleicht, wenn man viele Studioassistenten hat, die sich fleißig um alles kümmern, während man selber eine Kaffeepause macht. Während der Entstehung des Albums Ghosts habe ich oft zwischen den verschiedenen Songs hin und her gewechselt,  und das zählt zu den größten Vorteilen, wenn man komplett innerhalb einer Software arbeitet.

Nach diesem Loblied auf das Mischen im Computer will ich aber auch noch eine andere Perspektive erwähnen: Rückblickend glaube ich, dass es von Vorteil gewesen wäre, das Album mit einem externen Mischpult und einem Mixing Engineer mit frischen Ohren zu mischen. Nicht wegen der Audioqualität im technischen Sinne, sondern wegen der damit verbundenen Arbeitsweise: Wenn man innerhalb einer DAW mischt, verliert man leicht den Blick aufs Wesentliche. Wenn man denselben Mix seiner eigenen Musik 5000 Mal gehört hat, fallen einem unter Umständen bestimmte Dinge nicht mehr auf, die für einen nachträglich hinzukommenden Mixing Engineer offensichtlich wären.

Hier ein Beispiel: In einem meiner Songs gab es einen MIDI-Kanal, dessen Mixer-Fader auf -40 dB stand. Ich kann nicht mehr nachvollziehen, wie das passiert ist, aber der entscheidende Punkt ist: Beim finalen Mix dieses Tracks ist mir dieses Detail nicht aufgefallen. Erst später, als ich Stems [Submixe] des Materials machte, um die Bühnenumsetzung vorzubereiten, stolperte ich darüber. Diese Spur wäre wirklich eine Bereicherung meiner Drums gewesen, aber so ist sie auf dem Album so gut wie nicht zu hören. Hätte man extern gemischt und dazu das ganze Set auf ein externes Pult geroutet, dort jeden Fader mit einem Namen versehen und sich (neu) orientiert, was in jedem Kanal geschieht, wäre das nie passiert. Zu guter Letzt ist auch der spontane, haptische ‚Zugriff’ auf die EQs eines Pultes immer noch etwas anderes. Zum jetzigen Zeitpunkt würde ich es so sagen: Ich würde beim nächsten Mal wieder alles im Rechner machen und so tun, als wäre es das finale Produkt, dann zum Schluss aber trotzdem in ein externes Studio gehen und den Mix dort (neu) machen. Falls das nichts bringt, hat man ja immer noch die komplett in Live gemischte Version. Und falls es im Studio noch besser wird: umso besser.

Eine Sache, die ich allerdings unter keinen Umständen selber machen will, ist das Mastering. Ich brauche einfach eine externe, objektive Person, die beurteilt, ob es klanglich ausgewogen ist, und die mir hilft, die richtigen finalen Entscheidungen zu treffen. Ich bin bei Mastering-Sessions immer dabei, und sehr oft gipfelt es in einem Dialog zwischen dem Mastering-Engineer und mir, in dem ich dann am Ende so etwas sage wie: „Hey, wir müssen hier dieses mittige Ding rausnehmen”. Aber es ist wichtig, dass die externe und erfahrene Person neben mir auch etwas beisteuert, dass sie Einwände bringt wie etwa: „Nein, diesen Bereich würde ich hier nicht weiter anheben” – dass sie dazu fähig ist, meine Vision zu korrigieren, wenn ich Gefahr laufe, mich in die falsche Richtung zu bewegen.

Ghosts hat eine bestechende Räumlichkeit  – die einzelnen Teile scheinen zu atmen, werden an bestimmten Punkten aber auch gezielt sehr dominant. Wie hast du diese Dynamik hinbekommen?

Räumlichkeit ist ein sehr interessantes Thema, besonders in der elektronischen Musik. Wenn ein akustisches Instrument gespielt wird, ist dabei immer auch eine räumliche Komponente im Spiel: Verschiedene Frequenzen breiten sich unterschiedlich stark in verschiedene Richtungen aus und werden vom Raum reflektiert. Das ist ein komplexer Vorgang. In elektronischer Musik geschieht hingegen nichts von alldem von selber – man muss es konstruieren.

Wir alle sind Raumgestalter, Klangarchitekten unserer eigenen Welten! Ich liebe es, mit Hall und Dynamik herumzuspielen; mir das Ausklingen eines Sounds anzuhören und dabei ein Gefühl für die Dinge zu entwickeln, die sich zwischen meinen beiden Lautsprechern entfalten.

Dabei habe ich keine bestimmte Herangehensweise. Ich höre einfach zu und konzentriere meine Wahrnehmung auf diese Aspekte meiner Musik. Deshalb bin ich auch vollkommen zufrieden mit dem Reverb-Effekt von Live: nicht weil er so ‚gut' oder ‚realistisch' klingt, sondern weil ich einfach weiß, wie ich damit genau die Klangpalette realisieren kann, die mir vorschwebt. Und wenn mir doch einmal der Sinn nach etwas anderem steht, gibt es genug Alternativen; andere Reverb-Plug-ins, Faltungshall oder sogar die Methode, Signale in die Außenwelt zu schicken (in meinem Falle in einen kleinen Analogmixer) und in diverse Hardware-Hallprozessoren. Heutzutage kommt es aber eher selten vor, dass ich meine Hardware anwerfe, es sei denn, ich möchte damit den Raum heizen.

Auf dem Album hört man einiges an beeindruckendem Sound-Design. Mit welchen Ableton-Instrumenten hast du gearbeitet?

Ich beginne bei meinen Tracks oft damit, dass ich Operator in eine Spur einsetze und damit einen Bassdrum- oder Bass-Sound mache, ausgehend von der Voreinstellung. Ich hege eine starke Abneigung gegen Preset-‚Inhalte’. Wenn ich einen neuen Synthesizer bekomme, werfe ich dort zunächst möglichst alle Werkspresets raus. Ich möchte die Möglichkeiten selber erforschen. Irgendwann später gehe ich auch mal die Presets durch, aber eigentlich nur, um sicherzustellen, dass ich nichts Wichtiges übersehen habe. Danach kehre ich wieder dazu zurück, ausschließlich meine eigenen Presets anzuwenden.

Ich kann es mir leisten, so zu arbeiten, weil niemand hinter mir steht, der mir sagt, er wolle diesen hippen Sound jenes Künstlers X in seinem Werbespot. Selber Sounds zu kreieren macht für mich einen großen Teil dessen aus, was ich an meiner Arbeit mit Elektronik liebe: die Möglichkeit, mir meine eigenen Klangfarben zu erschaffen.

Operator ist mein Arbeitspferd. Irgendwie ist das ist eine komische Wendung, denn als ich ihn 2004 als Teil von Live 4 entwickelte, sah ich ihn nur als ein nettes ‚Einsteiger’-Instrument, das FM-Standard-Sounds auf möglichst effektive Art abdecken sollte. Damals arbeitete ich viel mit den ‚großen’ Hardware-FM-Synthesizern, die ich in meinem Studio hatte, und ich wollte es Live-Anwendern ermöglichen, FM auf eine einfache Art anzuwenden. Im Laufe der Jahre wuchs Operator dann jedoch immer weiter, und wir bauten viele nette Details ein. Heute, im Jahr 2012, fasse ich meine Hardware-FM-Synths kaum noch an und mache 70 % all meiner Sounds mit Operator: Drums, Flächen, Basslines usw…

monolake_web_01.jpg

Monolake Synths

Einige von Henkes Synthesizern: PPG Wave 2.3, NED Synclavier II (links), Sequential Prophet VS, Oberheim Xpander, Yamaha TG-77 und DX27 (rechts).

 

Andere Instrumente kommen ins Spiel, wenn ich ein ‚spezielles Extra’ hinzufügen will. Wenn ich zum Beispiel schon einen schönen Groove habe, fange ich vielleicht an, mein Studio zu erforschen. Dann spiele ich mit einem meiner digitalen 80er-Jahre-Hardware-Monster herum – oder mit einem anderen Software-Instrument. In solchen Phasen der Produktion suche ich meist einen sehr spezifischen Sound, etwas von ikonischer Qualität. Dieser Klang kann alles mögliche sein: eine Aufnahme, ein Synthesizer-Sound oder ein besonderer Effekt.

Wichtige Rollen auf Ghosts haben Tension und Corpus gespielt, Lives Warp-Funktion, ein Prophet VS Hardware-Synthesizer sowie diverse Aufnahmen von Metallobjekten. Tension ist nicht einfach in den Griff zu bekommen, aber auch ein Instrument mit starker Persönlichkeit. Ich erwarte nicht, dass es klingt wie eine echte gezupfte Gitarre oder eine Geige und kann deshalb auch nicht enttäuscht werden. Ich sehe es eher als das, was es ist: ein komplexer Algorithmus, der versucht, einige der physikalischen Prozesse zu emulieren, nach denen Saiten-Instrumente funktionieren. Ich verstehe genug davon, um mir ungefähr vorstellen zu können, was da geschieht. Der Rest besteht einfach darin, so lange mit den Parametern zu experimentieren, bis ein interessanter Klang entsteht.

Mein Track ‚Phenomenon’ wird von Sounds getragen, die wie eine Mischung aus gezupften Saiten, aufspringenden Bällen und einem ‚Miauen’ klingen. Diese Klänge kommen aus mehreren Instanzen von Tension. Zusätzlich spielt hier auch der Live-Effekt Multiband Dynamics eine wichtige Rolle, den ich hier einsetze, um alle Unzulänglichkeiten des Tension-Modells noch stärker zu betonen. Die ‚Miauuu’-Komponente des Sounds entsteht durch die Modulation einiger Parameter mittels eines Max-for-Live-Patches. Der Sound selber ist sehr leise; erst die gewaltige Komprimierung macht ihn zu etwas Eigenständigem: Der Fehler wird zum Thema. Modulation oder auch deren gezieltes Auslassen sind ebenfalls ein Schlüssel zu meiner Musik. In meinem Track ‚Discontinuity’ ist der wichtigste Sound ein kurzer Impuls, der eine Instanz von Corpus anregt. Hier habe ich den LFO geschaltet, der die Tonhöhe moduliert. Was den Track wirklich ausmacht, ist der durch diese LFO-Schaltung entstehende Kontrast zwischen dem modulierten und dem statischen Sound.

Für mich ist Live eher ein großer modularer Synthesizer als eine klassische DAW. Die Möglichkeiten, Audio intern zu routen, Max zu integrieren, aber auch die Warp-Engine machen wirklich Spaß. Diese Qualität von Live als ‚Instrument’ ist genau das, was ich am meisten genieße. In diesem Zusammenhang möchte ich das Warping noch einmal besonders hervorheben. Auch diese Technologie bringt nämlich genau dann die musikalisch interessantesten Ergebnisse hervor, wenn man sie entgegen ihrer ursprünglichen Bestimmung anwendet – oder wenn man zumindest ihre spezifischen Artefakte zum Teil des Spiels erhebt.

Ich liebe es, strukturierte Klänge zu resampeln und Pitch-Shifting und Time-Stretching dann als klangliche Transformationen anzuwenden; mit unterschiedlichen Warp-Modi und deren Parametern spielen, die Ergebnisse resampeln, filtern, wieder resampeln, Hall hinzufügen, zeitlich umkehren, wieder warpen usw. Die Möglichkeiten sind uferlos. Ich nutze Warping nie im ursprünglichen Sinne, um das Tempo anzupassen. Audio-Files klingen nach jedem Time-Stretching furchtbar. Man kann Zeit einfach nicht dehnen. Egal mit welchem Algorithmus: Ohne Artefakte ist das einfach nicht möglich. Wenn ich meine Sprache per Computer um 20 % langsamer mache, klinge ich wie auf Valium und nicht wie ein konzentriertes menschliches Wesen – so ist das nun mal.

Du hast den Monolake Granulator entworfen, ein herausragendes Max-for-Live-Instrument mit Granularsynthese. Kannst du uns einige Stellen aufGhosts nennen, an denen der Granulator zum Einsatz kommt?

Viele der Flächensounds sind mit dem Granulator entstanden. Eine Menge davon hört man auf ‚Unstable Matter'. Die Orgel-ähnlichen Sounds und die Chorstimmen auf ‚Aligning the Daemon’ sind ebenfalls Granular-basiert.

Bei deiner Bühnenperformance arbeitest du mit Surround-Sound. Wie realisierst du das in Live?

Früher waren meine Bühnen-Sets wie lebendige Organismen, die sich langsam entwickelten und mutierten. Bei jedem Soundcheck und jeder kurzen Pause im Hotelzimmer fügte ich etwas hinzu oder nahm etwas weg. So wurden die Sets immer ein ziemliches Durcheinander, und nur einige formale Beschränkungen – etwa die Anzahl der Kanäle – hielten das Chaos noch in Grenzen. Für die ‚Ghosts in Surround’-Tour wollte ich es von Anfang an anders machen. Diese Live-Show sollte eng am Album bleiben und dann einfach performt werden, ohne das Rad jede Nacht wieder neu zu erfinden.

Zunächst definierte ich die Reihenfolge, in der ich die Tracks bei der Show spielen wollte. So hatte ich sehr früh eine Vorstellung vom Ablauf, bevor ich mich mit Details befasste. Dann machte ich für jeden Album-Track ein Bildschirmfoto des Arrangements. Ich sah mir diese Bilder lange an und stellte mir dabei einige wesentliche Fragen: 1.) Wie sind die Tracks bezüglich deren Instrumentierung organisiert? 2.) Wo gibt es Gemeinsamkeiten und Unterschiede? Wie ist jeder Track strukturiert – wo sind die Breaks, die Loops und die Passagen, die sich langsam entwickeln? 3.) Wie könnte ich diese Tracks in einem Mehrkanal-Surround-Set aufführen?

Bevor ich mit der konkreten Arbeit in Live anfing, machte ich mir viele Notizen auf Papier. Dann definierte ich einige Eckpfeiler: Wie viele Kanäle wird mein Live-Set haben? (12) Was ist die primäre Funktion jedes einzelnen Kanals? (Bassdrum, Bassline, Akkorde, Snare 1...) Welche Elemente sollen sich im Surroundfeld umherbewegen und welche sollen statisch oder auf allen Kanälen vertreten sein? (Die Bassdrum etwa ist statisch und immer auf allen Kanälen gleichzeitig zu hören.)

Dann öffnete ich in Live wieder jeden einzelnen Song und exportierte Stems. Danach baute ich die Original-Songs mit diesen Stems wieder neu auf, nur zum zu prüfen, ob auf diesem Wege etwas von deren ursprünglichem Zauber verlorengegangen war. Hier machte ich schon viele Vereinfachungen, um das Material später einfacher performen zu können: Vor dem Export der Stems entfernte ich viele der Effekte. So schuf ich neue Freiräume, um auf der Bühne spontaner Effekte hinzufügen zu können. Als das erledigt war, zerschnitt ich die Stems in individuelle Clips, die ich dann in der Session-Ansicht neu arrangierte. Das Ergebnis war ein einziges Set: alle Songs des Albums als eine lange Liste von Clips. Dort kann ich mich von oben nach unten hindurch bewegen, aber auch spontan umherspringen, wenn ich abenteuerlustiger bin. Ich kann Effekte auf Send-Wegen hinzufügen, den Mix ändern, Teile überspringen oder länger spielen. All dies hat mich vier Wochen gekostet – aber das Resultat war die Mühe wert.

Dann ergänzte ich jeden Track um eine zusätzliche MIDI-Spur, die – über Max for Live und OSC – Cue-Signale an die Video-Rendering-Software schickt. Um Letztere kümmert sich Tarik Barri: mein visueller Gegenpart bei derGhosts-Tour.

Danach überlegte ich mir, mit welchen Hardware-Controllern ich arbeiten wollte. Am Ende wurden es zwei Kästchen mit je 16 MIDI-Fadern [Doepfer Pocket Fader] und ein iPad mit der Lemur App, die mir 30 weitere Fader und viele zusätzliche Taster auf dem Touchscreen bereitstellt. Ich plane gerade, dieses Set durch ein zweites iPad zu erweitern, um noch mehr Eingriffsmöglichkeiten zu gewinnen.

Weil ich bei der Show so viele Parameter im direkten Zugriff habe, fügte ich noch einen MIDI-Track hinzu, der einiges Material meiner Stems durch MIDI-(Synth)-Clips ersetzt. So kann ich auf der Bühne in Echtzeit mit den Parametern der Synthesizer spielen. Was die tonalen Linien angeht, spiele ich auf der Bühne hauptsächlich die Basslines live. Wobble ist jetzt auch möglich. Für den Fall der Fälle...

Der letzte (und noch nicht komplett abgeschlossene) Teil war und ist die Surround-Kontrolle. Weil die Konzerte an Orten mit verschiedensten Gegebenheiten stattfinden, war eine sehr flexible und stabile Lösung gefragt, die es mir erlaubt, die Anzahl der Lautsprecher zu variieren. Ich würde mein Setup als eine ‚4.2.2’-Konfiguration bezeichnen: vier Hauptkanäle (je zwei vorne und hinten) plus zwei weitere Kanäle, deren Lautsprecher man so platzieren kann, so wie es gerade passt (zu einem Ring von sechs Lautsprechern oder mit den zusätzlichen Lautsprechen in Bühnenmitte oder an der Decke hängend). Hinzu kommen zwei weitere Kanäle als Subs [tiefste Tiefen].

In Live habe ich entsprechende Send-Wege, über die ich die einzelnen Surround-Kanäle beliefere, sowie ein Max-for-Live-Patch, mit dem ich diese Sends dynamisch kontrollieren kann. Ich habe einige ‚Panning-Spuren’ definiert und dort jeweils ein Max-for-Live-Patch eingesetzt, das die Sends automatisch steuert. All diese Patches werden durch ein ‚SurroundMaster’-Patch im Master-Kanal kontrolliert, das alle möglichen Arten synchronisierter oder frei laufender Bewegungen der Sounds auf den Panning-Spuren erlaubt. Derzeit umfasst das Kreise, Spiralen, Sprünge und statische Routings, aber es ist immer noch viel zu verbessern. Rein technisch gibt es sehr viele Möglichkeiten, die Signale im Raum zu bewegen, aber ich bin immer noch dabei zu erforschen, wie ich all dies im Club- oder Konzert-Kontext musikalisch sinnvoll anwenden kann. Das Instrument ist fertig, nun muss ich nur noch üben, um es besser spielen zu können: Die räumlichen Aspekte sollen keine zufälligen Effekte sein. Ich möchte sie genauso komponieren und spielen wie den Rest meiner Musik – aber an diesem Ziel bin ich noch nicht ganz angekommen.

 

 

Erfahren Sie mehr über Monolake