
Im Oktober 2015 brachte die Loop-Konferenz viele kreative Akteure aus der Welt der Musiktechnologie zusammen. Künstler, Entwickler, Designer, Forscher, Wissenschaftler und passionierte Amateure stellten ihre Arbeit vor und tauschten sich über wünschenswerte Formen zukünftiger Technologie aus. Mark Smith hat die Diskussionen verfolgt und einige Denkweisen festgehalten, die hinter den neuesten technologischen Entwicklungen stehen.
Viele wichtigen musiktechnologischen Errungenschaften des 20. Jahrhunderts haben eindeutig etwas gemeinsam: Der riskante Umgang mit Technologie kann Musik auf unerwartete, spannende Weise eine kulturelle Relevanz verleihen. Overdrive und Distortion gehen auf Gitarristen zurück, die in den späten 1940er und frühen 1950er Jahren ihre Verstärker überlasteten oder sogar zerstörten. Die modulare Synthese entstand durch die Nutzung technischer Messgeräte und Kommunikationsgeräte für rein akustische Zwecke. Das Bandhallgerät war das Produkt umgeleiteter Spulen und modifizierter Schreib- und Leseköpfe. Analoge Wärme oder „Nicht-Linearität“ resultierte aus Fehlern im Frequenzgang und durch Übersprechen. Und das Phasing entstand, als Abbey Road-Toningenieure verbotenerweise mit Bandmaschinen experimentierten. Es lassen sich bestimmt noch weitere Beispiele finden. Eines steht fest: Musik und Kunst werden zwar weiterhin als die Hauptfelder künstlerischen Ausdrucks gelten, doch die treibende Kraft ihrer Entwicklung findet sich oft an der Schnittstelle von Technologie und Design.
So mancher früherer Entwicklungssprung der Musikproduktion resultierte aus der Bereitschaft, die Grenzen des erlaubten Einsatzes von Technologie zu verschieben. Im Jahr 2016 ist die Verbindung zwischen Technologie und Musik durch Effizienz, Komplexität und Nähe charakterisiert. Wer einen Laptop mit Internetverbindung besitzt, kann in akustische Mikrowelten eintauchen und unbegrenzt viele Parameter manipulieren, ohne dafür das Bett zu verlassen. Dies war für mindestens ein Jahrzehnt sogar die Norm: Wir granulieren und warpen schon so lange in unserem bequemen Zuhause, dass der Weg in die Zukunft der Musikproduktion immer mehr in die jüngste Vergangenheit zurückweicht. Wir genießen den einfachen Zugang zu hochwertigen Produkten, zu schnelleren und flexibleren Programmen und zu kleineren, farbigeren Bedienoberflächen. Doch das Versprechen von stets inspiriertem Musikmachen mit intelligenter, befreiender Technologie bleibt unerfüllt.

Teilnehmer auf Norbert Schells Loop-Präsentation “All Together Now”
Die Technologie an sich lässt sich dafür nicht verantwortlich machen. Über die begleitenden Werbetexte hinaus kann sie uns beim Musikmachen immer noch inspirieren. Doch die allerneuesten Entwicklungen finden möglicherweise außerhalb des Rahmens statt, in dem sich normale Produzenten normalerweise bewegen. Das Bildungswesen, Instrument-Design und Live Coding schaffen Umgebungen, in denen kreative Menschen forschen können – über die Verheißung des höher, schneller, weiter hinaus, das unser typisches Verhältnis zur Musiktechnologie bestimmt.
Bildung, Instrument-Design und Live Coding sind zugegebenermaßen sehr unterschiedliche Felder. Bei unserer ersten Loop-Konferenz waren allerdings spannende Überschneidungen zu erkennen: Live-Coder zeigen Schulkindern, wie sie Musik machen können, und Instrument-Designer arbeiten mit Universitäten und sozialen Einrichtungen zusammen, um noch nie dagewesene Performances zu realisieren. Anstatt bereits existierende kreative Methoden zu rationalisieren, bieten zukunftsorientierte Musiktechnologen Auswege aus Komfortzonen an – und aus eingefahrenen Vorstellungen von Musik. Mit der Zeit werden ihre Kreationen immer zugänglicher – und viele sind sogar kostenlos erhältlich.
Live Coding
Das Live Coding ist eine musiktechnologische Entwicklungsmethode, die nicht nur spannend ist, sondern auch viel zugänglicher, als man denken könnte. Das Programmieren wird landläufig mit komplexen, obskuren Sprachen und hermetischen musikalischen Landschaften in Verbindung gebracht, doch oft gilt genau das Gegenteil: Programmiersprache ist möglicherweise einfacher als musikalische Notation und intuitiver als Ihre vertraute DAW-Oberfläche. Das Coding ermöglicht deregulierte Kompositionsumgebungen, die dazu ermutigen, über Musik nachzudenken und sie in die Tat umzusetzen – in einer Weise, die Sie vielleicht noch nie in Betracht gezogen haben.
In Thor Magnussons Vortrag bei der Loop-Konferenz wurde dies sehr deutlich – er berichtete über seine Forschungen im Bereich des Instrument-Design und seine Software-Reihe „ixi“. Als Dozent an der Sussex University und langjähriger Verfechter des Live Coding konnte Magnusson aufzeigen, wie die Grenzen zwischen Komposition und Echtzeit-Performance in diesem Nischenbereich verschwimmen und sich Avantgarde und DIY-Kultur mischen. Während sich DAWs und ihre lineare, horizontale Zeitachse hervorragend für traditionelle Songstrukturen eignen, macht es Live-Coding-Software wie ixi lang möglich, neu zu überlegen, in welche Richtung sich die Musik entwickeln soll.
Woher stammt eigentlich die Festlegung, dass die Musik von links nach rechts abläuft? Mit solchen Fragen setzen sich akademische Musiker auseinander, wenn sie sich gegen die Musikkultur abschirmen. Die Fragen mögen unglaublich komplex klingen, doch Magnussons Antworten leuchten ein, wenn sie mittels Code dargestellt werden. Durch Eingeben eines Sound-Namens, Zeichnen eigener Takte und Noten-Eintippen über Zahlen entstehen im Handumdrehen einfache Beats und Melodien. Wenige Kommandozeilen genügen, um eine Vielzahl von Modulationen und struktureller Wechsel zu realisieren. Jede einfache Information, die zuvor eingegeben wurde, wird immens formbar – und alles lässt sich direkt auf eigene Sample-Bänke anwenden. Fast alle Menschen können innerhalb weniger Minuten aufstehen und losrennen – und wer ein wenig Zeit in Live-Coding-Software wie ixi lang investieren will, kann höchst intuitive und flüssige Ebenen des improvisatorischen Komponierens erreichen.
Indem wir das traditionelle Notensystem, die Pianorolle und MIDI-Clips durch einfache Worte und Zahlen ersetzen, öffnen wir das Spielfeld für all jene, die das westliche musikalische System nicht erlernt haben. Kinder, ältere Menschen, Menschen mit geistiger Behinderung und all jene, die Live Coding ausprobieren wollen, können ein eigenes Gefühl dafür entwickeln, was ihnen Musik bedeutet.
Programmieren als Performance
Ein weiteres Coding-Programm namens Sonic Pi präsentiert sich als „Live-Coding für alle“, das für jegliche Art von Musik geeignet ist – „von Kanons bis zu Dubstep“. Genau wie ixi lang ist Sonic Pi sehr einfach zu bedienen und als Gratis-Download erhältlich. Sonic Pi wurde von Sam Aaron entwickelt und für den Einsatz im Klassenzimmer ausgelegt. Der Entwickler vermittelt seine zweckorientierte Coding-Vision mit Leidenschaft – sein Loop-Vortrag war von einer relaxten Dringlichkeit, die das besondere Potenzial von Programmen wie Sonic Pi und ixi lang verdeutlichte: die Demokratisierung des Musikmachens zugunsten all jener, denen das technische Wissen und die musikalische Sprache als Anwendungsgrundlagen herkömmlicher DAWs fehlen.
Erfahrene Home-Produzenten könnten diesen Gedanken uneingeschränkt zustimmen. Komplett ausgestattete Prosumer könnten jedoch zu Recht den Gedanken haben, dass die Möglichkeiten, die ihnen das Programmieren liefert, eigentlich überflüssig sind. Trotzdem bietet das Coding etwas an, das ein neuer Kompressor oder ein neues Plug-in niemals bieten kann: die Chance, die eigene Verbindung zur Musik zu rekalibrieren. In diesem Zusammenhang spielt auch der Unterschied zwischen Anwender und Entwickler eine Rolle. Medien wie Programmcodes ermöglichen die Kreation völlig neuer Instrumente, auto-generativer Strukturen oder kompletter musikalischer Systeme – eine attraktive Vorstellung für all jene, denen die bewährten musiktechnologischen Anwendungspfade nicht mehr genügen. Der Paradigmenwechsel besteht darin, dass nicht mehr technische Geräte wie Bandmaschinen oder Verstärker in Frage gestellt werden, sondern die Musik selbst.
Neue Instrumente und die Weiterentwicklung der Performance
Der Mangel an Körperlichkeit ist nach wie vor eine Problematik, die im modernen Instrument-Design eine Rolle spielt. Ohne direkten Zugang zur Maschinerie wird die Frage, wie sie sich zweckentfremden ließe, schnell abstrakt. Gleichzeitig öffnen sich andere Wege der Innovation. Sensoren sind inzwischen allgegenwärtig – von Spielkonsolen bis zu Smartphones – und liefern Instrument-Entwicklern neue kreative Werkzeuge, die Komponisten dabei unterstützen können, wenn sie ihre musikalische Sprache auf andere Bereiche übertragen wollen, etwa Choreographie oder Produktdesign.
In einer Podiumsdiskussion über zukünftiges Instrument-Design zeigten sich Wissenschaftler, Musiker und App-Entwickler sehr fasziniert von der Vorstellung, unabhängig von den Anforderungen des kommerziellen Marktes neue Instrumente zu erschaffen. Interdisziplinäre Kreative wie Leafcutter John zeigten dem Publikum, wie sich mittels Sensor-Technologie Instrumente entwickeln lassen, die direkt am Körper anliegen, anstatt über künstliche Schnittstellen wie Keyboards, Drehregler oder Fader zu verfügen. Joseph Malloch machte die Verbindung noch deutlicher – seine eigens für Tänzer entwickelten Sensor-Instrumente verwandeln Choreographie in musikalische Parameter und verwischen die Grenzen zwischen kreativen Disziplinen.
Nicht nur digitale Komponenten bringen das Instrument-Design voran – in erster Linie ist die Kombination aus digitalen und analogen Technologien mit modernem und traditionellem Design dafür verantwortlich. Diese Dualität zeigt sich in der Arbeit von Amelie Hinrichsen. Sie gehört dem 3DMIN-Team an, dessen mehrfach ausgezeichnetes Instrument PushPull einem Akkordeon ähnelt – ein Blasebalg aus Karton erzeugt einen Luftstrom, der über ein Mikrofon gelenkt wird. Über greifbare Sensoren kann der akustische Sound digital manipuliert werden. Rebecca Fiebrinks Erforschung des maschinellen Lernens geht einen Schritt weiter und lässt die Möglichkeit entstehen, ein eigenes Instrument zu entwickeln, bevor man einen Controller über eine Konsole oder ein Smartphone „unterrichtet“, um das Verhältnis zwischen den eigenen Gesten und den Parametern zu untersuchen, die manipuliert werden sollen. Fiebrinks Instrument Wekinator kann beliebig viele Applikationen erlernen und somit zur Kreation eigener Instrumente genutzt werden, die an Ihre persönlichen Vorstellungen angepasst sind.
Da die Technologie sich stetig verbessert und zugänglicher wird, steigt die Anzahl der Möglichkeiten für ausdrucksstarke Steuerungen exponentiell: Was wäre, wenn Sie zur Steuerung von Hüllkurven die gesamte Präzision Ihrer eigenen Muskeln, Gliedmaßen und Finger einsetzen könnten?
Solche Paradigmenwechsel fordern zukunftsorientierte Komponisten dazu heraus, unbekannte Bereiche des Musikmachens zu erforschen. Das IRCAM-Institut in Paris beschreitet neue Wege mit CoSiMa – einem web-basierten Projekt, das dem Publikum die Möglichkeit gibt, via Smartphone mit Live-Performances zu interagieren und gewissermaßen in Echtzeit mit den Künstlern zu komponieren. Wenn man bedenkt, wie selten das Publikum beim Komponieren ins Bewusstsein vordringt, werden die Karten durch CoSiMa neu gemischt. Mit dieser App müssen sich Komponisten darüber Gedanken machen, welche Art von Musik aus der Wechselbeziehung zwischen Zuhörern entsteht, auf die sie keinen direkten Einfluss haben. So wird das Publikum zu einem wesentlichen Teil des Arrangements. Das Projekt wurde auf Loop von IRCAMs Nobert Schnell präsentiert. Sehen Sie hier das ganze Video.
Selbst wenn Sie vielleicht nicht darauf brennen, die avantgardistischen Aspekte der Musiktechnologie in ihr Studio zu holen: Es lohnt sich, darüber nachzudenken, wie Ihre Beziehung zur Technologie dabei helfen kann, sich von den Gegebenheiten Ihrer Tools und Instrumente zu lösen und Ihre Arbeitsmethoden mehr an persönliche Vorstellungen anzupassen. Auch ohne ins Live-Coding oder Instrument-Design einzutauchen: Das Nachdenken über die Möglichkeiten dieser Technologien kann eine Sichtweise entstehen lassen, die über die Traditionen, die wir aus Geschichte und Kultur übernehmen, hinausgeht. Es macht sich immer bezahlt, im Auge zu behalten, wie sich die Parameter Ihrer Technologien aushebeln und in Frage stellen lassen, denn oft sind Musiker, die sich nicht an die Spielregeln halten, auch diejenigen, die Spuren hinterlassen.