Robert Henke

English Deutsch

Robert Henke ist ein in Berlin ansässiger Komponist, visueller Künstler und Softwareentwickler. Mit einem Hintergrund in Ingenieurwesen erkundet er die Schnittmenge von Klang, Technologie und audiovisueller Kunst. Henke ist Mitbegründer von Ableton Live, das die elektronische Musikproduktion entscheidend geprägt hat. Sein langjähriges Projekt Monolake, 1995 zusammen mit Gerhard Behles gestartet, wurde zu einer Ikone der Berliner elektronischen Clubkultur. Sein Werk umfasst Ambient, zeitgenössische Musik und immersive Installationen, wobei er oft maßgeschneiderte Software und Maschinen entwirft, um Klang und Visuals zu erzeugen, mit denen er dann live performt.

roberthenke.com


Live-Setup und Handgepäck

Benjamin Weiss: Was nimmst du normalerweise mit für dein Live-Set?

Robert Henke: Es gibt zwei Szenarien. Das eine ist das kleine Live-Set, wo es ziemlich wichtig ist, dass ich nur mit Handgepäck reisen kann. Das ist ein Laptop, ein Audio-Interface und irgendwelche MIDI-Controller, die möglichst problemlos zu ersetzen sind, wenn sie kaputtgehen oder verloren gehen. Also zum Beispiel ein Novation Launchpad.

Das andere Szenario sind die großen Projekte, wo ich sowieso Flightcases mitnehmen muss, weil ich zum Beispiel mit Lasern reise. Da ist es in der Regel für den Sound auch nur ein Laptop und ein MIDI-Controller. Das ist es eigentlich zurzeit.

Benjamin Weiss: Hast du keine speziellen Präferenzen? Ist dir etwas Standardmäßiges wie ein Launchpad genug?

Robert Henke: Nachdem ich die ganze Interaktion via Max steuere, reicht mir ganz oft irgendwas ziemlich Einfaches. Also irgendwas, was Knöpfe und Leuchtdioden hat. Den Rest mache ich.

Eigentlich ist mir die Haptik schon wichtig. Ich habe zum Beispiel dieses Projekt mit den alten Computern, wo ich ganz explizit mehr Hardware gebaut habe, damit ich genau die richtige Haptik habe. Aber mein Anspruch ist generell: Entweder es ist genau das, was ich will, oder es ist generisch. Alles, was dazwischen liegt, befriedigt mich nur halb. Wenn es generisch ist, dann akzeptiere ich, dass es generisch ist. Ich erwarte von einem Launch Control nicht, dass es was anderes ist, als es darstellt. Ich akzeptiere die Tatsache, dass ich dann natürlich ein bisschen limitiert bin aufgrund des Interfaces.

Wenn ich mir überlege, wie ich das benutze, dann habe ich das Interface im Kopf. Das Interface ist schon da, bevor ich anfange, mein Live-Set zu bauen. Trotzdem hat das natürlich eine Auswirkung: Ich weiß, ich habe jetzt diese zwei Buttons da unten, den Fader und die drei Regler. Bestimmte Dinge, die die Hardware vorgibt, sorgen für Entscheidungen, wie ich meine Software rundherum baue. Wenn ich eine andere Hardware hätte, die mir gefällt, dann würde ich potenziell vielleicht auch eine andere Art und Weise der Interaktion benutzen.

Ich richte meine Software darauf aus, was die angeschlossenen MIDI-Controller sein werden, weil ich mir relativ früh überlege: Was will ich mitnehmen und was weiß ich, dass es funktioniert? Ich denke zu Beginn schon darüber nach, wenn ich was konzipiere: Wie will ich es bedienen? Die Frage ist schon am Anfang da und nicht erst ganz zum Schluss, wenn ich mir denke: „Oh, jetzt muss ich es aber irgendwie noch performen.” Das ist immer der Startpunkt: Was will ich eigentlich spielen und wie kann ich das machen?

Performatives Mischen und Beherrschbarkeit

Benjamin Weiss: Hängt das vom jeweiligen Projekt ab oder gibt es ein generelles Setup?

Robert Henke: Das hängt vom Projekt ab. Bei dem Projekt mit den alten Computern war ganz klar, dass Mischen ein extrem wichtiger Aspekt sein wird. Es sind sehr rohe Sound-Sources, die unbedingt gefiltert gehören und mit Effekten versehen werden müssen. Das Filtern und Effekte zumischen ist ein integraler Bestandteil dessen, was das Ganze lebendig macht. Deshalb fiel die Entscheidung, ein kleines analoges Pult mit auf die Bühne zu nehmen – immer das gleiche, damit ich mich dran gewöhne und mir genau überlege, welcher Fader wie belegt ist und wie die Effekte geroutet sind. Damit der Prozess des Mischens performativ sein kann.

Für andere Sachen, wo die Mischung komplexer ist – wenn ich Dinge mache, die schon mit sehr vielen Spuren funktionieren – dann wird es witzlos, das zu mischen. Das muss einfach vorher gut gemischt werden. Dann habe ich vielleicht einen grafischen EQ, den ich unbedingt bedienen muss, um Metakontrolle über den Klang auf einer Ebene zu haben, die ich in der Bühnensituation beherrschen kann. Beherrschbarkeit in einer unerwarteten Situation ist mir wichtig. Und auch, dass es hinreichend wenig Controller sind.

Ich bin immer wieder erstaunt, wie wenig man gleichzeitig auf der Bühne machen kann. In einer Studio- oder Jamsituation, wo es egal ist, wenn zehn Minuten damit verbracht werden zu justieren, kann man sich darüber freuen, dass man Zugriff auf alles hat. Aber wenn es wirklich darum geht, auf der Bühne eine Stunde oder zwei konzentriert Output zu liefern, dann kann man sich nicht leisten, fünf Minuten lang zu suchen. Jede Entscheidung muss sitzen. Mein Gefühl ist zum Beispiel: Mehr als acht Parameter kannst du eh nicht gleichzeitig kontrollieren.

Das Kleinhirn und die grafische Kontrolle

Benjamin Weiss: Wie kommst du auf die acht?

Robert Henke: Keine Ahnung, das ist so eine Hausnummer. Natürlich kann ich den grafischen EQ, egal wie viele Parameter der hat, bedienen; das ist für mich eine Geste. Das macht das Kleinhirn. Ich habe bei jedem meiner Projekte einen grafischen EQ im Rechner, und der liegt immer auf meiner alten Doepfer-Faderbox. Ich habe seit 20 Jahren die gleiche physikalische Hardware. Das kann ich um Mitternacht, wenn ich frisch aus dem Bett komme; das funktioniert. Währenddessen kann ich 30 andere Sachen machen, weil das mein Kleinhirn macht. Aber alles, was eine kreative Entscheidung ist, da brauche ich nur ganz wenige Regler. Das muss simpel genug sein.

Ich suche immer nach effizienten Metaparametern oder Makros, die eine Geste unterstützen. Zum Beispiel spiele ich sehr gerne mit den Decays von Klängen, damit ich alles staccatohaft machen kann. Das sind tatsächlich Makros. Ich denke mir: Für eine bestimmte Art von Klängen in einem bestimmten Stück ist es interessant, wenn manche Klänge kürzer oder länger sein können. Wenn ich feststelle, dass bestimmte Dinge da rausgenommen werden müssen, weil es sinnvoll ist, die getrennt zu spielen, dann mache ich das auch getrennt.

Ich habe einen Hall auf einer Snare und eine Bassdrum, die sehr lange ausklingt – so 808 durch Kompressor-mäßig. Und ich habe noch eine Hi-Hat mit Decay. Da würde ich vielleicht einen Regler definieren für das Decay von dem Hall und das Decay von der Kick, damit diese Snare und das Decay entweder richtig Breitwand im Raum stehen oder sehr akzentuiert kurz sind. Ich würde potenziell das Decay von der Hi-Hat auf den zweiten Regler legen, damit ich die Option habe: Es bleibt alles kurz und knackig, dann läuft dieser Hi-Hat da oben drüber, ich ziehe die Hi-Hat kurz und mache den Rest wieder voll. Ich denke in Gesten. In einem anderen Stück derselben Performance würde ich tendenziell dieselben beiden Regler für etwas Ähnliches benutzen wollen, um eine ähnliche Wirkung zu erzielen. Einfach, damit ich es besser lernen kann, aber auch, damit es eine Schlüssigkeit bekommt. Ich kann alles extrem kurz machen oder zwischendurch eine Überwältigung erzeugen, wo alles einfach aufgeht.

Prototyping und Übung

Benjamin Weiss: Probierst du das beim Vorbereiten die ganze Zeit aus oder denkst du dir einfach: „Das passt zusammen”?

Robert Henke: Ich mache Prototypen. Ich mache ganz viele Proof-of-Concept-Tests vorher. Auch nur mit Behelfs-Sounds oder auf eine ganz einfache Art und Weise – vielleicht male ich schnell mal nur mit dem Rack, mit dem Makro oder mit Automationen, bevor ich es überhaupt baue. Wenn es Dinge sind, die sich technisch gar nicht so einfach realisieren lassen, wo ich entweder ein eigenes Max for Live Device bauen müsste oder das Mapping komplexer wäre, tue ich das vom Resultat her quasi prototypen. Ich schneide in Live Sachen und male Automationen, um zu gucken: Ist das als musikalische Geste überhaupt sinnvoll? Wenn ich feststelle, dass es nicht geil klingt, dann brauche ich mir nicht die Mühe machen, das zu testen.

Ich übe auch richtig für Live-Sets. Ich bereite vor, habe meinen Laptop offen und meine MIDI-Controller angeschlossen, auch um einen technischen Check zu machen. Läuft das alles? Gibt es CPU-Spikes? Läuft es, auch wenn der Rechner das Set schon zwei Stunden offen hat? Bei den großen Projekten wird geprobt bis zum Abwinken, weil ich mir alles andere nicht leisten kann.

Bei Monolake-Live-Sets packe ich meine Controller ein und checke kurz, ob alles läuft. Das wird dann nicht mehr geprobt. Das ist die letzte Inkarnation mit Material aus den letzten zwei Jahren. Da ist es egal, wenn mal ein Sound nicht so ist, wie ich ihn haben will. Das ist ein Techno-Club-Set im weiteren Sinne.

Optisches und Haptisches Feedback

Benjamin Weiss: Wenn du Geräte vor dir hast, was ist dir für Live-Performance wichtig an Elementen oder deren Ausführung?

Robert Henke: Große Geräte haben den Vorteil, dass man rumtanzen kann und die Knöpfe trifft. Sie haben den Nachteil, dass man sie nicht ins Handgepäck kriegt. Mir ist wichtig, dass optisches Feedback klar ist. Es kann ruhig kryptisch sein, solange ich weiß, was es bedeutet. Ich bevorzuge eine rote Leuchtdiode, von der ich weiß, was sie tut, gegenüber einem Display, das mir in 20 Zeilen mit kleiner Schrift erzählt, dass der Wert jetzt 1,371418 ist.

Abstrakte Klarheit ist mir sehr wichtig. Das kann was sein, was ich potenziell lernen muss, aber wenn ich es weiß, muss es auf einen Blick zu erfassen sein. Das Gleiche gilt für Taster. Ich möchte ein Gefühl haben: Ich drücke da drauf und da passiert was. Eine gewisse Haptik.

Ich liebe die Encoder im Cirklon, weil die so schön gerastert sind. Wenn du irgendwas drei Halbtöne nach oben transponieren willst, kriegst du das ins Motor-Memory. Du kriegst es damit hin, dass du diese drei Ticks machen kannst, ohne zu zählen und ohne aufs Display zu gucken, weil du weißt, wie sich das anfühlt. Ich habe das eine Zeit lang tatsächlich geübt: Nicht hinzugucken und einfach schnell genug zu sein. Schaffe ich es, die Quinte rauf und runter zu transponieren? Diese fünf Ticks spüre ich im Kleinhirn und zähle nicht mehr. Genau wie am Klavier, wenn ich weiß, ich haue hier drauf und bin eine Quarte drunter oder spiele eine Oktave. Meine Idee war, mit dem Cirklon so gut zu werden, dass ich den Pitch-Regler spiele und eine Melodie, die mir im Kopf ist, einfach so spielen kann, weil ich die Ticks ins Kleinhirn kriege. Ich habe es erstaunlich gut hingekriegt, aber ich habe mir nicht die Zeit genommen, exzessiv das C-Moll-Präludium am Drehregler zu probieren.

Haptische Encoder und Utility-Use-Cases

Benjamin Weiss: Hättest du Interesse daran, haptisches Feedback für Parameter selbst definieren zu können?

Robert Henke: Die Vorstellung, dass ein endloser Encoder mir über ein haptisches Feedback erzählt, dass er Schritte hat, eine Mittelstellung oder hier der Anschlag ist, finde ich als Prinzip geil. Mein Problem mit Encodern ist, dass mir prinzipiell klassische Potis mit einem Anschlag immer lieber sind. Ich weiß: Der Send ist jetzt zu, oder er ist halb offen. Ich habe aber nie mit einem Behringer-Controller mit LED-Kranz oder an einem großen Pult wie einem Avid Venue gespielt, deshalb kann ich nicht abschätzen, inwieweit ein Encoder mit LED-Kranz das erfüllt. Für eine Studio-Situation ist es super, aber in der Performance muss man letztlich hingucken.

Benjamin Weiss: Gibt es etwas, was du für Live-Sets vermisst?

Robert Henke: Ich hätte aktuell gerne etwas frei Konfigurierbares, was möglichst klein ist. Mit einem 32-Zeichen-LED-Display – nicht LCD mit Hintergrundbeleuchtung, sondern LEDs. Damit es dunkel genug ist. Je dunkler, desto besser im Raum. Ich kann den Leuten nicht sagen, dass sie ihre Mobiltelefone nicht benutzen dürfen, und gleichzeitig in der Mitte vom Publikum mit einer Christbaumbeleuchtung sitzen. Ein universelles Ding mit Display, ein paar Tastern mit LEDs und einem Encoder. Da fallen mir 100.000 Sachen ein, für die man das geil benutzen kann.

Für meine neue Show muss ich durch Szenen navigieren. Ich habe beschlossen, mit einer Session-View zu arbeiten, weil ich den allgemeinen Fluss der Zeit kontrollieren möchte. Gleichzeitig will ich komplett vermeiden, auf den Bildschirm zu gucken. Ich habe einen Track im Live-Set, der die Laser kontrolliert. Da sind Meta-Informationen über MIDI-Noten mit dekodiert – als Cue für die Laser, aber auch über die Clip-Farbe und den Clip-Namen. Wenn ich das Set lade, iteriere ich durch alle Clips, und dann weiß mein Max-Patch die Struktur meiner Stücke. Das erste Stück sind fünf Clips, das zweite 17 Clips und so weiter. Während des Konzerts würde ich einfach sagen: weiter, weiter, weiter.

Es wäre schön zu sehen, was gerade läuft und was als Nächstes kommt. Im Display steht die Szene, im Idealfall ist ein Progress Bar drin, damit ich ungefähr weiß, wo ich bin. Wenn ein komplexer Drone sich über 3 Minuten entfaltet, kann ich entspannt zusehen und mit den Lasern spielen. Dann ein Taster für „Weiter”, ein Taster für „Nochmal” und gegebenenfalls einer für „Zurück”. Das würde ich mir auf die unteren Tasten legen. Ich würde die LEDs vorher einschalten, damit ich weiß: Diese drei Tasten sind belegt. Wenn ich draufdrücke, vielleicht Rot als Bestätigung.

Ein anderer Case ist ein Modular-Helper. Zum Beispiel als Tuner oder Scope. Ein Utility-Teil für ein Modular-System: Die erste Buchse nehmen, Kabel reinstecken und ich habe ein Scope, eine FFT-Analyse oder einen Tuner, der mir das Stimmen des Oszillators erleichtert. Oder ein Referenzsignal, eine 440 Hz-Referenz oder 1 kHz-Referenz. Ein Rauschgenerator. Oder ein Ding, das auf die Schnelle ein Triggersignal ausgibt. Ganz banal, kein Step-Sequencer, sondern fünf Regler: Ein Druck ist ein Gate oder Trigger. Oft will ich beim Testen schnell ein Triggersignal, bevor ich anfange weiter zu patchen. Wenn ich dieses Ding auf dem Tisch stehen habe: Stecker rein, Kabel rein, bang. Solche Utility-Use-Cases scheitern oft, wenn es zu aufwendig ist. Das muss ganz einfach sein.

Programmierung und Community

Benjamin Weiss: Wie sollte man so ein Ding programmieren?

Robert Henke: Letztendlich gibt es zwei Sorten von Usern: Die einen, die froh sind, wenn es irgendwas gibt, und die nie auf die Idee kommen, auf einen Edit-Button zu drücken. Und dann gibt es diejenigen, die Zeug bauen. Im Idealfall hast du eine Webseite, die du unter Chrome aufmachst. Du steckst das Ding an dein Notebook und schiebst vom Browser aus die Firmware rüber, ohne irgendeine andere App. So funktioniert es mit dem Shuttle Control von Endorphin.es. Du tippst die IP ein oder gehst auf die Website, klickst Return und hast deine Konfigurationspage.

Ich würde das Gerät marketingmäßig eher nicht als „Open-Canvas” bewerben. Dieses Gefühl von „Kann alles, wenn du es selber programmierst” ist für viele Profis abschreckend. Ich würde es eher vermarkten als: „Diese fünf Dinge sind drin und die sind geil.” Dann kommt ein Update mit sechs Dingen, und irgendwo auf der dritten Seite steht: „Ach übrigens, das kannst du alles auch selber machen.” Dann hast du das abgedeckt, aber du kommst weg von diesem Gefühl, dass es ein Ding ist, was verstaubt, weil ich mich damit nie beschäftigen will. Man packt es aus und benutzt es. Das ist der Aspekt: Dass man es benutzen kann. Das Spiel muss auch drin sein.

Die Hardware-Demonstration

Benjamin Weiss: Welches Spiel hättest du gern?

Robert Henke: Pong natürlich. Pong und Doom sind immer die Mindestvoraussetzungen.

Benjamin Weiss: Ich zeige dir jetzt den Prototyp. [Benjamin zeigt den TBD Prototypen]. Es hat 16 Tasten mit RGB-LEDs. Du musst durch Szenen gehen. Jedes Stück hat Szenen.

Robert Henke: Hier steht im Display die Szene, die gerade läuft. Ich mag die Tasten übrigens. Die Step-Buttons sind anders? Das haptische Feedback ist deutlicher. Ich finde die oberen Tasten tatsächlich besser. Der Unterschied ist gering, aber das haptische Feedback ist deutlicher. Ich würde tendenziell die oberen bevorzugen.

Benjamin Weiss: [Erklärt die Konnektivität: Audio, MIDI, CV/Gate].

Robert Henke: Ich dachte, ich könnte hier einen Schritt gedrückt halten und was einstellen. Meine Denkweise wäre: Gedrückt halten, hier sind die vier Parameter für den Schritt. Solange ich mindestens einen gedrückt halte, gilt das, was ich mache, für alle.

Ich könnte mir das prima als Utility-Teil für ein Modular-System vorstellen. Ein Automation-Looper: Hier ein CV, Rekord, Loop, Overdub. Oder pro Step Parameter-Locks mit vier Reglern, die vier CVs ausgeben. Ein Eingang konfiguriert für die Clock von deinem Modular-System und die anderen vier sind Ausgänge. Clock, Reset und vier Ausgänge. Wäre doch geil. Wenn die Clock nicht beschaltet ist, läuft die interne Clock. Wenn der Stecker drin ist, macht er automatisch externen Clock.

Ich frage mich, ob das zwei MIDI-In und zwei MIDI-Out braucht. Ich finde MIDI geil, aber für Modular hat man schon andere Connectivity. Als Effektgerät wäre es auch interessant, wenn man eine Kollaboration mit jemandem wie Sean Costello machen könnte. Einen Effekt schreiben, der mit vier Reglern tolle Sachen macht. Etwas Spezielles von jemandem, der State of the Art macht. Irgendwas, was richtig geil klingt und schnell zu bedienen ist. Einen Chorus oder Flanger braucht echt kein Mensch, aber wenn es toll klingt, wäre es super.


Interview: Benjamin Weiss (MID)
Gefördert von NLnet
KI-Nutzung: Sprachmemos von Apple zur Transkription []()