One line
Interview

Malte Giesen

Latent Diffusion
Sa. 07.02., 15:00 Uhr
00:00:00 00:00:00

Malte Giesenim Gespräch mit Alexey Munipov

 

Du bist sowohl als Komponist aktiv als auch Leiter des Studios für elektroakustische Musik hier an der Akademie der Künste in Berlin. Wie teilst du diese Rollen auf? Sind sie in deinem Leben komplett getrennt oder beeinflussen sie sich gegenseitig?

 

Im Prinzip sind es unterschiedliche Rollen. Als Studiochef hab ich eine ganz andere Aufgabe als als Komponist. Ich bin eher jemand, der Projekte ganz unterschiedlicher Art und aus ganz unterschiedlichen Bereichen ermöglichtund dafür muss ich mich von meinen eigenen ästhetischen und künstlerischen Vorlieben lösen und eine umfassendere Perspektive einnehmen. In diesem Sinne wechsle ich die Rolle: Ich bin eher ein Diener anderer Künstler. Ich muss ihre Vision verstehen und ihnen helfen, ihre Arbeit zu verwirklichen.

 

Als Komponist bin ich viel »künstlerischer« in dem Sinne, dass ich mich auf meine eigene Arbeit konzentriere. Das ist eine engere, aber sehr konzentrierte Sichtweiseund sie ermöglicht es mir, tief in die Details einzutauchen und Dinge sehr gründlich zu erforschen. Als Studiochef kann ich das nicht immer machen, weil so viel los ist: Leuten helfen, Aufnahmen vorbereiten, mich um die Technik kümmern, mich mit anderen Abteilungen der Akademie abstimmen. Ich versuche, ein Gleichgewicht zu halten, aber im Moment nimmt die Arbeit an der Akademie viel mehr Raum ein als das Komponieren.

 

Hast du eine interne Regelzuerst Komponist, dann Direktor oder umgekehrt?

 

Nicht wirklich. Ich hab noch andere Rollen in meinem Leben: Ich bin Vater von zwei Kindern, Ehemannda gibt es noch andere Pflichten. Aber wenn es um die Arbeit an Stücken geht, versuch ich, diese beiden Rollen zu trennen. Natürlich profitieren sie voneinander. Als Studiochef bekomme ich viele Ideen aus den Projekten, die ich betreue. Und umgekehrt gibt mir das Komponieren und Erforschen von Technologien die Möglichkeit, das Profil des Studios weiterzuentwickeln. Es ist also ein Geben und Nehmen.

 

Das Studio hat eine einzigartige Geschichte und eine starke Identität, mit vielen einzigartigen Geräten um uns herum. Nutzt du das in irgendeiner Weise für deine eigene Arbeit?

 

Die historischen Instrumenteeigentlich nicht so sehr. Als ich hier angefangen habe, hatte ich kaum eine Verbindung zu ihnen. Mit der Zeit wurde mir aber immer mehr bewusst, wie besonders sie sindund was für Schätze wir im Studio haben. Die Arbeit mit den alten Instrumenten und die Gespräche mit Leuten, die zu der Zeit, als diese Instrumente entwickelt wurden, aktiv waren, haben meine Sichtweise verändert und, glaube ich, bereichert.

 

Heute sehe ich elektronische Instrumenteund was ein elektronisches Instrument überhaupt istanders als früher. Es handelt sich nicht einfach um veraltete Technologie. Instrumente aus einer bestimmten Zeit können bestimmte Dinge tun und andere nichtund das ist eigentlich gut für die Kreativität. Man will keine Universalmaschine.

 

Das habe ich mit Robert Henke, einem der Mitbegründer von Ableton, besprochen. Er hat immer gesagt, dass die Leute keine Maschinen wollen, die alles können, sondern Werkzeuge, die bestimmte Dinge außergewöhnlich gut und andere weniger gut können. Das Ausloten der Grenzen und Beschränkungen von Maschineneinschließlich dessen, was fehlerhaft, seltsam oder unvollkommen istmacht es interessant.

 

Was ist Ihrer Meinung nach die Stärke dieser älteren elektronischen Maschinen?

 

Ich würde sagen: ihre Direktheit.

 

Im Silicon Valley redet man jetzt über »ruhige Technologie«darüber, sich von Bildschirmen zu lösen. Und der offensichtlichste Vorteil ist für mich, dass man keinen Bildschirm hat. Man hat Hardware: Regler und Fader, Kabel, die man zieht, Stecker, die man anschließt. Das ist eine haptischere, physischere Art, mit einem elektronischen Instrument zu interagierenund Klänge zu erzeugenals das Tippen auf einer Tastatur oder das Klicken mit einer Maus.

 

Und es führt zu anderen Ergebnissen. Außerdem ist es in einer Performance-Situation spannender. Zu sehen, wie jemand an Reglern dreht und Fader bedient, ist einfach fesselnder, als jemanden hinter einem Bildschirm zu beobachten, wo man nicht sagen kann, ob er Facebook oder E-Mails checkt oder Sounds programmiert.

 

Ich kenne mindestens ein Werk von dir, das diese Maschinen verwendetdas mit dem weißen Rauschen.

 

Dieses weiße Rauschen kommt von dem Synthesizer hier: dem einzigen analogen Modularsystem, das in der DDR gebaut wurde. Es stammt aus den 80er Jahrenaber selbst damals war es schon alte Technologie, weil man dort keinen Zugang zu den neuesten Entwicklungen hatte, wie es im Westen der Fall war.

 

Alle klangerzeugenden ModuleOszillatoren, Filter, das Rauschmodulhaben eine bestimmte Klangfarbe. Weißes Rauschen ist ein gutes Beispiel: Man kann es mathematisch erzeugen, dann wird es superrein und superklar. Aber ich wollte ein analoges weißes Rauschen mit Verunreinigungenmit den natürlichen Schwankungen, die damit einhergehen.

 

Es ist also eine Art luxuriöses Vintage-Weißes Rauschen.

 

Es ist ein bisschen wie bei Luxusuhren: Sie sind mechanisch. Natürlich zeigen Quarzuhren, elektronische Uhren, Smartwatches die Zeit viel genauer an. Aber es ist wie du gesagt hast: Es geht um die Emotion, die das Objekt vermittelt. Man kann eine mechanische Luxusuhr für Zehntausende von Euro kaufen, und am Ende des Tages ist es immer noch »nur eine Uhr«aber sie hat eine andere Ausstrahlung als beispielsweise eine Apple Watch.

 

Aber klanglich klang sie anders.

 

Natürlich. Sie klingt anders, weil sie analog ist und ihre eigene Klangfarbe hat. Auch der Digitalisierungsprozess spielt eine Rolle: Jede Digitalisierung eines analogen Klangs erzeugt Artefakte, je nachdem, wie man ihn digitalisiert. Aber jadas ist hörbar. Ich denke, man hört, dass es sich um analoges weißes Rauschen handelt.

 

Könnte man sagen, dass das Studio selbst eine eigene Klangqualität hatso wie ein Instrument mit einem eigenen Timbre?

 

Auf jeden Fall. Das Studio ist ein Instrument. Es ist die Auswahl der Komponenten, die Werkzeuge und Setups, die man hatund auch die Leute, die dort arbeiten, die Art und Weise, wie Wissen geteilt wird. Auch die soziale Komponente spielt eine Rolle: Der Austausch zwischen den Menschen im Studio erzeugt eine bestimmte Art von Klang oder zumindest eine bestimmte Klangpalette. In diesem Sinne wird jedes Studio zu einem einzigartigen Instrument.

 

Hast du jemals versucht, mit diesem Instrumentmit genau diesem Studioals Komponist zu komponieren?

 

In gewisser Weise, ja. Meine NFT-Stücke waren eine diskursive Arbeit rund um diese Umgebungrund um das Studio und meine damaligen Gedanken zu analogen elektronischen Instrumenten. Und im weiteren Sinne beeinflusst es alles, was ich mache. Alles, was ich hier erlebe, alles, was ich hier produziere, alles, was ich hier schaffe, fließt unweigerlich in meine Arbeit als Komponist ein.

 

Und allgemeiner gefragt: Ist es dir wichtig, dass die Zuhörer*innen deine Musik am Gehör erkennen könnendass du eine persönliche künstlerische Handschrift, einen Stil hast?

 

Ich denke, es gibt eine Kluft zwischen der Vorstellung der Komponist*innen und der Wahrnehmung der Zuhörer*innen. Viele Komponist*innen finden, dass sich ihre Stücke stark voneinander unterscheidenund manche sagen, dass sie ihre Art zu komponieren und den Klang ihrer Stücke komplett verändert haben. Aber die Zuhörer*innen sagen oft trotzdem: Ich erkenne deinen Stil sehr deutlich, auch bei verschiedenen Stücken.

 

Ich habe nie das Bedürfnis verspürt, darauf zu bestehen. Ich versuche nicht, auf einen unverwechselbaren Klang zu »achten«. Ich denke, das passiert sowieso. Das sage ich auch meinen Studenten: Macht euch darüber keine Gedanken. Wenn ihr stetig arbeitet, wenn ihr weiter komponiert und Musik produziert, entwickelt sich von selbst ein bestimmter Stil. Der wird da sein, egal was ihr macht.

 

Ich hatte auch den Eindruck, dass euch Konzepte wichtiger sind als sensorische Qualitätenals der Klang selbst. Stimmt das?

 

Jazumindest am Anfang. Die konzeptionelle Seite ist mir zu Beginn meist wichtiger, weil sich alles daraus ableitet. Und natürlich ist das persönlich: Andere Komponist*innen arbeiten ganz anders. Ich kenne Leute, die eher bottom-up arbeitensie beginnen mit einem Klang, der sich dann weiterentwickelt, und daraus entwickeln sie Abweichungen und Variationen. Das ist meistens nicht meine Herangehensweise.

 

Für mich macht es Sinn, zuerst zu klären, worum es in dem Stück gehtworum es in dem Werk geht, was die zentrale konzeptionelle Idee ist. Sobald ich das habe, ist es sehr einfach, alles aus diesem Kern abzuleiten.

 

Ist es wichtig, wie es am Ende klingt?

 

Natürlich ist es wichtig. Aber wie es klingt, muss durch das Konzept gerechtfertigt sein. Es darf nicht willkürlich sein. Das klangliche Ergebnis ist wichtig, aber jeder Klang kann eine große künstlerische Kraft haben, wenn er streng an ein Konzept gebunden ist. Es geht um Kontextualisierung: Man kann fast jeden Klang nehmen und ihn in eine starke ästhetische und künstlerische Idee einbetten.

 

Kommen wir zu deinem neuen Stückdarüber wissen wir noch nicht viel. Im Programm steht was von einer KI-gesteuerten Diffusion von weißem Rauschen. Kannst du das näher erläutern?

 

In den letzten Jahren habe ich mit generativer KI gearbeitet und mich intensiv mit der Funktionsweise dieser Modelle beschäftigtden Prozessen und der Mathematik dahinter. Was mir aufgefallen ist: Generatives Audio funktioniert sehr ähnlich wie generative Bilder.

 

Einer der bekanntesten Algorithmen für generative Bilder ist Stable Diffusion. Einfach ausgedrückt: Man trainiert ein Modell, indem man ihm Bilder zuführt, und während des Trainings fügt das Modell den Bildern iterativ weißes Rauschen hinzuSchritt für Schritt, immer mehr Rauschen. Ab einem bestimmten Punkt erkennt man das Bild nicht mehr, weil zu viel Rauschen vorhanden ist.

 

Das Modell lernt dann, diesen Prozess umzukehren. Um es klar zu sagen: Es gibt Zwischenschrittees gibt auch den latenten Raum –, es handelt sich also nicht buchstäblich nur um »das Bild«, aber lassen wir es vorerst einfach. Wenn man das Modell auffordertsagen wir, man fragt nach einem Pferd auf einem Skateboard –, beginnt es mit Rauschen und subtrahiert dann iterativ Rauschen, bis nur noch das Pferd und das Skateboard übrig bleiben.

 

Bei Audio ist es im Grunde genommen dasselbenur dass man nicht direkt mit Audiodateien arbeitet, nicht so sehr mit zeitbasierten Medien, sondern mit Spektrogrammen. Man wandelt Audio in Spektrogramme umwieder Bilderund trainiert den Algorithmus damit. Dann kann man aus Eingaben neue Spektrogramme generieren, sie synthetisieren und erhält so Klang. Das ist im Wesentlichen der Prozess.

 

Ich versuche, diesen Prozess neu zu komponiereneine akustische oder musikalische Analogie dazu zu finden. Also nehme ich kleine Ausschnitte einer komponierten Struktur und füge ihnen dann in verschiedenen Schritten Rauschen hinzu oder entferne es wieder.

 

Und das passiert nicht nur durch Hinzufügen von weißem Rauschen an der Oberfläche des Klangs. Es passiert auch im sogenannten latenten Raum. Der latente Raum ist eine Darstellung dieser kurzen Ausschnitte, die nach der Nähe verschiedener Klangeigenschaften organisiert sind. Ein Klavier ist zum Beispiel »näher« an einer Marimba als an einem Streichinstrument; ein Streichinstrument ist näher an einem anderen lang anhaltenden Instrument als an einem Zupfinstrument.

 

Das gilt für viele Parameter: Rhythmus, Harmonie, Tonhöhe und so weiter. Ich versuche, diese Rausch- und Entrauschungsprozesse auf mehreren Ebenen dieses latenten Raums durchzuführen. Es geht also nicht nur um »mehr weißes Rauschen« oder »weniger weißes Rauschen« insgesamt. Der Rhythmus kann rauschintensiver werdenoder entrauschter. Die Tonhöhen können instabiler und rauschintensiver werdenoder entrauschter. Man erhält unterschiedliche Grade der Erkennbarkeit des musikalischen Materials.

 

Man kann auch verschiedene musikalische Materialien ineinander übergehen lassen. Ein Teil ist wie ein Zitat aus einem anderen Stück, das ich vor einigen Jahren geschrieben habe. Dann gibt es vier Takte Easy-Listening-Jazz. Diese verschiedenen Schnipsel werden ineinander überblendet, wiederum auf verschiedenen Ebenen.

 

Und es gibt nicht nur Musikes gibt auch einen Videoteil. Da dieses Modell auf generativen Bildern und generativen Videos basiert, wollte ich einen zusätzlichen »Spieler« im Ensemble: einen vertikalen Bildschirmwie ein Smartphone. Ein großes Smartphone auf der Bühne, als zusätzlicher Darsteller. Es läuft nicht die ganze Zeit, sondern nur zu bestimmten Momenten. Es gibt Ausschnitte aus generativen Videos mit unterschiedlichen strukturellen Zwecken, die aus verschiedenen Quellen stammen.

 

Eines der bekanntesten Beispiele für generative Videosetwas, das viral gingsind diese Clips von Früchten oder Glas, die mit einem Messer geschnitten werden. Sie sehen superglatt aus: superklare, super schön aussehende Glasflöten, die geschnitten werden können, was physikalisch unmöglich ist. Sie haben dieses ASMR-Gefühl, das in den letzten Jahren sehr populär geworden ist.

 

Ich habe diese Idee des Glasschneidens ohne wirklich eine Quelle zu haben, auf die Instrumente übertragen. Ich habe Videos mit den Instrumenten erstellt, die die Musiker spielen sollen, und versucht, diese »Schneidevideos« mit Instrumenten nachzubildenim Grunde genommen, um zu sehen, was passiert: wie ich das Modell ansteuern kann und was dabei passiert.

 

Es bezieht sich auch ein wenig auf die Idee der Zerstörung von Instrumentenvor allem bekannt durch diese berühmte Performance mit der Geige. Das habe ich in gewisser Weise durch generative Videos nachgebildet. Ich finde, das ist eine interessante neue Technologie. Wir sind gerade an einem Punkt, an dem diese Technologie noch am Anfang steht. Man kann viel damit herumspielen und Ergebnisse erzielen, die vorher nicht möglich waren.

 

Es handelt sich also um ein von KI generiertes, von weißem Rauschen abgeleitetes, durch Memes inspiriertes Musikstück

 

Ja. Das ist eine gute Zusammenfassung. Aber es ist immer noch manuell komponiert. Ich würde sagen: manuell komponiert, aber inspiriert von KI-Algorithmen.

 

Welche Rolle spielt dabei das Ensemble?

 

Mein Hauptinteresse gilt nach wie vor der Live-Situation: Menschen, die gemeinsam auf der Bühne Musik machen. Die meisten Instrumente sind analogmit Ausnahme des Keyboards, der E-Gitarre und des virtuellen Schlagzeugs anstelle eines echten Schlagzeugs, weil ich sehr schnell zwischen verschiedenen Schlagzeugklängen wechseln möchte.

 

So wie es ein generativer Algorithmus tun würde. Wenn man dem Algorithmus »Pferd« sagt, hat er Tausende, Zehntausende, Millionen von Darstellungen von Pferden. Und genau das wollte ich auch mit Klängen erreichenzum Beispiel mit Drum-Sounds. Ich wollte schnell auf ein paar hundert verschiedene Drum-Sounds zugreifen können.

 

Steckt hinter diesem Konzept eine Botschaft?

 

Keine Botschaftkeine politische Botschaft in diesem Sinne.

 

Ich denke, es geht hauptsächlich um Verspieltheit: Dinge entdecken, mit Tools spielen und die Grenzen dieser Tools ausloten. Neugier, Verspieltheitdas ist das Hauptmotiv. Das sind neue Technologien. Viele Leute wissen zum Beispiel noch nicht, wie man ChatGPT benutzt.

 

Es ist super neu und wird sich in den nächsten Jahren stark verändern. Aber im Moment kann man damit einfach herumspielen. Man muss nicht jedes technische Detail perfekt kennen. Und das kann fruchtbar sein: die Grenzen auszuloten und dem Publikum den eigenen Prozess zu zeigendie Interaktion mit der Technologie und den Dialog, den man mit ihr führt.

 

Lass uns kurz über KI reden. KI ist ein viel diskutiertes Thema. In der Branche reagieren viele Musiker negativ daraufund die Diskussion dreht sich oft schnell um die Angst: »Es wird allen die Arbeit wegnehmen.« Gleichzeitig sind wirklich überzeugende künstlerische Anwendungen noch relativ selten. Wie stehst du persönlich zu KI als Werkzeug für die heutige Musikproduktion?

 

Ich würde sagen, darauf gibt es zwei Antworten.

 

Die künstlerische, idealistische Antwort wäre: Meiner Beobachtung nach interessieren sich die Menschen nicht für KI-Produkteund auch nicht für KI-Musik –, weil Musik eine menschliche Praxis ist und kein Produkt. Die Menschen werden weiterhin aus Interesse, oft aus Neugier, Musik machen. Die Menschen lieben es, selbst Instrumente zu spielen.

 

Die Angst, ersetzt zu werden, kommt auf, wenn Musik als Produkt mit wirtschaftlichem Wert behandelt wird: Produktionsmusik, Musik für Filmtrailer, generische FilmeSituationen, in denen es billiger ist, eine KI zu nutzen, und mittelmäßige Qualität ausreicht. In diesen Bereichen werden Musiker ersetzt werden, und Komponisten werden sehr schnell ersetzt werden. Und ich finde das eigentlich gut. Man muss nicht all diese generischen, billigen Sachen machen.

 

Der stärkere Impuls ist dann, etwas zu schaffen, das auffällt und origineller ist. Vielleicht wird generative KI die Leute dazu bringen, herausragend zu seinexperimenteller zu sein. Und vielleicht wird sie tatsächlich neue Musik fördern.

 

Ich denke, letztendlich verlieren die Leute das Interesse, wenn Dinge offensichtlich KI sindoder wenn sie herausfinden, dass alles KI ist. Das habe ich gesehen, als Coca-Cola vor ein paar Wochen sein Weihnachtswerbevideo veröffentlicht hat. Sie haben kommuniziert, dass es komplett KI-generiert warund auch super teuer, weil sie etwa 70 Millionen Prompts verwenden mussten, um das gesamte Video zu erstellen.

 

Es hat ungefähr genauso viel gekostet, als hätten sie es auf traditionelle Weise produziert, weil sie so viel Rechenleistung verbraucht haben. Und die Leute haben es gehasst. Wenn man die YouTube-Kommentare liest, hasst es jeder. Es ist super hochwertig, aber man sieht trotzdem, dass es KI ist, dass es ein generatives Video istund das ist ein bisschen schlechter.

 

Es ist, als würde dir jemand einen Geburtstagskuchen schenken: Er hat ihn nicht selbst gebacken, sondern für 0,99 Dollar im Supermarkt gekauft. Du denkst dir: Okayer hat sich nicht viel Mühe gegeben. Ich glaube, dass die in das Werk eingebackenen Beweise eine große Rolle spielen.

 

Vor fünfzig Jahren war elektronische Musik voller Optimismussie war die neueste Grenze. Man glaubte, dass man jeden Klang erzeugen und vielleicht sogar ohne Musiker auskommen könnte, und viele Komponisten fanden diese Idee spannend. Jetzt scheint es, als sei dies tatsächlich möglich gewordenund doch macht es die Menschen nicht glücklich. Die Stimmung in der Branche ist viel pessimistischer. Warum hat sich der Traum der elektronischen Musik von Befreiung in die heutige Angst vor Ersatz verwandelt?

 

Vielleicht, weil wir die Menschen von der falschen Art von Arbeit befreien. Wir wollen nicht frei sein vom Musizieren, Zeichnen oder Bücher schreiben. Wir möchten lieber frei sein von Hausarbeitvom Aufräumen. Und jetzt übernimmt die KI die angenehmen Aufgaben.

 

Und wenn ich ältere Texteaus den 50er- oder 60er-Jahrenvon Stockhausen oder Hans Eisler lese, in denen sie sagen, okay, langfristig werden Musiker durch elektronische Klänge und Computermusik ersetzt werden, denke ich immer: Wow. Wenn man das heute liest, sieht man, wie naiv das in gewisser Weise war.

 

Wenn ich also auf die Gegenwart schaue, mache ich mir keine großen Sorgen. Und wenn ich mir die ästhetischen Entwicklungen der letzten Jahre anschauevor allem im Studiobereich –, dann folgen sie nicht den Regeln der technologischen Entwicklung. Sie folgen nicht den Regeln der Wirtschaftlichkeit oder Effizienz. Die Leute sind anachronistisch. Die Leute aus der elektronischen Musik wenden sich von Bildschirmen ab und kehren zur Hardware zurück.

 

Es gab einen riesigen Boom bei analogen Synthesizern, modularen Synthesizern. Die Leute lieben Hardware-Instrumente. Die Leute arbeiten immer noch mit Tonband oder kehren zu Tonband und analogen Formaten zurück. Letztes Jahr übertrafen die Gesamteinnahmen aus Vinyl die Einnahmen aus CDs. Und wenn Leute etwas veröffentlichen, veröffentlichen sie es auf Vinylnicht auf CDsund stellen es auf Bandcamp. Für künstlerische Arbeit gibt es also eine andere Logik, die nicht zur Marktlogik oder Effizienzlogik passt.

 

Und es gab diese Idee: Elektronische Musik ist die Zukunft, sie ist topaktuell. Sogar der Name des Labors»Labor für akustische Musikprobleme«klingt genial. Jetzt geht es nicht mehr um große Probleme. Es geht darum, diesen schönen Retro-Sound der Vergangenheit zu genießen.

 

Und in gewisser Weise leben wir in diesem alten visionären Traum: Alles ist elektronisch. Selbst wenn man ein Streichquartett aufnimmt, wird es optimiert und bearbeitet, man verwendet Effekte. Alles ist elektronisch.

 

Jahrzehntelang wurde elektronische Musik als »die Zukunft« dargestellttopaktuell, sogar utopisch. Heute klingt der Diskurs oft nostalgischer, angezogen von Retro-Wärme und älteren Tools. Wir leben auf seltsame Weise in dem alten Traum: Fast alles ist jetzt elektronischsogar eine Streichquartett-Aufnahme wird bearbeitet, verarbeitet, vermittelt.

 

Für die meisten Menschen besteht die Hörsituation heute zu 99 % aus Kopfhörern, nicht aus akustischen Instrumenten. Das analoge Instrument ist also die Ausnahme.

 

Und ja, es ist genau so, wie du gesagt hast: Bei elektronischer Musik geht es nicht um modernste Technologie, nicht darum, technologisch avantgardistisch zu sein. Heute geht es meiner Meinung nach viel mehr um eine Art Achtsamkeit gegenüber Technologiegegenüber aller Technologie –, um das Erkennen der einzigartigen Qualitäten von Unvollkommenheiten.

 

Alle Technologien, die man hatSynthesizer aus den 60er Jahren, Laptops, digitale Effektgeräte aus den 80er Jahrensind auf dem gleichen Niveau. Der alte Synthesizer ist dem Laptop nicht unterlegen, er hat einfach seine eigenen Qualitäten, genau wie der Laptop. Man kann all diese Technologien aus verschiedenen Jahrzehnten in einem Werk verwenden. Man kann alles nutzen, was man für seine künstlerische Vision und andere Zwecke braucht.

 

Elektronische Musik hat diese ständige Angst: Alles wird schnell veraltet. Wie gehst du damit ummit dem Gefühl, dass das, was du machst, schnell an Wert verlieren könnte, nur weil die Technologie sich weiterentwickelt? Vor ein paar Jahren hast du zum Beispiel ein Stück namens »Sound for Rich People« gemachtein NFT-Stück, zu einer Zeit, als NFTs total angesagt waren. Heute musst du die Leute daran erinnern, was NFTs überhaupt waren.

 

Was die Technologie angeht, ist das tatsächlich etwas, worüber wir in der Akademie viel diskutierenvor allem in Bezug auf das Archiv und die Frage, wie man Werke am Leben erhält, insbesondere Werke mit Live-Elektronik. Wir bekommen Archive von Mitgliedern der Akademiezum Beispiel von Thomas Kessler, der letztes Jahr verstorben istund in seinem Archiv gibt es viele Werke mit Live-Elektronik: Patches, die in einer 25 oder 30 Jahre alten Software programmiert wurden, die heute niemand mehr hat.

 

Wir haben uns viele Gedanken darüber gemacht, wie man solche Werke bewahren kann. Notenblätter zu bewahren ist einfach: Man legt sie in eine Schachtel, und fertig. Bei Elektronik ist das anders. Wir haben viel darüber nachgedacht, wie man Elektronik bewahren kannund tatsächlich können große Sprachmodelle dabei eine große Rolle spielen, weil sie eine Programmiersprache recht einfach in eine andere umwandeln können. Sie »kennen« die Details. Das kann eine Möglichkeit der Erhaltung sein: Werke aufführbar zu halten, sie performativ zu erhalten.

 

Weil es eine lebendige Praxis ist. Man muss auch heute noch darüber nachdenken, wie man ein Stück von Bach aufführt: Man hat nicht die Instrumente aus dieser Zeitoder man findet nur wenige –, und sie wurden anders gespielt. Es handelt sich also immer um eine Interpretation des Werks. Und wenn man Elektronik realisiert oder nachbildet, ist das auch eine Interpretation. Nehmen wir ein Stück von Luigi Nonoman muss Dinge digital nachbilden. Man hat nicht die Originalgeräte. Man muss es in Max/MSP patchen. Auch das ist ein Interpretationsprozess.

 

Was die Relevanz angehtalso die Aufmerksamkeit der Gesellschaft –, glaube ich nicht, dass man das planen kann. Man muss das tun, was einen interessiert, was einen fasziniert. Oft ist es ein paar Jahre später schon irrelevant. Manchmal dauert es fünfzig Jahre, und dann wird es wieder relevant. Aber man kann das nicht planen. Ich glaube nicht, dass das bei meinem Komponieren eine Rolle spielt.

 

Apropos generative Musik: Das ist keine neue Idee. Manch einer führt sie mindestens auf Mozarts Würfelspiele zurückund im 20. Jahrhundert wird sie zu einem ständigen Traum: Musik zu generieren, anstatt sie Note für Note zu schreiben. Jetzt sind wir an einem Punkt, an dem das Routine ist. Wie solltenoder könntenKomponisten diese Technik heute nutzen?

 

Ich kann nur sagen, was ich aus meiner Perspektive im Moment interessant finde. Im Moment ist es eher ein Werkzeug als ein Ersatzund es eignet sich sehr gut zum Skizzieren. Wenn man schnell Dinge ausprobieren und viele Varianten, viele verschiedene Ergebnisse erhalten möchte, nur um Möglichkeiten zu testen, kann man das jetzt extrem schnell tun. Aber wenn man Details kontrollieren möchte, muss man immer noch die manuelle Arbeit leisten. Eine feine Kontrolle ist immer noch sehr schwierig.

 

Mit sogenanntem »Pseudo-Audio« kann man zum Beispiel schnell ein Ergebnis erzielen. Aber wenn man das Ergebnis in kleinen Schritten modifizieren will, ist das im Grunde unmöglich. Man kann zum Beispiel die Instrumentierung nicht ändern. Und die meisten musikalischen Vorgabenin der tatsächlichen Musiksprache, wie »spiel dieses Klavier«, »verwende diese Instrumente« oder »mach ein Ritardando«werden tendenziell ignoriert. Die Systeme sind gut darin, Genres nachzubilden und Texte zu generieren, aber nicht bei musikalischen Details.

 

Ich denke, dass es in Zukunft Modelle geben wird, die das können. Da bin ich mir ziemlich sicher.

 

Im Moment interessiert mich vor allem, wo die Grenzen liegen und was passiert, wenn man sie ausreizt. In gewisser Weise interessiert mich, wie ich die Maschine zum Absturz bringen kann.

 

Da ist auch die Frage der Urheberschaft: Wessen Musik ist das eigentlich? Wem gehört sie?

 

Für diese Musik gibt es keine Tantiemen. Und in Deutschland gibt es aus rechtlicher Sicht das Konzept der Schöpfungshöhe. Die meisten Gerichte würden wahrscheinlich sagen, dass die Arbeit mit KI und generativer Musik ein bisschen wie die Arbeit mit Samples ist.

 

Das hängt vom Einzelfall ab. Nimmst du einfach ein Sample und platzierst es dortund das war’s? Oder nimmst du das Sample und entwickelst es weiter? Steckst du Arbeit hineinund entsteht dabei etwas, das selbst zu einem Werk wird, etwas, das du geschaffen hast?

 

Ich denke, bei generativer Musik ist es ähnlich. Wenn man Material generiert und es dann weiter ausarbeitet und damit arbeitet, kann man zu etwas gelangen, das aus rechtlicher Sicht immer noch die eigene Musik ist. Aber das hängt vom Einzelfall ab.

 

Glaubst du, dass dies zu neuen Musikgenres oder -formen führen wird?

 

Ja, auf jeden Fall. Da bin ich mir ziemlich sicher. Wie das heißen wird, weiß ich noch nicht.

 

Glaubst du, dass wir auch mehr avantgardistische generative Stücke haben werden?

 

Ich hoffe es. Ich habe ein wenig mit Audio experimentiert, und oft bleibt man bei etwas hängen, das entweder wie John Coltranes Free-Jazz-Improvisation klingt oder wie Aphex Twin oder IDM. Aber es ist interessant herauszufinden, wie man diese Dinge miteinander verbinden kann.

 

Die zeitgenössische Musik hat bereits dieses Wahrnehmungsproblem: Viele Stücke klingen für Außenstehende »generiert«selbst wenn sie sorgfältig mit einer inneren Logik komponiert wurden. Wenn wirklich generative Musik denselben Raum einnimmt, könnte die Verwirrung noch größer werden. Vielleicht haben wir am Ende einen übersättigten Markt.

 

Das passiert bereits. Spotify wird mit KI-generierter Musik überschwemmt. Ich glaube, es gibt sogar ein paar KI-generierte Titel in den US-Charts. In der Popmusik ist das bereits Realität. Ich weiß nicht, wie nachhaltig das ist. Meine bestmögliche Vermutung ist, dass die Leute ziemlich schnell das Interesse verlieren werden.

 

In der experimentellen Musik gibt es keinen wirklichen Marktund das könnte unser Vorteil sein. Wir sind zu klein, um auf diese Weise genutzt zu werden. In gewisser Weise ist es ein Zufluchtsort. Wir sind immer noch ziemlich frei in dem, was wir tun können und was in diesem Bereich der neuen Musik passieren kann.

 

Es gibt auch eine kulturelle Kluft. Es gibt ein riesiges Publikum für elektronische Experimentemodulare Synthesizer, Vintage-Geräte, DIY-Szenenund dann gibt es die institutionelle Welt der Neuen Musik/Elektroakustik. Sie überschneiden sich, aber sie sind nicht dasselbe Ökosystem. Warum hast du dich dafür entschieden, hauptsächlich im Ökosystem der Neuen Musik zu arbeitenwas bietet es dir, was die andere Welt nicht bietet?

 

Als ich mit dem Komponieren anfing, war es eine bewusste Entscheidung, mit Computermusik zu beginnen. Ich hatte das Gefühl, dass ich, wenn ich neue Musik machen wolltezeitgenössische Musikich mich nicht auf traditionelle westeuropäische Instrumente aus den letzten zweihundert Jahren beschränken konnte, deren Entwicklung im Wesentlichen vor mehr als hundert Jahren abgeschlossen war. Man behält einfach das Streichquartett als Streichquartett, das Orchester als Orchesterund ich empfand das immer als einschränkend. Deshalb wollte ich alle Arten von Instrumenten und Technologien nutzen, die mir zur Verfügung standen. Aus diesem Grund habe ich mich von Anfang an für ein Studium der Computermusik entschieden.

 

Und dann, nach ein paar Jahren in diesem Bereichauch als Studiomanagerhabe ich bestimmte Beobachtungen gemacht. Eine davon ist, dass die Leute eher offen für Experimente in der elektronischen Musik sind. Wenn man mit einem Streichquartett experimentiert, ist die Gruppe, die das akzeptiert, begrüßt oder sogar neugierig bleibt, relativ klein. Bei elektronischer Musik ist das anders.

 

Ich denke, zeitgenössische Musik ist immer noch Teil des klassischen Musikmarktes. Elektronische Musik ist eher basisorientiert, differenzierterund sie ist auch eine jüngere Technologie. Ich beobachte dort mehr Offenheit für Experimente als in der Instrumentalmusik, in der klassischen akustischen Musik.

 

Und es ist natürlich ein Spektrumvon Berliner Techno bis Stockhausen, mit tiefen Verbindungen und allem, was dazwischen liegt.

Ich sehe Tendenzen in der nicht-institutionellen, nicht-akademischen Musik, die denen in der akademischen Neuen Musik ähneln. Nehmen wir Ambient: Die Leute wollen Rhythmus und Tanzbarkeit loswerden, und so entsteht etwas wie Ambient. Oder die Leute wollen Melodie und Harmonie loswerden und schaffen Noise-Musik. Das ist in gewisser Weise analog zu Musique concrète und Montageaber auf elektronischer Ebene.

 

Es gibt also in beiden Welten die gleichen ästhetischen Fragenden gleichen Diskurs. Sie beeinflussen sich gegenseitig. Und ich sehe auch Leute, die ins Studio der Akademie kommen, die keine klassische Ausbildung als Komponist haben. Sie kommen aus anderen Berufen. Sie machen elektronische Musik als Hobby, aber sie meinen es ernst und wissen viel. Gleichzeitig haben sie oft immer noch großen Respekt vor der Institutionder Akademie.

 

Es gibt also immer noch eine Kluft. Und auf der akademischen Seite gibt es immer noch Leute, die auf Dinge herabblicken, die nicht institutionalisiert sind. Aber so einfach ist es nicht.

 

Es gibt einen großen Nostalgiefaktor. Elektronische Musik »auf altmodische Weise«die Idee von analoger Wärme, Tonband, »das klingt viel besser«, »Vinyl klingt so viel besser«da gibt es viele Dinge, denen ich nicht zustimmen würde. Aber es ist interessant, die Popularität von Hainbach zu sehendass jemand mit einem super nischenhaften Thema eine große Reichweite und eine große Community haben kann.

 

Das hat mich beeindruckt: dass sich so viele Leute für ein Nischenthema interessieren. Und wenn einige von ihnen sich auch für musikalische und technische Details interessieren, ist das super. Es ist interessant zu sehen, wie weit sich das verbreitetzum Beispiel bei der Superbooth in Berlin, wo sich jedes Jahr Tausende von Leuten treffen, um mit analogen Synthesizern herumzuspielen, an Reglern und Fadern zu drehen.

 

Aber du hast dich aus einem bestimmten Grund dafür entschieden, Komponist für neue Musik zu werden, oder? Das erfordert eine andere Art von Aufmerksamkeit und Konzentration, eine andere Art des Zuhörens. Wie stehst du dazu?

 

Für mich geht es bei neuer Musik nicht in erster Linie darum, wie sie klingt, sondern darum, wie sie wahrgenommen wird. Meiner Erfahrung nach sind Menschen, die sich intensiv für zeitgenössische Musik interessieren, auch intensive Zuhörer. Sie nutzen Musik nicht als persönlichen Soundtrack, um Gefühle zu unterstreichen oder ihre Aktivitäten zu begleiten. Sie interessieren sich für das Zuhören an sich, für ihre eigenen Hörprozesse und für detaillierte musikalische Fragen: Wie funktioniert Rhythmus, wie funktioniert Harmonie, was ist eine Melodie, wo liegt die Grenze zwischen Geräusch und Klang, wie entsteht musikalische Form?

 

Ich denke also, dass Menschen, die sich zu dieser Musik hingezogen fühlen, aufmerksame Zuhörer sindvielleicht läuft es darauf hinaus. Und für mich ist es genauso. Ich habe mich schon immer dafür interessiert, wie Musik funktioniert, wie musikalische Prozesse funktionieren, wie Klang funktioniert und wie er mit mirmit meinem Gehirn, mit meiner Wahrnehmunginteragiert. Ich wollte ein tieferes Verständnis für Musik im Allgemeinen erlangen.

 

Wenn du dem Publikum eine Anweisung zum Zuhören für die Premiere geben könntestwie würde die lauten?

 

Vielleicht wäre eine ganz einfache Anweisung: Legt eure Handys weg. Versucht es einfachdenn heutzutage gibt es so viele Ablenkungen. Ich sehe das auch bei Konzerten: Die Leute lassen sich sehr leicht ablenken. Und wenn man nicht ständig ihre Aufmerksamkeit auf sich lenkt, wird es schwierig. Vielleicht lautet die Anweisung also einfach: Seid geduldig beim Zuhören.