Malte Giesen
Sa. 07.02., 15:00 Uhr
Malte Giesen–im Gespräch mit Alexey Munipov
Du bist sowohl als Komponist aktiv als auch Leiter des Studios für elektroakustische Musik hier an der Akademie der Künste in Berlin. Wie teilst du diese Rollen auf? Sind sie in deinem Leben komplett getrennt oder beeinflussen sie sich gegenseitig?
Im Prinzip sind es unterschiedliche Rollen. Als Studiochef hab ich eine ganz andere Aufgabe als als Komponist. Ich bin eher jemand, der Projekte ganz unterschiedlicher Art und aus ganz unterschiedlichen Bereichen ermöglicht–und dafür muss ich mich von meinen eigenen ästhetischen und künstlerischen Vorlieben lösen und eine umfassendere Perspektive einnehmen. In diesem Sinne wechsle ich die Rolle: Ich bin eher ein Diener anderer Künstler. Ich muss ihre Vision verstehen und ihnen helfen, ihre Arbeit zu verwirklichen.
Als Komponist bin ich viel »künstlerischer« in dem Sinne, dass ich mich auf meine eigene Arbeit konzentriere. Das ist eine engere, aber sehr konzentrierte Sichtweise–und sie ermöglicht es mir, tief in die Details einzutauchen und Dinge sehr gründlich zu erforschen. Als Studiochef kann ich das nicht immer machen, weil so viel los ist: Leuten helfen, Aufnahmen vorbereiten, mich um die Technik kümmern, mich mit anderen Abteilungen der Akademie abstimmen. Ich versuche, ein Gleichgewicht zu halten, aber im Moment nimmt die Arbeit an der Akademie viel mehr Raum ein als das Komponieren.
Hast du eine interne Regel–zuerst Komponist, dann Direktor oder umgekehrt?
Nicht wirklich. Ich hab noch andere Rollen in meinem Leben: Ich bin Vater von zwei Kindern, Ehemann–da gibt es noch andere Pflichten. Aber wenn es um die Arbeit an Stücken geht, versuch ich, diese beiden Rollen zu trennen. Natürlich profitieren sie voneinander. Als Studiochef bekomme ich viele Ideen aus den Projekten, die ich betreue. Und umgekehrt gibt mir das Komponieren und Erforschen von Technologien die Möglichkeit, das Profil des Studios weiterzuentwickeln. Es ist also ein Geben und Nehmen.
Das Studio hat eine einzigartige Geschichte und eine starke Identität, mit vielen einzigartigen Geräten um uns herum. Nutzt du das in irgendeiner Weise für deine eigene Arbeit?
Die historischen Instrumente–eigentlich nicht so sehr. Als ich hier angefangen habe, hatte ich kaum eine Verbindung zu ihnen. Mit der Zeit wurde mir aber immer mehr bewusst, wie besonders sie sind–und was für Schätze wir im Studio haben. Die Arbeit mit den alten Instrumenten und die Gespräche mit Leuten, die zu der Zeit, als diese Instrumente entwickelt wurden, aktiv waren, haben meine Sichtweise verändert und, glaube ich, bereichert.
Heute sehe ich elektronische Instrumente–und was ein elektronisches Instrument überhaupt ist–anders als früher. Es handelt sich nicht einfach um veraltete Technologie. Instrumente aus einer bestimmten Zeit können bestimmte Dinge tun und andere nicht–und das ist eigentlich gut für die Kreativität. Man will keine Universalmaschine.
Das habe ich mit Robert Henke, einem der Mitbegründer von Ableton, besprochen. Er hat immer gesagt, dass die Leute keine Maschinen wollen, die alles können, sondern Werkzeuge, die bestimmte Dinge außergewöhnlich gut und andere weniger gut können. Das Ausloten der Grenzen und Beschränkungen von Maschinen–einschließlich dessen, was fehlerhaft, seltsam oder unvollkommen ist–macht es interessant.
Was ist Ihrer Meinung nach die Stärke dieser älteren elektronischen Maschinen?
Ich würde sagen: ihre Direktheit.
Im Silicon Valley redet man jetzt über »ruhige Technologie«–darüber, sich von Bildschirmen zu lösen. Und der offensichtlichste Vorteil ist für mich, dass man keinen Bildschirm hat. Man hat Hardware: Regler und Fader, Kabel, die man zieht, Stecker, die man anschließt. Das ist eine haptischere, physischere Art, mit einem elektronischen Instrument zu interagieren–und Klänge zu erzeugen–als das Tippen auf einer Tastatur oder das Klicken mit einer Maus.
Und es führt zu anderen Ergebnissen. Außerdem ist es in einer Performance-Situation spannender. Zu sehen, wie jemand an Reglern dreht und Fader bedient, ist einfach fesselnder, als jemanden hinter einem Bildschirm zu beobachten, wo man nicht sagen kann, ob er Facebook oder E-Mails checkt oder Sounds programmiert.
Ich kenne mindestens ein Werk von dir, das diese Maschinen verwendet–das mit dem weißen Rauschen.
Dieses weiße Rauschen kommt von dem Synthesizer hier: dem einzigen analogen Modularsystem, das in der DDR gebaut wurde. Es stammt aus den 80er Jahren–aber selbst damals war es schon alte Technologie, weil man dort keinen Zugang zu den neuesten Entwicklungen hatte, wie es im Westen der Fall war.
Alle klangerzeugenden Module–Oszillatoren, Filter, das Rauschmodul–haben eine bestimmte Klangfarbe. Weißes Rauschen ist ein gutes Beispiel: Man kann es mathematisch erzeugen, dann wird es superrein und superklar. Aber ich wollte ein analoges weißes Rauschen mit Verunreinigungen–mit den natürlichen Schwankungen, die damit einhergehen.
Es ist also eine Art luxuriöses Vintage-Weißes Rauschen.
Es ist ein bisschen wie bei Luxusuhren: Sie sind mechanisch. Natürlich zeigen Quarzuhren, elektronische Uhren, Smartwatches die Zeit viel genauer an. Aber es ist wie du gesagt hast: Es geht um die Emotion, die das Objekt vermittelt. Man kann eine mechanische Luxusuhr für Zehntausende von Euro kaufen, und am Ende des Tages ist es immer noch »nur eine Uhr«–aber sie hat eine andere Ausstrahlung als beispielsweise eine Apple Watch.
Aber klanglich klang sie anders.
Natürlich. Sie klingt anders, weil sie analog ist und ihre eigene Klangfarbe hat. Auch der Digitalisierungsprozess spielt eine Rolle: Jede Digitalisierung eines analogen Klangs erzeugt Artefakte, je nachdem, wie man ihn digitalisiert. Aber ja–das ist hörbar. Ich denke, man hört, dass es sich um analoges weißes Rauschen handelt.
Könnte man sagen, dass das Studio selbst eine eigene Klangqualität hat–so wie ein Instrument mit einem eigenen Timbre?
Auf jeden Fall. Das Studio ist ein Instrument. Es ist die Auswahl der Komponenten, die Werkzeuge und Setups, die man hat–und auch die Leute, die dort arbeiten, die Art und Weise, wie Wissen geteilt wird. Auch die soziale Komponente spielt eine Rolle: Der Austausch zwischen den Menschen im Studio erzeugt eine bestimmte Art von Klang oder zumindest eine bestimmte Klangpalette. In diesem Sinne wird jedes Studio zu einem einzigartigen Instrument.
Hast du jemals versucht, mit diesem Instrument–mit genau diesem Studio–als Komponist zu komponieren?
In gewisser Weise, ja. Meine NFT-Stücke waren eine diskursive Arbeit rund um diese Umgebung–rund um das Studio und meine damaligen Gedanken zu analogen elektronischen Instrumenten. Und im weiteren Sinne beeinflusst es alles, was ich mache. Alles, was ich hier erlebe, alles, was ich hier produziere, alles, was ich hier schaffe, fließt unweigerlich in meine Arbeit als Komponist ein.
Und allgemeiner gefragt: Ist es dir wichtig, dass die Zuhörer*innen deine Musik am Gehör erkennen können–dass du eine persönliche künstlerische Handschrift, einen Stil hast?
Ich denke, es gibt eine Kluft zwischen der Vorstellung der Komponist*innen und der Wahrnehmung der Zuhörer*innen. Viele Komponist*innen finden, dass sich ihre Stücke stark voneinander unterscheiden–und manche sagen, dass sie ihre Art zu komponieren und den Klang ihrer Stücke komplett verändert haben. Aber die Zuhörer*innen sagen oft trotzdem: Ich erkenne deinen Stil sehr deutlich, auch bei verschiedenen Stücken.
Ich habe nie das Bedürfnis verspürt, darauf zu bestehen. Ich versuche nicht, auf einen unverwechselbaren Klang zu »achten«. Ich denke, das passiert sowieso. Das sage ich auch meinen Studenten: Macht euch darüber keine Gedanken. Wenn ihr stetig arbeitet, wenn ihr weiter komponiert und Musik produziert, entwickelt sich von selbst ein bestimmter Stil. Der wird da sein, egal was ihr macht.
Ich hatte auch den Eindruck, dass euch Konzepte wichtiger sind als sensorische Qualitäten–als der Klang selbst. Stimmt das?
Ja–zumindest am Anfang. Die konzeptionelle Seite ist mir zu Beginn meist wichtiger, weil sich alles daraus ableitet. Und natürlich ist das persönlich: Andere Komponist*innen arbeiten ganz anders. Ich kenne Leute, die eher bottom-up arbeiten–sie beginnen mit einem Klang, der sich dann weiterentwickelt, und daraus entwickeln sie Abweichungen und Variationen. Das ist meistens nicht meine Herangehensweise.
Für mich macht es Sinn, zuerst zu klären, worum es in dem Stück geht–worum es in dem Werk geht, was die zentrale konzeptionelle Idee ist. Sobald ich das habe, ist es sehr einfach, alles aus diesem Kern abzuleiten.
Ist es wichtig, wie es am Ende klingt?
Natürlich ist es wichtig. Aber wie es klingt, muss durch das Konzept gerechtfertigt sein. Es darf nicht willkürlich sein. Das klangliche Ergebnis ist wichtig, aber jeder Klang kann eine große künstlerische Kraft haben, wenn er streng an ein Konzept gebunden ist. Es geht um Kontextualisierung: Man kann fast jeden Klang nehmen und ihn in eine starke ästhetische und künstlerische Idee einbetten.
Kommen wir zu deinem neuen Stück–darüber wissen wir noch nicht viel. Im Programm steht was von einer KI-gesteuerten Diffusion von weißem Rauschen. Kannst du das näher erläutern?
In den letzten Jahren habe ich mit generativer KI gearbeitet und mich intensiv mit der Funktionsweise dieser Modelle beschäftigt–den Prozessen und der Mathematik dahinter. Was mir aufgefallen ist: Generatives Audio funktioniert sehr ähnlich wie generative Bilder.
Einer der bekanntesten Algorithmen für generative Bilder ist Stable Diffusion. Einfach ausgedrückt: Man trainiert ein Modell, indem man ihm Bilder zuführt, und während des Trainings fügt das Modell den Bildern iterativ weißes Rauschen hinzu–Schritt für Schritt, immer mehr Rauschen. Ab einem bestimmten Punkt erkennt man das Bild nicht mehr, weil zu viel Rauschen vorhanden ist.
Das Modell lernt dann, diesen Prozess umzukehren. Um es klar zu sagen: Es gibt Zwischenschritte–es gibt auch den latenten Raum –, es handelt sich also nicht buchstäblich nur um »das Bild«, aber lassen wir es vorerst einfach. Wenn man das Modell auffordert–sagen wir, man fragt nach einem Pferd auf einem Skateboard –, beginnt es mit Rauschen und subtrahiert dann iterativ Rauschen, bis nur noch das Pferd und das Skateboard übrig bleiben.
Bei Audio ist es im Grunde genommen dasselbe–nur dass man nicht direkt mit Audiodateien arbeitet, nicht so sehr mit zeitbasierten Medien, sondern mit Spektrogrammen. Man wandelt Audio in Spektrogramme um–wieder Bilder–und trainiert den Algorithmus damit. Dann kann man aus Eingaben neue Spektrogramme generieren, sie synthetisieren und erhält so Klang. Das ist im Wesentlichen der Prozess.
Ich versuche, diesen Prozess neu zu komponieren–eine akustische oder musikalische Analogie dazu zu finden. Also nehme ich kleine Ausschnitte einer komponierten Struktur und füge ihnen dann in verschiedenen Schritten Rauschen hinzu oder entferne es wieder.
Und das passiert nicht nur durch Hinzufügen von weißem Rauschen an der Oberfläche des Klangs. Es passiert auch im sogenannten latenten Raum. Der latente Raum ist eine Darstellung dieser kurzen Ausschnitte, die nach der Nähe verschiedener Klangeigenschaften organisiert sind. Ein Klavier ist zum Beispiel »näher« an einer Marimba als an einem Streichinstrument; ein Streichinstrument ist näher an einem anderen lang anhaltenden Instrument als an einem Zupfinstrument.
Das gilt für viele Parameter: Rhythmus, Harmonie, Tonhöhe und so weiter. Ich versuche, diese Rausch- und Entrauschungsprozesse auf mehreren Ebenen dieses latenten Raums durchzuführen. Es geht also nicht nur um »mehr weißes Rauschen« oder »weniger weißes Rauschen« insgesamt. Der Rhythmus kann rauschintensiver werden–oder entrauschter. Die Tonhöhen können instabiler und rauschintensiver werden–oder entrauschter. Man erhält unterschiedliche Grade der Erkennbarkeit des musikalischen Materials.
Man kann auch verschiedene musikalische Materialien ineinander übergehen lassen. Ein Teil ist wie ein Zitat aus einem anderen Stück, das ich vor einigen Jahren geschrieben habe. Dann gibt es vier Takte Easy-Listening-Jazz. Diese verschiedenen Schnipsel werden ineinander überblendet, wiederum auf verschiedenen Ebenen.
Und es gibt nicht nur Musik–es gibt auch einen Videoteil. Da dieses Modell auf generativen Bildern und generativen Videos basiert, wollte ich einen zusätzlichen »Spieler« im Ensemble: einen vertikalen Bildschirm–wie ein Smartphone. Ein großes Smartphone auf der Bühne, als zusätzlicher Darsteller. Es läuft nicht die ganze Zeit, sondern nur zu bestimmten Momenten. Es gibt Ausschnitte aus generativen Videos mit unterschiedlichen strukturellen Zwecken, die aus verschiedenen Quellen stammen.
Eines der bekanntesten Beispiele für generative Videos–etwas, das viral ging–sind diese Clips von Früchten oder Glas, die mit einem Messer geschnitten werden. Sie sehen superglatt aus: superklare, super schön aussehende Glasflöten, die geschnitten werden können, was physikalisch unmöglich ist. Sie haben dieses ASMR-Gefühl, das in den letzten Jahren sehr populär geworden ist.
Ich habe diese Idee des Glasschneidens ohne wirklich eine Quelle zu haben, auf die Instrumente übertragen. Ich habe Videos mit den Instrumenten erstellt, die die Musiker spielen sollen, und versucht, diese »Schneidevideos« mit Instrumenten nachzubilden–im Grunde genommen, um zu sehen, was passiert: wie ich das Modell ansteuern kann und was dabei passiert.
Es bezieht sich auch ein wenig auf die Idee der Zerstörung von Instrumenten–vor allem bekannt durch diese berühmte Performance mit der Geige. Das habe ich in gewisser Weise durch generative Videos nachgebildet. Ich finde, das ist eine interessante neue Technologie. Wir sind gerade an einem Punkt, an dem diese Technologie noch am Anfang steht. Man kann viel damit herumspielen und Ergebnisse erzielen, die vorher nicht möglich waren.
Es handelt sich also um ein von KI generiertes, von weißem Rauschen abgeleitetes, durch Memes inspiriertes Musikstück
Ja. Das ist eine gute Zusammenfassung. Aber es ist immer noch manuell komponiert. Ich würde sagen: manuell komponiert, aber inspiriert von KI-Algorithmen.
Welche Rolle spielt dabei das Ensemble?
Mein Hauptinteresse gilt nach wie vor der Live-Situation: Menschen, die gemeinsam auf der Bühne Musik machen. Die meisten Instrumente sind analog–mit Ausnahme des Keyboards, der E-Gitarre und des Schlagzeugs anstelle eines echten Schlagzeugs, weil ich sehr schnell zwischen verschiedenen Schlagzeugklängen wechseln möchte.
So wie es ein generativer Algorithmus tun würde. Wenn man dem Algorithmus »Pferd« sagt, hat er Tausende, Zehntausende, Millionen von Darstellungen von Pferden. Und genau das wollte ich auch mit Klängen erreichen–zum Beispiel mit Drum-Sounds. Ich wollte schnell auf ein paar hundert verschiedene Drum-Sounds zugreifen können.
Steckt hinter diesem Konzept eine Botschaft?
Keine Botschaft–keine politische Botschaft in diesem Sinne.
Ich denke, es geht hauptsächlich um Verspieltheit: Dinge entdecken, mit Tools spielen und die Grenzen dieser Tools ausloten. Neugier, Verspieltheit–das ist das Hauptmotiv. Das sind neue Technologien. Viele Leute wissen zum Beispiel noch nicht, wie man ChatGPT benutzt.
Es ist super neu und wird sich in den nächsten Jahren stark verändern. Aber im Moment kann man damit einfach herumspielen. Man muss nicht jedes technische Detail perfekt kennen. Und das kann fruchtbar sein: die Grenzen auszuloten und dem Publikum den eigenen Prozess zu zeigen–die Interaktion mit der Technologie und den Dialog, den man mit ihr führt.
Lass uns kurz über KI reden. KI ist ein viel diskutiertes Thema. In der Branche reagieren viele Musiker negativ darauf–und die Diskussion dreht sich oft schnell um die Angst: »Es wird allen die Arbeit wegnehmen.« Gleichzeitig sind wirklich überzeugende künstlerische Anwendungen noch relativ selten. Wie stehst du persönlich zu KI als Werkzeug für die heutige Musikproduktion?
Ich würde sagen, darauf gibt es zwei Antworten.
Die künstlerische, idealistische Antwort wäre: Meiner Beobachtung nach interessieren sich die Menschen nicht für KI-Produkte–und auch nicht für KI-Musik –, weil Musik eine menschliche Praxis ist und kein Produkt. Die Menschen werden weiterhin aus Interesse, oft aus Neugier, Musik machen. Die Menschen lieben es, selbst Instrumente zu spielen.
Die Angst, ersetzt zu werden, kommt auf, wenn Musik als Produkt mit wirtschaftlichem Wert behandelt wird: Produktionsmusik, Musik für Filmtrailer, generische Filme–Situationen, in denen es billiger ist, eine KI zu nutzen, und mittelmäßige Qualität ausreicht. In diesen Bereichen werden Musiker ersetzt werden, und Komponisten werden sehr schnell ersetzt werden. Und ich finde das eigentlich gut. Man muss nicht all diese generischen, billigen Sachen machen.
Der stärkere Impuls ist dann, etwas zu schaffen, das auffällt und origineller ist. Vielleicht wird generative KI die Leute dazu bringen, herausragend zu sein–experimenteller zu sein. Und vielleicht wird sie tatsächlich neue Musik fördern.
Ich denke, letztendlich verlieren die Leute das Interesse, wenn Dinge offensichtlich KI sind–oder wenn sie herausfinden, dass alles KI ist. Das habe ich gesehen, als Coca-Cola vor ein paar Wochen sein Weihnachtswerbevideo veröffentlicht hat. Sie haben kommuniziert, dass es komplett KI-generiert war–und auch super teuer, weil sie etwa 70 Millionen Prompts verwenden mussten, um das gesamte Video zu erstellen.
Es hat ungefähr genauso viel gekostet, als hätten sie es auf traditionelle Weise produziert, weil sie so viel Rechenleistung verbraucht haben. Und die Leute haben es gehasst. Wenn man die YouTube-Kommentare liest, hasst es jeder. Es ist super hochwertig, aber man sieht trotzdem, dass es KI ist, dass es ein generatives Video ist–und das ist ein bisschen schlechter.
Es ist, als würde dir jemand einen Geburtstagskuchen schenken: Er hat ihn nicht selbst gebacken, sondern für 0,99 Dollar im Supermarkt gekauft. Du denkst dir: Okay–er hat sich nicht viel Mühe gegeben. Ich glaube, dass die in das Werk eingebackenen Beweise eine große Rolle spielen.
Vor fünfzig Jahren war elektronische Musik voller Optimismus–sie war die neueste Grenze. Man glaubte, dass man jeden Klang erzeugen und vielleicht sogar ohne Musiker auskommen könnte, und viele Komponisten fanden diese Idee spannend. Jetzt scheint es, als sei dies tatsächlich möglich geworden–und doch macht es die Menschen nicht glücklich. Die Stimmung in der Branche ist viel pessimistischer. Warum hat sich der Traum der elektronischen Musik von Befreiung in die heutige Angst vor Ersatz verwandelt?
Vielleicht, weil wir die Menschen von der falschen Art von Arbeit befreien. Wir wollen nicht frei sein vom Musizieren, Zeichnen oder Bücher schreiben. Wir möchten lieber frei sein von Hausarbeit–vom Aufräumen. Und jetzt übernimmt die KI die angenehmen Aufgaben.
Und wenn ich ältere Texte–aus den 50er- oder 60er-Jahren–von Stockhausen oder Hans Eisler lese, in denen sie sagen, okay, langfristig werden Musiker durch elektronische Klänge und Computermusik ersetzt werden, denke ich immer: Wow. Wenn man das heute liest, sieht man, wie naiv das in gewisser Weise war.
Wenn ich also auf die Gegenwart schaue, mache ich mir keine großen Sorgen. Und wenn ich mir die ästhetischen Entwicklungen der letzten Jahre anschaue–vor allem im Studiobereich –, dann folgen sie nicht den Regeln der technologischen Entwicklung. Sie folgen nicht den Regeln der Wirtschaftlichkeit oder Effizienz. Die Leute sind anachronistisch. Die Leute aus der elektronischen Musik wenden sich von Bildschirmen ab und kehren zur Hardware zurück.
Es gab einen riesigen Boom bei analogen Synthesizern, modularen Synthesizern. Die Leute lieben Hardware-Instrumente. Die Leute arbeiten immer noch mit Tonband oder kehren zu Tonband und analogen Formaten zurück. Letztes Jahr übertrafen die Gesamteinnahmen aus Vinyl die Einnahmen aus CDs. Und wenn Leute etwas veröffentlichen, veröffentlichen sie es auf Vinyl–nicht auf CDs–und stellen es auf Bandcamp. Für künstlerische Arbeit gibt es also eine andere Logik, die nicht zur Marktlogik oder Effizienzlogik passt.
Und es gab diese Idee: Elektronische Musik ist die Zukunft, sie ist topaktuell. Sogar der Name des Labors–»Labor für akustische Musikprobleme«–klingt genial. Jetzt geht es nicht mehr um große Probleme. Es geht darum, diesen schönen Retro-Sound der Vergangenheit zu genießen.
Und in gewisser Weise leben wir in diesem alten visionären Traum: Alles ist elektronisch. Selbst wenn man ein Streichquartett aufnimmt, wird es optimiert und bearbeitet, man verwendet Effekte. Alles ist elektronisch.
Jahrzehntelang wurde elektronische Musik als »die Zukunft« dargestellt–topaktuell, sogar utopisch. Heute klingt der Diskurs oft nostalgischer, angezogen von Retro-Wärme und älteren Tools. Wir leben auf seltsame Weise in dem alten Traum: Fast alles ist jetzt elektronisch–sogar eine Streichquartett-Aufnahme wird bearbeitet, verarbeitet, vermittelt.
Für die meisten Menschen besteht die Hörsituation heute zu 99 % aus Kopfhörern, nicht aus akustischen Instrumenten. Das analoge Instrument ist also die Ausnahme.
Und ja, es ist genau so, wie du gesagt hast: Bei elektronischer Musik geht es nicht um modernste Technologie, nicht darum, technologisch avantgardistisch zu sein. Heute geht es meiner Meinung nach viel mehr um eine Art Achtsamkeit gegenüber Technologie–gegenüber aller Technologie –, um das Erkennen der einzigartigen Qualitäten von Unvollkommenheiten.
Alle Technologien, die man hat–Synthesizer aus den 60er Jahren, Laptops, digitale Effektgeräte aus den 80er Jahren–sind auf dem gleichen Niveau. Der alte Synthesizer ist dem Laptop nicht unterlegen, er hat einfach seine eigenen Qualitäten, genau wie der Laptop. Man kann all diese Technologien aus verschiedenen Jahrzehnten in einem Werk verwenden. Man kann alles nutzen, was man für seine künstlerische Vision und andere Zwecke braucht.
Elektronische Musik hat diese ständige Angst: Alles wird schnell veraltet. Wie gehst du damit um–mit dem Gefühl, dass das, was du machst, schnell an Wert verlieren könnte, nur weil die Technologie sich weiterentwickelt? Vor ein paar Jahren hast du zum Beispiel ein Stück namens »Sound for Rich People« gemacht–ein NFT-Stück, zu einer Zeit, als NFTs total angesagt waren. Heute musst du die Leute daran erinnern, was NFTs überhaupt waren.
Was die Technologie angeht, ist das tatsächlich etwas, worüber wir in der Akademie viel diskutieren–vor allem in Bezug auf das Archiv und die Frage, wie man Werke am Leben erhält, insbesondere Werke mit Live-Elektronik. Wir bekommen Archive von Mitgliedern der Akademie–zum Beispiel von Thomas Kessler, der letztes Jahr verstorben ist–und in seinem Archiv gibt es viele Werke mit Live-Elektronik: Patches, die in einer 25 oder 30 Jahre alten Software programmiert wurden, die heute niemand mehr hat.
Wir haben uns viele Gedanken darüber gemacht, wie man solche Werke bewahren kann. Notenblätter zu bewahren ist einfach: Man legt sie in eine Schachtel, und fertig. Bei Elektronik ist das anders. Wir haben viel darüber nachgedacht, wie man Elektronik bewahren kann–und tatsächlich können große Sprachmodelle dabei eine große Rolle spielen, weil sie eine Programmiersprache recht einfach in eine andere umwandeln können. Sie »kennen« die Details. Das kann eine Möglichkeit der Erhaltung sein: Werke aufführbar zu halten, sie performativ zu erhalten.
Weil es eine lebendige Praxis ist. Man muss auch heute noch darüber nachdenken, wie man ein Stück von Bach aufführt: Man hat nicht die Instrumente aus dieser Zeit–oder man findet nur wenige –, und sie wurden anders gespielt. Es handelt sich also immer um eine Interpretation des Werks. Und wenn man Elektronik realisiert oder nachbildet, ist das auch eine Interpretation. Nehmen wir ein Stück von Luigi Nono–man muss Dinge digital nachbilden. Man hat nicht die Originalgeräte. Man muss es in Max/MSP patchen. Auch das ist ein Interpretationsprozess.
Was die Relevanz angeht–also die Aufmerksamkeit der Gesellschaft –, glaube ich nicht, dass man das planen kann. Man muss das tun, was einen interessiert, was einen fasziniert. Oft ist es ein paar Jahre später schon irrelevant. Manchmal dauert es fünfzig Jahre, und dann wird es wieder relevant. Aber man kann das nicht planen. Ich glaube nicht, dass das bei meinem Komponieren eine Rolle spielt.
Apropos generative Musik: Das ist keine neue Idee. Manch einer führt sie mindestens auf Mozarts Würfelspiele zurück–und im 20. Jahrhundert wird sie zu einem ständigen Traum: Musik zu generieren, anstatt sie Note für Note zu schreiben. Jetzt sind wir an einem Punkt, an dem das Routine ist. Wie sollten–oder könnten–Komponisten diese Technik heute nutzen?
Ich kann nur sagen, was ich aus meiner Perspektive im Moment interessant finde. Im Moment ist es eher ein Werkzeug als ein Ersatz–und es eignet sich sehr gut zum Skizzieren. Wenn man schnell Dinge ausprobieren und viele Varianten, viele verschiedene Ergebnisse erhalten möchte, nur um Möglichkeiten zu testen, kann man das jetzt extrem schnell tun. Aber wenn man Details kontrollieren möchte, muss man immer noch die manuelle Arbeit leisten. Eine feine Kontrolle ist immer noch sehr schwierig.
Mit sogenanntem »Pseudo-Audio« kann man zum Beispiel schnell ein Ergebnis erzielen. Aber wenn man das Ergebnis in kleinen Schritten modifizieren will, ist das im Grunde unmöglich. Man kann zum Beispiel die Instrumentierung nicht ändern. Und die meisten musikalischen Vorgaben–in der tatsächlichen Musiksprache, wie »spiel dieses Klavier«, »verwende diese Instrumente« oder »mach ein Ritardando«–werden tendenziell ignoriert. Die Systeme sind gut darin, Genres nachzubilden und Texte zu generieren, aber nicht bei musikalischen Details.
Ich denke, dass es in Zukunft Modelle geben wird, die das können. Da bin ich mir ziemlich sicher.
Im Moment interessiert mich vor allem, wo die Grenzen liegen und was passiert, wenn man sie ausreizt. In gewisser Weise interessiert mich, wie ich die Maschine zum Absturz bringen kann.
Da ist auch die Frage der Urheberschaft: Wessen Musik ist das eigentlich? Wem gehört sie?
Für diese Musik gibt es keine Tantiemen. Und in Deutschland gibt es aus rechtlicher Sicht das Konzept der Schöpfungshöhe. Die meisten Gerichte würden wahrscheinlich sagen, dass die Arbeit mit KI und generativer Musik ein bisschen wie die Arbeit mit Samples ist.
Das hängt vom Einzelfall ab. Nimmst du einfach ein Sample und platzierst es dort–und das war’s? Oder nimmst du das Sample und entwickelst es weiter? Steckst du Arbeit hinein–und entsteht dabei etwas, das selbst zu einem Werk wird, etwas, das du geschaffen hast?
Ich denke, bei generativer Musik ist es ähnlich. Wenn man Material generiert und es dann weiter ausarbeitet und damit arbeitet, kann man zu etwas gelangen, das aus rechtlicher Sicht immer noch die eigene Musik ist. Aber das hängt vom Einzelfall ab.
Glaubst du, dass dies zu neuen Musikgenres oder -formen führen wird?
Ja, auf jeden Fall. Da bin ich mir ziemlich sicher. Wie das heißen wird, weiß ich noch nicht.
Glaubst du, dass wir auch mehr avantgardistische generative Stücke haben werden?
Ich hoffe es. Ich habe ein wenig mit Audio experimentiert, und oft bleibt man bei etwas hängen, das entweder wie John Coltranes Free-Jazz-Improvisation klingt oder wie Aphex Twin oder IDM. Aber es ist interessant herauszufinden, wie man diese Dinge miteinander verbinden kann.
Die zeitgenössische Musik hat bereits dieses Wahrnehmungsproblem: Viele Stücke klingen für Außenstehende »generiert«–selbst wenn sie sorgfältig mit einer inneren Logik komponiert wurden. Wenn wirklich generative Musik denselben Raum einnimmt, könnte die Verwirrung noch größer werden. Vielleicht haben wir am Ende einen übersättigten Markt.
Das passiert bereits. Spotify wird mit KI-generierter Musik überschwemmt. Ich glaube, es gibt sogar ein paar KI-generierte Titel in den US-Charts. In der Popmusik ist das bereits Realität. Ich weiß nicht, wie nachhaltig das ist. Meine bestmögliche Vermutung ist, dass die Leute ziemlich schnell das Interesse verlieren werden.
In der experimentellen Musik gibt es keinen wirklichen Markt–und das könnte unser Vorteil sein. Wir sind zu klein, um auf diese Weise genutzt zu werden. In gewisser Weise ist es ein Zufluchtsort. Wir sind immer noch ziemlich frei in dem, was wir tun können und was in diesem Bereich der neuen Musik passieren kann.
Es gibt auch eine kulturelle Kluft. Es gibt ein riesiges Publikum für elektronische Experimente–modulare Synthesizer, Vintage-Geräte, DIY-Szenen–und dann gibt es die institutionelle Welt der Neuen Musik/Elektroakustik. Sie überschneiden sich, aber sie sind nicht dasselbe Ökosystem. Warum hast du dich dafür entschieden, hauptsächlich im Ökosystem der Neuen Musik zu arbeiten–was bietet es dir, was die andere Welt nicht bietet?
Als ich mit dem Komponieren anfing, war es eine bewusste Entscheidung, mit Computermusik zu beginnen. Ich hatte das Gefühl, dass ich, wenn ich neue Musik machen wollte–zeitgenössische Musik–ich mich nicht auf traditionelle westeuropäische Instrumente aus den letzten zweihundert Jahren beschränken konnte, deren Entwicklung im Wesentlichen vor mehr als hundert Jahren abgeschlossen war. Man behält einfach das Streichquartett als Streichquartett, das Orchester als Orchester–und ich empfand das immer als einschränkend. Deshalb wollte ich alle Arten von Instrumenten und Technologien nutzen, die mir zur Verfügung standen. Aus diesem Grund habe ich mich von Anfang an für ein Studium der Computermusik entschieden.
Und dann, nach ein paar Jahren in diesem Bereich–auch als Studiomanager–habe ich bestimmte Beobachtungen gemacht. Eine davon ist, dass die Leute eher offen für Experimente in der elektronischen Musik sind. Wenn man mit einem Streichquartett experimentiert, ist die Gruppe, die das akzeptiert, begrüßt oder sogar neugierig bleibt, relativ klein. Bei elektronischer Musik ist das anders.
Ich denke, zeitgenössische Musik ist immer noch Teil des klassischen Musikmarktes. Elektronische Musik ist eher basisorientiert, differenzierter–und sie ist auch eine jüngere Technologie. Ich beobachte dort mehr Offenheit für Experimente als in der Instrumentalmusik, in der klassischen akustischen Musik.
Und es ist natürlich ein Spektrum–von Berliner Techno bis Stockhausen, mit tiefen Verbindungen und allem, was dazwischen liegt.
Ich sehe Tendenzen in der nicht-institutionellen, nicht-akademischen Musik, die denen in der akademischen Neuen Musik ähneln. Nehmen wir Ambient: Die Leute wollen Rhythmus und Tanzbarkeit loswerden, und so entsteht etwas wie Ambient. Oder die Leute wollen Melodie und Harmonie loswerden und schaffen Noise-Musik. Das ist in gewisser Weise analog zu Musique concrète und Montage–aber auf elektronischer Ebene.
Es gibt also in beiden Welten die gleichen ästhetischen Fragen–den gleichen Diskurs. Sie beeinflussen sich gegenseitig. Und ich sehe auch Leute, die ins Studio der Akademie kommen, die keine klassische Ausbildung als Komponist haben. Sie kommen aus anderen Berufen. Sie machen elektronische Musik als Hobby, aber sie meinen es ernst und wissen viel. Gleichzeitig haben sie oft immer noch großen Respekt vor der Institution–der Akademie.
Es gibt also immer noch eine Kluft. Und auf der akademischen Seite gibt es immer noch Leute, die auf Dinge herabblicken, die nicht institutionalisiert sind. Aber so einfach ist es nicht.
Es gibt einen großen Nostalgiefaktor. Elektronische Musik »auf altmodische Weise«–die Idee von analoger Wärme, Tonband, »das klingt viel besser«, »Vinyl klingt so viel besser«–da gibt es viele Dinge, denen ich nicht zustimmen würde. Aber es ist interessant, die Popularität von Hainbach zu sehen–dass jemand mit einem super nischenhaften Thema eine große Reichweite und eine große Community haben kann.
Das hat mich beeindruckt: dass sich so viele Leute für ein Nischenthema interessieren. Und wenn einige von ihnen sich auch für musikalische und technische Details interessieren, ist das super. Es ist interessant zu sehen, wie weit sich das verbreitet–zum Beispiel bei der Superbooth in Berlin, wo sich jedes Jahr Tausende von Leuten treffen, um mit analogen Synthesizern herumzuspielen, an Reglern und Fadern zu drehen.
Aber du hast dich aus einem bestimmten Grund dafür entschieden, Komponist für neue Musik zu werden, oder? Das erfordert eine andere Art von Aufmerksamkeit und Konzentration, eine andere Art des Zuhörens. Wie stehst du dazu?
Für mich geht es bei neuer Musik nicht in erster Linie darum, wie sie klingt, sondern darum, wie sie wahrgenommen wird. Meiner Erfahrung nach sind Menschen, die sich intensiv für zeitgenössische Musik interessieren, auch intensive Zuhörer. Sie nutzen Musik nicht als persönlichen Soundtrack, um Gefühle zu unterstreichen oder ihre Aktivitäten zu begleiten. Sie interessieren sich für das Zuhören an sich, für ihre eigenen Hörprozesse und für detaillierte musikalische Fragen: Wie funktioniert Rhythmus, wie funktioniert Harmonie, was ist eine Melodie, wo liegt die Grenze zwischen Geräusch und Klang, wie entsteht musikalische Form?
Ich denke also, dass Menschen, die sich zu dieser Musik hingezogen fühlen, aufmerksame Zuhörer sind–vielleicht läuft es darauf hinaus. Und für mich ist es genauso. Ich habe mich schon immer dafür interessiert, wie Musik funktioniert, wie musikalische Prozesse funktionieren, wie Klang funktioniert und wie er mit mir–mit meinem Gehirn, mit meiner Wahrnehmung–interagiert. Ich wollte ein tieferes Verständnis für Musik im Allgemeinen erlangen.
Wenn du dem Publikum eine Anweisung zum Zuhören für die Premiere geben könntest–wie würde die lauten?
Vielleicht wäre eine ganz einfache Anweisung: Legt eure Handys weg. Versucht es einfach–denn heutzutage gibt es so viele Ablenkungen. Ich sehe das auch bei Konzerten: Die Leute lassen sich sehr leicht ablenken. Und wenn man nicht ständig ihre Aufmerksamkeit auf sich lenkt, wird es schwierig. Vielleicht lautet die Anweisung also einfach: Seid geduldig beim Zuhören.