Jeder, der möchte, kann sich von Av3ry einen Song wünschen. Ungefähr zehntausend Songs hat sie so schon geschrieben – und es werden täglich mehr. Nebenbei strahlt sie einen kontinuierlichen Live-Stream aus, bei dem sich kaum jemals ein Takt wiederholt. Möglich ist diese Arbeitsleistung, weil es sich hierbei um eine künstliche Intelligenz handelt, welche der Komponist Alexander Schubert programmiert hat. Sein Ansatz unterscheidet sich grundlegend von denen vergleichbarer Projekte: Die Ergebnisse sind verstörend, traumhaft und seltsam faszinierend zugleich – dabei versteht Av3ry rein gar nichts von Musik.
Beat / Av3ry hat, im Gegensatz zu vielen anderen KIs, eine deutlicher herausgearbeitete Persönlichkeit. Da ist zum einen die visuelle Darstellung ...
Alexander Schubert / Die habe ich mit Pedro Gonzales Fernandez entwickelt. Es war ursprünglich so etwas wie ein Alter Ego von mir, aber ich wollte gerne eine Darstellung, welche weiblicher ist, als ich es bin. Schließlich sind wir zu einem für sich stehenden Subjekt gekommen, welches ich als non- binary begreife. Die Persönlichkeit von Av3ry liegt in einem Graubereich zwischen männlich/weiblich, Maschine/sinnlicher Person.
Beat / Auch musikalisch hört man einen gewissen Stil heraus.
Alexander Schubert / Ja, Av3ry hat eine gewisse klangliche Sprache. Als ich sie ursprünglich programmiert habe, war sie noch sehr viel heterogener. Vor dem Album-Release habe ich dann probiert, es etwas einzugrenzen, sodass Av3ry klarer als eine einzelne Entität wahrgenommen wird. Das Spannende daran ist die Form der Agency – also, dass man das Gehörte auf ein Subjekt projiziert.
Beat / Warum hat dich das Projekt gereizt, eine komponierende KI zu gestalten?
Alexander Schubert / Ich wollte eine Entität schaffen, die mich überrascht und die Dinge tut, die ich in der Form nicht tun würde. Und ich wollte für das Publikum einen Modus schaffen, der eine personalisierte Interaktion zulässt, bei dem also die Benutzer konkret miteinbezogen werden. Ich wollte KI nicht so nutzen, dass es ein Werkzeug ist, mit dem ich Material generiere und danach gehe ich ein halbes Jahr ins Studio und stelle die Stücke komplett fertig. Sondern mir ging es darum: Ich will etwas machen, was im Moment entsteht und worauf ich keinen Zugriff mehr habe. Ich wollte mich als Person aus dem Prozess herausziehen.
Beat / Deswegen auch die Entscheidung für einen kontinuierlichen Live-Stream und für ein Album mit zehntausend Stücken.
Alexander Schubert / Genau. Hier ging es darum, einen Proof of Concept zu machen – denn es wäre ganz offensichtlich rein zeitlich unmöglich für mich, alle diese Stücke nachträglich zu bearbeiten.
Eigenwillig und inspirierend
Beat / Die Musik, die dabei entsteht, ist faszinierend. Sie wirkt aber auch sehr fremd.
Alexander Schubert / Viele von den Entscheidungen, die Av3ry trifft, sind in der Form vielleicht unmenschlich oder radikal. Darin liegt auch für mich ein Teil des Reizes: Dass Entscheidungen dabei herauskommen, die so eigenwillig sind, dass ich mich davon inspiriert fühle. Ein Beispiel: Ein Stück geht los mit einem leisen Geräusch. Dann kommen zwanzig Sekunden Stille. Dann kommt ein Schrei. Das sind natürlich relativ extreme musikalische Entscheidungen und manchmal stelle ich mir vor, wie es wäre, wenn ich in einen Konzertsaal käme und dort Leute vorfände, die solche Musik live spielen würden. Für mich ist das eine positiv besetzte Traumvorstellung.
Beat / Was bedeutet der Begriff „Intelligenz“ im Zusammenhang mit Musik?
Alexander Schubert / Intelligenz lässt sich am einfachsten vielleicht damit definieren, dass ein System fähig ist, etwas zu erlernen. Bei Av3ry liegt ein Trainingsprozess vor. Eine Funktion probiert, ein Problem zu optimieren, beispielsweise die Reproduktion eines bestimmten Stils oder die Fortführung einer bestimmten musikalischen Passage. Die höherlie- gende kreative und intelligente Leistung wäre dann die Beurteilung der Resultate auf ästhetischer Ebene oder die Fähigkeit, auf ästhetischer Ebene neue Vorschläge zu machen. An diesem Punkt sind wir aber noch nicht. Dafür müsste man ein sehr viel umfassenderes Bewusstsein und eine sehr viel detailliertere Weltbeschreibung einer KI voraussetzen.
Beat / Du hast dich bewusst dagegen entschieden, eine AI zu programmieren, die selbst Noten auf ein virtuelles Notenpapier zaubert. Stattdessen kombiniert Av3ry bestehende Fragmente einer Datenbank zu neuen Stücken. Wieso dieser Ansatz?
Alexander Schubert / Einerseits war klar, dass es keine Partituren werden sollten, weil Av3ry diese Stücke selbst generieren und verschicken sollte. Innerhalb des Systems aber gibt es tatsächlich rein klangliche, Sample-basierte Prozesse, als auch strukturelle, eventbasierte. Das ist keine klassische Notation mit Notenlinien oder Sechzehntelnoten. Aber es gibt stochastische Prozesse, die Events triggern und so was wie Noten generieren.
Beat / Wie funktioniert das konkret?
Alexander Schubert / Man kann sich das so vorstellen, dass das System aus sehr vielen Modulen besteht, welche alle miteinander verknüpft werden können. Also ein sehr modularer Synthesizer, nur dass in dem Synthesizer nicht nur Oszillatoren und Steuerspannungen vorkommen, sondern auf Klangbiblotheken, auf Audiosamples und auf komplette Songs aus dem Internet zugegriffen werden kann. Das Besondere bei dem System ist, dass es in sich überhaupt keine vorgeschriebenen Stilistiken hat. Das heißt, es gibt keine ursprüngliche Bewertung, welche dieser ganzen Verknüpfungen favorisiert werden. Das geschieht vielmehr über einen Prozess, der im Laufe der Arbeit des Systems optimiert und angepasst wird. Das System ist also in der Lage, sehr unterschiedliche Dinge hervorzubringen.
Beat / Wenn ich es richtig verstanden habe, nutzt Av3ry eine Datenbank mit Klangquellen, die es sich aus dem Netz zieht. Wie entstehen aus diesen Elementen fertige Kompositionen?
Alexander Schubert / Av3ry nutzt eine Kombination aus verschiedenen Modulen und Quellen. Ein großer Teil sind stochastische Prozesse, beziehungsweise Module, die bestimmte Funktionen und Transformationen möglich machen. Andere Module wiederum sind in der Lage, auf Instrumente, auf Audiofiles, auf Songs aus dem Internet zuzugreifen. Es gibt vielleicht 50 Module. Und jedes dieser Module hat im Schnitt vielleicht 30 Parameter. Und jedes dieser Module kann an die anderen 50 Module senden. Jedes Modul wird bestimmt durch seine Parameter und seine möglichen Verknüpfungen. Diese Werte werden zunächst zufällig gewählt und dann durch die Interaktion mit dem Nutzer bewertet, favorisiert und gelernt. Das bedeutet, dass der komplette Parametersatz von den Verbindungen und den Modulpa- rametern den Zustand des Systems widerspiegelt und am Ende kommt dann ein entsprechendes Stück Musik heraus.
Kein Gefühl für Jazz
Beat / In gewisser Weise weiß Av3ry also gar nicht, was Musik ist.
Alexander Schubert / Das System hat keine Vorstellung von Stilistiken, Rhythmen, oder irgendwelcher Musiktheorie. Es weiß nicht, was eine Taktart ist, oder dass eine bestimmte Einstellung „Jazz“ ist, oder dass ein bestimmtes Modul für Rhythmus zuständig ist. Selbst das ist nicht klar: Welches Modul mit Schlagzeugklängen verbunden wird oder welches Modul Sprachsamples triggert, ist überhaupt nicht gesagt. Ein Modul, was bei einem Stück Hihat-Rhythmen triggert, kann beim nächsten Stück dafür zuständig sein, eine Flötenmelodie herzustellen. Das System weiss nur, was es als Feedback bekommt und es wird nur lernen, welche Verbindungen wofür zuständig sind.
Beat / Und das lernt es durch den Austausch mit den Hörern.
Alexander Schubert / Je nachdem, auf was für eine Reaktion dieses Stück am Ende fällt, und wie diese beschrieben werden, wird das neuronale Netzwerk umtrainiert, um die zugehörigen Parameter des Systems im Trainingsvorgang zu berücksichtigen. Ganz einfach gesprochen: Wenn die Parameter so eingestellt sind, dass am Ende ein Stück herauskommt, was extrem schlecht ist, dann wird diese Parameterkombination nicht weiter einbezogen oder wenn eine bestimmte Parameterkombination herauskommt, die oft dem Wert „laut“ zugeordnet wird, dann kann das neuronale Netz lernen, dass diese Kombination ein „lautes“ Ergebnis darstellt.
Beat / Wie sehen Fragen des Copyrights aus, wenn sich das Programm musikalische Daten aus dem Netz zieht?
Alexander Schubert / Tatsächlich kann es zu Problemen kommen, wenn Materialien aus dem Internet geladen werden und diese in kurzen Sequenzen erkennbar sind. Es ist an ein, zwei Stellen schon mal passiert, dass Tracks deswegen gesperrt wurden. Häufig sind die Elemente aber so kurz und meistens auch derart verändert, dass es unproblematisch ist.
Beat / In der medialen Darstellung werden AI oftmals als Konkurrenz zur menschlichen Kreativität gesehen – größtenteils aus Unwissen, teilweise aber auch mit durchaus guten Argumenten. Du bist ja selbst Künstler. Wie würdest du deine persönliche Perspektive auf die Thematik beschreiben?
Alexander Schubert / Diese Frage stellt sich nicht nur im Musikbereich, sondern allgemein. Definitiv wird KI einfache Arbeiten übernehmen, in allen Bereichen. Das wird auch in der Musik passieren. Die dahinter stehende Frage lautet, wie man mit Entlohnung und dem Sozialstaat im 21. Jahrhundert umgeht. Darauf müssen Antworten gefunden werden. Konkret im musikalischen Bereich kann ich sagen, dass manche leicht reproduzierbare Formen von Musik - Hintergrundmusik, Fahrstuhlmusik - definitiv früher oder später von KIs erstellt werden können. Ich denke nicht, dass das etwas Schlechtes ist, weil es sich hierbei eher um Handwerk handelt, also um ein Abarbeiten von bestimmten Prozessen. Menschen werden hier also positiv betrachtet entlastet, weil sie nicht mehr Dinge nach „Schema F“ tun müssen und sich auf kreative und erfüllende Tätigkeiten konzentrieren können. Dafür muss es dann faire Bezahl- und soziale Einkommensmodi geben, welche es nicht voraussetzen, dass jeder Mensch einer mechanischen Tätigkeit nachkommt. Die Entlastung des Menschen hier ist eine Chance – nur müssen wir uns trauen, diese Freiheit als antikapitalistische Möglichkeit zu begreifen.
www.av3ry.net
www.facebook.com/Av3ry.Bot/
www.soundcloud.com/av3ry_ai
www.audiobulb.bandcamp.com