Rania Kim sitzt in einem Musikstudio in Berlin-Kreuzberg. Um sie herum hängen Gitarren an der Wand, ein Keyboard steht in der Ecke. Ihren Blick wendet sie dem Bildschirm zu, denn gerade produziert sie ihre Musik am liebsten mit Hilfe von Modellen Künstlicher Intelligenz (KI). «Ich betrachte alle Werkzeuge als Hilfe für die Kreativität», erzählt die Künstlerin im Interview der dpa.
Für die Musikbranche werden KI-Anwendungen immer interessanter. Die deutsche Verwertungsgesellschaft Gema hat nun in Kooperation mit ihrem französischen Pendant Sacem die Ergebnisse der weltweit ersten Studie über die Auswirkungen generativer Künstlicher Intelligenz auf die Musik- und Kreativbranche veröffentlicht. Demnach befürchten 71 Prozent der 15 000 befragten Mitglieder, dass KI ihre wirtschaftliche Grundlage gefährden könnte. Schätzungen der Studie zufolge liegen die möglichen Einbußen, die Musikschaffende durch die wirtschaftliche Verwendung der neuen Techniken bis 2028 erleiden könnten, in Milliardenhöhe. «Ist das der Beginn von einem Prozess, wo es sich für Menschen nicht mehr lohnt, als normalen Brotberuf Musik zu machen und davon leben zu können?», fragte Gema-Chef Tobias Holzmüller bei einer Pressekonferenz in Berlin.
Die Technik eröffnet aber auch Ungeahntes: In Frankreich arbeitet das Label Warner Music gerade daran, der Stimme der verstorbenen Sängerin Edith Piaf wieder Leben einzuhauchen. An der Universität Würzburg will eine neue Forschungsgruppe grundlegende Methoden zur Musikanalyse mithilfe des maschinellen Lernens weiterentwickeln. Dafür haben sie kürzlich eine millionenschwere Förderung erhalten. Es bewegt sich viel um die KI-Anwendungen.
Denn KI-Modelle können Dinge, die man sich Anfang des 20. Jahrhunderts wohl nur in einem Science-Fiction-Film über die Zukunft der Musik ausgemalt hätte - in der Musikproduktion komplette Arbeitsschritte übernehmen, Songtexte schreiben, alte Aufnahmen der Beatles retten oder etwa Drake Songs rappen lassen, die er nie gesungen hat. Die Technik entwickelt sich rasant weiter. Und sie wirft Fragen auf. Hören wir etwa nur mit KI-Modellen produzierte Musik im Radio? Braucht es kreative Künstler noch? Und wie funktioniert das überhaupt?
Wie funktioniert ein KI-Modell?
Insgesamt arbeiten der Gema-Studie zufolge etwa die Hälfte der unter 35-Jährigen in Deutschland und Frankreich bei der Musikproduktion mit der Unterstützung durch KI-Modelle. Rania Kim ist eine von ihnen. Schon seit neun Jahren experimentiert die aus Los Angeles stammende Künstlerin mit unterschiedlichen KI-Anwendungen. Heute lehrt sie an einer Universität in Spanien und hat neben Live-Auftritten, bei denen sie die Musik mit ihren Bewegungen steuern kann, auch Kooperationen mit anderen Künstlern. Aber nicht alle sind bereit für das Thema. «Viele Künstler haben Angst, dass sie durch KI ersetzt werden», sagt sie. Es sei aber wichtig, dass Künstler sich damit beschäftigen, um die Rolle der Technologie besser zu verstehen.
«Wellenformvorhersage», nennt Rania Kim das System hinter vielen KI-Modellen. Zum Beispiel das, mit dem sie ihre Stimme trainiert hat. Mithilfe eines eigens dafür programmierten Modells speiste sie über 200 ihrer eigenen Songs in die Anwendung ein. Diese analysierte die Audiowellen und versuchte, ähnliche Wellenformen – also neue Songs - auf deren Basis herzustellen.
In zweieinhalb Tagen generierte das Programm eine zehnstündige Melodie, aus der die Künstlerin dann Elemente entnahm und damit weiter experimentierte. Daraus entstand das erste KI-Album ihres Projekts «Portrait XO». Doch die KI-Unterstützung wirft auch rechtliche Fragen auf.
Ist Musik mit KI-Unterstützung vom Urheberrecht geschützt?
«Man hört jetzt schon KI-Musik im Radio, ohne dass man es weiß», sagt Reinher Karl. Er ist Anwalt mit dem Schwerpunkt auf Urheberrecht, wird in Expertenrunden zum Thema eingeladen und spricht mit ernstem Blick über die Auswirkungen durch den Einsatz von KI in der Musikwelt. Es gebe viel Diskurs zum Thema.
Eine Komposition sei erst dann als Musikwerk urheberrechtlich geschützt, wenn sie eine persönliche geistige Schöpfung sei. «Die Frage ist, wie die jeweiligen KIs genutzt werden. Erst wenn so viel persönliche Kreativität im Prozess ist, dass KI lediglich Werkzeug ist, dann kann das Ergebnis ein Musikwerk sein», erklärt Karl. Die Transparenz im Prozess sei schwierig. «Da werden Kompositionen bei der Gema angemeldet, die kein Mensch komponiert hat», erklärt er. Wie viel Künstler im Produktionsprozess auf KI-Anwendungen zurückgreifen wird von der Gema nach eigenen Angaben bislang nicht kontrolliert.
Künstler geben Rechte an der eigenen Stimme ab
Aber auch Persönlichkeitsrechte sind ein Thema. Die Rechte an der eigenen Stimme macht sich derzeit zum Beispiel die Plattform Youtube mit dem Experiment «Dream Track» zu eigen, das auf dem Musikgenerierungsmodell Lyria von Google DeepMind basiert. Neun Künstler machen nach Angaben der Plattform bislang bei dem Projekt mit, unter anderem Popsänger John Legend und Sängerin Demi Lovato. Nutzer können so mit einer einfachen Texteingabe kurze, 30-sekündige Musikstücke mit der KI-generierten-Stimme der jeweiligen Künstler nach eigenen Vorstellungen erzeugen lassen und diese in ihre Videos einbinden.
Müssen Künstler um ihre Jobs bangen?
Braucht es bei so innovativer Technik denn dann überhaupt noch Künstler? «Die KI ist nie so gut wie eine KI plus einem menschlichen Kurator, der danach das Beste rausholt», sagt Derek von Krogh, künstlerischer Direktor und Geschäftsführer der Popakademie Baden-Württemberg. Seine Prognose: Musik werde in Zukunft komplexer und harmonisch intelligenter. Künstler bräuchten um ihre Jobs nicht zu bangen. «Jemand, der jetzt in der Popmusikbranche versucht, die Menschen mitten ins Herz zu treffen, der muss sich keine Sorgen machen.»