Stability AI hat sein KI-Tool zur Musikgenerierung auf die nächste Stufe gehoben: Stable Audio 2 soll bis zu drei Minuten lange Songs in Studioqualität komponieren und kann bestehende Audiodateien anhand von Textbeschreibungen verändern.
Das KI-Unternehmen Stability AI hat eine neue Version seines Musikgenerierungstools Stable Audio vorgestellt. Stable Audio 2 setzt nach Angaben des Unternehmens einen neuen Standard für KI-generierte Musik.
Das Modell kann Musikstücke mit einer zusammenhängenden Struktur – Intro, Hauptteil und Outro – von bis zu drei Minuten Länge in Studioqualität mit 44,1 kHz Stereo erzeugen.
Mit der neuen Audio-to-Audio-Funktion können Nutzer zudem eigene Audiodateien hochladen, um daraus komplett produzierte Samples zu erstellen.
Um dabei die Urheberrechte der Musikschaffenden zu schützen, arbeitet Stability AI bei hochgeladenen Audiodateien mit Audible Magic zusammen. Deren Audio Content Recognition (ACR) soll Inhalte in Echtzeit abgleichen und so Urheberrechtsverletzungen verhindern.
Ferner bietet das Modell erweiterte Möglichkeiten zur Erzeugung von Sound- und Audioeffekten, vom Tippen auf einer Tastatur bis zum Gebrüll einer Menschenmenge oder dem Brummen einer Großstadt.
Außerdem wurde eine Style-Transfer-Funktion integriert, mit der neu erzeugte oder hochgeladene Audiodateien nahtlos an den gewünschten Stil eines Projekts angepasst werden können.
Wer Stable Audio 2 ausprobieren möchte, kann dies ab sofort kostenlos auf der Stable Audio Website tun. Auf dem Stable-Audio-YouTube-Kanal ist zudem ein 24/7-Livestream namens "Stable Radio" verfügbar, der ausschließlich von Stable Audio generierte Tracks spielt. Die Vorgängerversion Stable Audio 1 wurde im September 2023 vorgestellt.
KI-Gerechtigkeitsdebatte erreicht Musikgeneratoren
Wie schon die Vorgängerversion wurde auch Stable Audio 2 ausschließlich auf Daten der Musikbibliothek AudioSparx trainiert. Der Datensatz besteht aus mehr als 800.000 Audiodateien mit Musik, Soundeffekten und einzelnen Instrumentenspuren sowie den dazugehörigen Textmetadaten.
Laut Stability AI hatten alle AudioSparx-Künstlerinnen und -Künstler die Möglichkeit, dem Training des Stable-Audio-Modells zu widersprechen ("opt-out").
Ed Newton-Rex, der im November letzten Jahres als Leiter des Audio-Teams bei Stability AI zurücktrat, war anderer Meinung.
Er erklärte, dass er nicht mit der Ansicht des Unternehmens übereinstimme, dass das Training von generativen KI-Modellen auf urheberrechtlich geschützten Werken als "fair use" angesehen werden könne.
Newton-Rex betonte, dass es moralisch falsch sei, KI-Modelle ohne Erlaubnis der Kreativen zu trainieren und damit möglicherweise deren Existenzgrundlage zu untergraben. Er hoffe, dass sich auch andere Mitarbeitende von KI-Unternehmen für einen faireren Umgang mit Kreativen einsetzen.
Das Thema ist hochaktuell: Gerade eben erst hat eine Gruppe von Musikschaffenden, darunter berühmte Musikerinnen wie Billie Eilish und Katy Perry, einen offenen Brief an KI-Unternehmen verfasst, in dem sie diese auffordern, den Einsatz von KI zu stoppen, die die Rechte menschlicher Künstlerinnen und Künstler verletzt und entwertet. Diese Modelle seien ein "Angriff auf die menschliche Kreativität".
Stability AI ist inzwischen selbst in finanzielle Schieflage geraten, da sich das Training von generativen KI-Modellen auch für das KI-Start-up bisher nicht rentiert. CEO Emad Mostaque musste wegen angeblichen Missmanagements zurücktreten.