Googles Text-zu-Musik-KI-Tool „MusicLM“ ist jetzt für die Öffentlichkeit zugänglich

Im Januar, Google angekündigt MusicLMein experimentelles KI-Tool, das aus Texteingaben Musikstücke generieren kann – ähnlich wie ChatGPT und Barde kann einen Textbefehl in eine Geschichte umwandeln und DALL-E generiert Bilder aus Eingabeaufforderungen. Das Unternehmen erklärte nun, dass das Tool zum Ausprobieren bereitsteht. Das Unternehmen hat nicht erwähnt, in welchen Ländern das MusicLM-Tool verfügbar ist. Als die Teammitglieder von The Times of India-Gadgets Now nachschauten, konnten wir uns auf die Warteliste setzen, um es in der AI Test Kitchen auszuprobieren. Es wird zum Testen im Internet, auf Android und auf iPhones verfügbar sein.

Lesen Sie auch

Wie funktioniert MusicLM?
Das KI-Programm kann Texteingaben in sekunden- und sogar minutenlange Musik umwandeln. Benutzer müssen lediglich eine Eingabeaufforderung eingeben, beispielsweise „fröhliche Musik für eine Party“, und MusicLM erstellt zwei Versionen eines Songs. Benutzer können sich beide Versionen anhören und „dem Titel, der ihnen besser gefällt, eine Trophäe verleihen“, was zur Verbesserung des Modells beiträgt.Das Unternehmen sagte außerdem, dass es mit Musikern wie Dan Deacon zusammengearbeitet habe, um frühes Feedback zu sammeln.MusicLM-Forschung und -Modi
In einer auf Github veröffentlichten Studie hat das Unternehmen eine Reihe von Beispielen hochgeladen, die es mit dem Modell erstellt hat.„MusicLM stellt den Prozess der bedingten Musikgenerierung als hierarchische Sequenz-zu-Sequenz-Modellierungsaufgabe dar und erzeugt Musik mit 24 kHz, die über mehrere Minuten hinweg konsistent bleibt“, sagte das Unternehmen in der veröffentlichten Studie.

Lesen Sie auch

Zu den Samples gehörten 5-minütige Lieder, die Berichten zufolge aus absatzlangen Beschreibungen entstanden waren. Es hieß, je klarer die Anweisungen seien, desto besser sei die Musik.In der Forschungsarbeit wurde auch eine „Story-Modus“-Demo erwähnt, bei der dem Modell mehrere Texteingaben mit Zeitdauer für jede Art von Musik, die erstellt werden muss, gegeben wurden. Mit diesen Melodien kann das Model beispielsweise einen Song kreieren.Zeit zum Meditieren (0:00-0:15)
Zeit zum Aufwachen (0:15-0:30)
Zeit zum Laufen (0:30-0:45)
Zeit, 100 % zu geben (0:45-0:60)Die Forscher sagten außerdem, dass ihre Experimente zeigten, dass MusicLM frühere Systeme sowohl in der Audioqualität als auch in der Einhaltung der Textbeschreibung übertrifft.



Ende des Artikels

gn-tech