据 IT 之家消息,Meta 近日在 GitHub 上开源了其 AI 语言模型 MusicGen,该模型基于谷歌 2017 年推出的 Transformer 模型。如同模型名称所示,MusicGen 主要用于音乐生成,它可以将文本和已有的旋律转化为完整乐曲。除此之外,MusicGen 还支持文本与旋律的组合输入,例如你可以提出生成“一首轻快的曲目”并同时要求“将它与贝多芬的《欢乐颂》结合起来”。
根据研发团队对 MusicGen 的实际表现进行的测试,与谷歌的 MusicLM 以及 Riffusion、Mousai、Noise2 Music 等其他音乐模型相比,MusicGen 在测试音乐与文本提示的匹配度以及作曲的可信度等指标上表现更好,总体而言略高于谷歌 MusicLM 的水平。
目前,Meta 已允许该模型的商业使用,并在 Huggingface 上发布了一个供演示用的网页应用。
领取专属 10元无门槛券
私享最新 技术干货