Recent advances in text-to-music generation (TTM) have yielded high-quality results, but often at the cost of extensive compute and the use of large proprietary internal data. To improve the affordability and openness of TTM training, an open-source generative model backbone that is more training- and data-efficient is needed. In this paper, we constrain the number of trainable parameters in the generative model to match that of the MusicGen-small benchmark (with about 300M parameters), and replace its Transformer backbone with the emerging class of state-space models (SSMs). Specifically, we explore different SSM variants for sequence modeling, and compare a single-stage SSM-based design with a decomposable two-stage SSM/diffusion hybrid design. All proposed models are trained from scratch on a purely public dataset comprising 457 hours of CC-licensed music, ensuring full openness. Our experimental findings are three-fold. First, we show that SSMs exhibit superior training efficiency compared to the Transformer counterpart. Second, despite using only 9% of the FLOPs and 2% of the training data size compared to the MusicGen-small benchmark, our model achieves competitive performance in both objective metrics and subjective listening tests based on MusicCaps captions. Finally, our scaling-down experiment demonstrates that SSMs can maintain competitive performance relative to the Transformer baseline even at the same training budget (measured in iterations), when the model size is reduced to four times smaller. To facilitate the democratization of TTM research, the processed captions, model checkpoints, and source code are available on GitHub via the project page: https://lonian6.github.io/ssmttm/.


翻译:近期文本到音乐生成技术取得了高质量成果,但通常以大量计算资源消耗和使用大型专有内部数据为代价。为提高文本到音乐生成训练的经济性与开放性,亟需一种更具训练效率和数据效率的开源生成模型主干架构。本文通过约束生成模型的可训练参数量以匹配MusicGen-small基准(约3亿参数),并将其Transformer主干替换为新兴的状态空间模型类别。具体而言,我们探索了多种适用于序列建模的状态空间模型变体,并比较了基于单阶段状态空间模型的设计与可分解的双阶段状态空间模型/扩散混合设计。所有提出的模型均在完全公开的数据集上从头开始训练,该数据集包含457小时知识共享许可音乐,确保完全开放性。实验发现主要体现在三个方面:首先,我们证明状态空间模型相较于Transformer对应模型展现出更优越的训练效率;其次,尽管仅使用MusicGen-small基准9%的浮点运算量和2%的训练数据规模,我们的模型在基于MusicCaps描述的客观指标和主观听感测试中均表现出竞争力;最后,缩放实验表明,当模型规模缩小至四分之一时,在相同训练预算(以迭代次数衡量)下,状态空间模型仍能保持相对于Transformer基线的竞争性能。为促进文本到音乐生成研究的普及,经处理的描述文本、模型检查点及源代码已通过项目页面在GitHub发布:https://lonian6.github.io/ssmttm/。

0
下载
关闭预览

相关内容

【CVPR2025教程】高效的文本到图像/视频建模
专知会员服务
11+阅读 · 2025年6月11日
大语言模型长文本训练技术解析
专知会员服务
37+阅读 · 2024年10月17日
大模型如何做音乐?最新89页《音乐基础模型》综述
专知会员服务
32+阅读 · 2024年8月27日
视频文本预训练简述
专知会员服务
22+阅读 · 2022年7月24日
专知会员服务
82+阅读 · 2021年10月15日
高效的文本生成方法 — LaserTagger 现已开源
TensorFlow
30+阅读 · 2020年2月27日
用GANs来自动生成音乐【代码+PPT】
专知
29+阅读 · 2019年11月7日
斯坦福CS236-深度生成模型2019-全套课程资料分享
深度学习与NLP
20+阅读 · 2019年8月20日
最新论文解读 | 基于预训练自然语言生成的文本摘要方法
微软研究院AI头条
57+阅读 · 2019年3月19日
基于深度学习的文本生成【附217页PPT下载】
专知
35+阅读 · 2018年11月24日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
23+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员