Existing multi-timbre transcription models struggle with generalization beyond pre-trained instruments, rigid source-count constraints, and high computational demands that hinder deployment on low-resource devices. We address these limitations with a lightweight model that extends a timbre-agnostic transcription backbone with a dedicated timbre encoder and performs deep clustering at the note level, enabling joint transcription and dynamic separation of arbitrary instruments given a specified number of instrument classes. Practical optimizations including spectral normalization, dilated convolutions, and contrastive clustering further improve efficiency and robustness. Despite its small size and fast inference, the model achieves competitive performance with heavier baselines in terms of transcription accuracy and separation quality, and shows promising generalization ability, making it highly suitable for real-world deployment in practical and resource-constrained settings.


翻译:现有的多音色转录模型存在以下局限性:难以泛化至预训练乐器之外、音源数量约束过于刚性、计算需求过高阻碍在低资源设备上的部署。针对这些问题,我们提出一种轻量级模型,该模型通过扩展一个音色无关的转录主干网络,引入专用音色编码器,并在音符层面进行深度聚类,从而能够在给定乐器类别数量的情况下,实现对任意乐器的联合转录与动态分离。包括谱归一化、空洞卷积和对比聚类在内的实际优化进一步提升了模型的效率与鲁棒性。尽管模型尺寸小、推理速度快,其在转录准确性和分离质量方面仍能达到与更重基线模型相竞争的性能,并展现出良好的泛化能力,使其非常适合在实际及资源受限的环境中部署。

0
下载
关闭预览

相关内容

多模态模型架构的演变
专知会员服务
71+阅读 · 2024年5月29日
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
多语言语音识别声学模型建模方法最新进展
专知会员服务
36+阅读 · 2022年2月7日
专知会员服务
29+阅读 · 2021年8月2日
轻量级神经网络架构综述
专知会员服务
97+阅读 · 2020年4月29日
这可能是「多模态机器学习」最通俗易懂的介绍
计算机视觉life
113+阅读 · 2018年12月20日
一文概览基于深度学习的超分辨率重建架构
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
VIP会员
相关VIP内容
多模态模型架构的演变
专知会员服务
71+阅读 · 2024年5月29日
Meta-Transformer:多模态学习的统一框架
专知会员服务
59+阅读 · 2023年7月21日
多语言语音识别声学模型建模方法最新进展
专知会员服务
36+阅读 · 2022年2月7日
专知会员服务
29+阅读 · 2021年8月2日
轻量级神经网络架构综述
专知会员服务
97+阅读 · 2020年4月29日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员