With new sequence models like Mamba and xLSTM, several studies have shown that these models match or outperform the state-of-the-art in single-channel speech enhancement and audio representation learning. However, prior research has demonstrated that sequence models like LSTM and Mamba tend to overfit to the training set. To address this, previous works have shown that adding self-attention to LSTMs substantially improves generalization performance for single-channel speech enhancement. Nevertheless, neither the concept of hybrid Mamba and time-frequency attention models nor their generalization performance have been explored for speech enhancement. In this paper, we propose a novel hybrid architecture, MambAttention, which combines Mamba and shared time- and frequency-multi-head attention modules for generalizable single-channel speech enhancement. To train our model, we introduce VB-DemandEx, a dataset inspired by VoiceBank+Demand but with more challenging noise types and lower signal-to-noise ratios. Trained on VB-DemandEx, MambAttention significantly outperforms existing state-of-the-art discriminative LSTM-, xLSTM-, Mamba-, and Conformer-based systems of similar complexity across all reported metrics on two out-of-domain datasets: DNS 2020 without reverberation and EARS-WHAM_v2. MambAttention also matches or outperforms generative diffusion models in generalization performance while being competitive with language model baselines. Ablation studies highlight the importance of weight sharing between time- and frequency-multi-head attention modules for generalization performance. Finally, we explore integrating the shared time- and frequency-multi-head attention modules with LSTM and xLSTM, which yields a notable performance improvement on the out-of-domain datasets. Yet, MambAttention remains superior for cross-corpus generalization across all reported evaluation metrics.


翻译:随着Mamba和xLSTM等新型序列模型的出现,多项研究表明这些模型在单通道语音增强和音频表征学习任务中已达到或超越了现有最佳性能。然而,先前研究已证明LSTM和Mamba等序列模型容易对训练集产生过拟合。为解决此问题,已有工作表明在LSTM中加入自注意力机制能显著提升单通道语音增强的泛化性能。但迄今为止,混合Mamba与时频注意力模型的概念及其在语音增强中的泛化性能尚未得到探索。本文提出一种新颖的混合架构MambAttention,该架构结合了Mamba与共享的时域和频域多头注意力模块,用于实现可泛化的单通道语音增强。为训练模型,我们构建了VB-DemandEx数据集——该数据集受VoiceBank+Demand启发,但包含更具挑战性的噪声类型和更低的信噪比。在VB-DemandEx上训练的MambAttention,在两个域外数据集(无混响的DNS 2020和EARS-WHAM_v2)的所有评估指标上,均显著优于现有同复杂度水平的判别式系统(包括基于LSTM、xLSTM、Mamba和Conformer的系统)。在泛化性能方面,MambAttention与生成式扩散模型相当或更优,同时与语言模型基线保持竞争力。消融实验揭示了时域与频域多头注意力模块间权重共享对泛化性能的重要作用。最后,我们探索了将共享时频多头注意力模块与LSTM及xLSTM集成的方案,该方案在域外数据集上带来了显著性能提升,但MambAttention在所有报告评估指标上仍保持最佳的跨语料库泛化能力。

0
下载
关闭预览

相关内容

TransMLA:多头潜在注意力(MLA)即为所需
专知会员服务
23+阅读 · 2025年2月13日
Llama-3-SynE:实现有效且高效的大语言模型持续预训练
专知会员服务
36+阅读 · 2024年7月30日
《多模态大型语言模型》最新进展,详述26种现有MM-LLMs
专知会员服务
65+阅读 · 2024年1月25日
多智能体强化学习(MARL)近年研究概览
PaperWeekly
38+阅读 · 2020年3月15日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
干货 | NLP中的self-attention【自-注意力】机制
机器学习算法与Python学习
12+阅读 · 2018年4月11日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员