Automatic Speech Recognition (ASR) systems, despite large multilingual training, struggle in low-resource scenarios where labeled data is scarce. We propose BEARD (BEST-RQ Encoder Adaptation with Re-training and Distillation), a novel framework designed to adapt Whisper's encoder with unlabeled data. Unlike traditional self-supervised learning methods, BEARD uniquely combines a BEST-RQ objective with knowledge distillation from a frozen teacher encoder, ensuring the encoder's complementarity with the pre-trained decoder. Our experiments focus on the ATCO2 corpus from the challenging Air Traffic Control (ATC) communications domain, characterized by non-native speech, noise, and specialized phraseology. Using about 5,000 hours of untranscribed speech for BEARD and 2 hours of transcribed speech for fine-tuning, the proposed approach significantly outperforms previous baseline and fine-tuned model, achieving a relative improvement of 12% compared to the fine-tuned model. To the best of our knowledge, this is the first work to use a self-supervised learning objective for domain adaptation of Whisper.


翻译:尽管经过大规模多语言训练,自动语音识别系统在标注数据稀缺的低资源场景中仍面临挑战。我们提出了BEARD(基于BEST-RQ的编码器重训练与蒸馏自适应)——一种利用无标注数据对Whisper编码器进行自适应的新型框架。与传统自监督学习方法不同,BEARD创新性地将BEST-RQ目标函数与冻结教师编码器的知识蒸馏相结合,确保编码器与预训练解码器的互补性。实验聚焦于具有挑战性的空中交通管制通信领域ATCO2语料库,该领域以非母语语音、噪声干扰和专用术语为特征。使用约5,000小时未转录音频进行BEARD训练,并结合2小时转录音频进行微调,所提方法显著超越了现有基线模型和微调模型,相比微调模型实现了12%的相对性能提升。据我们所知,这是首个采用自监督学习目标实现Whisper领域自适应的研究。

0
下载
关闭预览

相关内容

自监督学习理论
专知会员服务
57+阅读 · 2022年8月23日
领域自适应研究综述
专知会员服务
55+阅读 · 2021年5月5日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
对比自监督学习
深度学习自然语言处理
35+阅读 · 2020年7月15日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
【泡泡图灵智库】密集相关的自监督视觉描述学习(RAL)
泡泡机器人SLAM
11+阅读 · 2018年10月6日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员