The development of high-performance, on-device keyword spotting (KWS) systems for ultra-low-power hardware is critically constrained by the scarcity of specialized, multi-command training datasets. Traditional data collection through human recording is costly, slow, and lacks scalability. This paper introduces SYNTTS-COMMANDS, a novel, multilingual voice command dataset entirely generated using state-of-the-art Text-to-Speech (TTS) synthesis. By leveraging the CosyVoice 2 model and speaker embeddings from public corpora, we created a scalable collection of English and Chinese commands. Extensive benchmarking across a range of efficient acoustic models demonstrates that our synthetic dataset enables exceptional accuracy, achieving up to 99.5\% on English and 98\% on Chinese command recognition. These results robustly validate that synthetic speech can effectively replace human-recorded audio for training KWS classifiers. Our work directly addresses the data bottleneck in TinyML, providing a practical, scalable foundation for building private, low-latency, and energy-efficient voice interfaces on resource-constrained edge devices. The dataset and source code are publicly available at https://github.com/lugan113/SynTTS-Commands-Official.


翻译:高性能、端侧关键词唤醒系统在超低功耗硬件上的开发,严重受限于专用多指令训练数据集的稀缺性。传统通过人工录音收集数据的方式成本高昂、速度缓慢且缺乏可扩展性。本文介绍了SYNTTS-COMMANDS,一种完全利用先进文本到语音合成技术生成的新型多语言语音指令数据集。通过采用CosyVoice 2模型及公开语料库中的说话人嵌入向量,我们创建了一个可扩展的英语和中文指令集合。在一系列高效声学模型上的广泛基准测试表明,我们的合成数据集能够实现卓越的识别准确率,在英语和中文指令识别上分别达到99.5%和98%。这些结果有力地验证了合成语音可以有效替代人工录制音频用于训练KWS分类器。我们的工作直接应对了TinyML领域的数据瓶颈,为在资源受限的边缘设备上构建私密、低延迟且高能效的语音接口提供了实用、可扩展的基础。数据集及源代码已公开于https://github.com/lugan113/SynTTS-Commands-Official。

0
下载
关闭预览

相关内容

深度学习目标检测模型全面综述:Faster R-CNN、R-FCN和SSD
深度学习世界
10+阅读 · 2017年9月18日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员