Simultaneous speech translation (SST) produces target text incrementally from partial speech input. Recent speech large language models (Speech LLMs) have substantially improved SST quality, yet they still struggle to correctly translate rare and domain-specific terminology. While retrieval augmentation has been effective for terminology translation in machine translation, bringing retrieval to SST is non-trivial: it requires fast and accurate cross-modal (speech-to-text) retrieval under partial, continually arriving input, and the model must decide whether and when to apply retrieved terms during incremental generation. We propose Retrieval-Augmented Simultaneous Speech Translation (RASST), which tightly integrates cross-modal retrieval into the SST pipeline. RASST trains a lightweight speech-text retriever and performs efficient sliding-window retrieval, providing chunkwise terminology hints to the Speech LLM. We further synthesize training data that teaches the Speech LLM to leverage retrieved terms precisely. Experiments on three language directions of the ACL 60/60 dev set show that RASST improves terminology translation accuracy by up to 16% and increases overall translation quality by up to 3 BLEU points, with ablations confirming the contribution of each component.


翻译:同步语音翻译(SST)根据部分语音输入增量生成目标文本。近期的语音大语言模型(Speech LLM)显著提升了SST的质量,但在正确翻译罕见词和领域特定术语方面仍存在困难。虽然检索增强在机器翻译的术语翻译中已被证明有效,但将其引入SST却非易事:它需要在部分、持续到达的输入下进行快速准确的跨模态(语音到文本)检索,并且模型必须在增量生成过程中决定是否以及何时应用检索到的术语。我们提出了检索增强的同步语音翻译(RASST),它将跨模态检索紧密集成到SST流程中。RASST训练一个轻量级语音-文本检索器,并执行高效的滑动窗口检索,为Speech LLM提供分块的术语提示。我们进一步合成训练数据,以教导Speech LLM精确利用检索到的术语。在ACL 60/60开发集的三个语言方向上的实验表明,RASST将术语翻译准确率最高提升了16%,并将整体翻译质量最高提升了3个BLEU分,消融实验也证实了每个组件的贡献。

0
下载
关闭预览

相关内容

大语言模型中的检索与结构化增强生成综述
专知会员服务
32+阅读 · 2025年9月17日
端到端语音到语音翻译的优化方法综述
专知会员服务
7+阅读 · 2025年6月10日
多模态检索增强生成综述
专知会员服务
39+阅读 · 2025年4月15日
《大型语言模型加速生成技术》最新综述
专知会员服务
50+阅读 · 2024年5月25日
《多模态机器翻译中的参考基础》美空军研究实验室报告
【翻译技术速递】入门教程:Trados 翻译记忆库工具
翻译技术沙龙
38+阅读 · 2019年11月28日
【翻译技术速递】测评:免费的术语抽取工具
翻译技术沙龙
139+阅读 · 2019年11月2日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
VIP会员
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员