Quality Estimation (QE) is the task of automatically predicting Machine Translation quality in the absence of reference translations, making it applicable in real-time settings, such as translating online social media conversations. Recent success in QE stems from the use of multilingual pre-trained representations, where very large models lead to impressive results. However, the inference time, disk and memory requirements of such models do not allow for wide usage in the real world. Models trained on distilled pre-trained representations remain prohibitively large for many usage scenarios. We instead propose to directly transfer knowledge from a strong QE teacher model to a much smaller model with a different, shallower architecture. We show that this approach, in combination with data augmentation, leads to light-weight QE models that perform competitively with distilled pre-trained representations with 8x fewer parameters.


翻译:质量估计(QE)的任务是在没有参考翻译的情况下自动预测机器翻译质量,使之适用于实时环境,例如在线社交媒体对话翻译。QE最近的成功源于使用多语言的预培训演示,其中非常庞大的模型导致令人印象深刻的结果。然而,这些模型的推论时间、磁盘和记忆要求不允许在现实世界中广泛使用。对于许多使用情景而言,经过精炼的预培训演示模式培训的模型仍然过于庞大。我们提议直接将知识从一个强大的QE教师模型转移到一个规模小得多、结构不同、更浅的模型。我们表明,这一方法与数据扩增相结合,导致轻量的量化模型与经过精炼的预培训演示具有竞争力,其参数少8x。

0
下载
关闭预览

相关内容

专知会员服务
21+阅读 · 2021年8月17日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
96+阅读 · 2020年3月25日
已删除
将门创投
11+阅读 · 2019年8月13日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Arxiv
0+阅读 · 2021年9月2日
Arxiv
9+阅读 · 2021年6月16日
Arxiv
9+阅读 · 2021年3月3日
已删除
Arxiv
33+阅读 · 2020年3月23日
Arxiv
102+阅读 · 2020年3月4日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 今天13:30
多智能体协作机制
专知会员服务
1+阅读 · 今天13:26
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
9+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
7+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
14+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
10+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
5+阅读 · 4月24日
相关资讯
已删除
将门创投
11+阅读 · 2019年8月13日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
相关论文
Arxiv
0+阅读 · 2021年9月2日
Arxiv
9+阅读 · 2021年6月16日
Arxiv
9+阅读 · 2021年3月3日
已删除
Arxiv
33+阅读 · 2020年3月23日
Arxiv
102+阅读 · 2020年3月4日
Contrastive Representation Distillation
Arxiv
5+阅读 · 2019年10月23日
Top
微信扫码咨询专知VIP会员