In this report, we introduce our latest translation models, HY-MT1.5-1.8B and HY-MT1.5-7B, a new family of machine translation models developed through a holistic training framework tailored for high-performance translation. Our methodology orchestrates a multi-stage pipeline that integrates general and MT-oriented pre-training, supervised fine-tuning, on-policy distillation, and reinforcement learning. HY-MT1.5-1.8B, the 1.8B-parameter model demonstrates remarkable parameter efficiency, comprehensively outperforming significantly larger open-source baselines (e.g., Tower-Plus-72B, Qwen3-32B) and mainstream commercial APIs (e.g., Microsoft Translator, Doubao Translator) in standard Chinese-foreign and English-foreign tasks. It achieves approximately 90% of the performance of ultra-large proprietary models such as Gemini-3.0-Pro, while marginally trailing Gemini-3.0-Pro on WMT25 and Mandarin-minority language benchmarks, it maintains a substantial lead over other competing models. Furthermore, HY-MT1.5-7B establishes a new state-of-the-art for its size class, achieving 95% of Gemini-3.0-Pro's performance on Flores-200 and surpassing it on the challenging WMT25 and Mandarin-minority language test sets. Beyond standard translation, the HY-MT1.5 series supports advanced constraints, including terminology intervention, context-aware translation, and format preservation. Extensive empirical evaluations confirm that both models offer highly competitive, robust solutions for general and specialized translation tasks within their respective parameter scales.


翻译:本报告介绍了我们最新的翻译模型系列 HY-MT1.5-1.8B 与 HY-MT1.5-7B。该系列模型是通过一个为高性能翻译量身定制的整体训练框架开发而成。我们的方法构建了一个多阶段流程,整合了通用与面向机器翻译的预训练、监督微调、同策略蒸馏以及强化学习。其中,拥有 18 亿参数的 HY-MT1.5-1.8B 模型展现了卓越的参数效率,在标准的中外文及英文-外文翻译任务中,全面超越了参数量显著更大的开源基线模型(例如 Tower-Plus-72B、Qwen3-32B)以及主流商业 API(例如 Microsoft Translator、Doubao Translator)。其性能达到了 Gemini-3.0-Pro 等超大规模专有模型的大约 90%;虽然在 WMT25 和普通话-少数民族语言基准测试上略微落后于 Gemini-3.0-Pro,但仍对其他竞争模型保持着显著优势。此外,HY-MT1.5-7B 模型在其规模类别中确立了新的技术标杆,在 Flores-200 基准上达到了 Gemini-3.0-Pro 性能的 95%,并在具有挑战性的 WMT25 和普通话-少数民族语言测试集上超越了后者。除了标准翻译,HY-MT1.5 系列还支持高级约束功能,包括术语干预、上下文感知翻译和格式保持。广泛的实证评估证实,这两个模型在各自参数量级内,为通用和专业翻译任务提供了极具竞争力且鲁棒的解决方案。

0
下载
关闭预览

相关内容

机器翻译,又称为自动翻译,是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。它是计算语言学的一个分支,是人工智能的终极目标之一,具有重要的科学研究价值。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
最新《Transformers》报告,Google Lucas Beyer 报告
专知会员服务
69+阅读 · 2022年9月13日
GANs最新进展,30页ppt,GANs: the story so far
专知会员服务
43+阅读 · 2020年8月2日
【2022新书】Python数据分析第三版,579页pdf
专知
19+阅读 · 2022年8月31日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
NLG任务评价指标BLEU与ROUGE
AINLP
21+阅读 · 2020年5月25日
将Python用于NLP:Pattern 库简介
Python程序员
15+阅读 · 2019年6月7日
Auto-Keras与AutoML:入门指南
云栖社区
18+阅读 · 2019年2月9日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月5日
VIP会员
相关资讯
【2022新书】Python数据分析第三版,579页pdf
专知
19+阅读 · 2022年8月31日
【Tutorial】计算机视觉中的Transformer,98页ppt
专知
21+阅读 · 2021年10月25日
NLG任务评价指标BLEU与ROUGE
AINLP
21+阅读 · 2020年5月25日
将Python用于NLP:Pattern 库简介
Python程序员
15+阅读 · 2019年6月7日
Auto-Keras与AutoML:入门指南
云栖社区
18+阅读 · 2019年2月9日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员