Optimizing data mixtures is essential for unlocking the full potential of large language models (LLMs), yet identifying the optimal composition remains computationally prohibitive due to reliance on heuristic trials or expensive proxy training. To address this, we introduce \textbf{MergeMix}, a novel approach that efficiently determines optimal data mixing ratios by repurposing model merging weights as a high-fidelity, low-cost performance proxy. By training domain-specific experts on minimal tokens and optimizing their merging weights against downstream benchmarks, MergeMix effectively optimizes the performance of data mixtures without incurring the cost of full-scale training. Extensive experiments on models with 8B and 16B parameters validate that MergeMix achieves performance comparable to or surpassing exhaustive manual tuning while drastically reducing search costs. Furthermore, MergeMix exhibits high rank consistency (Spearman $ρ> 0.9$) and strong cross-scale transferability, offering a scalable, automated solution for data mixture optimization.


翻译:优化数据混合对于释放大型语言模型(LLM)的全部潜力至关重要,然而,由于依赖启发式试验或昂贵的代理训练,确定最优组成在计算上仍然代价高昂。为解决这一问题,我们提出了 \textbf{MergeMix},一种新颖的方法,通过将模型融合权重重新用作高保真、低成本的性能代理,来高效确定最优数据混合比例。该方法通过在少量令牌上训练特定领域的专家模型,并针对下游基准优化其融合权重,从而有效优化数据混合的性能,而无需承担全规模训练的成本。在具有 8B 和 16B 参数的模型上进行的大量实验验证了 MergeMix 能够达到与穷举式手动调优相当甚至更优的性能,同时大幅降低了搜索成本。此外,MergeMix 表现出较高的排序一致性(Spearman $ρ> 0.9$)和强大的跨规模可迁移性,为数据混合优化提供了一个可扩展的自动化解决方案。

0
下载
关闭预览

相关内容

什么是后训练?大语言模型训练后优化方法综述,87页pdf
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
混合专家模型在大模型微调领域进展
专知会员服务
48+阅读 · 2024年9月23日
AI新视野 | 数据蒸馏Dataset Distillation
人工智能前沿讲习班
31+阅读 · 2019年6月14日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关VIP内容
什么是后训练?大语言模型训练后优化方法综述,87页pdf
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
混合专家模型在大模型微调领域进展
专知会员服务
48+阅读 · 2024年9月23日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员