Federated Learning (FL) of Large Language Models (LLMs) in multilingual environments presents significant challenges stemming from heterogeneous language distributions across clients and disparities in language resource availability. To address these challenges, we extended the FederatedScope-LLM framework to support multilingual instruction-tuning experiments with LLMs. We also introduced a novel client-specific early stopping mechanism, Local Dynamic Early Stopping (LDES-FL), which allows clients to pause and resume local training based on client-side validation performance, enhancing training efficiency and sustainability. Through a series of experiments, we studied how client language composition - from fully monolingual to increasingly multilingual clients - affects multilingual quality, fairness and training cost. Monolingual local fine-tuning remains the most effective for single-language specialization, whereas federated training is better suited to learning a single balanced multilingual model. In FL, increasing within-client multilinguality leads to stronger and fairer global models, narrows the gap to centralized multilingual fine-tuning, and yields the largest gains for lower-resource languages, albeit at the cost of more optimization steps. Overall, our results identify client language composition as a key design variable in multilingual FL, shaping performance, fairness and efficiency.


翻译:联邦学习(FL)在多语言环境下训练大型语言模型(LLMs)面临显著挑战,这些挑战源于客户端间异构的语言分布以及语言资源可用性的差异。为解决这些问题,我们扩展了FederatedScope-LLM框架以支持LLMs的多语言指令微调实验。同时,我们提出了一种新颖的客户端特定早停机制——局部动态早停(LDES-FL),该机制允许客户端基于客户端侧验证性能暂停和恢复本地训练,从而提升训练效率与可持续性。通过一系列实验,我们研究了客户端语言组成(从完全单语到逐步多语言的客户端)如何影响多语言质量、公平性和训练成本。单语本地微调仍是单语言特化最有效的方法,而联邦训练更适合学习单一的均衡多语言模型。在联邦学习中,增加客户端内部的多语言性可产生更强更公平的全局模型,缩小与集中式多语言微调的差距,并为低资源语言带来最大收益,但代价是需要更多的优化步骤。总体而言,我们的结果将客户端语言组成确定为多语言联邦学习中的关键设计变量,它塑造了性能、公平性和效率。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
大语言模型的强化学习技术综述
专知会员服务
41+阅读 · 2025年7月8日
什么是后训练?大语言模型训练后优化方法综述,87页pdf
利用多个大型语言模型:关于LLM集成的调研
专知会员服务
35+阅读 · 2025年2月27日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
多模态大语言模型研究进展!
专知会员服务
43+阅读 · 2024年7月15日
大语言模型的终身学习综述
专知会员服务
76+阅读 · 2024年6月15日
《大型语言模型持续学习》综述
专知会员服务
93+阅读 · 2024年4月26日
大型语言模型增强强化学习综述:概念、分类和方法
专知会员服务
57+阅读 · 2024年4月4日
《大型语言模型》最新全面概述
专知会员服务
111+阅读 · 2023年7月14日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
多模态视觉语言表征学习研究综述
专知
27+阅读 · 2020年12月3日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Arxiv
21+阅读 · 2023年7月12日
VIP会员
最新内容
认知战与交战性质的改变:神经战略视角
专知会员服务
5+阅读 · 5月8日
人工智能如何变革军事C5ISR作战
专知会员服务
12+阅读 · 5月8日
相关VIP内容
大语言模型的强化学习技术综述
专知会员服务
41+阅读 · 2025年7月8日
什么是后训练?大语言模型训练后优化方法综述,87页pdf
利用多个大型语言模型:关于LLM集成的调研
专知会员服务
35+阅读 · 2025年2月27日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
《大语言模型的数据合成与增强综述》
专知会员服务
43+阅读 · 2024年10月19日
多模态大语言模型研究进展!
专知会员服务
43+阅读 · 2024年7月15日
大语言模型的终身学习综述
专知会员服务
76+阅读 · 2024年6月15日
《大型语言模型持续学习》综述
专知会员服务
93+阅读 · 2024年4月26日
大型语言模型增强强化学习综述:概念、分类和方法
专知会员服务
57+阅读 · 2024年4月4日
《大型语言模型》最新全面概述
专知会员服务
111+阅读 · 2023年7月14日
相关基金
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员