Large Language Models (LLMs) have demonstrated impressive success across various tasks. Integrating LLMs with Federated Learning (FL), a paradigm known as FedLLM, offers a promising avenue for collaborative model adaptation while preserving data privacy. This survey provides a systematic and comprehensive review of FedLLM. We begin by tracing the historical development of both LLMs and FL, summarizing relevant prior research to set the context. Subsequently, we delve into an in-depth analysis of the fundamental challenges inherent in deploying FedLLM. Addressing these challenges often requires efficient adaptation strategies; therefore, we conduct an extensive examination of existing Parameter-Efficient Fine-tuning (PEFT) methods and explore their applicability within the FL framework. To rigorously evaluate the performance of FedLLM, we undertake a thorough review of existing fine-tuning datasets and evaluation benchmarks. Furthermore, we discuss FedLLM's diverse real-world applications across multiple domains. Finally, we identify critical open challenges and outline promising research directions to foster future advancements in FedLLM. This survey aims to serve as a foundational resource for researchers and practitioners, offering valuable insights into the rapidly evolving landscape of federated fine-tuning for LLMs. It also establishes a roadmap for future innovations in privacy-preserving AI. We actively maintain a \href{https://github.com/Clin0212/Awesome-Federated-LLM-Learning}{GitHub repo} to track cutting-edge advancements in this field.


翻译:大规模语言模型(LLMs)已在各类任务中展现出卓越性能。将LLMs与联邦学习(FL)范式相结合形成的FedLLM,为在保障数据隐私的前提下实现协同模型适配提供了重要路径。本综述对FedLLM领域进行系统性与全面性梳理。首先追溯LLMs与FL的历史发展脉络,总结相关前期研究以确立背景框架。随后深入剖析FedLLM部署过程中固有的基础性挑战。针对这些挑战往往需要高效的适配策略,因此本文对现有参数高效微调(PEFT)方法展开详尽考察,并探讨其在FL框架中的适用性。为系统评估FedLLM性能,我们对现有微调数据集与评估基准进行全面评述。进一步地,本文探讨FedLLM在跨领域实际场景中的多样化应用。最后,我们指出现存的关键开放挑战,并展望潜在研究方向以推动FedLLM领域的未来发展。本综述旨在为研究人员与实践者提供基础性参考资源,为快速演进的大规模语言模型联邦微调领域提供有价值的见解,同时为隐私保护人工智能的未来创新确立发展路线图。我们通过持续维护的\href{https://github.com/Clin0212/Awesome-Federated-LLM-Learning}{GitHub代码库}追踪该领域的前沿进展。

0
下载
关闭预览

相关内容

面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
大语言模型增强知识表示学习综述
专知会员服务
69+阅读 · 2024年7月2日
《大型语言模型持续学习》综述
专知会员服务
93+阅读 · 2024年4月26日
「大型语言模型评测」综述
专知会员服务
70+阅读 · 2024年3月30日
金融领域大型语言模型综述(FinLLMs)
专知会员服务
71+阅读 · 2024年2月6日
天大最新《大型语言模型评估》全面综述,111页pdf
专知会员服务
88+阅读 · 2023年10月31日
《大型语言模型》最新全面概述
专知会员服务
111+阅读 · 2023年7月14日
联邦学习研究综述
专知
11+阅读 · 2021年12月25日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
Arxiv
18+阅读 · 2023年9月2日
Arxiv
12+阅读 · 2023年5月31日
VIP会员
相关VIP内容
面向统计学家的大型语言模型概述
专知会员服务
32+阅读 · 2025年3月16日
强化学习增强的大型语言模型:综述
专知会员服务
52+阅读 · 2024年12月17日
大语言模型增强知识表示学习综述
专知会员服务
69+阅读 · 2024年7月2日
《大型语言模型持续学习》综述
专知会员服务
93+阅读 · 2024年4月26日
「大型语言模型评测」综述
专知会员服务
70+阅读 · 2024年3月30日
金融领域大型语言模型综述(FinLLMs)
专知会员服务
71+阅读 · 2024年2月6日
天大最新《大型语言模型评估》全面综述,111页pdf
专知会员服务
88+阅读 · 2023年10月31日
《大型语言模型》最新全面概述
专知会员服务
111+阅读 · 2023年7月14日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员