成为VIP会员查看完整内容
VIP会员码认证
首页
主题
会员
服务
注册
·
登录
模型微调
关注
0
综合
百科
VIP
热门
动态
论文
精华
MSSR: Memory-Aware Adaptive Replay for Continual LLM Fine-Tuning
Arxiv
0+阅读 · 3月10日
FT-Dojo: Towards Autonomous LLM Fine-Tuning with Language Agents
Arxiv
0+阅读 · 3月2日
MuxTune: Efficient Multi-Task LLM Fine-Tuning in Multi-Tenant Datacenters via Spatial-Temporal Backbone Multiplexing
Arxiv
0+阅读 · 3月3日
EasyControlEdge: A Foundation-Model Fine-Tuning for Edge Detection
Arxiv
0+阅读 · 2月18日
Towards Active Synthetic Data Generation for Finetuning Language Models
Arxiv
0+阅读 · 2月9日
Mechanism Design for LLM Fine-tuning with Multiple Reward Models
Arxiv
0+阅读 · 2月10日
A Theoretical Framework for LLM Fine-tuning Using Early Stopping for Non-random Initialization
Arxiv
0+阅读 · 2月15日
Robust Reinforcement Learning from Human Feedback for Large Language Models Fine-Tuning
Arxiv
0+阅读 · 2月10日
Revisiting Privacy, Utility, and Efficiency Trade-offs when Fine-Tuning Large Language Models
Arxiv
0+阅读 · 2月9日
Evolution Strategies at Scale: LLM Fine-Tuning Beyond Reinforcement Learning
Arxiv
0+阅读 · 2月6日
QUATRO: Query-Adaptive Trust Region Policy Optimization for LLM Fine-tuning
Arxiv
0+阅读 · 2月4日
Thompson Sampling via Fine-Tuning of LLMs
Arxiv
0+阅读 · 1月30日
Accurate and Efficient Low-Rank Model Merging in Core Space
Arxiv
0+阅读 · 1月30日
Data Valuation for LLM Fine-Tuning: Efficient Shapley Value Approximation via Language Model Arithmetic
Arxiv
0+阅读 · 1月26日
Incentivizing Multi-Tenant Split Federated Learning for Foundation Models at the Network Edge
Arxiv
0+阅读 · 1月13日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top