The integration of Generative AI models into AI-native network systems offers a transformative path toward achieving autonomous and adaptive control. However, the application of such models to continuous control tasks is impeded by intrinsic architectural limitations, including finite context windows, the lack of explicit reward signals, and the degradation of the long context. This paper posits that the key to unlocking robust continuous control is enabling agents to internalize experience by distilling it into their parameters, rather than relying on prompt-based memory. To this end, we propose a novel self-finetuning framework that enables agentic systems to learn continuously through direct interaction with the environment, bypassing the need for handcrafted rewards. Our framework implements a bi-perspective reflection mechanism that generates autonomous linguistic feedback to construct preference datasets from interaction history. A subsequent preference-based fine-tuning process distills long-horizon experiences into the model's parameters. We evaluate our approach on a dynamic Radio Access Network (RAN) slicing task, a challenging multi-objective control problem that requires the resolution of acute trade-offs between spectrum efficiency, service quality, and reconfiguration stability under volatile network conditions. Experimental results show that our framework outperforms standard Reinforcement Learning (RL) baselines and existing Large Language Model (LLM)-based agents in sample efficiency, stability, and multi-metric optimization. These findings demonstrate the potential of self-improving generative agents for continuous control tasks, paving the way for future AI-native network infrastructure.


翻译:生成式人工智能模型与AI原生网络系统的集成为实现自主自适应控制提供了一条变革性路径。然而,此类模型在连续控制任务中的应用受到其固有架构限制的阻碍,包括有限的上下文窗口、缺乏显式奖励信号以及长上下文性能退化。本文认为,实现鲁棒连续控制的关键在于使智能体能够通过将经验蒸馏至其参数内部来实现经验内化,而非依赖基于提示的记忆机制。为此,我们提出了一种新颖的自微调框架,使智能体系统能够通过与环境的直接交互实现持续学习,无需人工设计奖励函数。该框架采用双视角反思机制,通过生成自主语言反馈从交互历史中构建偏好数据集。随后的基于偏好的微调过程将长周期经验蒸馏至模型参数中。我们在动态无线接入网切片任务上评估所提方法,该任务是一个具有挑战性的多目标控制问题,需要在波动的网络条件下解决频谱效率、服务质量与重配置稳定性之间的尖锐权衡。实验结果表明,我们的框架在样本效率、稳定性和多指标优化方面均优于标准强化学习基线及现有基于大语言模型的智能体。这些发现证明了自改进生成式智能体在连续控制任务中的潜力,为未来AI原生网络基础设施的发展开辟了道路。

0
下载
关闭预览

相关内容

智能体工程(Agent Engineering)
专知会员服务
33+阅读 · 2025年12月31日
智能体适应
专知会员服务
25+阅读 · 2025年12月11日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
无人机集群编队自主协同控制方法综述
专知会员服务
77+阅读 · 2024年4月15日
专知会员服务
26+阅读 · 2021年6月9日
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
基于车路协同的群体智能协同
智能交通技术
10+阅读 · 2019年1月23日
【机器人】机器人PID控制
产业智能官
10+阅读 · 2018年11月25日
【无人机】无人机的自主与智能控制
产业智能官
53+阅读 · 2017年11月27日
无人机飞行控制方法概述
无人机
12+阅读 · 2017年10月7日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 1月30日
VIP会员
最新内容
2025年大语言模型进展报告
专知会员服务
1+阅读 · 今天13:30
多智能体协作机制
专知会员服务
1+阅读 · 今天13:26
非对称优势:美海军开发低成本反无人机技术
专知会员服务
4+阅读 · 今天4:39
《美战争部小企业创新研究(SBIR)计划》
专知会员服务
6+阅读 · 今天2:48
《军事模拟:将军事条令与目标融入AI智能体》
专知会员服务
9+阅读 · 今天2:43
【NTU博士论文】3D人体动作生成
专知会员服务
7+阅读 · 4月24日
以色列军事技术对美国军力发展的持续性赋能
专知会员服务
8+阅读 · 4月24日
《深度强化学习在兵棋推演中的应用》40页报告
专知会员服务
14+阅读 · 4月24日
《多域作战面临复杂现实》
专知会员服务
10+阅读 · 4月24日
《印度的多域作战:条令与能力发展》报告
专知会员服务
5+阅读 · 4月24日
相关VIP内容
智能体工程(Agent Engineering)
专知会员服务
33+阅读 · 2025年12月31日
智能体适应
专知会员服务
25+阅读 · 2025年12月11日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
无人机集群编队自主协同控制方法综述
专知会员服务
77+阅读 · 2024年4月15日
专知会员服务
26+阅读 · 2021年6月9日
相关资讯
浅谈群体智能——新一代AI的重要方向
中国科学院自动化研究所
44+阅读 · 2019年10月16日
Self-Attention GAN 中的 self-attention 机制
PaperWeekly
12+阅读 · 2019年3月6日
基于车路协同的群体智能协同
智能交通技术
10+阅读 · 2019年1月23日
【机器人】机器人PID控制
产业智能官
10+阅读 · 2018年11月25日
【无人机】无人机的自主与智能控制
产业智能官
53+阅读 · 2017年11月27日
无人机飞行控制方法概述
无人机
12+阅读 · 2017年10月7日
群体智能:新一代人工智能的重要方向
走向智能论坛
12+阅读 · 2017年8月16日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
24+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员