The statelessness of foundation models bottlenecks agentic systems' ability to continually learn, a core capability for long-horizon reasoning and adaptation. To address this limitation, agentic systems commonly incorporate memory modules to retain and reuse past experience, aiming for continual learning during test time. However, most existing memory designs are human-crafted and fixed, which limits their ability to adapt to the diversity and non-stationarity of real-world tasks. In this paper, we introduce ALMA (Automated meta-Learning of Memory designs for Agentic systems), a framework that meta-learns memory designs to replace hand-engineered memory designs, therefore minimizing human effort and enabling agentic systems to be continual learners across diverse domains. Our approach employs a Meta Agent that searches over memory designs expressed as executable code in an open-ended manner, theoretically allowing the discovery of arbitrary memory designs, including database schemas as well as their retrieval and update mechanisms. Extensive experiments across four sequential decision-making domains demonstrate that the learned memory designs enable more effective and efficient learning from experience than state-of-the-art human-crafted memory designs on all benchmarks. When developed and deployed safely, ALMA represents a step toward self-improving AI systems that learn to be adaptive, continual learners.


翻译:基础模型的无状态特性限制了智能系统持续学习的能力,而持续学习是实现长期推理与适应的核心能力。为突破这一限制,智能系统通常引入记忆模块来保存和复用历史经验,旨在测试阶段实现持续学习。然而,现有记忆设计大多为人工构建且固定不变,难以适应现实任务中的多样性与非平稳性。本文提出ALMA(面向智能系统的自动化记忆设计元学习框架),该框架通过元学习生成记忆设计以替代人工设计的记忆方案,从而最大限度减少人工干预,使智能系统能够跨领域实现持续学习。我们的方法采用元智能体,以开放式搜索的方式探索以可执行代码形式表达的记忆设计,理论上能够发现任意形式的记忆结构,包括数据库模式及其检索与更新机制。在四个序列决策领域的广泛实验表明,相较于所有基准测试中最先进的人工设计记忆方案,通过本方法习得的记忆设计能够更高效地从经验中学习。若能在安全前提下开发部署,ALMA标志着人工智能系统向具备自适应能力的持续学习型自我改进系统迈出了重要一步。

0
下载
关闭预览

相关内容

设计是对现有状的一种重新认识和打破重组的过程,设计让一切变得更美。
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
「连续学习Continual learning, CL」最新2022研究综述
专知会员服务
85+阅读 · 2022年6月26日
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
47+阅读 · 2020年11月18日
专知会员服务
33+阅读 · 2020年10月2日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
Meta-Learning 元学习:学会快速学习
GAN生成式对抗网络
20+阅读 · 2018年12月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2月8日
Arxiv
0+阅读 · 1月13日
VIP会员
相关VIP内容
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
《图持续学习》综述
专知会员服务
44+阅读 · 2024年2月13日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
「连续学习Continual learning, CL」最新2022研究综述
专知会员服务
85+阅读 · 2022年6月26日
【Alma Mate博士论文】深度架构持续学习,附150页pdf与Slides
专知会员服务
47+阅读 · 2020年11月18日
专知会员服务
33+阅读 · 2020年10月2日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
相关基金
国家自然科学基金
7+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
国家自然科学基金
11+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员