Memory mechanism is a core component of LLM-based agents, enabling reasoning and knowledge discovery over long-horizon contexts. Existing agent memory systems are typically designed within isolated paradigms (e.g., explicit, parametric, or latent memory) with tightly coupled retrieval methods that hinder cross-paradigm generalization and fusion. In this work, we take a first step toward unifying heterogeneous memory paradigms within a single memory system. We propose MemAdapter, a memory retrieval framework that enables fast alignment across agent memory paradigms. MemAdapter adopts a two-stage training strategy: (1) training a generative subgraph retriever from the unified memory space, and (2) adapting the retriever to unseen memory paradigms by training a lightweight alignment module through contrastive learning. This design improves the flexibility for memory retrieval and substantially reduces alignment cost across paradigms. Comprehensive experiments on three public evaluation benchmarks demonstrate that the generative subgraph retriever consistently outperforms five strong agent memory systems across three memory paradigms and agent model scales. Notably, MemAdapter completes cross-paradigm alignment within 13 minutes on a single GPU, achieving superior performance over original memory retrievers with less than 5% of training compute. Furthermore, MemAdapter enables effective zero-shot fusion across memory paradigms, highlighting its potential as a plug-and-play solution for agent memory systems.


翻译:记忆机制是基于大语言模型(LLM)智能体的核心组件,使其能够在长程上下文中进行推理与知识发现。现有的智能体记忆系统通常设计于孤立的范式(例如显式记忆、参数化记忆或隐式记忆)中,并采用紧密耦合的检索方法,这阻碍了跨范式的泛化与融合。在本工作中,我们首次尝试将异构记忆范式统一于单一记忆系统中。我们提出了MemAdapter,一个能够实现智能体记忆范式间快速对齐的记忆检索框架。MemAdapter采用两阶段训练策略:(1)从统一记忆空间中训练一个生成式子图检索器;(2)通过对比学习训练一个轻量级对齐模块,使该检索器能够适应未见过的记忆范式。该设计提升了记忆检索的灵活性,并大幅降低了跨范式的对齐成本。在三个公开评估基准上的综合实验表明,该生成式子图检索器在三种记忆范式及不同规模的智能体模型上均持续优于五种强大的现有智能体记忆系统。值得注意的是,MemAdapter在单GPU上仅需13分钟即可完成跨范式对齐,并以不足原训练计算量5%的代价,实现了优于原始记忆检索器的性能。此外,MemAdapter支持跨记忆范式的有效零样本融合,凸显了其作为智能体记忆系统即插即用解决方案的潜力。

0
下载
关闭预览

相关内容

MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
迈向智能体系统规模化的科学
专知会员服务
20+阅读 · 2025年12月12日
图结构遇上智能体:分类方法、研究进展与未来机遇
专知会员服务
58+阅读 · 2025年6月24日
多智能体强化学习(MARL)近年研究概览
PaperWeekly
38+阅读 · 2020年3月15日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
【强化学习】强化学习+深度学习=人工智能
产业智能官
55+阅读 · 2017年8月11日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月21日
VIP会员
相关VIP内容
MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
迈向智能体系统规模化的科学
专知会员服务
20+阅读 · 2025年12月12日
图结构遇上智能体:分类方法、研究进展与未来机遇
专知会员服务
58+阅读 · 2025年6月24日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员