Memory is critical for dialogue agents to maintain coherence and enable continuous adaptation in long-term interactions. While existing memory mechanisms offer basic storage and retrieval capabilities, they are hindered by two primary limitations: (1) rigid memory granularity often disrupts semantic integrity, resulting in fragmented and incoherent memory units; (2) prevalent flat retrieval paradigms rely solely on surface-level semantic similarity, neglecting the structural cues of discourse required to navigate and locate specific episodic contexts. To mitigate these limitations, drawing inspiration from Event Segmentation Theory, we propose ES-Mem, a framework incorporating two core components: (1) a dynamic event segmentation module that partitions long-term interactions into semantically coherent events with distinct boundaries; (2) a hierarchical memory architecture that constructs multi-layered memories and leverages boundary semantics to anchor specific episodic memory for precise context localization. Evaluations on two memory benchmarks demonstrate that ES-Mem yields consistent performance gains over baseline methods. Furthermore, the proposed event segmentation module exhibits robust applicability on dialogue segmentation datasets.


翻译:记忆对于对话智能体在长期交互中保持连贯性和实现持续适应至关重要。现有的记忆机制虽然提供了基础的存储与检索能力,但主要受限于两个问题:(1) 僵化的记忆粒度常常破坏语义完整性,导致记忆单元碎片化且不连贯;(2) 主流的扁平化检索范式仅依赖表层语义相似性,忽视了在话语中导航和定位特定情景上下文所需的结构性线索。为缓解这些局限,受事件分割理论启发,我们提出ES-Mem框架,其包含两个核心组件:(1) 动态事件分割模块,将长期交互分割为具有清晰边界的语义连贯事件;(2) 分层记忆架构,构建多层记忆并利用边界语义锚定特定情景记忆,以实现精确的上下文定位。在两个记忆基准测试上的评估表明,ES-Mem相比基线方法取得了持续的性能提升。此外,所提出的事件分割模块在对话分割数据集上展现出良好的适用性。

0
下载
关闭预览

相关内容

MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
下半场思考:基础智能体记忆机制
专知会员服务
18+阅读 · 2月9日
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
基于学习机制的多智能体强化学习综述
专知会员服务
61+阅读 · 2024年4月16日
注意力机制综述
专知会员服务
83+阅读 · 2021年1月26日
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
最新人机对话系统简略综述
专知
26+阅读 · 2018年3月10日
一文读懂智能对话系统
数据派THU
16+阅读 · 2018年1月27日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 1月13日
VIP会员
相关VIP内容
MMA:多模态记忆智能体
专知会员服务
9+阅读 · 2月19日
下半场思考:基础智能体记忆机制
专知会员服务
18+阅读 · 2月9日
AI智能体时代中的记忆:形式、功能与动态综述
专知会员服务
35+阅读 · 2025年12月16日
基于学习机制的多智能体强化学习综述
专知会员服务
61+阅读 · 2024年4月16日
注意力机制综述
专知会员服务
83+阅读 · 2021年1月26日
相关资讯
注意力机制综述(中文版)
专知
23+阅读 · 2021年1月26日
深度学习中Attention Mechanism详细介绍:原理、分类及应用
深度学习与NLP
10+阅读 · 2019年2月18日
最新人机对话系统简略综述
专知
26+阅读 · 2018年3月10日
一文读懂智能对话系统
数据派THU
16+阅读 · 2018年1月27日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员