A central challenge in cognitive neuroscience is to explain how semantic and episodic memory, two major forms of declarative memory, typically associated with cortical and hippocampal processing, interact to support learning, recall, and imagination. Despite significant advances, we still lack a unified computational framework that jointly accounts for core empirical phenomena across both semantic and episodic processing domains. Here, we introduce the Generative Episodic-Semantic Integration System (GENESIS), a computational model that formalizes memory as the interaction between two limited-capacity generative systems: a Cortical-VAE, supporting semantic learning and generalization, and a Hippocampal-VAE, supporting episodic encoding and retrieval within a retrieval-augmented generation (RAG) architecture. GENESIS reproduces hallmark behavioral findings, including generalization in semantic memory, recognition, serial recall effects and gist-based distortions in episodic memory, and constructive episodic simulation, while capturing their dynamic interactions. The model elucidates how capacity constraints shape the fidelity and memorability of experiences, how semantic processing introduces systematic distortions in episodic recall, and how episodic replay can recombine previous experiences. Together, these results provide a principled account of memory as an active, constructive, and resource-bounded process. GENESIS thus advances a unified theoretical framework that bridges semantic and episodic memory, offering new insights into the generative foundations of human cognition.


翻译:认知神经科学的一个核心挑战是解释语义记忆和情景记忆这两种主要的陈述性记忆形式(通常分别与皮层和海马处理相关)如何相互作用以支持学习、回忆和想象。尽管取得了重大进展,我们仍然缺乏一个统一的计算框架来共同解释语义和情景处理领域的核心经验现象。本文介绍了生成式情景-语义整合系统(GENESIS),这是一个将记忆形式化为两个有限容量生成系统之间交互的计算模型:一个支持语义学习和泛化的Cortical-VAE,以及一个在检索增强生成(RAG)架构内支持情景编码和检索的Hippocampal-VAE。GENESIS复现了标志性的行为发现,包括语义记忆中的泛化、再认、序列回忆效应以及情景记忆中基于要旨的扭曲和建构性情景模拟,同时捕捉了它们之间的动态交互。该模型阐明了容量限制如何塑造体验的保真度和可记忆性,语义处理如何引入情景回忆中的系统性扭曲,以及情景回放如何重组先前的体验。总之,这些结果为记忆作为一个主动的、建构性的、资源受限的过程提供了一个原理性的解释。因此,GENESIS推进了一个连接语义记忆和情景记忆的统一理论框架,为人类认知的生成基础提供了新的见解。

0
下载
关闭预览

相关内容

大型语言模型赋能科研创意生成:创造力导向的研究综述
专知会员服务
19+阅读 · 2025年11月13日
【新书】实践大型语言模型:语言理解与生成
专知会员服务
69+阅读 · 2024年10月1日
可解释生成人工智能 (GenXAI):综述、概念化与研究议程
专知会员服务
39+阅读 · 2024年4月19日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
深度学习时代的图模型,清华发文综述图网络
GAN生成式对抗网络
13+阅读 · 2018年12月23日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
VIP会员
相关VIP内容
大型语言模型赋能科研创意生成:创造力导向的研究综述
专知会员服务
19+阅读 · 2025年11月13日
【新书】实践大型语言模型:语言理解与生成
专知会员服务
69+阅读 · 2024年10月1日
可解释生成人工智能 (GenXAI):综述、概念化与研究议程
专知会员服务
39+阅读 · 2024年4月19日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员