A cognitive map is an internal model which encodes the abstract relationships among entities in the world, giving humans and animals the flexibility to adapt to new situations, with a strong out-of-distribution (OOD) generalization that current AI systems still do not possess. To bridge this gap, we introduce MapFormers, new architectures based on Transformer models, which can learn cognitive maps from observational data and perform path integration in parallel, in a self-supervised manner. Cognitive maps are learned in the model by disentangling structural relationships in the inputs from their specific content, a property that can be achieved naturally by updating the positional encoding in Transformers with input-dependent matrices. We developed two variants of MapFormers that unify absolute and relative positional encoding to model episodic (EM) and working memory (WM), respectively. We tested MapFormers on several tasks, including a classic 2D navigation task, showing that our models can learn a cognitive map of the underlying space and generalize OOD (e.g., to longer sequences) with near-perfect performance, unlike current architectures. Together, these results demonstrate the superiority of models designed to learn a cognitive map, and the importance of introducing a structural bias for structure-content disentanglement, which can be achieved in Transformers with input-dependent positional encoding. MapFormers have broad applications in both neuroscience and AI, by explaining the neural mechanisms giving rise to cognitive maps, while allowing these relation models to be learned at scale.


翻译:认知地图是一种内部模型,它编码了世界中实体间的抽象关系,赋予人类和动物适应新情境的灵活性,并具备当前人工智能系统尚不具备的强大的分布外泛化能力。为弥合这一差距,我们提出了MapFormer——一种基于Transformer模型的新型架构,它能够以自监督的方式从观测数据中学习认知地图,并并行执行路径整合。认知地图在模型中的学习是通过将输入中的结构关系与其具体内容解耦实现的,这一特性可以通过使用输入相关的矩阵更新Transformer中的位置编码自然达成。我们开发了MapFormer的两种变体,分别通过统一绝对与相对位置编码来建模情景记忆和工作记忆。我们在多项任务上测试了MapFormer,包括经典的二维导航任务,结果表明我们的模型能够学习底层空间的认知地图,并以近乎完美的性能实现分布外泛化(例如对更长序列),这是现有架构所无法做到的。这些结果共同证明了为学习认知地图而设计的模型的优越性,以及引入结构偏置以实现结构与内容解耦的重要性——这可以通过Transformer中输入相关的位置编码来实现。MapFormer在神经科学与人工智能领域均有广泛应用前景:既能解释认知地图产生的神经机制,又能支持大规模学习此类关系模型。

0
下载
关闭预览

相关内容

《视觉Transformers自监督学习机制综述》
专知会员服务
29+阅读 · 2024年9月2日
用于识别任务的视觉 Transformer 综述
专知会员服务
75+阅读 · 2023年2月25日
知识图谱的行业落地实现
竹间智能Emotibot
51+阅读 · 2019年9月16日
如何独立实现一个基于知识图谱的问答系统
PaperWeekly
11+阅读 · 2019年6月13日
Maplab:研究视觉惯性建图和定位的开源框架
泡泡机器人SLAM
16+阅读 · 2018年4月4日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
25+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
25+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员