Human cognition integrates information across nested timescales. While the cortex exhibits hierarchical Temporal Receptive Windows (TRWs), local circuits often display heterogeneous time constants. To reconcile this, we trained biologically constrained deep networks, based on scale-invariant hippocampal time cells, on a language classification task mimicking the hierarchical structure of language (e.g., 'letters' forming 'words'). First, using a feedforward model (SITHCon), we found that a hierarchy of TRWs emerged naturally across layers, despite the network having an identical spectrum of time constants within layers. We then distilled these inductive priors into a biologically plausible recurrent architecture, SITH-RNN. Training a sequence of architectures ranging from generic RNNs to this restricted subset showed that the scale-invariant SITH-RNN learned faster with orders-of-magnitude fewer parameters, and generalized zero-shot to out-of-distribution timescales. These results suggest the brain employs scale-invariant, sequential priors - coding "what" happened "when" - making recurrent networks with such priors particularly well-suited to describe human cognition.


翻译:人类认知整合了嵌套时间尺度上的信息。尽管皮层表现出分层的时间感受野(TRWs),但局部回路通常表现出异质的时间常数。为了调和这一矛盾,我们基于尺度不变的海马时间细胞,在模拟语言层次结构(例如“字母”构成“单词”)的语言分类任务上训练了生物约束深度网络。首先,使用前馈模型(SITHCon),我们发现尽管网络在层内具有相同的时间常数谱,但TRWs的层次结构在各层中自然涌现。随后,我们将这些归纳先验提炼成一个生物合理的循环架构,即SITH-RNN。通过训练一系列从通用RNN到这一受限子集的架构,结果表明尺度不变的SITH-RNN学习速度更快,且参数数量减少数个数量级,并能零样本泛化到分布外的时间尺度。这些结果表明,大脑采用了尺度不变的序列先验——编码“何时”发生“何事”——使得具备此类先验的循环网络特别适合描述人类认知。

0
下载
关闭预览

相关内容

【ICML2024】基于正则化的持续学习的统计理论
专知会员服务
21+阅读 · 2024年6月11日
基于模型的强化学习综述
专知会员服务
48+阅读 · 2023年1月9日
专知会员服务
35+阅读 · 2021年9月18日
CVPR 2021 | 时间序列疾病预测的因果隐马尔可夫模型
专知会员服务
64+阅读 · 2021年4月11日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【ICML2024】基于正则化的持续学习的统计理论
专知会员服务
21+阅读 · 2024年6月11日
基于模型的强化学习综述
专知会员服务
48+阅读 · 2023年1月9日
专知会员服务
35+阅读 · 2021年9月18日
CVPR 2021 | 时间序列疾病预测的因果隐马尔可夫模型
专知会员服务
64+阅读 · 2021年4月11日
相关资讯
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
MNIST入门:贝叶斯方法
Python程序员
23+阅读 · 2017年7月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员