Biological neural networks (like the hippocampus) can internally generate "replay" resembling stimulus-driven activity. Recent computational models of replay use noisy recurrent neural networks (RNNs) trained to path-integrate. Replay in these networks has been described as Langevin sampling, but new modifiers of noisy RNN replay have surpassed this description. We re-examine noisy RNN replay as sampling to understand or improve it in three ways: (1) Under simple assumptions, we prove that the gradients replay activity should follow are time-varying and difficult to estimate, but readily motivate the use of hidden state leakage in RNNs for replay. (2) We confirm that hidden state adaptation (negative feedback) encourages exploration in replay, but show that it incurs non-Markov sampling that also slows replay. (3) We propose the first model of temporally compressed replay in noisy path-integrating RNNs through hidden state momentum, connect it to underdamped Langevin sampling, and show that, together with adaptation, it counters slowness while maintaining exploration. We verify our findings via path-integration of 2D triangular and T-maze paths and of high-dimensional paths of synthetic rat place cell activity.


翻译:生物神经网络(如海马体)能够内部生成类似于刺激驱动活动的“回放”现象。近期关于回放的计算模型采用经训练实现路径积分的噪声循环神经网络(RNN)。这些网络中的回放曾被描述为朗之万采样,但噪声RNN回放的新型调控机制已超越该描述框架。我们通过采样视角重新审视噪声RNN回放,从三个方面深化理解并改进其性能:(1)在简单假设下,我们证明回放活动应遵循的梯度具有时变特性且难以估计,但这直接启发了在RNN中采用隐藏状态泄漏机制以促进回放。(2)我们证实隐藏状态自适应(负反馈)能增强回放中的探索行为,但同时证明这会引发非马尔可夫采样并减缓回放速度。(3)我们首次通过隐藏状态动量机制,提出噪声路径积分RNN中时间压缩回放的模型,将其与欠阻尼朗之万采样建立理论关联,并证明该机制与自适应结合能在保持探索性的同时克服速度迟滞问题。我们通过二维三角形路径、T型迷宫路径以及合成大鼠位置细胞活动的高维路径积分实验验证了上述发现。

0
下载
关闭预览

相关内容

RNN:循环神经网络,是深度学习的一种模型。
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
96+阅读 · 2020年3月25日
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
从动力学角度看优化算法:GAN的第三个阶段
PaperWeekly
11+阅读 · 2019年5月13日
干货 | 循环神经网络(RNN)和LSTM初学者指南
THU数据派
15+阅读 · 2019年1月25日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
39+阅读 · 2018年1月13日
完全图解RNN、RNN变体、Seq2Seq、Attention机制
AI研习社
13+阅读 · 2017年9月5日
干货|完全图解RNN、RNN变体、Seq2Seq、Attention机制
机器学习研究会
12+阅读 · 2017年8月5日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
最新内容
《高超音速武器:一项再度兴起的技术》120页slides
无人机蜂群建模与仿真方法
专知会员服务
1+阅读 · 55分钟前
澳大利亚发布《国防战略(2026年)》
专知会员服务
0+阅读 · 今天13:42
【CMU博士论文】迈向基于基础先验的 4D 感知研究
专知会员服务
0+阅读 · 今天13:46
全球高超音速武器最新发展趋势
专知会员服务
1+阅读 · 今天13:17
人工智能在战场行动中的演进及伊朗案例
专知会员服务
7+阅读 · 4月18日
相关VIP内容
最新《可解释深度学习XDL》2020研究进展综述大全,54页pdf
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
96+阅读 · 2020年3月25日
相关资讯
【学界】DeepMind论文:深度压缩感知,新框架提升GAN性能
GAN生成式对抗网络
14+阅读 · 2019年5月23日
从动力学角度看优化算法:GAN的第三个阶段
PaperWeekly
11+阅读 · 2019年5月13日
干货 | 循环神经网络(RNN)和LSTM初学者指南
THU数据派
15+阅读 · 2019年1月25日
前沿 | 简述脉冲神经网络SNN:下一代神经网络
机器之心
39+阅读 · 2018年1月13日
完全图解RNN、RNN变体、Seq2Seq、Attention机制
AI研习社
13+阅读 · 2017年9月5日
干货|完全图解RNN、RNN变体、Seq2Seq、Attention机制
机器学习研究会
12+阅读 · 2017年8月5日
CNN、RNN在自动特征提取中的应用
乌镇智库
14+阅读 · 2017年8月4日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员