The majority of research in both training Artificial Neural Networks (ANNs) and modeling learning in biological brains focuses on synaptic plasticity, where learning equates to changing the strength of existing connections. However, in biological brains, structural plasticity - where new connections are created and others removed - is also vital, not only for effective learning but also for recovery from damage and optimal resource usage. Inspired by structural plasticity, pruning is often used in machine learning to remove weak connections from trained models to reduce the computational requirements of inference. However, the machine learning frameworks typically used for backpropagation-based training of both ANNs and Spiking Neural Networks (SNNs) are optimized for dense connectivity, meaning that pruning does not help reduce the training costs of ever-larger models. The GeNN simulator already supports efficient GPU-accelerated simulation of sparse SNNs for computational neuroscience and machine learning. Here, we present a new flexible framework for implementing GPU-accelerated structural plasticity rules and demonstrate this first using the e-prop supervised learning rule and DEEP R to train efficient, sparse SNN classifiers and then, in an unsupervised learning context, to learn topographic maps. Compared to baseline dense models, our sparse classifiers reduce training time by up to 10x while the DEEP R rewiring enables them to perform as well as the original models. We demonstrate topographic map formation in faster-than-realtime simulations, provide insights into the connectivity evolution, and measure simulation speed versus network size. The proposed framework will enable further research into achieving and maintaining sparsity in network structure and neural communication, as well as exploring the computational benefits of sparsity in a range of neuromorphic applications.


翻译:在人工神经网络(ANN)的训练以及生物大脑学习建模的研究中,绝大多数工作聚焦于突触可塑性,即学习等同于改变现有连接的强度。然而,在生物大脑中,结构可塑性——即新连接的创建与旧连接的移除——同样至关重要,这不仅关乎有效学习,也涉及损伤恢复与资源的最优利用。受结构可塑性启发,机器学习中常采用剪枝技术,从已训练模型中移除弱连接以降低推理的计算需求。然而,通常用于基于反向传播训练ANN和脉冲神经网络(SNN)的机器学习框架是针对密集连接优化的,这意味着剪枝无助于减少日益增大的模型的训练成本。GeNN模拟器已支持为计算神经科学和机器学习高效地进行GPU加速的稀疏SNN模拟。本文提出了一种新的灵活框架,用于实现GPU加速的结构可塑性规则,并首先使用e-prop监督学习规则和DEEP R来训练高效、稀疏的SNN分类器,随后在无监督学习场景中学习拓扑映射,以此进行演示。与基线密集模型相比,我们的稀疏分类器将训练时间减少了高达10倍,同时DEEP R重布线使其性能与原模型相当。我们展示了在快于实时模拟中的拓扑映射形成,深入分析了连接性的演化过程,并测量了模拟速度与网络规模的关系。所提出的框架将推动在网络结构与神经通信中实现和维持稀疏性,以及探索稀疏性在一系列神经形态应用中的计算优势方面的进一步研究。

0
下载
关闭预览

相关内容

深度强化学习中的可塑性损失:综述
专知会员服务
22+阅读 · 2024年11月8日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
神经网络加速器架构概述
专知会员服务
37+阅读 · 2022年4月23日
专知会员服务
23+阅读 · 2021年7月15日
CCCF专栏 | 面向领域定制的神经网络结构设计
中国计算机学会
10+阅读 · 2018年12月17日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
【AAAI专题】论文分享:以生物可塑性为核心的类脑脉冲神经网络
中国科学院自动化研究所
15+阅读 · 2018年1月23日
深度学习的GPU:深度学习中使用GPU的经验和建议
数据挖掘入门与实战
11+阅读 · 2018年1月3日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月2日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员