Encoding static images into spike trains is a fundamental step for enabling Spiking Neural Networks (SNNs) to process visual information. However, widely used methods such as rate coding, Poisson encoding, and time-to-first-spike (TTFS) often neglect spatial correlations and produce temporally inconsistent spike patterns, limiting both efficiency and interpretability. In this work, we propose a novel cluster-based encoding framework that explicitly preserves semantic structure across both spatial and temporal domains. The method first introduces a 2D spatial clustering mechanism, which leverages connected component analysis and local density estimation to identify salient foreground regions. Building upon this, we extend the approach to a 3D spatio-temporal (ST3D) encoding scheme that incorporates temporal neighborhood information, generating spike trains with enhanced temporal coherence. Experiments on the N-MNIST dataset demonstrate that the proposed ST3D encoder achieves 98.17% classification accuracy using a simple single-layer SNN, outperforming conventional TTFS encoding (97.58%). Notably, this performance is achieved with significantly fewer spikes (3800 vs. 5000 per sample), highlighting improved efficiency without sacrificing accuracy. These results indicate that the proposed method provides an interpretable, structure-aware, and computationally efficient encoding strategy, offering strong potential for neuromorphic computing applications.


翻译:暂无翻译

0
下载
关闭预览

相关内容

神经网络(Neural Networks)是世界上三个最古老的神经建模学会的档案期刊:国际神经网络学会(INNS)、欧洲神经网络学会(ENNS)和日本神经网络学会(JNNS)。神经网络提供了一个论坛,以发展和培育一个国际社会的学者和实践者感兴趣的所有方面的神经网络和相关方法的计算智能。神经网络欢迎高质量论文的提交,有助于全面的神经网络研究,从行为和大脑建模,学习算法,通过数学和计算分析,系统的工程和技术应用,大量使用神经网络的概念和技术。这一独特而广泛的范围促进了生物和技术研究之间的思想交流,并有助于促进对生物启发的计算智能感兴趣的跨学科社区的发展。因此,神经网络编委会代表的专家领域包括心理学,神经生物学,计算机科学,工程,数学,物理。该杂志发表文章、信件和评论以及给编辑的信件、社论、时事、软件调查和专利信息。文章发表在五个部分之一:认知科学,神经科学,学习系统,数学和计算分析、工程和应用。 官网地址:http://dblp.uni-trier.de/db/journals/nn/
【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
129+阅读 · 2021年6月4日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
图神经网络入门(三)GAT图注意力网络
图与推荐
10+阅读 · 2020年5月14日
Graph Neural Networks 综述
计算机视觉life
30+阅读 · 2019年8月13日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
最新内容
DeepSeek 版Claude Code,免费小白安装教程来了!
专知会员服务
7+阅读 · 5月5日
《美空军条令出版物 2-0:情报(2026版)》
专知会员服务
13+阅读 · 5月5日
帕兰提尔 Gotham:一个游戏规则改变器
专知会员服务
7+阅读 · 5月5日
【综述】 机器人学习中的世界模型:全面综述
专知会员服务
11+阅读 · 5月4日
伊朗的导弹-无人机行动及其对美国威慑的影响
相关VIP内容
【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
129+阅读 · 2021年6月4日
【NeurIPS2020】点针图网络,Pointer Graph Networks
专知会员服务
40+阅读 · 2020年9月27日
相关资讯
图神经网络入门(三)GAT图注意力网络
图与推荐
10+阅读 · 2020年5月14日
Graph Neural Networks 综述
计算机视觉life
30+阅读 · 2019年8月13日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员