Electroencephalography (EEG) signal decoding is a key technology that translates brain activity into executable commands, laying the foundation for direct brain-machine interfacing and intelligent interaction. To address the inherent spatiotemporal heterogeneity of EEG signals, this paper proposes a multi-branch parallel architecture, where each temporal scale is equipped with an independent spatial feature extraction module. To further enhance multi-branch feature fusion, we propose a Fusion of Multiscale Features via Centralized Sparse-attention Network (EEG-CSANet), a centralized sparse-attention network. It employs a main-auxiliary branch architecture, where the main branch models core spatiotemporal patterns via multiscale self-attention, and the auxiliary branch facilitates efficient local interactions through sparse cross-attention. Experimental results show that EEG-CSANet achieves state-of-the-art (SOTA) performance across five public datasets (BCIC-IV-2A, BCIC-IV-2B, HGD, SEED, and SEED-VIG), with accuracies of 88.54%, 91.09%, 97.15%, 96.03%, and 90.56%, respectively. Such performance demonstrates its strong adaptability and robustness across various EEG decoding tasks. Moreover, extensive ablation studies are conducted to enhance the interpretability of EEG-CSANet. In the future, we hope that EEG-CSANet could serve as a promising baseline model in the field of EEG signal decoding. The source code is publicly available at: https://github.com/Xiangrui-Cai/EEG-CSANet


翻译:脑电图信号解码是将大脑活动转化为可执行指令的关键技术,为直接脑机接口与智能交互奠定基础。针对脑电信号固有的时空异质性,本文提出一种多分支并行架构,其中每个时间尺度均配备独立的空间特征提取模块。为进一步增强多分支特征融合,我们提出基于集中式稀疏注意力网络的多尺度特征融合方法,即EEG-CSANet。该网络采用主-辅分支架构:主分支通过多尺度自注意力建模核心时空模式,辅分支则通过稀疏交叉注意力实现高效的局部交互。实验结果表明,EEG-CSANet在五个公开数据集上均取得最先进性能,在BCIC-IV-2A、BCIC-IV-2B、HGD、SEED和SEED-VIG数据集上的准确率分别达到88.54%、91.09%、97.15%、96.03%和90.56%。这一性能证明了其在各类脑电解码任务中具有强大的适应性与鲁棒性。此外,通过系统的消融实验增强了EEG-CSANet的可解释性。未来,我们希望EEG-CSANet能成为脑电信号解码领域具有潜力的基线模型。源代码已公开于:https://github.com/Xiangrui-Cai/EEG-CSANet

0
下载
关闭预览

相关内容

基于 Transformer 的脑电解码综述询问 ChatGPT
专知会员服务
12+阅读 · 2025年7月6日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
深度多模态数据融合
专知会员服务
55+阅读 · 2024年11月9日
基于深度学习的图像融合方法综述
专知会员服务
57+阅读 · 2023年1月25日
卷积神经网络中的注意力机制综述
专知会员服务
77+阅读 · 2021年10月22日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
32+阅读 · 2020年12月14日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
图神经网络入门(三)GAT图注意力网络
图与推荐
10+阅读 · 2020年5月14日
专家报告|深度学习+图像多模态融合
中国图象图形学报
12+阅读 · 2019年10月23日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
基于 Transformer 的脑电解码综述询问 ChatGPT
专知会员服务
12+阅读 · 2025年7月6日
中文版 | 集中式与分布式多智能体AI协调策略
专知会员服务
19+阅读 · 2025年5月8日
深度多模态数据融合
专知会员服务
55+阅读 · 2024年11月9日
基于深度学习的图像融合方法综述
专知会员服务
57+阅读 · 2023年1月25日
卷积神经网络中的注意力机制综述
专知会员服务
77+阅读 · 2021年10月22日
【博士论文】解耦合的类脑计算系统栈设计
专知会员服务
32+阅读 · 2020年12月14日
相关资讯
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
图神经网络入门(三)GAT图注意力网络
图与推荐
10+阅读 · 2020年5月14日
专家报告|深度学习+图像多模态融合
中国图象图形学报
12+阅读 · 2019年10月23日
图神经网络最近这么火,不妨看看我们精选的这七篇
人工智能前沿讲习班
37+阅读 · 2018年12月10日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员