We introduce a two-stage multitask learning framework for analyzing Electroencephalography (EEG) signals that integrates denoising, dynamical modeling, and representation learning. In the first stage, a denoising autoencoder is trained to suppress artifacts and stabilize temporal dynamics, providing robust signal representations. In the second stage, a multitask architecture processes these denoised signals to achieve three objectives: motor imagery classification, chaotic versus non-chaotic regime discrimination using Lyapunov exponent-based labels, and self-supervised contrastive representation learning with NT-Xent loss. A convolutional backbone combined with a Transformer encoder captures spatial-temporal structure, while the dynamical task encourages sensitivity to nonlinear brain dynamics. This staged design mitigates interference between reconstruction and discriminative goals, improves stability across datasets, and supports reproducible training by clearly separating noise reduction from higher-level feature learning. Empirical studies show that our framework not only enhances robustness and generalization but also surpasses strong baselines and recent state-of-the-art methods in EEG decoding, highlighting the effectiveness of combining denoising, dynamical features, and self-supervised learning.


翻译:本文提出一种用于分析脑电图(EEG)信号的两阶段多任务学习框架,该框架集成了去噪、动力学建模与表征学习。第一阶段,训练一个去噪自编码器以抑制伪影并稳定时序动态,从而提供鲁棒信号表征。第二阶段,多任务架构处理这些去噪后的信号,以实现三个目标:运动想象分类、基于李雅普诺夫指数标签的混沌与非混沌状态判别,以及使用NT-Xent损失的自监督对比表征学习。卷积主干网络与Transformer编码器相结合,以捕捉时空结构;而动力学任务则增强了对非线性脑动力学的敏感性。这种分阶段设计减轻了重构任务与判别任务之间的相互干扰,提升了跨数据集的稳定性,并通过明确分离噪声抑制与高层特征学习来支持可复现的训练。实验研究表明,该框架不仅增强了鲁棒性与泛化能力,而且在EEG解码任务中超越了强基线方法与近期先进方法,凸显了结合去噪、动力学特征与自监督学习的有效性。

0
下载
关闭预览

相关内容

基于 Transformer 的脑电解码综述询问 ChatGPT
专知会员服务
12+阅读 · 2025年7月6日
【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
101+阅读 · 2020年7月20日
华为分享 异质图表示学习(异质图神经网络)
图与推荐
14+阅读 · 2020年9月10日
对比学习(Contrastive Learning)相关进展梳理
PaperWeekly
11+阅读 · 2020年5月12日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 1月26日
VIP会员
相关VIP内容
基于 Transformer 的脑电解码综述询问 ChatGPT
专知会员服务
12+阅读 · 2025年7月6日
【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
101+阅读 · 2020年7月20日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员