We introduce a two-stage multitask learning framework for analyzing Electroencephalography (EEG) signals that integrates denoising, dynamical modeling, and representation learning. In the first stage, a denoising autoencoder is trained to suppress artifacts and stabilize temporal dynamics, providing robust signal representations. In the second stage, a multitask architecture processes these denoised signals to achieve three objectives: motor imagery classification, chaotic versus non-chaotic regime discrimination using Lyapunov exponent-based labels, and self-supervised contrastive representation learning with NT-Xent loss. A convolutional backbone combined with a Transformer encoder captures spatial-temporal structure, while the dynamical task encourages sensitivity to nonlinear brain dynamics. This staged design mitigates interference between reconstruction and discriminative goals, improves stability across datasets, and supports reproducible training by clearly separating noise reduction from higher-level feature learning. Empirical studies show that our framework not only enhances robustness and generalization but also surpasses strong baselines and recent state-of-the-art methods in EEG decoding, highlighting the effectiveness of combining denoising, dynamical features, and self-supervised learning.


翻译:我们提出了一种用于分析脑电图信号的两阶段多任务学习框架,该框架集成了去噪、动力学建模与表征学习。在第一阶段,训练一个去噪自编码器以抑制伪影并稳定时序动力学,从而提供鲁棒的信号表征。在第二阶段,一个多任务架构处理这些去噪后的信号以实现三个目标:运动想象分类、基于李雅普诺夫指数标签的混沌与非混沌状态判别,以及使用NT-Xent损失的自监督对比表征学习。卷积主干网络与Transformer编码器相结合以捕捉时空结构,而动力学任务则增强了对非线性脑动力学的敏感性。这种分阶段设计减轻了重构任务与判别任务之间的相互干扰,提升了跨数据集的稳定性,并通过明确分离噪声抑制与高层特征学习来支持可复现的训练。实证研究表明,我们的框架不仅增强了鲁棒性和泛化能力,而且在脑电图解码任务中超越了强基线方法和近期的最先进方法,突显了结合去噪、动力学特征与自监督学习的有效性。

0
下载
关闭预览

相关内容

【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
101+阅读 · 2020年7月20日
最新《多任务学习》综述,39页pdf
专知
28+阅读 · 2020年7月10日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
半监督多任务学习:Semisupervised Multitask Learning
我爱读PAMI
18+阅读 · 2018年4月29日
基于信息理论的机器学习
专知
22+阅读 · 2017年11月23日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Arxiv
0+阅读 · 1月26日
VIP会员
相关VIP内容
【阿姆斯特丹博士论文】缓解多任务学习中的偏差
专知会员服务
23+阅读 · 2024年11月1日
《多任务学习》最新综述论文,20页pdf
专知会员服务
126+阅读 · 2021年4月6日
专知会员服务
101+阅读 · 2020年7月20日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
Top
微信扫码咨询专知VIP会员