Electroencephalography (EEG) captures neural activity across multiple temporal and spectral scales, yielding signals that are rich but complex for representation learning. Recently, EEG foundation models trained to predict masked signal-tokens have shown promise for learning generalizable representations. However, their performance is hindered by their signal tokenization modules. Existing neural tokenizers fail to preserve high-frequency dynamics, limiting their ability to reconstruct EEG signals with high fidelity. We introduce NeuroRVQ, a scalable Large Brainwave Model (LBM) centered on a codebook-based tokenizer. Our tokenizer integrates: (i) multi-scale feature extraction modules that capture the full frequency neural spectrum; (ii) hierarchical residual vector quantization (RVQ) codebooks for high-resolution encoding; and, (iii) an EEG signal phase- and amplitude-aware loss function for efficient training. This design enables efficient EEG compression while supporting accurate reconstruction across all frequency bands, leading to robust generative masked modeling. Our empirical results demonstrate that NeuroRVQ achieves lower reconstruction error and outperforms existing LBMs on a variety of downstream tasks. More broadly, NeuroRVQ tokenizer establishes a strong prior for codebook-based general-purpose brainwave models, enabling advances in neural decoding, generative modeling and multimodal biosignal integration.


翻译:脑电图(EEG)在多个时间和频谱尺度上捕捉神经活动,产生丰富但复杂的信号,对表征学习构成挑战。近年来,通过预测掩蔽信号标记进行训练的EEG基础模型在学习可泛化表征方面展现出潜力。然而,其性能受限于信号标记化模块。现有神经标记器无法保留高频动态特性,限制了高保真重建EEG信号的能力。本文提出NeuroRVQ,一种以基于码本的标记器为核心的可扩展大型脑波模型(LBM)。我们的标记器整合了:(i)捕获全频段神经频谱的多尺度特征提取模块;(ii)用于高分辨率编码的分层残差向量量化(RVQ)码本;以及(iii)面向EEG信号相位与幅度的感知损失函数以实现高效训练。该设计在实现高效EEG压缩的同时,支持全频段的精确信号重建,从而构建鲁棒的生成式掩蔽建模。实验结果表明,NeuroRVQ在多种下游任务中实现了更低的重建误差,并优于现有LBM方法。更广泛而言,NeuroRVQ标记器为基于码本的通用脑波模型建立了强先验,推动了神经解码、生成建模及多模态生物信号集成等领域的发展。

0
下载
关闭预览

相关内容

基于 Transformer 的脑电解码综述询问 ChatGPT
专知会员服务
12+阅读 · 2025年7月6日
类脑超大规模深度神经网络系统
专知会员服务
60+阅读 · 2022年1月21日
【NeurIPS2020】图神经网络中的池化再思考
专知会员服务
52+阅读 · 2020年10月25日
【NeurIPS2020-MIT】子图神经网络,Subgraph Neural Networks
专知会员服务
46+阅读 · 2020年9月28日
【GNN】深度学习之上,图神经网络(GNN )崛起
产业智能官
16+阅读 · 2019年8月15日
掌握图神经网络GNN基本,看这篇文章就够了
新智元
164+阅读 · 2019年2月14日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员