Tabular data streams are increasingly prevalent in real-time decision-making across healthcare, finance, and the Internet of Things, often generated and processed on resource-constrained edge and mobile devices. Continual learning (CL) enables models to learn sequentially from such streams while retaining previously acquired knowledge. While recent CL advances have made significant progress in mitigating catastrophic forgetting, the energy and memory efficiency of CL for tabular data streams remains largely unexplored. To address this gap, we propose AttenMLP, which integrates attention-based feature replay with context retrieval and sliding buffer updates within a minibatch training framework for streaming tabular learning. We evaluate AttenMLP against state-of-the-art (SOTA) tabular models on real-world concept drift benchmarks with temporal distribution shifts. Experimental results show that AttenMLP achieves accuracy comparable to strong baselines without replay, while substantially reducing energy consumption through tunable design choices. In particular, with the proposed attention-based feature memory design, AttenMLP costs a 0.062 decrease in final accuracy under the incremental concept drift dataset, while reducing energy usage up to 33.3\% compared to TabPFNv2. Under the abrupt concept drift dataset, AttenMLP reduces 1.47\% energy consumption compared to TabR, at the cost of a 0.038 decrease in final accuracy. Although ranking third in global efficiency, AttenMLP demonstrates energy-accuracy trade-offs across both abrupt and incremental concept drift scenarios compared to SOTA tabular models.


翻译:表格数据流在医疗保健、金融和物联网等领域的实时决策中日益普遍,通常由资源受限的边缘和移动设备生成和处理。持续学习(CL)使模型能够从这类数据流中顺序学习,同时保留先前获得的知识。尽管近期的CL研究在缓解灾难性遗忘方面取得了显著进展,但针对表格数据流的CL在能量和内存效率方面的研究仍基本处于空白。为填补这一空白,我们提出了AttenMLP,该方法将基于注意力的特征回放与上下文检索及滑动缓冲区更新相结合,集成于一个用于流式表格学习的迷你批次训练框架中。我们在具有时间分布偏移的真实世界概念漂移基准上,将AttenMLP与最先进的(SOTA)表格模型进行了对比评估。实验结果表明,AttenMLP在不使用回放的情况下达到了与强基线模型相当的准确率,同时通过可调的设计选择显著降低了能耗。具体而言,采用所提出的基于注意力的特征记忆设计后,在增量概念漂移数据集下,AttenMLP的最终准确率仅下降0.062,但与TabPFNv2相比能耗降低了高达33.3%。在突变概念漂移数据集下,AttenMLP相比TabR降低了1.47%的能耗,代价是最终准确率下降0.038。尽管在全局效率中排名第三,但与SOTA表格模型相比,AttenMLP在突变和增量概念漂移场景下均展现出优异的能量-准确率权衡特性。

0
下载
关闭预览

相关内容

【剑桥大学博士论文】基于注意力的图表示学习
专知会员服务
25+阅读 · 2025年11月3日
【牛津博士论文】考虑计算成本的可扩展持续深度学习
专知会员服务
16+阅读 · 2025年3月2日
【CVPR2024】卷积提示"遇见了语言模型的持续学习
专知会员服务
18+阅读 · 2024年4月1日
《图持续学习》综述
专知会员服务
33+阅读 · 2024年2月20日
【综述】持续学习与预训练模型综述
专知会员服务
54+阅读 · 2024年1月30日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
【NeurIPS2022】解决持续学习问题的理论研究
专知会员服务
31+阅读 · 2022年11月7日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
从Seq2seq到Attention模型到Self Attention(一)
量化投资与机器学习
76+阅读 · 2018年10月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【剑桥大学博士论文】基于注意力的图表示学习
专知会员服务
25+阅读 · 2025年11月3日
【牛津博士论文】考虑计算成本的可扩展持续深度学习
专知会员服务
16+阅读 · 2025年3月2日
【CVPR2024】卷积提示"遇见了语言模型的持续学习
专知会员服务
18+阅读 · 2024年4月1日
《图持续学习》综述
专知会员服务
33+阅读 · 2024年2月20日
【综述】持续学习与预训练模型综述
专知会员服务
54+阅读 · 2024年1月30日
持续学习:研究综述
专知会员服务
83+阅读 · 2023年1月30日
【NeurIPS2022】解决持续学习问题的理论研究
专知会员服务
31+阅读 · 2022年11月7日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
37+阅读 · 2020年2月27日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
43+阅读 · 2015年12月31日
国家自然科学基金
39+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员