Early-exit neural networks enable adaptive inference by allowing predictions at intermediate layers, reducing computational cost. However, early exits often lack interpretability and may focus on different features than deeper layers, limiting trust and explainability. This paper presents Explanation-Guided Training (EGT), a multi-objective framework that improves interpretability and consistency in early-exit networks through attention-based regularization. EGT introduces an attention consistency loss that aligns early-exit attention maps with the final exit. The framework jointly optimizes classification accuracy and attention consistency through a weighted combination of losses. Experiments on a real-world image classification dataset demonstrate that EGT achieves up to 98.97% overall accuracy (matching baseline performance) with a 1.97x inference speedup through early exits, while improving attention consistency by up to 18.5% compared to baseline models. The proposed method provides more interpretable and consistent explanations across all exit points, making early-exit networks more suitable for explainable AI applications in resource-constrained environments.


翻译:早退神经网络通过在中间层进行预测实现自适应推理,从而降低计算成本。然而,早退层通常缺乏可解释性,且可能关注与深层网络不同的特征,这限制了其可信度和可解释性。本文提出解释引导训练(EGT),一种通过基于注意力的正则化来提升早退网络可解释性与一致性的多目标框架。EGT引入了注意力一致性损失函数,使早退层的注意力图与最终输出层对齐。该框架通过加权组合损失函数,联合优化分类准确率和注意力一致性。在真实世界图像分类数据集上的实验表明,EGT通过早退机制实现了1.97倍的推理加速,同时达到98.97%的整体准确率(与基线性能持平),且注意力一致性较基线模型提升高达18.5%。所提方法在所有输出层均提供了更具可解释性和一致性的解释,使得早退神经网络更适用于资源受限环境下的可解释人工智能应用。

0
下载
关闭预览

相关内容

自解释神经网络的全面综述
专知会员服务
19+阅读 · 2025年1月28日
卷积神经网络的可解释性研究综述
专知会员服务
90+阅读 · 2023年6月5日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
132+阅读 · 2020年5月14日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月16日
VIP会员
相关资讯
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
【图神经网络入门】GAT图注意力网络
深度学习自然语言处理
28+阅读 · 2020年5月16日
Attention!注意力机制模型最新综述
专知
65+阅读 · 2019年4月8日
神经网络可解释性最新进展
专知
18+阅读 · 2018年3月10日
基于注意力机制的图卷积网络
科技创新与创业
74+阅读 · 2017年11月8日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员