It has been demonstrated in various contexts that monotonicity leads to better explainability in neural networks. However, not every function can be well approximated by a monotone neural network. We demonstrate that monotonicity can still be used in two ways to boost explainability. First, we use an adaptation of the decomposition of a trained ReLU network into two monotone and convex parts, thereby overcoming numerical obstacles from an inherent blowup of the weights in this procedure. Our proposed saliency methods - SplitCAM and SplitLRP - improve on state of the art results on both VGG16 and Resnet18 networks on ImageNet-S across all Quantus saliency metric categories. Second, we exhibit that training a model as the difference between two monotone neural networks results in a system with strong self-explainability properties.


翻译:已有研究在不同情境下证明,单调性能提升神经网络的可解释性。然而,并非所有函数都能通过单调神经网络良好逼近。本文论证单调性仍可通过两种方式增强可解释性。首先,我们采用一种改进方法,将训练好的ReLU网络分解为两个单调且凸的部分,从而克服了该过程中因权重固有膨胀而产生的数值障碍。我们提出的显著性方法——SplitCAM与SplitLRP——在ImageNet-S数据集上,针对VGG16和Resnet18网络的所有Quantus显著性指标类别,均取得了优于现有技术的结果。其次,我们证明通过训练两个单调神经网络的差值构成的模型,可获得具有强自解释特性的系统。

0
下载
关闭预览

相关内容

自解释神经网络的全面综述
专知会员服务
19+阅读 · 2025年1月28日
卷积神经网络的可解释性研究综述
专知会员服务
90+阅读 · 2023年6月5日
专知会员服务
24+阅读 · 2021年10月14日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
221+阅读 · 2020年10月8日
【MIT】理解深度学习网络里单个神经元的作用
专知会员服务
29+阅读 · 2020年9月12日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
直白介绍卷积神经网络(CNN)
Python开发者
25+阅读 · 2018年4月8日
【学界】从可视化到新模型:纵览深度学习的视觉可解释性
GAN生成式对抗网络
10+阅读 · 2018年3月4日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月19日
Arxiv
0+阅读 · 1月31日
Arxiv
0+阅读 · 1月16日
VIP会员
相关VIP内容
自解释神经网络的全面综述
专知会员服务
19+阅读 · 2025年1月28日
卷积神经网络的可解释性研究综述
专知会员服务
90+阅读 · 2023年6月5日
专知会员服务
24+阅读 · 2021年10月14日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
221+阅读 · 2020年10月8日
【MIT】理解深度学习网络里单个神经元的作用
专知会员服务
29+阅读 · 2020年9月12日
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员