模型可解释问题一向都是一个玄学问题,主要核心问题在于怎么评估一个好的模型解释器。在以往的工作中,图解释性模型往往是取一个边集合,并且将边集合得到的子图预测结果与真实标签做对比然后算一个acc,然而,本文作者则认为如果将解释结果与真实情况对比的话实际上并不是特别靠谱。因此,本文主要提出了几种更贴切于解释性方法的评估数据,包括感染检测,社区检测,负样本评估。

论文地址:https://dl.acm.org/doi/pdf/10.1145/3447548.3467283

成为VIP会员查看完整内容
33

相关内容

CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
29+阅读 · 2021年11月9日
专知会员服务
50+阅读 · 2021年6月2日
最新《图神经网络模型与应用》综述论文
专知会员服务
297+阅读 · 2020年8月2日
反欺诈中所用到的机器学习模型有哪些?
推荐|机器学习中的模型评价、模型选择和算法选择!
全球人工智能
10+阅读 · 2018年2月5日
VIP会员
相关VIP内容
CIKM2021 | CD-GNN:一种跨领域的图神经网络模型
专知会员服务
29+阅读 · 2021年11月9日
专知会员服务
50+阅读 · 2021年6月2日
最新《图神经网络模型与应用》综述论文
专知会员服务
297+阅读 · 2020年8月2日
微信扫码咨询专知VIP会员