Counterfactual explanations (CE) aim to reveal how small input changes flip a model's prediction, yet many methods modify more features than necessary, reducing clarity and actionability. We introduce \emph{COLA}, a model- and generator-agnostic post-hoc framework that refines any given CE by computing a coupling via optimal transport (OT) between factual and counterfactual sets and using it to drive a Shapley-based attribution (\emph{$p$-SHAP}) that selects a minimal set of edits while preserving the target effect. Theoretically, OT minimizes an upper bound on the $W_1$ divergence between factual and counterfactual outcomes and that, under mild conditions, refined counterfactuals are guaranteed not to move farther from the factuals than the originals. Empirically, across four datasets, twelve models, and five CE generators, COLA achieves the same target effects with only 26--45\% of the original feature edits. On a small-scale benchmark, COLA shows near-optimality.


翻译:反事实解释旨在揭示微小输入变化如何改变模型预测,但现有方法常修改过多特征,降低了解释的清晰度与可操作性。本文提出\textbf{COLA}框架——一种与模型和生成器无关的后处理方法,通过计算事实集与反事实集之间的最优传输耦合,并利用该耦合驱动基于Shapley值的归因方法(\emph{$p$-SHAP}),从而在保持目标效果的前提下筛选出最小编辑特征集。理论上,最优传输最小化了事实与反事实结果间$W_1$散度的上界,且在温和条件下可保证优化后的反事实样本不会比原始样本更偏离事实分布。在四个数据集、十二种模型和五种反事实生成器的实验中,COLA仅需修改原始特征编辑量的26\%--45\%即可实现同等目标效果。在小规模基准测试中,COLA表现出接近最优的性能。

0
下载
关闭预览

相关内容

【WWW2024】博弈论式反事实解释图神经网络
专知会员服务
32+阅读 · 2024年2月17日
【CVPR2023】对抗性反事实视觉解释
专知会员服务
31+阅读 · 2023年3月22日
【NeurIPS2022】扩散视觉反事实解释
专知会员服务
24+阅读 · 2022年10月24日
【ICML2022】基于树的集合的鲁棒反事实解释
专知会员服务
15+阅读 · 2022年7月7日
专知会员服务
19+阅读 · 2021年9月21日
从信息论的角度来理解损失函数
深度学习每日摘要
17+阅读 · 2019年4月7日
换个角度看GAN:另一种损失函数
机器之心
16+阅读 · 2019年1月1日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
胶囊网络(Capsule Network)在文本分类中的探索
PaperWeekly
13+阅读 · 2018年4月5日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2月10日
Arxiv
0+阅读 · 2月1日
VIP会员
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员