Despite the wide use of $k$-Nearest Neighbors as classification models, their explainability properties remain poorly understood from a theoretical perspective. While nearest neighbors classifiers offer interpretability from a ``data perspective'', in which the classification of an input vector $\bar{x}$ is explained by identifying the vectors $\bar{v}_1, \ldots, \bar{v}_k$ in the training set that determine the classification of $\bar{x}$, we argue that such explanations can be impractical in high-dimensional applications, where each vector has hundreds or thousands of features and it is not clear what their relative importance is. Hence, we focus on understanding nearest neighbor classifications through a ``feature perspective'', in which the goal is to identify how the values of the features in $\bar{x}$ affect its classification. Concretely, we study abductive explanations such as ``minimum sufficient reasons'', which correspond to sets of features in $\bar{x}$ that are enough to guarantee its classification, and counterfactual explanations based on the minimum distance feature changes one would have to perform in $\bar{x}$ to change its classification. We present a detailed landscape of positive and negative complexity results for counterfactual and abductive explanations, distinguishing between discrete and continuous feature spaces, and considering the impact of the choice of distance function involved. Finally, we show that despite some negative complexity results, Integer Quadratic Programming and SAT solving allow for computing explanations in practice.


翻译:尽管$k$-最近邻分类器作为分类模型被广泛使用,但其可解释性在理论层面仍未得到充分理解。虽然最近邻分类器提供了从"数据视角"的可解释性——即通过识别训练集中决定输入向量$\bar{x}$分类的向量$\bar{v}_1, \ldots, \bar{v}_k$来解释其分类结果,我们认为这种解释方法在高维应用中可能不实用,因为每个向量具有数百甚至数千个特征,且其特征相对重要性不明确。因此,我们致力于通过"特征视角"来理解最近邻分类机制,其核心目标是识别$\bar{x}$中特征值如何影响其分类结果。具体而言,我们研究诸如"最小充分理由"这类溯因解释——即$\bar{x}$中能够保证其分类结果的充分特征集合,以及基于最小距离特征修改的反事实解释——即需要改变$\bar{x}$中哪些特征值才能改变其分类。我们系统建立了反事实与溯因解释的复杂度结果全景图,区分了离散与连续特征空间,并考虑了所选距离函数的影响。最后,我们证明尽管存在某些负面的复杂度结论,但整数二次规划与SAT求解技术在实际中仍能有效计算这些解释。

0
下载
关闭预览

相关内容

可解释人工智能的基础
专知会员服务
32+阅读 · 2025年10月26日
可解释聚类综述
专知会员服务
38+阅读 · 2024年9月8日
【NeurIPS2022】可解释机器学习的安全性:一种最大偏差方法
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
「强化学习可解释性」最新2022综述
专知
12+阅读 · 2022年1月16日
「因果推理」概述论文,13页pdf
专知
16+阅读 · 2021年3月20日
【资源推荐】AI可解释性资源汇总
专知
47+阅读 · 2019年4月24日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
VIP会员
最新内容
《美陆军条例:陆军指挥政策(2026版)》
专知会员服务
7+阅读 · 今天8:10
《军用自主人工智能系统的治理与安全》
专知会员服务
5+阅读 · 今天8:02
《系统簇式多域作战规划范畴论框架》
专知会员服务
9+阅读 · 4月20日
高效视频扩散模型:进展与挑战
专知会员服务
4+阅读 · 4月20日
乌克兰前线的五项创新
专知会员服务
8+阅读 · 4月20日
 军事通信系统与设备的技术演进综述
专知会员服务
7+阅读 · 4月20日
《北约标准:医疗评估手册》174页
专知会员服务
6+阅读 · 4月20日
相关VIP内容
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
21+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员