引言 (Introduction)

在过去的十年中,机器学习(ML)与人工智能(AI)在各个领域都经历了关注度的爆发式增长。关于 AI 的研究产出巨大,且基于 AI 的系统正越来越多地被开发并部署于敏感领域(sensitive domains),其决策可能对个人和社会产生重大影响。以医疗保健为例,预测模型已被用于对患者进行分诊、资源分配以及支持临床决策(如 Eke 和 Shuib, 2024; Tun et al., 2025)。这意味着,人们正在开发 AI 决策支持工具,以协助医生在诊断、治疗规划及手术流程等方面做出决策。 尽管这些系统具有提高准确性和效率的潜力,但将其引入工作流也带来了新的风险。最重要的一点是,许多基于 AI 的系统是不透明的(opaque),无法为其预测提供透明度或逻辑依据(rationale),导致人们难以理解并接受这些预测。通常,模型决策过程如何与人类推理或专家知识保持一致尚不明确,而且源自不透明系统的预测结果往往难以进行质疑或反驳。因此,建立对这些系统的信任——这通常是成功采用并集成到工作流中的先决条件——仍然困难重重(如 Eke 和 Shuib, 2024; Nouis et al., 2025)。这些挑战催生了日益增长的**可解释 AI(Explainable AI, XAI)研究领域,其目标是提高模型的透明度与可解释性(interpretability),进而增强其可信度(trustworthiness)。 虽然 XAI 领域的兴起主要源于 AI 系统在实践中因用户缺乏信任及对预测逻辑不理解而导致的采用缓慢,但伦理和法律层面的影响同样呼吁更高的透明度。由于将基于 AI 的系统引入关键决策过程引发了关于问责制、责任归属以及伦理方面的疑虑(如 Li et al., 2023; Nouis et al., 2025),监管准则已相继出台,以确保特别是在医疗等高风险领域具有充足的透明度。例如,GDPR(欧洲议会和欧盟理事会,2016)确立了“不受仅基于自动化处理的决策影响的权利”(第 22(1) 条),并要求向个人提供“有关所涉及逻辑的有意义信息”(第 13(2)(f)、14(2)(g)、15(1)(h) 条)。近期,《欧洲人工智能法案》(European AI Act,欧洲议会和欧盟理事会,2024)已正式生效,该法案要求 AI 系统必须具备足够的透明度,以便用户解释结果并实现有效监管,尤其是在高风险领域。 虽然该领域广受欢迎,但它仍处于起步阶段,目前的手段从技术角度来看仍有提升空间,且在许多情况下仍需在实践中进行验证。为了解决这一问题,本论文从结合社会科学与数学的多学科视角(multidisciplinary perspective)**出发探讨 XAI,既提出了新的可解释性与演绎性方法的算法,同时也研究了用户及其对所提方法的反应。

成为VIP会员查看完整内容
15

相关内容

可解释性是指一个人能够持续预测模型结果的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。
【CMU博士论文】分布偏移下的可信机器学习
专知会员服务
17+阅读 · 1月1日
医学应用中的可解释人工智能:综述
专知会员服务
36+阅读 · 2024年12月8日
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
最新《可解释机器学习:原理与实践》综述论文,33页pdf
专知会员服务
160+阅读 · 2020年10月10日
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
机器学习模型的“可解释性”到底有多重要?
中国科学院自动化研究所
20+阅读 · 2018年3月1日
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
22+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
VIP会员
相关资讯
机器学习的可解释性:因果推理和稳定学习
DataFunTalk
13+阅读 · 2020年3月3日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
机器学习模型的“可解释性”到底有多重要?
中国科学院自动化研究所
20+阅读 · 2018年3月1日
相关基金
国家自然科学基金
42+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
22+阅读 · 2009年12月31日
国家自然科学基金
48+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员