在过去的十年中,机器学习(ML)与人工智能(AI)在各个领域都经历了关注度的爆发式增长。关于 AI 的研究产出巨大,且基于 AI 的系统正越来越多地被开发并部署于敏感领域(sensitive domains),其决策可能对个人和社会产生重大影响。以医疗保健为例,预测模型已被用于对患者进行分诊、资源分配以及支持临床决策(如 Eke 和 Shuib, 2024; Tun et al., 2025)。这意味着,人们正在开发 AI 决策支持工具,以协助医生在诊断、治疗规划及手术流程等方面做出决策。 尽管这些系统具有提高准确性和效率的潜力,但将其引入工作流也带来了新的风险。最重要的一点是,许多基于 AI 的系统是不透明的(opaque),无法为其预测提供透明度或逻辑依据(rationale),导致人们难以理解并接受这些预测。通常,模型决策过程如何与人类推理或专家知识保持一致尚不明确,而且源自不透明系统的预测结果往往难以进行质疑或反驳。因此,建立对这些系统的信任——这通常是成功采用并集成到工作流中的先决条件——仍然困难重重(如 Eke 和 Shuib, 2024; Nouis et al., 2025)。这些挑战催生了日益增长的**可解释 AI(Explainable AI, XAI)研究领域,其目标是提高模型的透明度与可解释性(interpretability),进而增强其可信度(trustworthiness)。 虽然 XAI 领域的兴起主要源于 AI 系统在实践中因用户缺乏信任及对预测逻辑不理解而导致的采用缓慢,但伦理和法律层面的影响同样呼吁更高的透明度。由于将基于 AI 的系统引入关键决策过程引发了关于问责制、责任归属以及伦理方面的疑虑(如 Li et al., 2023; Nouis et al., 2025),监管准则已相继出台,以确保特别是在医疗等高风险领域具有充足的透明度。例如,GDPR(欧洲议会和欧盟理事会,2016)确立了“不受仅基于自动化处理的决策影响的权利”(第 22(1) 条),并要求向个人提供“有关所涉及逻辑的有意义信息”(第 13(2)(f)、14(2)(g)、15(1)(h) 条)。近期,《欧洲人工智能法案》(European AI Act,欧洲议会和欧盟理事会,2024)已正式生效,该法案要求 AI 系统必须具备足够的透明度,以便用户解释结果并实现有效监管,尤其是在高风险领域。 虽然该领域广受欢迎,但它仍处于起步阶段,目前的手段从技术角度来看仍有提升空间,且在许多情况下仍需在实践中进行验证。为了解决这一问题,本论文从结合社会科学与数学的多学科视角(multidisciplinary perspective)**出发探讨 XAI,既提出了新的可解释性与演绎性方法的算法,同时也研究了用户及其对所提方法的反应。