The field of "explainable artificial intelligence" (XAI) seemingly addresses the desire that decisions of machine learning systems should be human-understandable. However, in its current state, XAI itself needs scrutiny. Popular methods cannot reliably answer relevant questions about ML models, their training data, or test inputs, because they systematically attribute importance to input features that are independent of the prediction target. This limits the utility of XAI for diagnosing and correcting data and models, for scientific discovery, and for identifying intervention targets. The fundamental reason for this is that current XAI methods do not address well-defined problems and are not evaluated against targeted criteria of explanation correctness. Researchers should formally define the problems they intend to solve and design methods accordingly. This will lead to diverse use-case-dependent notions of explanation correctness and objective metrics of explanation performance that can be used to validate XAI algorithms.


翻译:“可解释人工智能”(XAI)领域表面上旨在满足机器学习系统决策应具备人类可理解性的需求。然而,当前XAI领域本身亟需审慎检视。主流方法无法可靠地回答关于机器学习模型、其训练数据或测试输入的相关问题,因为这些方法系统性地将重要性归因于与预测目标无关的输入特征。这限制了XAI在诊断与修正数据模型、科学发现以及识别干预目标方面的效用。其根本原因在于现有XAI方法未能针对明确定义的问题,且缺乏基于解释正确性目标标准的评估。研究者应形式化定义其拟解决的问题,并据此设计方法。这将催生多样化、依赖使用场景的解释正确性概念,以及可用于验证XAI算法的解释性能客观度量标准。

0
下载
关闭预览

相关内容

可解释人工智能中的大语言模型:全面综述
专知会员服务
53+阅读 · 2025年4月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
38+阅读 · 2022年10月4日
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
18+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员