随着机器学习系统被部署于医疗保健、金融和刑事司法等关乎重大权益的领域,对于具有原则性且具备理论基础的可解释性方法的需求日益迫切。本论文为可解释机器学习的三个核心维度开发了严谨的理论基础:特征归因 (Feature Attribution)数据归因 (Data Attribution) 以及表示学习 (Representation Learning)特征归因。我们通过引入“忠实性 (Faithfulness)”这一概念,将夏普里值 (Shapley values) 的公理化基础扩展到了交互作用场景。忠实性唯一地刻画了交互效应应如何被归因。基于此,我们提出了忠实夏普里交互指数 (Faithful Shapley Interaction Index, Faith-Shap),这是一种具有正式公理化保障及计算高效的加权最小二乘估计器的交互归因方法。 数据归因。我们基于表示定理 (Representer Theorem) 开发了一个统一的样本解释框架。首先,我们将广义表示框架识别为满足自然公理化性质的唯一一类归因方法,并将影响函数 (Influence Functions)、表示点选择 (Representer Point Selection) 以及 TracIn 纳为其特例。其次,我们证明了高维正则化模型的表示定理,将数据归因扩展到 $\ell_1$ 正则化和核范数 (Nuclear-norm) 正则化模型(此类模型传统 RKHS 理论并不适用),并推导出稀疏和低秩设置下相应的表示点。 表示学习。我们提出了一个特征函数提取框架,通过上下文核的谱分解视角,统一了广泛的对比式与非对比式表示学习目标。该框架可以恢复有序且可辨识的特征函数,其关联的特征值可作为原则性的特征重要性评分,从而实现具有显式准确度-效率权衡的自适应维度表示。

除了上述三项核心贡献外,本论文还展示了两项进一步的研究成果:AnoLLM,一个基于大语言模型的表格数据异常检测框架,在混合类型数据集上达到了最先进 (SOTA) 的性能;以及用于重尾统计估计的可证高效在线算法,该算法在仅假设有限二阶矩的情况下即可达到亚高斯 (Sub-Gaussian) 收敛率。综合而言,这些成果表明,对可解释性与学习算法的理论分析不仅能带来更深层的理解,也能推动实践中的改进。

成为VIP会员查看完整内容
4

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【CMU博士论文】基于机器学习的可信科学推理
专知会员服务
16+阅读 · 2025年5月26日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
【CMU博士论文】可解释机器学习方法与应用,127页pdf
专知会员服务
77+阅读 · 2023年6月6日
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
深度学习可解释性研究进展
专知会员服务
103+阅读 · 2020年6月26日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
209+阅读 · 2020年2月24日
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
8月最新-《可解释机器学习-Christoph Molnar》-新书分享
深度学习与NLP
10+阅读 · 2019年8月12日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
VIP会员
最新内容
(译文)认知战:以士兵为目标,塑造战略
专知会员服务
0+阅读 · 今天3:12
(中文)认知战的本体论基础(2026报告)
专知会员服务
7+阅读 · 今天1:45
美空军条令(2026):外国对内防御
专知会员服务
2+阅读 · 今天1:32
美国与以色列如何在攻击伊朗中使用人工智能
专知会员服务
7+阅读 · 4月16日
《自动化战略情报管控》
专知会员服务
3+阅读 · 4月16日
得失评估:审视对伊朗战争的轨迹(简报)
专知会员服务
3+阅读 · 4月16日
【CMU博士论文】迈向可解释机器学习的理论基础
相关VIP内容
【CMU博士论文】基于机器学习的可信科学推理
专知会员服务
16+阅读 · 2025年5月26日
可解释的机器学习模型和架构
专知会员服务
92+阅读 · 2023年9月17日
【CMU博士论文】可解释机器学习方法与应用,127页pdf
专知会员服务
77+阅读 · 2023年6月6日
机器学习的可解释性
专知会员服务
69+阅读 · 2020年12月18日
深度学习可解释性研究进展
专知会员服务
103+阅读 · 2020年6月26日
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
209+阅读 · 2020年2月24日
相关资讯
深度学习可解释性研究进展
专知
19+阅读 · 2020年6月26日
8月最新-《可解释机器学习-Christoph Molnar》-新书分享
深度学习与NLP
10+阅读 · 2019年8月12日
【综述】医疗可解释人工智能综述论文
专知
33+阅读 · 2019年7月18日
干货 | 可解释的机器学习
AI科技评论
20+阅读 · 2019年7月3日
可解释的机器学习
平均机器
25+阅读 · 2019年2月25日
【学界】机器学习模型的“可解释性”到底有多重要?
GAN生成式对抗网络
12+阅读 · 2018年3月3日
相关基金
国家自然科学基金
21+阅读 · 2015年12月31日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
13+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
23+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员